91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

不止手機(jī)!高通AI全面進(jìn)擊,芯片到加速卡,萬衛(wèi)星解讀關(guān)鍵布局

章鷹觀察 ? 來源:章鷹觀察 ? 作者:章鷹 ? 2026-03-30 10:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

個人智能體今年的演進(jìn)出現(xiàn)哪些趨勢?在以O(shè)penClaw(小龍蝦)大熱的當(dāng)下,芯片廠商如何考慮智能體在終端的應(yīng)用前景和機(jī)會?這些熱點問題在3月27日的CFMS MemoryS 2026 峰會上,來自高通公司AI產(chǎn)品技術(shù)中國區(qū)負(fù)責(zé)人萬衛(wèi)星給出了前瞻的技術(shù)分析和AI全棧技術(shù)解決方案。

AI應(yīng)用四大階段演進(jìn),端側(cè)AI部署面臨三大挑戰(zhàn)

萬衛(wèi)星指出,AI在行業(yè)應(yīng)用經(jīng)歷三個重要階段,從感知AI、生成式AI向智能體AI演進(jìn),未來將進(jìn)入物理AI時代。

感知AI主要包括多媒體信號、語音信號的理解,對圖像的分類識別和智能降噪等傳統(tǒng)領(lǐng)域的用例;生成式AI的特點是,在基于大量數(shù)據(jù)預(yù)訓(xùn)練的情況下,AI可以在有監(jiān)督的情況下去解決一些具體的問題,比如說OpenAI的ChatGPT模型,以及文生圖模型等等。智能體AI與生成式AI的重要區(qū)別是,基本上可以在無監(jiān)督的情況下,自主的去理解用戶意圖,進(jìn)行行動和決策,幫我們解決稍微復(fù)雜的任務(wù)。第四階段物理AI,AI可以真正去理解我們的物理世界,根據(jù)真實物理世界的物理規(guī)定,對輸入進(jìn)行反饋和輸出。這一技術(shù)還在早期應(yīng)用階段。

目前行業(yè)關(guān)注的第二階段和第三階段,我們看到的明顯趨勢是:能夠在端側(cè)運(yùn)行的生成式AI模型,它的智能正在快速的提升。首先,端側(cè)設(shè)備能夠支持的模型參數(shù)量正在變得越來越大,比如在手機(jī)上我們已經(jīng)可以運(yùn)行10億到100億參數(shù)級別的大模型,在PC上可以運(yùn)行130億到200億參數(shù)量的大模型。在車上,我們可以支持的模型參數(shù)量可能會更大,達(dá)到200~600億的級別。

在更小型的設(shè)備上,比如AR眼鏡和低功耗設(shè)備,我們也實現(xiàn)了讓參數(shù)規(guī)模在10億-40億之間的模型完全在端側(cè)運(yùn)行。萬衛(wèi)星強(qiáng)調(diào),相較于云端大模型,端側(cè)模型的參數(shù)量仍然相對較小,但行業(yè)內(nèi)的各種技術(shù)正在推動端側(cè)大模型支持體量的提升,比如內(nèi)存帶寬提升,量化位寬技術(shù)的優(yōu)化可以進(jìn)一步壓縮模型尺寸,這都意味著終端設(shè)備可以承載更豐富的模型。

尤其值得關(guān)注的是,高通已經(jīng)將具備推理能力的大模型部署到端側(cè)。而且在端側(cè)大模型對應(yīng)的各種的各類場景中,其支持的上下文長度也在提升。3年前,端側(cè)上下文長度普遍僅限于1k-2k,2年前,大部分場景的上下文已經(jīng)擴(kuò)展到2k-4k;而2025年,高通在與合作伙伴的場景探索中,這個區(qū)間已提升到4k-8k。在一些特定場景中,甚至已經(jīng)可以支持32k-128k的上下文長度。

在面對支持更多上下文的端側(cè)部署挑戰(zhàn)時,高通認(rèn)為有三點:一、端側(cè)內(nèi)存規(guī)模的限制。雖然我們有很多技術(shù)手段能夠壓縮模型體積,但有限的內(nèi)存終究會對可運(yùn)行的模型大小設(shè)置上限,而模型大小的上限也意味著端側(cè)AI能力的上限。二、內(nèi)存帶寬有限制,有限的帶寬會影響大模型輸出token(詞元)的速度,進(jìn)而影響到具體場景里面的用戶體驗。三、終端設(shè)備部署大模型,能效比和散熱的問題不可避免。在多終端設(shè)備中,能效非常重要。我們要避免AI推理在運(yùn)行時觸發(fā)溫控限制,避免引起設(shè)備發(fā)熱。

智能體演進(jìn)三大趨勢,從端側(cè)AI芯片到AI推理芯片全面覆蓋

萬衛(wèi)星指出,個人AI將始于端側(cè),我們正在邁向以AI和用戶為中心的多終端體驗,終端側(cè)智能體將能夠提供更低時延、更好的個性化以及持續(xù)無感的用戶體驗。

當(dāng)下,智能體從端側(cè)智能體、智能體專業(yè)化、高度個性化和多模態(tài)為主要發(fā)展趨勢,終端側(cè)智能體不再是以前那種簡單的對話類語音助手,而是變成能夠充分理解用戶意圖、理解上下文、理解用戶感知信息的真正懂你的AI助手。

在過去,個人AI更多是以手機(jī)為中心,耳機(jī)、眼鏡、手表等其他設(shè)備是作為附屬與手機(jī)連接。未來,我們正在邁向以AI和用戶為中心的多終端體驗。也就是說AI不再綁定某一個具體的設(shè)備,如果是通過個人AI或者智能體去理解用戶的意圖,再去執(zhí)行用戶的任務(wù)。個人AI通過混合架構(gòu)在終端側(cè)進(jìn)行部署。在終端側(cè)、本地邊緣、網(wǎng)絡(luò)邊緣和中央云協(xié)同工作。

高通在去年也發(fā)布了多款可以提供充分算力去支撐個人AI場景的產(chǎn)品,包括第五代驍龍8至尊版移動平臺、驍龍X2 Elite計算平臺等。在數(shù)據(jù)中心側(cè),高通在MWC2026上正式發(fā)布了基于Qualcomm? AI200和AI250芯片的加速卡和機(jī)架系統(tǒng)。我們以行業(yè)領(lǐng)先的總體擁有成本(TCO)為高速數(shù)據(jù)中心生成式AI推理提供機(jī)架級性能與卓越內(nèi)存容量。

在演講最后,萬衛(wèi)星強(qiáng)調(diào):“高通AI全棧能力,從手機(jī)、耳機(jī)、可穿戴設(shè)備、PC等消費電子產(chǎn)品,再到汽車、機(jī)器人,甚至到下一代的數(shù)據(jù)中心,我們都在用統(tǒng)一的AI架構(gòu)去賦能所有的產(chǎn)品,核心就在于我們能夠通過統(tǒng)一的技術(shù)路線,提供高性能、高能效的軟硬件技術(shù)底座,讓高通的AI能力得以從單個產(chǎn)品或者單顆芯片擴(kuò)展成為規(guī)?;目缃K端、跨場景的平臺級能力?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 高通
    +關(guān)注

    關(guān)注

    78

    文章

    7742

    瀏覽量

    200101
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    521

    瀏覽量

    11626
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2139

    瀏覽量

    36824
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA硬件加速卡設(shè)計原理圖:1-基于Xilinx XCKU115的半PCIe x8 硬件加速卡 PCIe半 XCKU115-3-FLVF1924-E芯片

    FPGA硬件加速, PCIe半, XCKU115, 光纖采集, 信號計算板, 硬件加速卡
    的頭像 發(fā)表于 02-12 09:52 ?448次閱讀
    FPGA硬件<b class='flag-5'>加速卡</b>設(shè)計原理圖:1-基于Xilinx XCKU115的半<b class='flag-5'>高</b>PCIe x8 硬件<b class='flag-5'>加速卡</b> PCIe半<b class='flag-5'>高</b> XCKU115-3-FLVF1924-E<b class='flag-5'>芯片</b>

    推理<2ms!Ultralytics最新YOLO26+樹莓派+國產(chǎn)AI加速卡實現(xiàn) 500 FPS 端側(cè) AI 性能巔峰!

    關(guān)鍵詞:YOLO26、樹莓派、國產(chǎn)AI加速卡、M5Stack、邊緣AI速度快、功耗低、純國產(chǎn),樹莓派終于有了真正實用的AI
    的頭像 發(fā)表于 01-30 16:11 ?4499次閱讀
    推理<2ms!Ultralytics最新YOLO26+樹莓派+國產(chǎn)<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>實現(xiàn) 500 FPS 端側(cè) <b class='flag-5'>AI</b> 性能巔峰!

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉(zhuǎn)接板組成。核心
    的頭像 發(fā)表于 01-30 16:11 ?1240次閱讀
    新品 | LLM-8850 Kit,高性能<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    高速信號處理設(shè)計方案:413-基于雙XCVU9P+C6678的100G光纖加速卡

    C6678, XCVU9P, ZU19EG開發(fā)板,, 高速信號處理, 光纖加速卡, XCVU9P光纖加速卡
    的頭像 發(fā)表于 01-08 16:06 ?358次閱讀
    高速信號處理設(shè)計方案:413-基于雙XCVU9P+C6678的100G光纖<b class='flag-5'>加速卡</b>

    昆侖芯R200 AI加速卡技術(shù)規(guī)格解析

    昆侖芯R200加速卡基于7nm XPU-R架構(gòu),在150W功耗下提供256 TOPS INT8算力,側(cè)重高性能推理。配備最高32GB GDDR6內(nèi)存(512GB/s帶寬)及108路視頻解碼能力,支持
    的頭像 發(fā)表于 12-14 13:12 ?1705次閱讀
    昆侖芯R200 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>技術(shù)規(guī)格解析

    邁向云端算力巔峰:昆侖芯K200 AI加速卡全面解讀

    昆侖芯K200作為云端AI加速卡,在K100架構(gòu)基礎(chǔ)上全面升級。其INT8算力達(dá)256 TOPS,配備16GB HBM內(nèi)存與512GB/s帶寬,專為千億參數(shù)大模型訓(xùn)練與并發(fā)推理優(yōu)化。
    的頭像 發(fā)表于 12-14 11:17 ?2067次閱讀
    邁向云端算力巔峰:昆侖芯K200 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b><b class='flag-5'>全面</b><b class='flag-5'>解讀</b>

    算力密度翻倍!江原D20加速卡發(fā)布,一雙芯重構(gòu)AI推理標(biāo)桿

    關(guān)鍵技術(shù)瓶頸。 ? 在此背景下,江原科技推出采用自研AI芯片AI加速卡江原D10,并在今年5月實現(xiàn)量產(chǎn)交付。在大算力
    的頭像 發(fā)表于 11-14 08:21 ?1w次閱讀
    算力密度翻倍!江原D20<b class='flag-5'>加速卡</b>發(fā)布,一<b class='flag-5'>卡</b>雙芯重構(gòu)<b class='flag-5'>AI</b>推理標(biāo)桿

    AI賦能6G與衛(wèi)星通信:開啟智能天網(wǎng)新時代

    學(xué)習(xí),AI可以智能識別和糾正信號錯誤。在2024年歐洲衛(wèi)星通信展上,展示的AI信號處理系統(tǒng)使衛(wèi)星通信的誤碼率從0.01%降至0.0001%,相當(dāng)于每1000
    發(fā)表于 10-11 16:01

    虛擬電廠加速卡不是噱頭!點規(guī)模VPP的性能分水嶺

    。 ? 此時僅靠邊緣MPU/CPU的通用算力,可能無法及時處理數(shù)據(jù)清洗、異常檢測、指令下發(fā)校驗等任務(wù),而加速卡(如 GPU、FPGA 加速卡)的并行計算能力可快速消化數(shù)據(jù)洪流,避免“小包風(fēng)暴”導(dǎo)致的系統(tǒng)頓。 ? 虛擬電廠對AG
    的頭像 發(fā)表于 10-10 08:59 ?2659次閱讀

    新品 | LLM-8850 Card, AX8850邊緣設(shè)備AI加速卡

    LLM?8850?Card是一款面向邊緣設(shè)備的M.2M-KEY2242?AI加速卡,把42?mm的袖珍體積與AxeraAX8850?SoC的24?TOPS?@?INT8算力結(jié)合起來,為
    的頭像 發(fā)表于 09-26 18:18 ?1213次閱讀
    新品 | LLM-8850 Card, AX8850邊緣設(shè)備<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>

    智算加速卡是什么東西?它真能在AI戰(zhàn)場上干掉GPU和TPU!

    隨著AI技術(shù)火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計算",可真到了落地環(huán)節(jié),算力才是硬通貨。你有沒有發(fā)現(xiàn),現(xiàn)在越來越多的AI企業(yè)不光用GPU,也不怎么迷信TPU了?他
    的頭像 發(fā)表于 06-05 13:39 ?1756次閱讀
    智算<b class='flag-5'>加速卡</b>是什么東西?它真能在<b class='flag-5'>AI</b>戰(zhàn)場上干掉GPU和TPU!

    410?基于?XCVU9P+?C6678?的?100G?光纖的加速卡

    基于 XCVU9P+ C6678 的 100G 光纖的加速卡
    的頭像 發(fā)表于 05-08 08:32 ?794次閱讀
    410?基于?XCVU9P+?C6678?的?100G?光纖的<b class='flag-5'>加速卡</b>

    邊緣AI運(yùn)算革新 DeepX DX-M1 AI加速卡結(jié)合Rockchip RK3588多路物體檢測解決方案

    DeepX 推出了一款革命性的產(chǎn)品 DeepX DX-M1 AI 推理加速卡 采用 PCIe Gen3 M.2 M-Key 接口,具備高達(dá) 25 TOPS 的卓越運(yùn)算性能,以及準(zhǔn)確度、低功耗、低溫
    的頭像 發(fā)表于 05-06 14:15 ?1249次閱讀
    邊緣<b class='flag-5'>AI</b>運(yùn)算革新 DeepX DX-M1 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>結(jié)合Rockchip RK3588多路物體檢測解決方案

    AI加速卡到底是個啥?一文讓小白也能看懂AI時代的“超級計算器”!

    你有沒有發(fā)現(xiàn),現(xiàn)在人工智能(AI)越來越火了?聊天機(jī)器人能陪你談天說地,自動駕駛汽車能自己避障,手機(jī)拍照能自動美顏……這些背后都離不開一種神秘的技術(shù)——AI加速卡。
    的頭像 發(fā)表于 04-28 14:46 ?5537次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>到底是個啥?一文讓小白也能看懂<b class='flag-5'>AI</b>時代的“超級計算器”!

    寒武紀(jì)基于思元370芯片的MLU370-X8 智能加速卡產(chǎn)品手冊詳解

    MLU370-X8智能加速卡全面升級的數(shù)據(jù)中心訓(xùn)推一體AI加速卡,基于寒武紀(jì)全新一代思元370芯片,接口為PCIe 4.0 X16,是全
    的頭像 發(fā)表于 04-24 17:57 ?5802次閱讀
    寒武紀(jì)基于思元370<b class='flag-5'>芯片</b>的MLU370-X8 智能<b class='flag-5'>加速卡</b>產(chǎn)品手冊詳解