91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI從GPU席卷至MCU,內(nèi)存的重要性與算力等同

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2023-11-29 01:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/周凱揚)在市場對AI的不懈追求中,似乎絕大多數(shù)人都把重心放在了算力上。然而決定真正AI計算表現(xiàn)的,還有內(nèi)存這一重要組成部分。為此,除了傳統(tǒng)的標準內(nèi)存選項外,市面上也出現(xiàn)了專門針對AI進行優(yōu)化的內(nèi)存。

高性能AI芯片需要超高帶寬內(nèi)存

無論是英偉達最新的服務(wù)器GPU,還是一眾初創(chuàng)公司推出的AI加速器,我們都可以看到HBM出現(xiàn)的越來越頻繁,比如英偉達H100、谷歌TPU等等。美光、SK海力士和三星等廠商都在布局這類超高帶寬內(nèi)存,用于解決 AI計算中時常出現(xiàn)的內(nèi)存墻問題。

以LLM模型的訓練負載為例,HBM3內(nèi)存與處理器可以與處理器以最高6.4Gb/s的接口速率相連,并實現(xiàn)3.2TB/s的超大帶寬。而且在3D堆疊技術(shù)的支撐下,SoC芯片的面積依然控制在一個合理的范圍內(nèi)。超大的帶寬顯著減少了模型訓練時間,所以我們才能看到如此快的LLM模型更迭速度。

當把模型推向終端應(yīng)用時,效率就和效能一樣重要了。推理帶來的計算成本異常龐大,所以我們需要更低的系統(tǒng)功耗。而HBM內(nèi)存恰好可以在維持“較低”速率的同時,實現(xiàn)與處理器的“近距離接觸”和大帶寬,從而進一步降低整體系統(tǒng)功耗。

當然了,HBM也并非那么完美,不然我們也不會只在服務(wù)器級別的產(chǎn)品上看到它們。隨著HBM而來的是設(shè)計復(fù)雜度和更高的成本,比如需要額外設(shè)計硅中介層等等。但還是由于吃到了AI紅利,HBM的成本也在慢慢降低,甚至有的初創(chuàng)公司在首個AI芯片上就直接采用HBM3內(nèi)存,為的就是充分釋放AI芯片的計算性能。

小芯片的AI夢

隨著AI熱潮的襲來,我們也看到了邊緣端不少AIoT產(chǎn)品開始追逐這一風口,尤其是智能音箱等具備交互能力的設(shè)備。然而以這類設(shè)備主用的MCU芯片而言,本身計算性能就難以與GPU這樣的高性能AI加速器媲美,更別說內(nèi)存帶寬了。

為此,英飛凌推出了HyperRAM這一高速內(nèi)存,相較傳統(tǒng)的pSRAM,HyperRAM成了更高效簡潔的解決方案。HyperRAM基于HyperBus這一接口開發(fā),相較于其他DRAM內(nèi)存方案,HyperRAM并不見得有壓倒性的帶寬優(yōu)勢,比如最新的HyperRAM 3.0版本,其帶寬最高可達800MB/s。

wKgaomVlu4GAeoD2AABIpN2JUwA500.png
不同內(nèi)存的工作功耗對比 / 華邦電子


但在同等帶寬下工作時,HyperRAM可以提供更少的引腳數(shù)和更低的功耗,對于不少可穿戴應(yīng)用來說,采用HyperRAM不僅降低所需的PCB面積,也進一步降低了功耗,提高了這類設(shè)備的續(xù)航能力。根據(jù)華邦電子提供的數(shù)據(jù),同樣64MB的內(nèi)存,HyperRAM可以實現(xiàn)比SDRAM低數(shù)十倍的待機功耗。

時至今日,我們已經(jīng)看到不少頂尖MCU廠商,諸如NXP、瑞薩TI等,都已經(jīng)提供了支持HyperBus接口的MCU。新思、Cadence等廠商也開始提供HyperBus控制IP,華邦電子也加入HyperRAM的供應(yīng)生態(tài)鏈中來,HyperRAM已然成了AIoT應(yīng)用中MCU乃至MPU外部RAM的理想選擇。

寫在最后

無論是HBM還是HyperRAM,都是AI時代下開始發(fā)光發(fā)熱的內(nèi)存選擇。他們的出現(xiàn)不僅為市場提供了更靈活的設(shè)計選擇,也進一步推動了內(nèi)存技術(shù)在設(shè)計、工藝和封裝上的進步。未來隨著內(nèi)存技術(shù)邁入下一個階段,或許不只有AI應(yīng)用能從中受益。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    147

    文章

    18925

    瀏覽量

    398256
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301441
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI爆發(fā)催生元器件短缺,智芯谷一站式供應(yīng)如何破局?

    GPU緊缺”只是AI瓶頸的冰山一角——高端電容供貨周期延長40周、高速內(nèi)存價格季度漲幅超
    的頭像 發(fā)表于 01-27 11:23 ?637次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>爆發(fā)催生元器件短缺,智芯谷一站式供應(yīng)如何破局?

    GPU 利用率<30%?這款開源智云平臺讓不浪費 1%

    作為 AI 開發(fā)者,你是否早已受夠這些困境:花數(shù)百萬采購的 GPU 集群,利用率常年低于 30%,閑置如同燒錢;跨 CPU/GPU/NP
    的頭像 發(fā)表于 01-26 14:20 ?184次閱讀

    AI送上太空,是終極方案還是瘋狂幻想?評論區(qū)說出你的陣營!

    AI
    江蘇易安聯(lián)
    發(fā)布于 :2026年01月06日 09:43:34

    應(yīng)對端側(cè)AI、內(nèi)存、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術(shù)錦囊

    AI大模型正加速云端向邊緣與端側(cè)滲透,然而,、內(nèi)存、功耗等卻成了制約其規(guī)?;涞氐摹案邏Α薄?b class='flag-5'>A
    的頭像 發(fā)表于 12-18 13:45 ?404次閱讀
    應(yīng)對端側(cè)<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>、<b class='flag-5'>內(nèi)存</b>、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術(shù)錦囊

    湘軍,讓變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    CPU、GPU到NPU,美格智能持續(xù)優(yōu)化異構(gòu)計算效能

    前言AI已成為數(shù)字經(jīng)濟時代的核心生產(chǎn),但全球AI產(chǎn)業(yè)正面臨“供給不足、成本高企、生態(tài)待建”三重挑戰(zhàn)。據(jù)行業(yè)統(tǒng)計,行業(yè)
    的頭像 發(fā)表于 11-21 16:05 ?1158次閱讀
    <b class='flag-5'>從</b>CPU、<b class='flag-5'>GPU</b>到NPU,美格智能持續(xù)優(yōu)化異構(gòu)<b class='flag-5'>算</b><b class='flag-5'>力</b>計算效能

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的
    的頭像 發(fā)表于 09-19 15:26 ?1713次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的
    的頭像 發(fā)表于 09-19 15:25 ?829次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    摩爾線程副總裁王華:AI工廠全棧技術(shù)重構(gòu)基建,開啟國產(chǎn) GPU 黃金時代

    摩爾線程在世界人工智能大會(WAIC 2025)前夕舉辦以“進化,精度革命”為主題的技術(shù)分享會,創(chuàng)新提出“AI工廠” 理念。這一系統(tǒng)
    的頭像 發(fā)表于 08-02 14:21 ?5364次閱讀
    摩爾線程副總裁王華:<b class='flag-5'>AI</b>工廠全棧技術(shù)重構(gòu)<b class='flag-5'>算</b><b class='flag-5'>力</b>基建,開啟國產(chǎn) <b class='flag-5'>GPU</b> 黃金時代

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個社會的關(guān)注焦點。大家在討論AI的時候,經(jīng)常會提到AI
    的頭像 發(fā)表于 07-23 12:18 ?1616次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】+NVlink技術(shù)應(yīng)用到原理

    自家GPU 提出的多卡互連技術(shù),是早期為了應(yīng)對深度學習對超高需求而單卡
    發(fā)表于 06-18 19:31

    摩爾線程與AI平臺AutoDL達成深度合作

    近日,摩爾線程與國內(nèi)領(lǐng)先的AI平臺AutoDL宣布達成深度合作,雙方聯(lián)合推出面向個人開發(fā)者的“摩爾線程專區(qū)”,首次將國產(chǎn)GPU
    的頭像 發(fā)表于 05-23 16:10 ?1726次閱讀

    點動科技戰(zhàn)略聚焦AI,領(lǐng)航服務(wù)新征程

    Al智業(yè)務(wù)收入占比已突破40%,標志著點動傳統(tǒng)業(yè)務(wù)向智能化轉(zhuǎn)型的戰(zhàn)略跨越取得階段勝利! 技術(shù)賦能構(gòu)建核心壁壘,全棧能力驅(qū)動行業(yè)智能化升級 在技術(shù)布局上,點動科技聚焦行業(yè)模型和Al應(yīng)用,以
    的頭像 發(fā)表于 05-07 09:29 ?616次閱讀

    搭建中心,了解的GPU 特性開始

    ABSTRACT摘要本文介紹如何搭建,并介紹A100、H100、H200和B200這些GPU的特性。JAEALOT2025年4月23日隨著人工智能、大數(shù)據(jù)和高性能計算(HPC)的快速發(fā)展,市場上
    的頭像 發(fā)表于 04-24 11:08 ?3372次閱讀
    搭建<b class='flag-5'>算</b><b class='flag-5'>力</b>中心,<b class='flag-5'>從</b>了解的<b class='flag-5'>GPU</b> 特性開始

    DeepSeek推動AI需求:800G光模塊的關(guān)鍵作用

    和性能方面展現(xiàn)了出色的優(yōu)勢,滿足當前AI需求的快速增長。 高可靠: 光模塊經(jīng)過溫度、靜電放電及機械耐久等嚴格測試,確保在數(shù)據(jù)中
    發(fā)表于 03-25 12:00