91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

梁文鋒署名DeepSeek新論文:突破GPU內(nèi)存限制的技術(shù)革命

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2026-01-14 11:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道 DeepSeek團(tuán)隊(duì)發(fā)布了一篇由創(chuàng)始人梁文鋒署名的新論文,主題為《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(直譯為《基于可擴(kuò)展查找的條件記憶:大語言模型稀疏性的新維度》)。這篇論文不僅揭示了當(dāng)前大語言模型在知識檢索方面的低效問題,還通過創(chuàng)新的Engram架構(gòu),將模型的“條件記憶”與“計(jì)算”分離,從而大幅降低錯誤率并節(jié)省算力。

條件記憶與Engram架構(gòu)

論文的核心創(chuàng)新點(diǎn)在于提出了“條件記憶”這一概念,旨在解決當(dāng)前大語言模型在知識檢索方面的低效和算力消耗問題。梁文鋒團(tuán)隊(duì)指出,語言建模本質(zhì)上包含兩類子任務(wù):一類是組合式推理,需要依賴深層、動態(tài)計(jì)算完成;另一類是知識檢索,面向命名實(shí)體等相對靜態(tài)的內(nèi)容,理論上可以通過簡單查找更高效地處理。然而,現(xiàn)有Transformer架構(gòu)缺乏原生的查找組件,遇到靜態(tài)信息時往往仍需反復(fù)調(diào)用深層網(wǎng)絡(luò)進(jìn)行重建,加劇了算力浪費(fèi)并推高了推理成本。

為了解決這一問題,DeepSeek團(tuán)隊(duì)提出了Engram架構(gòu)(記憶痕跡架構(gòu)),通過將靜態(tài)知識存儲與動態(tài)計(jì)算分離,實(shí)現(xiàn)了靜態(tài)模式的常數(shù)時間O(1)查找。具體而言,條件記憶通過Engram模塊實(shí)現(xiàn),模型能夠基于輸入中的局部上下文模式,從大規(guī)模參數(shù)化記憶中快速檢索并融合靜態(tài)知識表示,從而避免在推理過程中反復(fù)通過深層計(jì)算重建高頻、模板化信息。

突破GPU內(nèi)存限制

在GPU內(nèi)存限制方面,DeepSeek的新論文同樣帶來了革命性的突破。傳統(tǒng)上,GPU內(nèi)存容量有限,處理大規(guī)模數(shù)據(jù)集時往往需要頻繁的數(shù)據(jù)傳輸和復(fù)雜的數(shù)據(jù)管理策略。而Engram架構(gòu)通過稀疏存儲模式,支持更大規(guī)模的知識存入,突破了傳統(tǒng)注意力窗口的物理限制。當(dāng)大約20%至25%的稀疏參數(shù)預(yù)算分配給Engram,剩余部分留給混合專家模型(MoE)時,模型性能達(dá)到最佳。

此外,DeepSeek團(tuán)隊(duì)還通過優(yōu)化數(shù)據(jù)流動和調(diào)度機(jī)制,進(jìn)一步降低了GPU內(nèi)存的壓力。例如,采用預(yù)取策略預(yù)測后續(xù)計(jì)算所需數(shù)據(jù),提前從低速層加載至高速層;通過淘汰策略根據(jù)訪問頻率與重要性,將不活躍數(shù)據(jù)逐出至低速層;以及利用壓縮策略對暫存于內(nèi)存或磁盤的數(shù)據(jù)進(jìn)行無損或有損壓縮,減少I/O開銷。這些技術(shù)手段的結(jié)合,使得GPU在處理大規(guī)模數(shù)據(jù)集時能夠更加高效地利用內(nèi)存資源。

當(dāng)前,全球高端GPU資源90%集中于美國企業(yè),且美國政府通過《芯片與科學(xué)法案》對中國實(shí)施高端GPU限售,直接導(dǎo)致中國AI企業(yè)面臨“硬件卡脖子”困境。以訓(xùn)練千億參數(shù)模型為例,傳統(tǒng)架構(gòu)需配置數(shù)萬塊H100 GPU,單次訓(xùn)練成本超1億美元,而內(nèi)存瓶頸更使模型規(guī)模受限于物理顯存容量。

DeepSeek的Engram架構(gòu)通過稀疏存儲與動態(tài)計(jì)算分離技術(shù),使模型在同等硬件條件下可處理3-5倍規(guī)模的參數(shù)。實(shí)驗(yàn)數(shù)據(jù)顯示,其27B參數(shù)模型在32k上下文任務(wù)中,內(nèi)存占用僅增加25%卻實(shí)現(xiàn)13%的準(zhǔn)確率提升。這種技術(shù)突破不僅降低中國AI企業(yè)對進(jìn)口芯片的依賴度,更通過內(nèi)存效率優(yōu)化使現(xiàn)有硬件產(chǎn)能釋放3倍以上算力。

結(jié)語

DeepSeek團(tuán)隊(duì)此次發(fā)布的新論文,不僅揭示了當(dāng)前大語言模型在知識檢索方面的低效問題,還通過創(chuàng)新的Engram架構(gòu)和條件記憶概念,實(shí)現(xiàn)了GPU內(nèi)存限制的革命性突破。這一技術(shù)突破不僅提高了模型運(yùn)行效率,還為中國AI發(fā)展提供了戰(zhàn)略支撐。在全球AI競爭日益激烈的背景下,DeepSeek的探索為中國AI企業(yè)開辟了一條自主創(chuàng)新、突破封鎖的發(fā)展道路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135407
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    835

    瀏覽量

    3249
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    DeepSeek V3.1發(fā)布!擁抱國產(chǎn)算力芯片

    電子發(fā)燒友網(wǎng)報(bào)道(/李彎彎)2025年8月21日,DeepSeek正式官宣發(fā)布DeepSeek-V3.1大模型。新版本不僅在技術(shù)架構(gòu)上實(shí)現(xiàn)重大升級,更通過參數(shù)精度優(yōu)化與國產(chǎn)芯片深度適
    的頭像 發(fā)表于 08-23 07:55 ?1.7w次閱讀
    <b class='flag-5'>DeepSeek</b> V3.1發(fā)布!擁抱國產(chǎn)算力芯片

    《電子發(fā)燒友電子設(shè)計(jì)周報(bào)》聚焦硬科技領(lǐng)域核心價值 26年第1期:2026.1.4--2025.1.16

    :具身智能邁入“大小腦協(xié)同”新紀(jì)元 8、全球首款5G-A車載模組發(fā)布!打開萬億車聯(lián)網(wǎng)市場發(fā)展新維度 9、署名DeepSeek
    發(fā)表于 01-16 20:20

    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦記憶

    2026年1月13日凌晨,DeepSeek突然發(fā)布由創(chuàng)始人署名新論文《Condition
    的頭像 發(fā)表于 01-14 16:07 ?278次閱讀
    <b class='flag-5'>DeepSeek</b>開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦記憶

    TGV產(chǎn)業(yè)發(fā)展:玻璃通孔技術(shù)如何突破力學(xué)瓶頸?

    在后摩爾時代,芯片算力提升的突破口已從單純依賴制程工藝轉(zhuǎn)向先進(jìn)封裝技術(shù)。當(dāng)硅基芯片逼近物理極限,2.5D/3D堆疊技術(shù)通過Chiplet(芯粒)拆分與異構(gòu)集成,成為突破光罩
    的頭像 發(fā)表于 10-21 07:54 ?892次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專家

    感謝電子發(fā)燒友提供學(xué)習(xí)Deepseek核心技術(shù)這本書的機(jī)會。 讀完《Deepseek核心技術(shù)揭秘》,我深受觸動,對人工智能領(lǐng)域有了全新的認(rèn)識。了解D
    發(fā)表于 07-22 22:14

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書概覽

    感謝平臺提供的書籍,實(shí)物如下 這本書主講從年前開始火熱的DeepSeek 。書籍看起來輕薄,但言簡意賅,通俗易懂,總覽全局,比較精煉。 第一章 介紹DeepSeek的一系列技術(shù)突破與創(chuàng)
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘

    時間減少,數(shù)據(jù)處理更流暢。這讓我聯(lián)想到工業(yè)生產(chǎn)中的流水線,AI 訓(xùn)練在此處借鑒類似思路,通過優(yōu)化任務(wù)分配和流程,突破硬件限制,追求更高效率,體現(xiàn)了技術(shù)發(fā)展中持續(xù)優(yōu)化、突破瓶頸的智慧。
    發(fā)表于 07-20 15:07

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    這本書有150多頁,而且是彩色印刷的,圖、表很多而且很有條理性。 書籍前言介紹如下: 第1章 介紹 DeepSeek 的一系列技術(shù)突破與創(chuàng)新,如架構(gòu)創(chuàng)新、訓(xùn)練優(yōu)化、推理與部署優(yōu)化等,讓讀者
    發(fā)表于 07-17 11:59

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù)DeepSeek 核心技術(shù)揭秘

    DeepSeek-V3技術(shù)突破 DeepSeek-V3 的模型架構(gòu)整體上基于 Transformer 的 MoE 架構(gòu),并在細(xì)節(jié)實(shí)現(xiàn)上做了大量的創(chuàng)新和優(yōu)化,如大量小專家模型、多頭潛在
    發(fā)表于 06-09 14:38

    顛覆傳統(tǒng)連接認(rèn)知:M12 航空接頭的快速插拔技術(shù)革命

    M12 航空接頭的快速插拔技術(shù),不僅為工業(yè)連接帶來了顛覆性的變革,更是打開了設(shè)備升級發(fā)展的全新大門。從智能制造到智慧檢測,從交通樞紐到能源工程,這場技術(shù)革命正以磅礴之勢重塑工業(yè)連接的新格局,引領(lǐng)連接領(lǐng)域邁向高效、智能的嶄新時代。
    的頭像 發(fā)表于 04-30 11:21 ?1775次閱讀
    顛覆傳統(tǒng)連接認(rèn)知:M12 航空接頭的快速插拔<b class='flag-5'>技術(shù)革命</b>

    DeepSeek創(chuàng)始人入選《時代》最具影響力100人

    據(jù)外媒報(bào)道,美國《時代》周刊2025年全球100最具影響力人物正式公布了榜單。根據(jù)榜單數(shù)據(jù)顯示,DeepSeek創(chuàng)始人上榜?!稌r代》周刊這樣描述;
    的頭像 發(fā)表于 04-19 11:21 ?1022次閱讀

    曝黃仁勛會見DeepSeek創(chuàng)始人

    的創(chuàng)始人,雙方就如何為中國設(shè)計(jì)下一代芯片進(jìn)行討論,以滿足客戶需求以及中美雙方的監(jiān)管要求。 同時我們還看到央視新聞的報(bào)道,中國貿(mào)促會會長任鴻斌4月17日在北京與英偉達(dá)公司首席執(zhí)行官黃仁勛舉行會談。黃仁勛在會談中表示,中國是英
    的頭像 發(fā)表于 04-18 11:56 ?3191次閱讀

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    架構(gòu)和全功能GPU的強(qiáng)大技術(shù)實(shí)力,摩爾線程迅速響應(yīng)并完成了對DeepSeek-V3的無縫升級,實(shí)現(xiàn)了零報(bào)錯、零兼容性問題的光速部署,充分展現(xiàn)了摩爾線程在AI大模型領(lǐng)域的領(lǐng)先優(yōu)勢。
    的頭像 發(fā)表于 03-31 11:34 ?1272次閱讀
    摩爾線程<b class='flag-5'>GPU</b>成功適配<b class='flag-5'>Deepseek</b>-V3-0324大模型

    DeepSeek推動AI算力需求:800G光模塊的關(guān)鍵作用

    限制算力提升的瓶頸。800G光模塊通過更高的傳輸速率,能夠支持大規(guī)模GPU集群間的數(shù)據(jù)傳輸,保證各節(jié)點(diǎn)之間的快速互聯(lián)和低延遲通信,從而提升整個系統(tǒng)的計(jì)算效率與吞吐量。對于DeepSeek等超大模型
    發(fā)表于 03-25 12:00

    DeepSeek上月收入首次覆蓋運(yùn)營成本

    據(jù)外媒英國金融時報(bào)報(bào)道,DeepSeek上個月的收入首次覆蓋了其運(yùn)營成本。但是DeepSeek的創(chuàng)始人拒絕利用短期熱點(diǎn)增加銷售獲利的模
    的頭像 發(fā)表于 03-14 16:20 ?797次閱讀