91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI芯片比GPU更適合大模型訓(xùn)練

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-06-26 00:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,據(jù)外媒報(bào)道,研發(fā)出世界最大芯片的明星AI芯片獨(dú)角獸Cerebras Systems已向證券監(jiān)管機(jī)構(gòu)秘密申請IPO。

Cerebras成立于2016年,總部在美國加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級計(jì)算機(jī)?;谄渥钚缕炫炐酒瑯?gòu)建的服務(wù)器可輕松高效地訓(xùn)練萬億參數(shù)模型。

Cerebras已發(fā)布第三代AI芯片

技術(shù)實(shí)力方面,Cerebras公司采用獨(dú)特的晶圓級集成技術(shù),將整片晶圓作為一個(gè)單獨(dú)的芯片來使用,實(shí)現(xiàn)了前所未有的集成度和性能。這種技術(shù)使得Cerebras的AI芯片在晶體管數(shù)量、計(jì)算能力和內(nèi)存帶寬等方面均達(dá)到了業(yè)界領(lǐng)先水平。

Cerebras的AI芯片具有強(qiáng)大的計(jì)算能力,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)數(shù)十萬億個(gè)的模型。這種高性能計(jì)算能力使得研究人員能夠更快地測試想法、使用更多數(shù)據(jù)并解決新問題。

Cerebras的AI芯片采用了先進(jìn)的通信架構(gòu),實(shí)現(xiàn)了全局性的低延遲、高帶寬通信。這種通信架構(gòu)使得多個(gè)Cerebras芯片之間能夠高效地進(jìn)行數(shù)據(jù)傳輸和協(xié)作,進(jìn)一步提升了AI應(yīng)用的性能。

產(chǎn)品方面,Cerebras的核心產(chǎn)品線WSE(Wafer Scale Engine)系列已經(jīng)過更新三代。2019年8月,Cerebras發(fā)布第一顆芯片WSE,WSE作為Cerebras標(biāo)志性產(chǎn)品,是史上最大的AI芯片之一。其設(shè)計(jì)突破了傳統(tǒng)半導(dǎo)體制造的界限,采用了獨(dú)特的晶圓級集成(Wafer-Scale Integration, WSI)技術(shù),將整個(gè)晶圓作為一個(gè)單獨(dú)的芯片來使用,這在當(dāng)時(shí)是前所未有的。

這顆芯片采用臺積電16nm制程,在46225mm2面積上集成了40萬個(gè)AI核心和1.2萬億顆晶體管。同時(shí),該芯片配備了18GB的片上靜態(tài)隨機(jī)存取存儲器(SRAM),這一容量遠(yuǎn)大于大多數(shù)芯片的片外存儲(DDR)。帶寬達(dá)到100Pb/s(1Pb=1000TB),這一數(shù)值比現(xiàn)有芯片的相關(guān)參數(shù)高出一個(gè)單位(3個(gè)數(shù)量級)。

2021年,Cerebras推出第二代芯片WSE-2,搭載WSE-2芯片的AI超算系統(tǒng)CS-2也同期發(fā)布。WSE-2在繼承了WSE的晶圓級集成技術(shù)的基礎(chǔ)上,進(jìn)一步提升了制程工藝和性能,成為當(dāng)時(shí)業(yè)界領(lǐng)先的AI芯片之一。該芯片采用臺積電7nm制程,相較于前代產(chǎn)品WSE的16nm工藝,進(jìn)一步縮小了晶體管的尺寸,提高了集成度。與WSE相同,WSE-2也采用了整片晶圓作為單一芯片,面積約為462255mm2。晶體管數(shù)量達(dá)到了創(chuàng)紀(jì)錄的2.6萬億個(gè),相較于WSE的1.2萬億個(gè)晶體管,實(shí)現(xiàn)了翻倍的增長。

WSE-2集成了85萬個(gè)專為AI應(yīng)用優(yōu)化的稀疏線性代數(shù)計(jì)算(SLAC)核心,相較于WSE的40萬個(gè)核心,有了顯著的提升。片上內(nèi)存提升至40GB,相較于WSE的18GB,增加了近一倍。內(nèi)存帶寬高達(dá)20PB/s,相較于WSE的9PB/s,也有了顯著的提升。

今年3月,Cerebras推出了第三代晶圓級芯片WSE-3和AI超級計(jì)算機(jī)CS-3。WSE-3采用臺積電5nm制程,有90萬個(gè)AI核心和4萬億顆晶體管。配備了44GB的片上SRAM緩存,相較于前代產(chǎn)品有了顯著提升。這一大容量片上內(nèi)存能夠支持更大規(guī)模的AI模型訓(xùn)練,無需進(jìn)行分區(qū)或重構(gòu),大大簡化了訓(xùn)練工作流程。WSE-3的內(nèi)存帶寬高達(dá)21PB/s,峰值A(chǔ)I算力高達(dá)125 PetaFLOPS,相當(dāng)于每秒能夠執(zhí)行12.5億億次浮點(diǎn)計(jì)算。

Cerebras 的AI芯片被認(rèn)為更適合大模型訓(xùn)練

Cerebras的芯片被認(rèn)為比GPU更適合用于大模型訓(xùn)練。其WSE系列芯片具有龐大的規(guī)模和驚人的性能。例如,WSE-3擁有超過4萬億個(gè)晶體管和46225mm2的硅片面積,堪稱全球最大的AI芯片。與之相比,傳統(tǒng)GPU的規(guī)模和性能通常較小。Cerebras的芯片能夠在單個(gè)設(shè)備上容納和訓(xùn)練比當(dāng)前熱門模型大得多的下一代前沿模型。

Cerebras的芯片搭載了大量的核心和內(nèi)存。例如,WSE-3擁有900,000個(gè)核心和44GB內(nèi)存,這使得它能夠同時(shí)處理大量的數(shù)據(jù)和計(jì)算任務(wù)。傳統(tǒng)GPU的核心數(shù)量和內(nèi)存通常較小,可能需要多個(gè)GPU協(xié)同工作才能達(dá)到類似的性能。

Cerebras采用了片上內(nèi)存的設(shè)計(jì),這意味著內(nèi)存和計(jì)算核心都在同一個(gè)芯片上,從而大大減少了數(shù)據(jù)傳輸?shù)拈_銷和延遲。相比之下,傳統(tǒng)GPU的內(nèi)存和計(jì)算核心是分離的,需要通過PCIe等接口進(jìn)行數(shù)據(jù)傳輸,這可能導(dǎo)致性能瓶頸和延遲。

Cerebras的CS-3系統(tǒng)是基于WSE-3推出的,具備強(qiáng)大的系統(tǒng)支持。該系統(tǒng)擁有高達(dá)1.2PB的內(nèi)存容量,能夠訓(xùn)練比GPT-4和Gemini模型大10倍的下一代前沿模型。在大模型訓(xùn)練中,Cerebras的CS-3系統(tǒng)相較于GPU具有更低的代碼復(fù)雜性和更高的易用性。開發(fā)人員可以更加高效地實(shí)現(xiàn)和訓(xùn)練大模型。

Cerebras的芯片通過保持整個(gè)晶圓的完整性來降低互連和網(wǎng)絡(luò)成本以及功耗。這使得Cerebras的芯片在功耗和成本方面相較于多個(gè)GPU協(xié)同工作具有優(yōu)勢。

今年4月,Cerebras發(fā)文比較Cerebras CS-3與英偉達(dá)B200,稱CS-3和英偉達(dá)DGX B200是2024年上市的兩款最令人興奮的AI硬件新品。從對比數(shù)據(jù)來看,無論AI訓(xùn)練性能還是能效,CS-3都做到倍殺DGX B200。

wKgZomZ6l4uAM3yGAAHe43y7_Gk033.png

寫在最后

目前,AI大模型訓(xùn)練基本離不開GPU的支持,Cerebras發(fā)布的WSE系列芯片,給業(yè)界帶來了新的思路,尤其是其今年發(fā)布的第三代產(chǎn)品WSE-3,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)24萬億個(gè)的模型。如果其能夠順利上市,一是對于其自身后續(xù)發(fā)展更有利,二是對于英偉達(dá)來說它可能會成長為一個(gè)較大的競爭對手。







聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135434
  • ipo
    ipo
    +關(guān)注

    關(guān)注

    1

    文章

    1284

    瀏覽量

    34756
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2126

    瀏覽量

    36771
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5179
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    領(lǐng)域占據(jù)主導(dǎo),其GPU憑借強(qiáng)大的海量數(shù)據(jù)處理能力,成為全球AI爆炸式增長的重要基石。但隨著AI不斷演進(jìn),重點(diǎn)正從大規(guī)模訓(xùn)練轉(zhuǎn)向?qū)?b class='flag-5'>已
    的頭像 發(fā)表于 02-03 17:15 ?1990次閱讀

    AI硬件全景解析:CPU、GPU、NPU、TPU的差異化之路,一文看懂!?

    CPU作為“通用基石”,支撐所有設(shè)備的基礎(chǔ)運(yùn)行;GPU憑借并行算力,成為AI訓(xùn)練與圖形處理的“主力”;TPU在Google生態(tài)中深耕云端大模型訓(xùn)練
    的頭像 發(fā)表于 12-17 17:13 ?1734次閱讀
    <b class='flag-5'>AI</b>硬件全景解析:CPU、<b class='flag-5'>GPU</b>、NPU、TPU的差異化之路,一文看懂!?

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢: 組成部分: 2)分布式AI訓(xùn)練 7、發(fā)展重點(diǎn):基于強(qiáng)化學(xué)習(xí)的后訓(xùn)練與推理 8、超越大模型:神經(jīng)符號計(jì)算 三、AGI
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的未來:提升算力還是智力

    持續(xù)發(fā)展體現(xiàn)在: 1、收益遞減 大模型的基礎(chǔ)的需要極大的算力,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環(huán)境相關(guān)的資源。 收益遞減體現(xiàn)在: ①模型大小 ②
    發(fā)表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型邊緣部署 3、智能手機(jī)AI芯片 3.1概述 智能手機(jī)中最大的一塊芯片就是應(yīng)用處理器(AP)。AP中集成了CPU、GPU
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,F(xiàn)PGA屬于
    發(fā)表于 09-12 16:07

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    引領(lǐng)AI時(shí)代網(wǎng)絡(luò)變革:睿海光電的核心競爭力 在AI時(shí)代,數(shù)據(jù)中心正經(jīng)歷從傳統(tǒng)架構(gòu)向AI工廠與AI云的轉(zhuǎn)型。AI工廠依賴超大規(guī)模
    發(fā)表于 08-13 19:01

    Cognizant加速AI模型企業(yè)級開發(fā)

    -Cognizant推出AI Training Data Services,助力企業(yè)AI模型加速開發(fā) Cognizant是數(shù)據(jù)與AI
    的頭像 發(fā)表于 07-31 17:25 ?705次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    計(jì)算等類別AI芯片的及時(shí)、全面而富有遠(yuǎn)見的書?!?那么時(shí)至今日,這個(gè)世界發(fā)生了什么變化呢? 在這四年間,最重大的技術(shù)變革無疑就是大模型的橫空出世,人類的時(shí)間仿佛被裝上了加速器,從ChatGPT到
    發(fā)表于 07-28 13:54

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型模型升級AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    應(yīng)用開發(fā)不用“等平臺”,徹底釋放開發(fā)效率和模型接入自由度。 自DeepSeek橫空出世以來,這種更適合端側(cè)部署,回答效率更高效的訓(xùn)練模式快速引爆了AI行業(yè),主流大
    發(fā)表于 04-13 19:52

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    并行訓(xùn)練和推理,顯著提升了訓(xùn)練效率與穩(wěn)定性。摩爾線程是國內(nèi)率先原生支持FP8計(jì)算精度的國產(chǎn)GPU企業(yè),此次開源不僅為AI
    的頭像 發(fā)表于 03-17 17:05 ?1518次閱讀
    摩爾線程<b class='flag-5'>GPU</b>原生FP8計(jì)算助力<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18