91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

不再焦慮GPU供應(yīng),8芯片挑戰(zhàn)5萬億參數(shù)大模型

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2023-09-27 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著LLM與生成式AI熱度不減,不少AI芯片初創(chuàng)公司都找到了新的發(fā)力點,紛紛調(diào)整設(shè)計思路,專為這一爆款應(yīng)用開發(fā)出了新款芯片。且不說這些芯片的實際性能如何,但這無疑是當(dāng)下推動這些公司獲得投資,并在行業(yè)下行期存活下去的救命稻草。今天我們就來聊聊剛發(fā)布新品SN40L的AI芯片初創(chuàng)公司SambaNova。

SN40L背后的SambaNova

SambaNova成立于2017年,截至目前已經(jīng)歷了共計6輪融資,參與融資的公司包括谷歌、英特爾和軟銀等,融資總額高達11億美元。只不過最近的D輪融資,距今已經(jīng)有兩年多的時間,也難怪SambaNova急于推出SN40L這一芯片,畢竟此類初創(chuàng)公司的開發(fā)從來都是燒錢的。

其實在SN40L推出以前,SambaNova也并非默默無聞,比如美國阿貢國家實驗室早在第一代產(chǎn)品SN10推出時就在使用和測試SambaNova的系統(tǒng)了,只不過屆時基于SN10的SambaNova Dataflow系統(tǒng)還只是用于消除數(shù)據(jù)噪聲而已。

如果我們現(xiàn)在看阿貢國家實驗室的ALCF AI測試平臺,我們可以看到5大系統(tǒng),分別是Cerebras的CS2、SambaNova的Dataflow、Graphcore的Bow Pod64、Grop系統(tǒng)以及Habana的Gaudi。而目前用于ALCF AI測試平臺的SambaNova Dataflow就是基于SN40L的上一代產(chǎn)品SN30 RDU打造的,該芯片基于臺積電的7nm工藝打造。

目前SN30用在阿貢國家實驗室的這套系統(tǒng)主要用于一些科學(xué)研究領(lǐng)域的AI計算,比如中微子物理、癌癥預(yù)測、氣候建模以及下一代汽車引擎研發(fā)等。而我們真正關(guān)注的是剛發(fā)布的SN40L,以及它在LLM這一應(yīng)用上能提供何種不同的優(yōu)勢。

英偉達GPU的替代方案

目前LLM的主流方案,即英偉達的A100、H100 GPU,存在一個很大的問題,那就是缺貨。對于任何互聯(lián)網(wǎng)廠商來說,在市面上找到足夠多的GPU都是一件費錢費力的事。而對于云服務(wù)廠商來說也是如此,他們也要考慮出租這類服務(wù)器時,GPU的算力與容量分配問題。

wKgaomUTgVGAKNovADO8XqFE2PU092.png
SN40L芯片和CEO Rodrigo Liang / SambaNova


為了解決“數(shù)量”的問題,SambaNova推出了SN40L。相較上一代的SN30,該芯片基于臺積電5nm工藝打造,每個芯片集成了1020億個晶體管和1040個核,算力高達638TFlops。更夸張的是,SambaNova稱單個SN40L系統(tǒng)節(jié)點(8塊SN40L芯片)就能支持到最高5萬億參數(shù)的大模型。

與其他AI芯片初創(chuàng)公司不一樣的是,他們并沒有選擇直接將芯片賣給其他公司這條路線,而是選擇了售賣訪問其定制AI技術(shù)棧的訪問權(quán),包括其自研硬件和運行超大模型的軟件等。這種商業(yè)模式或許能吸引一部分互聯(lián)網(wǎng)公司,但在云服務(wù)廠商眼中,他們應(yīng)該不會覺得這是一套可盈利的方案。

此外,SambaNova與其他競爭對手一樣,在AI芯片上引入了64GB HBM用于解決內(nèi)存墻的問題,這也是SN40L與上一代芯片的差異之一。只不過SambaNova并沒有透露SN40L用的是何種HBM,以及帶寬性能如何。

寫在最后

雖然SambaNova展示了提高LLM擴展性的另一條道路,但在沒有經(jīng)過實際驗證之前,市場還是會對其持觀望態(tài)度。此前也有不少AI芯片公司發(fā)表過同樣大膽的聲明,但事實證明這類芯片只適合用于運行那些預(yù)訓(xùn)練完成的模型,而訓(xùn)練過程仍需要靠GPU來完成。所以哪怕SambaNova的CEO Rodrigo Liang強調(diào)SN40L的訓(xùn)練性能足夠優(yōu)秀,但是否能在這套商業(yè)模式下闖出一片天,就得交由市場去驗證了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135472
  • SambaNova
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    389
  • SN40L
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    141
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    今日看點:消息稱 AMD、高通考慮導(dǎo)入 SOCAMM 內(nèi)存;曦望發(fā)布新一代推理GPU芯片啟望S3

    推理深度定制的GPGPU芯片。其單芯片推理性能提升5倍,支持從FP16到FP8、FP6、FP4等多精度靈活切換,釋放低精度推理效率,這種設(shè)計更貼合當(dāng)前MoE和長上下文
    發(fā)表于 01-28 11:09 ?398次閱讀

    蘋果AI革命:M5芯片10核GPU、AI處理速度翻倍,Apple Glass在路上

    三款核心設(shè)備。這一場蘋果圍繞M5芯片AI硬件的革新,也成為蘋果邁進AI時代以端側(cè)大模型和空間計算的又一成績。 ? ? 3nm+10核GPU革命,AI算力暴增4倍 蘋果官網(wǎng)介紹,M
    的頭像 發(fā)表于 10-19 01:13 ?1.1w次閱讀
    蘋果AI革命:M<b class='flag-5'>5</b><b class='flag-5'>芯片</b>10核<b class='flag-5'>GPU</b>、AI處理速度翻倍,Apple Glass在路上

    紫光國芯存儲芯片國產(chǎn)替代方案:打破DDR5/HBM芯片供應(yīng)鏈瓶頸

    可控。市場需求與供應(yīng)鏈現(xiàn)實:DDR5及HBM的技術(shù)價值與挑戰(zhàn)AI大模型、智能計算等應(yīng)用場景的爆發(fā),對數(shù)據(jù)處理的通量和效率提出了極為苛刻的要求,這直接推動了存儲技術(shù)
    的頭像 發(fā)表于 10-10 16:41 ?2223次閱讀
    紫光國芯存儲<b class='flag-5'>芯片</b>國產(chǎn)替代方案:打破DDR<b class='flag-5'>5</b>/HBM<b class='flag-5'>芯片</b><b class='flag-5'>供應(yīng)</b>鏈瓶頸

    如何看懂GPU架構(gòu)?一分鐘帶你了解GPU參數(shù)指標(biāo)

    GPU架構(gòu)參數(shù)如CUDA核心數(shù)、顯存帶寬、TensorTFLOPS、互聯(lián)方式等,并非“冰冷的數(shù)字”,而是直接關(guān)系設(shè)備能否滿足需求、如何發(fā)揮最大價值、是否避免資源浪費等問題的核心要素。本篇文章將全面
    的頭像 發(fā)表于 10-09 09:28 ?1137次閱讀
    如何看懂<b class='flag-5'>GPU</b>架構(gòu)?一分鐘帶你了解<b class='flag-5'>GPU</b><b class='flag-5'>參數(shù)</b>指標(biāo)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,F(xiàn)PGA屬于AI芯片這個真不知道,以為它是數(shù)字
    發(fā)表于 09-12 16:07

    浪潮信息發(fā)布&quot;元腦SD200&quot;超節(jié)點,面向萬億參數(shù)模型創(chuàng)新設(shè)計

    擴展支持64路本土GPU芯片。元腦SD200可實現(xiàn)單機內(nèi)運行超萬億參數(shù)模型,并支持多個領(lǐng)先大模型
    的頭像 發(fā)表于 08-08 22:17 ?678次閱讀
    浪潮信息發(fā)布&quot;元腦SD200&quot;超節(jié)點,面向<b class='flag-5'>萬億</b><b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>創(chuàng)新設(shè)計

    ?Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技

    Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技? 最近,Moonshot AI 的千億參數(shù)模型 ?Kimi K2? 在 ?GroqCl
    的頭像 發(fā)表于 08-07 10:01 ?978次閱讀

    面向萬億參數(shù)模型,“超節(jié)點”涌現(xiàn)

    UniPoD系列超節(jié)點產(chǎn)品,旨在為萬億參數(shù)模型的訓(xùn)練與推理提供更強勁、更智能且更綠色的算力支持。 ? H3C UniPoD系列超節(jié)點產(chǎn)品基于領(lǐng)先的Scale-up南向互聯(lián)技術(shù),可實現(xiàn)單機柜最高64卡
    的頭像 發(fā)表于 08-03 02:37 ?8906次閱讀
    面向<b class='flag-5'>萬億</b>級<b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>,“超節(jié)點”涌現(xiàn)

    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行GPU性能分析

    在大語言模型的強化學(xué)習(xí)訓(xùn)練過程中,GPU 性能優(yōu)化至關(guān)重要。隨著模型規(guī)模不斷擴大,如何高效地分析和優(yōu)化 GPU 性能成為開發(fā)者面臨的主要挑戰(zhàn)
    的頭像 發(fā)表于 07-23 10:34 ?2403次閱讀
    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行<b class='flag-5'>GPU</b>性能分析

    萬億參數(shù)!元腦企智一體機率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ --?浪潮信息宣布元腦企智一體機已率先完成對Kimi K2 萬億參數(shù)模型的適配支持,并實現(xiàn)單用戶70 tokens/s的流暢輸出速度,為企業(yè)客戶高效部署
    的頭像 發(fā)表于 07-22 09:27 ?562次閱讀
    <b class='flag-5'>萬億</b><b class='flag-5'>參數(shù)</b>!元腦企智一體機率先支持Kimi K2大<b class='flag-5'>模型</b>

    模型推理顯存和計算量估計方法研究

    GPU、FPGA等硬件加速。通過分析硬件加速器的性能參數(shù),可以估算模型在硬件加速下的計算量。 四、實驗與分析 為了驗證上述估計方法的有效性,我們選取了幾個具有代表性的深度學(xué)習(xí)模型,在多
    發(fā)表于 07-03 19:43

    為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 OpenVINO? 運行推理。 沒有可用的
    發(fā)表于 06-23 07:11

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】+NVlink技術(shù)從應(yīng)用到原理

    前言 【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」書中的芯片知識是比較接近當(dāng)前的頂尖芯片水平的,同時包含了芯片架構(gòu)的基礎(chǔ)知
    發(fā)表于 06-18 19:31

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團隊在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效支
    的頭像 發(fā)表于 05-07 15:24 ?1025次閱讀

    請問如何在imx8mplus上部署和運行YOLOv5訓(xùn)練的模型?

    我正在從事 imx8mplus yocto 項目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對象檢測模型。它在 ubuntu 電腦上運行良好?,F(xiàn)在我想在我的 imx8mplus
    發(fā)表于 03-25 07:23