91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)地位不保?BERT訓(xùn)練吞吐量提升4.7倍

lPCU_elecfans ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:電子發(fā)燒友網(wǎng) ? 2022-07-06 11:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))推理和訓(xùn)練作為AI/ML關(guān)鍵的一環(huán),無(wú)論是通用的GPU,還是專用的推理/訓(xùn)練加速器,都想在各大流行模型和機(jī)器學(xué)習(xí)庫(kù)上跑出優(yōu)秀的成績(jī),以展示自己的硬件實(shí)力。業(yè)界需要一個(gè)統(tǒng)一的跑分標(biāo)準(zhǔn),為此,各大廠商在2018年根據(jù)業(yè)內(nèi)指標(biāo)聯(lián)合打造的MLPerf就承擔(dān)了這一重任。

不過(guò)隨著時(shí)間的推移,MLPerf幾乎已經(jīng)成了英偉達(dá)一家獨(dú)大的跑分基準(zhǔn),這家GPU廠商憑借自己的產(chǎn)品幾乎統(tǒng)治著整個(gè)AI硬件市場(chǎng)。這不,近日公布的MLPerf Training 2.0,就將這些AI硬件公司和服務(wù)器廠商提交的具體AI訓(xùn)練成績(jī)公布了出來(lái),其中既有一些新晉成員,也有一些出人意料的結(jié)果。

谷歌的反超這次跑分結(jié)果中,最驚艷的還是谷歌的TPU v4系統(tǒng),谷歌憑借這一架構(gòu)的系統(tǒng),在五個(gè)基準(zhǔn)測(cè)試中都打破了性能記錄,平均訓(xùn)練速度比第二名的英偉達(dá)A100系統(tǒng)快了1.42倍左右,哪怕是與自己在1.0測(cè)試下的成績(jī)相比,也提升了1.5倍。

能實(shí)現(xiàn)這樣的成績(jī)自然離不開(kāi)谷歌自己的TPU芯片設(shè)計(jì),谷歌的每個(gè)TPU v4 Pod都由4096個(gè)芯片組成,且?guī)捵龅搅?Tbps。除此之外,谷歌有著豐富的用例經(jīng)驗(yàn),相較其他公司而言,谷歌是唯一一個(gè)在搜索和視頻領(lǐng)域都已經(jīng)大規(guī)模普及AI/ML應(yīng)用的。

00f1a358-fcb8-11ec-ba43-dac502259ad0.png

TPU v4與A100的對(duì)比 / 谷歌

不過(guò)谷歌與英偉達(dá)并不是直接競(jìng)爭(zhēng)關(guān)系,他們對(duì)標(biāo)的還是使用英偉達(dá)GPU系統(tǒng)的云服務(wù)公司,比如微軟的Azure,谷歌也為此特地做了成本對(duì)比。如上圖所示,在BERT模型的訓(xùn)練中,4096個(gè)TPU v4芯片與Azure 4096個(gè)A100芯片對(duì)比,谷歌的方案可以節(jié)省35%,ResNet模型的訓(xùn)練下更是可以節(jié)省近50%。

不過(guò)以上的成績(jī)?cè)谒?項(xiàng)測(cè)試中也只是和英偉達(dá)平分秋色,而且隨著系統(tǒng)規(guī)模的不同,其結(jié)果或許會(huì)有更多的變化。再者,谷歌的TPU僅限于其自己的云服務(wù),所以總的來(lái)說(shuō)并不算一個(gè)通用方案,至少微軟和亞馬遜這樣的競(jìng)爭(zhēng)對(duì)手肯定是用不上。

英偉達(dá)地位不保?除了谷歌之外,還取得了不錯(cuò)的成績(jī)的就是英特爾旗下Habana Labs的Gaudi2訓(xùn)練加速器。這款今年5月推出的處理器,從上一代的16nm換成了臺(tái)積電7nm,Tensor處理器內(nèi)核的數(shù)量因此增加了兩倍,使其在ResNet-50的訓(xùn)練吞吐量上實(shí)現(xiàn)了3倍提升,BERT的訓(xùn)練吞吐量提升了4.7倍。

在與英偉達(dá)提交的A100-80GB GPU系統(tǒng)成績(jī)相比,Gaudi2在ResNet-50上的訓(xùn)練時(shí)間縮短了36%;與戴爾提交的A100-40GB GPU系統(tǒng)成績(jī)相比,Gaudi2在BERT上的訓(xùn)練時(shí)間縮短了45%。

從結(jié)果來(lái)看,已經(jīng)有不少?gòu)S商的AI硬件已經(jīng)可以在訓(xùn)練上對(duì)標(biāo)甚至超過(guò)英偉達(dá)的GPU生態(tài)了,但這并不代表全部機(jī)器學(xué)習(xí)訓(xùn)練領(lǐng)域。比如在測(cè)試中,廠商是不需要將每個(gè)項(xiàng)目的測(cè)試結(jié)果都提交上去的。從這個(gè)角度來(lái)看,RetinaNet輕量型目標(biāo)檢測(cè)、COCO重型目標(biāo)檢測(cè)、語(yǔ)音識(shí)別數(shù)據(jù)集Librispeech和強(qiáng)化學(xué)習(xí)Minigo這幾個(gè)項(xiàng)目中,只有基于英偉達(dá)GPU的系統(tǒng)提交了成績(jī)。

不僅如此,如果你看所有提交成績(jī)的服務(wù)器和云服務(wù)公司來(lái)看,他們用到的CPU或是AMD的EPYC處理器,或是英特爾的Xeon處理器,但加速器卻是幾乎清一色的英偉達(dá)A100。這也證明了在百度、戴爾、H3C、浪潮和聯(lián)想這些廠商的眼中,英偉達(dá)的GPU依然是最具競(jìng)爭(zhēng)力的那個(gè)。

不可小覷的軟件還有一點(diǎn)需要指出,那就是以上都是封閉組的成績(jī),他們所用到的都是標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)庫(kù),比如TensorFlow 2.8.0和Pytorch 22.04等。而開(kāi)放組則不受此限制,可以用到他們自己定制的庫(kù)或優(yōu)化器,這一組中三星和Graphcore都根據(jù)不同的軟件配置提交了成績(jī),但最亮眼的還是MosaicML。

01187fc8-fcb8-11ec-ba43-dac502259ad0.png

Composer在ResNet-50下的訓(xùn)練時(shí)間對(duì)比 / MosaicML

這家公司所用的加速器硬件同樣是和諸多提交者一樣的英偉達(dá)A100-SXM-80GB GPU,但他們用到的是自己用Pytorch編寫(xiě)的庫(kù)Composer。這家公司于今年4月推出了Composer,并聲稱可讓模型訓(xùn)練速度提升2到4倍。在MLPerf Training 2.0的跑分中,使用MosaicML Composer的對(duì)比組在ResNet訓(xùn)練速度上實(shí)現(xiàn)了近4.6倍的提升。不過(guò)Composer雖說(shuō)支持任何模型,但這個(gè)提速的表現(xiàn)目前還是體現(xiàn)在ResNet上比較明顯,所以本次也并沒(méi)有提交其他模型下的成績(jī)。

考慮到英特爾等公司為了提升其軟件開(kāi)發(fā)實(shí)力,已經(jīng)在收購(gòu)Codeplay這樣的軟件開(kāi)發(fā)公司,MosaicML作為剛公開(kāi)不久的初創(chuàng)公司,創(chuàng)始人又是英特爾的前AI實(shí)驗(yàn)室骨干,如果能在未來(lái)展現(xiàn)出更優(yōu)秀的成績(jī),說(shuō)不定也會(huì)被英偉達(dá)這樣的公司看中。

結(jié)語(yǔ)英偉達(dá)常年在MLPerf上霸榜,也有不少人認(rèn)為MLPerf跑分成了英偉達(dá)的宣傳工具,然而事實(shí)是英特爾、谷歌等同樣重視AI的公司也將其視為一個(gè)公平的基準(zhǔn)測(cè)試,而且MLPerf還有同行評(píng)審環(huán)節(jié),進(jìn)一步驗(yàn)證測(cè)試結(jié)果。從以上結(jié)果來(lái)看,AI訓(xùn)練硬件上的創(chuàng)新仍未停止,無(wú)論是GPU、TPU還是IPU都在推陳出新,但跑分結(jié)果并不代表任何用例都能達(dá)到高性能,還需要廠商自己去調(diào)校模型和軟件才能達(dá)成最好的成績(jī)。

原文標(biāo)題:AI硬件反超英偉達(dá)?跑分來(lái)看尚不現(xiàn)實(shí)

文章出處:【微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111417
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136964
  • TPU
    TPU
    +關(guān)注

    關(guān)注

    0

    文章

    170

    瀏覽量

    21661
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4087

    瀏覽量

    99199

原文標(biāo)題:AI硬件反超英偉達(dá)?跑分來(lái)看尚不現(xiàn)實(shí)

文章出處:【微信號(hào):elecfans,微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    麥格納宣布擴(kuò)大與英偉達(dá)的戰(zhàn)略合作

    麥格納宣布擴(kuò)大與英偉達(dá)的戰(zhàn)略合作,為整車廠基于英偉達(dá)DRIVE Hyperion平臺(tái)的項(xiàng)目落地提供支持。
    的頭像 發(fā)表于 01-09 12:59 ?367次閱讀

    用“分區(qū)”來(lái)面對(duì)超大數(shù)據(jù)集和超大吞吐量

    分區(qū)(partitions) 也被稱為 分片(sharding),通常采用對(duì)數(shù)據(jù)進(jìn)行分區(qū)的方式來(lái)增加系統(tǒng)的 可伸縮性,以此來(lái)面對(duì)非常大的數(shù)據(jù)集或非常高的吞吐量,避免出現(xiàn)熱點(diǎn)。
    的頭像 發(fā)表于 12-30 16:40 ?210次閱讀
    用“分區(qū)”來(lái)面對(duì)超大數(shù)據(jù)集和超大<b class='flag-5'>吞吐量</b>

    英偉達(dá)重磅出手!AI 推理存儲(chǔ)全面覺(jué)醒

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近日,有消息稱,英偉達(dá)將以大約200億美元收購(gòu)人工智能芯片初創(chuàng)公司Groq,這將是英偉達(dá)迄今為止規(guī)模最大的一筆收購(gòu)。但
    的頭像 發(fā)表于 12-26 08:44 ?1.1w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>重磅出手!AI 推理存儲(chǔ)全面覺(jué)醒

    KIOXIA推出全新開(kāi)源軟件,提升RocksDB中閃存存儲(chǔ)的壽命和性能

    放大系數(shù)(WAF)降低了約46%,吞吐量提升至MDRAID性能的8.221。在2驅(qū)動(dòng)器鏡像配置中,WAF降至約三分之一,吞吐量則達(dá)到MDRAID的1.45
    的頭像 發(fā)表于 10-13 11:15 ?390次閱讀

    NVIDIA推出多語(yǔ)種語(yǔ)音AI開(kāi)放數(shù)據(jù)集與模型

    新發(fā)布的 Granary 數(shù)據(jù)集包含約 100 萬(wàn)小時(shí)音頻,可用于訓(xùn)練高精度、高吞吐量的 AI 音頻轉(zhuǎn)錄與翻譯模型。
    的頭像 發(fā)表于 09-23 15:34 ?961次閱讀

    今日看點(diǎn):蘋(píng)果認(rèn)證中國(guó)快充品牌遭美調(diào)查;英偉達(dá)擬向OpenAI投資最高1000億美元

    系統(tǒng)建設(shè)并部署至少10吉瓦的人工智能(AI)數(shù)據(jù)中心,用于訓(xùn)練和運(yùn)行下一代模型。這一耗電量相當(dāng)于800萬(wàn)戶美國(guó)家庭的用電量。 英偉達(dá)CEO黃仁勛曾表示,10吉瓦相當(dāng)于400萬(wàn)至500萬(wàn)塊圖形處理器(GPU),約等于
    發(fā)表于 09-23 10:09 ?460次閱讀

    使用羅德與施瓦茨CMX500的吞吐量應(yīng)用層測(cè)試方案

    5G NR(New Radio)吞吐量應(yīng)用層測(cè)試是評(píng)估5G網(wǎng)絡(luò)性能的一個(gè)重要方面,它主要關(guān)注的是在實(shí)際應(yīng)用條件下,用戶能夠體驗(yàn)到的數(shù)據(jù)傳輸速率。這種測(cè)試通常包括了對(duì)下行鏈路和上行鏈路的吞吐量進(jìn)行測(cè)量,以確保網(wǎng)絡(luò)可以滿足各種應(yīng)用場(chǎng)景的需求,比如高清視頻流、虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)
    的頭像 發(fā)表于 09-02 13:56 ?7957次閱讀
    使用羅德與施瓦茨CMX500的<b class='flag-5'>吞吐量</b>應(yīng)用層測(cè)試方案

    2天40%漲停!深圳傳感器公司豪恩汽電 與英偉達(dá)合作

    的飛躍。與上一代Jetson Orin相比,Jetson Thor 的 AI 計(jì)算性能提升多達(dá) 7.5 ,能效提升多達(dá)3.5 ,CPU性能提升
    的頭像 發(fā)表于 08-28 19:20 ?3663次閱讀
    2天40%漲停!深圳傳感器公司豪恩汽電 與<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>合作

    CY7C65211 作為 SPI 從機(jī)模式工作時(shí)每秒的最大吞吐量是多少?

    CY7C65211 作為 SPI 從機(jī)模式工作時(shí)每秒的最大吞吐量是多少? 有實(shí)際的測(cè)試數(shù)據(jù)嗎?
    發(fā)表于 05-27 07:38

    如何在Visual Studio 2022中運(yùn)行FX3吞吐量基準(zhǔn)測(cè)試工具?

    我正在嘗試運(yùn)行 John Hyde 的書(shū)“SuperSpeed by Design”中的 FX3 吞吐量基準(zhǔn)測(cè)試工具。 但是,我面臨一些困難,希望得到任何指導(dǎo)。 具體來(lái)說(shuō),我正在使用 Visual
    發(fā)表于 05-13 08:05

    FX3進(jìn)行讀或?qū)懖僮鲿r(shí)CS信號(hào)拉低,在讀或?qū)懲瓿珊驝S置高,對(duì)吞吐量有沒(méi)有影響?

    從盡可能提高吞吐量的角度看,在進(jìn)行讀或?qū)懖僮鲿r(shí)CS信號(hào)拉低,在讀或?qū)懲瓿珊驝S置高,對(duì)吞吐量有沒(méi)有影響,還是應(yīng)該CS一直拉低比較好。
    發(fā)表于 05-08 07:13

    特朗普要叫停英偉達(dá)對(duì)華特供版 英偉達(dá)H20出口限制 或損失55億美元

    是“中國(guó)特供版”人工智能芯片;是英偉達(dá)公司為符合美國(guó)出口規(guī)定專門為中國(guó)市場(chǎng)開(kāi)發(fā)的定制芯片,H20芯片在訓(xùn)練AI模型方面不如英偉達(dá)其他芯片速度
    的頭像 發(fā)表于 04-16 16:59 ?2089次閱讀

    新思科技攜手英偉達(dá)加速芯片設(shè)計(jì),提升芯片電子設(shè)計(jì)自動(dòng)化效率

    宣布在英偉達(dá) Grace Blackwell 平臺(tái)上實(shí)現(xiàn)高達(dá) 30 的預(yù)期性能提升,加速下一代半導(dǎo)體的電路仿真 ? 摘要: 在今年GTC主題演講中,新思科技作為生態(tài)系統(tǒng)的一部分,展示
    發(fā)表于 03-19 17:59 ?498次閱讀

    新思科技亮相英偉達(dá)GTC 2025大會(huì)

    為了實(shí)現(xiàn)這一速度提升,新思科技在GTC全球AI大會(huì)上宣布,正在使用英偉達(dá) CUDA-X庫(kù)優(yōu)化其下一代半導(dǎo)體開(kāi)發(fā)解決方案。公司還在擴(kuò)大對(duì)英偉達(dá)
    的頭像 發(fā)表于 03-19 17:53 ?1305次閱讀