91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心AI芯片上升趨勢能夠持續(xù)多久呢?

SDNLAB ? 來源:SDNLAB ? 2024-01-24 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2024年很有可能成為AI芯片的元年。

有預(yù)測稱,今年AI芯片可能會(huì)迎來強(qiáng)勁甚至迅猛的增長。然而,一個(gè)令人關(guān)注的問題是,這種上升趨勢能夠持續(xù)多久呢?

2023年底,AMD大膽地宣稱,到2027年,數(shù)據(jù)中心AI芯片的總潛在市場(TAM)將達(dá)到4000億美元,復(fù)合年增長率(CAGR)超過70%。這一預(yù)測引起了不同的反應(yīng),但也從側(cè)面說明了大型語言模型(LLM)作為處理生成式人工智能(GenAI)應(yīng)用核心的驅(qū)動(dòng)力。

作為圖形處理單元(GPU)市場的領(lǐng)導(dǎo)者,英偉達(dá)的成功證明了這些芯片的潛在市場規(guī)模。英偉達(dá)過去一年的股價(jià)上漲了217%,在過去三年增長了140%。

在最新的11月財(cái)報(bào)中,英偉達(dá)公布的營收為181.2億美元,其中數(shù)據(jù)中心營收為145.1億美元。整體銷售額同比增長206%,而數(shù)據(jù)中心銷售額同期增長了279%。所有這些都證實(shí)了數(shù)據(jù)中心芯片的銷售正經(jīng)歷急劇上升的趨勢。然而,關(guān)鍵問題是,這個(gè)增長趨勢是否能夠達(dá)到4000 億美元的高度。

英偉達(dá)在數(shù)據(jù)中心AI GPU市場至少占據(jù)80%的份額,未來三年預(yù)計(jì)將迎來巨大增長。然而,要實(shí)現(xiàn)高達(dá)4000億美元的市場規(guī)模,英偉達(dá)的表現(xiàn)需要比目前更出色,同時(shí)其他廠商也需要超出預(yù)期。

競爭者不甘示弱

AMD

AMD 認(rèn)為其將在未來三年內(nèi)實(shí)現(xiàn)大幅增長。2023 年 12 月,AMD發(fā)布了MI300 系列芯片,旨在在推理方面超越英偉達(dá)的GPU。同時(shí)發(fā)布的另一款產(chǎn)品AMD Instinct MI300A加速處理單元(APU),將CPU和GPU核心與內(nèi)存集成在一個(gè)平臺中。

MI300X 專為云提供商和企業(yè)設(shè)計(jì),專為生成式 AI 應(yīng)用而打造,MI300X GPU 擁有超過 1500 億個(gè)晶體管,以 2.4 倍的內(nèi)存超越了英偉達(dá)的 H100。峰值內(nèi)存帶寬達(dá)到 5.3 TB/s ,是H100 3.3 TB/s 的 1.6 倍。

wKgaomWwyh2AanXtAAFoeSiXcEU384.jpg

AMD Instinct MI300A APU 配備 128GB HBM3 內(nèi)存。據(jù)稱,與之前的 M250X 處理器相比,MI300A 在 HPC 和 AI 工作負(fù)載上的每瓦性能提高了 1.9 倍。

AMD 總裁兼首席執(zhí)行官蘇姿豐 (Lisa Su) 在去年 10 月的公司第三季度電話會(huì)議上表示:“隨著 2024 年的到來,我們預(yù)計(jì)收入將持續(xù)增長,而且主要來源將是AI?!薄霸贏I領(lǐng)域,我們的客戶覆蓋面很廣,包括從超大規(guī)模企業(yè)到原始設(shè)備制造商、企業(yè)客戶以及一些新的人工智能初創(chuàng)企業(yè)。從工作負(fù)載的角度來看,我們希望 MI300 能夠同時(shí)處理訓(xùn)練和推理工作負(fù)載?!?/p>

英特爾

英特爾上個(gè)月推出了AI芯片 Gaudi3 以及第五代 Xeon 處理器,作為進(jìn)一步進(jìn)軍數(shù)據(jù)中心AI市場的一部分。

英特爾表示,Gaudi3 是專為深度學(xué)習(xí)和創(chuàng)建大規(guī)模生成人工智能模型而設(shè)計(jì)的下一代人工智能加速器,將與英偉達(dá)的 H100 和 AMD 的 MI300X 展開競爭。

英特爾聲稱Xeon 是唯一內(nèi)置 AI 加速的主流數(shù)據(jù)中心處理器,全新第五代 Xeon 在多達(dá) 200 億個(gè)參數(shù)的模型上提供高達(dá) 42% 的推理和微調(diào)能力。它也是唯一一款具有一致且不斷改進(jìn)的 MLPerf 訓(xùn)練和推理基準(zhǔn)測試結(jié)果的 CPU。

Xeon的內(nèi)置人工智能加速器,加上優(yōu)化的軟件和增強(qiáng)的遙測功能,可以為通信服務(wù)提供商、內(nèi)容交付網(wǎng)絡(luò)和包括零售、醫(yī)療保健和制造在內(nèi)的廣泛垂直市場實(shí)現(xiàn)更易于管理、更高效的高要求網(wǎng)絡(luò)和邊緣工作負(fù)載部署。

云廠商各顯神通

AWS、谷歌等云廠商一直在為自己的大型數(shù)據(jù)中心打造定制芯片。一方面是不想過度依賴英偉達(dá),另外針對自身需求定制芯片也有助于提高性能和降低成本。

AWS

亞馬遜的AI芯片Trainium和Inferentia專為訓(xùn)練和運(yùn)行大型人工智能模型而設(shè)計(jì)。

AWS Trainium2是 AWS 專門為超過 1000 億個(gè)參數(shù)模型的深度學(xué)習(xí)訓(xùn)練打造的第二代機(jī)器學(xué)習(xí) (ML) 加速器。AWS CEO Adam Selipsky 表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2 將在 AWS 云中由 16 個(gè)芯片組成的集群中的 EC Trn2 實(shí)例中使用,在 AWS 的 EC2 UltraCluster 產(chǎn)品中可擴(kuò)展到多達(dá) 10萬個(gè)芯片。AWS表示,10萬個(gè) Trainium 芯片可提供 65 exaflops 的計(jì)算能力,相當(dāng)于每個(gè)芯片可提供 650 teraflops 的計(jì)算能力。

AWS Inferentia2 加速器與第一代相比在性能和功能方面實(shí)現(xiàn)了重大飛躍。Inferentia2 的吞吐量提高了 4 倍,延遲低至 1/10。

wKgZomWwyh2AAQ50AATwyIe9CyQ876.jpg

AWS Inferentia2 支持多種數(shù)據(jù)類型,包括 FP32、TF32、BF16、FP16 和 UINT8,還支持新的可配置 FP8 (cFP8) 數(shù)據(jù)類型,因?yàn)樗鼫p少了模型的內(nèi)存占用和 I/O 要求。AWS Inferentia2 具有嵌入式通用數(shù)字信號處理器 (DSP),可實(shí)現(xiàn)動(dòng)態(tài)執(zhí)行,因此無需在主機(jī)上展開或執(zhí)行控制流運(yùn)算符。AWS Inferentia2 還支持動(dòng)態(tài)輸入形狀,這對于輸入張量大小未知的模型(例如處理文本的模型)至關(guān)重要。AWS Inferentia2 支持用 C++ 編寫的自定義運(yùn)算符。

谷歌

2023 年 12 月,谷歌發(fā)布最新的Cloud TPU v5p,并號稱是迄今最強(qiáng)大的TPU。每個(gè) TPU v5p Pod由 8,960 個(gè)芯片組成,采用 3D 環(huán)面拓?fù)?,互連速度達(dá) 4,800 Gbps。與 TPU v4 相比,TPU v5p 的FLOPS 提高了 2 倍以上,高帶寬內(nèi)存 (HBM) 提高了 3 倍以上。

TPU v5p 專為性能、靈活性和規(guī)模而設(shè)計(jì),訓(xùn)練大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍。此外,借助第二代SparseCores,TPU v5p訓(xùn)練嵌入密集模型的速度比 TPU v4 2快 1.9 倍。

wKgZomWwyh2AKBWwAAEk7HCtivA186.jpg

除了性能改進(jìn)之外,TPU v5p 在每個(gè) pod 的總可用 FLOP 方面的可擴(kuò)展性也比 TPU v4 高 4 倍。與 TPU v4 相比,每秒浮點(diǎn)運(yùn)算次數(shù) (FLOPS) 加倍,并且單個(gè) Pod 中的芯片數(shù)量加倍,可顯著提高訓(xùn)練速度的相對性能。

wKgaomWwyh2AJzznAAVYDmdWezI186.jpg

微軟

2023 年 11 月,微軟推出了AI芯片Azure Maia 100。Maia 100 是 Maia AI 加速器系列中的首款產(chǎn)品。

Maia 采用 5 nm臺積電工藝制造,擁有 1050 億個(gè)晶體管,比 AMD MI300X AI GPU的 1530 億個(gè)晶體管少約 30% 。微軟表示,“Maia 支持我們首次實(shí)現(xiàn)低于 8 位數(shù)據(jù)類型(MX 數(shù)據(jù)類型),以便共同設(shè)計(jì)硬件和軟件,這有助于我們支持更快的模型訓(xùn)練和推理時(shí)間。”

Maia 100 目前正在 GPT 3.5 Turbo 上進(jìn)行測試,該模型也為 ChatGPT、Bing AI 工作負(fù)載和 GitHub Copilot 提供支持。微軟正處于部署的早期階段,還不愿意發(fā)布確切的 Maia 規(guī)范或性能基準(zhǔn)。

總的來說,從AMD 4000億美元市場的預(yù)測中至少可以得出三個(gè)結(jié)論:首先,數(shù)據(jù)中心仍是短期內(nèi)AI芯片的焦點(diǎn);其次,數(shù)據(jù)中心 AI芯片領(lǐng)域正急劇上升,盡管上升的幅度仍然是一個(gè)問題;第三, 英偉達(dá)將繼續(xù)在該領(lǐng)域占據(jù)主導(dǎo)地位,但包括 AMD 在內(nèi)的其他供應(yīng)商正努力削弱其地位。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20255

    瀏覽量

    252413
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5195

    瀏覽量

    135504
  • 晶體管
    +關(guān)注

    關(guān)注

    78

    文章

    10396

    瀏覽量

    147814
  • HPC
    HPC
    +關(guān)注

    關(guān)注

    0

    文章

    346

    瀏覽量

    24987
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2128

    瀏覽量

    36793

原文標(biāo)題:數(shù)據(jù)中心AI芯片市場有多大?

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    高通挑戰(zhàn)英偉達(dá),發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)隨著生成式AI應(yīng)用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動(dòng)計(jì)算和通信領(lǐng)域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,
    的頭像 發(fā)表于 10-29 10:36 ?3649次閱讀
    高通挑戰(zhàn)英偉達(dá),發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b>推理<b class='flag-5'>芯片</b>,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    高通挑戰(zhàn)英偉達(dá)!發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)隨著生成式AI應(yīng)用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動(dòng)計(jì)算和通信領(lǐng)域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,
    的頭像 發(fā)表于 10-29 09:14 ?6461次閱讀
    高通挑戰(zhàn)英偉達(dá)!發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b>推理<b class='flag-5'>芯片</b>,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    AOC光纖跳線在數(shù)據(jù)中心的應(yīng)用與發(fā)展趨勢

    的要求。AOC光纖跳線憑借其獨(dú)特的優(yōu)勢,在數(shù)據(jù)中心得到了廣泛的應(yīng)用,并呈現(xiàn)出良好的發(fā)展趨勢。 AOC光纖跳線在數(shù)據(jù)中心的應(yīng)用優(yōu)勢 高速數(shù)據(jù)傳輸:數(shù)據(jù)
    的頭像 發(fā)表于 02-25 09:57 ?104次閱讀

    國產(chǎn)數(shù)據(jù)中心AI芯片企業(yè)一覽

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)在全球科技競爭日益激烈的背景下,數(shù)據(jù)中心AI芯片已成為各國科技企業(yè)爭奪的戰(zhàn)略高地。隨著嚴(yán)格的芯片出口管制政策實(shí)施,國產(chǎn)
    的頭像 發(fā)表于 02-09 09:07 ?5103次閱讀

    1分鐘帶你了解數(shù)據(jù)中心供電架構(gòu) #電子元器件 #數(shù)據(jù)中心 #供電架構(gòu)

    數(shù)據(jù)中心
    沛城芯動(dòng)力
    發(fā)布于 :2026年02月03日 15:39:04

    鑫澈導(dǎo)熱與屏蔽方案助力AI數(shù)據(jù)中心高效散熱

    隨著AI數(shù)據(jù)中心持續(xù)擴(kuò)張,高功率密度AI芯片帶來過量熱負(fù)荷與電磁干擾問題,散熱與電磁屏蔽已成為影響系統(tǒng)穩(wěn)定與能效的核心挑戰(zhàn)。
    的頭像 發(fā)表于 10-11 09:34 ?645次閱讀

    AI數(shù)據(jù)中心供電系統(tǒng)的發(fā)展現(xiàn)狀和未來趨勢

    AI數(shù)據(jù)中心作為數(shù)字時(shí)代的核心基礎(chǔ)設(shè)施,承擔(dān)著海量數(shù)據(jù)的存儲(chǔ)、處理和傳輸任務(wù),而供電系統(tǒng)是其穩(wěn)定運(yùn)行的“生命線”。隨著云計(jì)算、大數(shù)據(jù)、人工智能等技術(shù)的快速發(fā)展,
    的頭像 發(fā)表于 09-24 17:07 ?3783次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>供電系統(tǒng)的發(fā)展現(xiàn)狀和未來<b class='flag-5'>趨勢</b>

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    引領(lǐng)AI時(shí)代網(wǎng)絡(luò)變革:睿海光電的核心競爭力 在AI時(shí)代,數(shù)據(jù)中心正經(jīng)歷從傳統(tǒng)架構(gòu)向AI工廠與AI云的轉(zhuǎn)型。
    發(fā)表于 08-13 19:01

    加速AI未來,睿海光電800G OSFP光模塊重構(gòu)數(shù)據(jù)中心互聯(lián)標(biāo)準(zhǔn)

    定義數(shù)據(jù)中心互聯(lián)的新范式。 一、技術(shù)實(shí)力:800G OSFP光模塊的卓越性能表現(xiàn) 睿海光電800G OSFP光模塊系列采用行業(yè)領(lǐng)先的PAM4調(diào)制技術(shù),具備以下核心優(yōu)勢: 超高速率 :單模傳輸速率達(dá)
    發(fā)表于 08-13 16:38

    中型數(shù)據(jù)中心中的差分晶體振蕩器應(yīng)用與匹配方案

    中型數(shù)據(jù)中心的定義與特點(diǎn) 中型數(shù)據(jù)中心通常服務(wù)于中大型企業(yè)、科研機(jī)構(gòu)或地方行業(yè)節(jié)點(diǎn),具備50至200個(gè)機(jī)柜,部署多臺服務(wù)器、交換設(shè)備、存儲(chǔ)系統(tǒng)與光通信鏈路等,強(qiáng)調(diào)高帶寬、低延遲與高可用性。關(guān)鍵設(shè)備
    發(fā)表于 07-01 16:33

    數(shù)據(jù)中心冷卻技術(shù)的發(fā)展趨勢

    預(yù)計(jì)到2025年,全球發(fā)電量將達(dá)到26,787TWh,其中數(shù)據(jù)中心和加密貨幣將消耗約536TWh,約占全球總發(fā)電量的2%[1],[2]。按照目前的趨勢,數(shù)據(jù)中心的電力消耗到2030年很可能達(dá)到甚至超過1,000TWh,接近全球總
    的頭像 發(fā)表于 05-15 13:38 ?1140次閱讀

    適用于數(shù)據(jù)中心AI時(shí)代的800G網(wǎng)絡(luò)

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展,數(shù)據(jù)中心面臨著前所未有的計(jì)算和網(wǎng)絡(luò)壓力。從大語言模型(LLM)訓(xùn)練到生成式AI應(yīng)用,海量數(shù)據(jù)處理需求推動(dòng)了網(wǎng)絡(luò)帶寬的快速增長。在此背景下,800G網(wǎng)
    發(fā)表于 03-25 17:35

    華為全新升級星河AI數(shù)據(jù)中心網(wǎng)絡(luò)

    在華為中國合作伙伴大會(huì)2025期間,以 “星河AI數(shù)據(jù)中心網(wǎng)絡(luò),賦AI時(shí)代新動(dòng)能”為主題的數(shù)據(jù)中心網(wǎng)絡(luò)分論壇圓滿落幕。本次論壇匯聚了來自全國的300多位客戶和伙伴,共同探討
    的頭像 發(fā)表于 03-24 14:46 ?1101次閱讀

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    高速線纜支持熱插拔功能,具有低功耗和小彎曲半徑,便于靈活布線,可實(shí)現(xiàn)高穩(wěn)定性、低成本、節(jié)省空間和高散熱等優(yōu)勢,非常適合數(shù)據(jù)中心布線需求。這些高速線纜能夠與交換機(jī)、路由器和服務(wù)器無縫集成,確保網(wǎng)絡(luò)
    發(fā)表于 03-24 14:20

    Cadence顛覆AI數(shù)據(jù)中心設(shè)計(jì)

    日前舉辦的英偉達(dá) GTC 2025 開發(fā)者大會(huì)匯聚了眾多行業(yè)精英,共同探討人工智能的未來。而人工智能正在重塑全球數(shù)據(jù)中心的格局。據(jù)預(yù)測,未來將有 1 萬億美元用于 AI 驅(qū)動(dòng)的數(shù)據(jù)中心升級。然而
    的頭像 發(fā)表于 03-21 15:43 ?1170次閱讀