Exaflop 是衡量超級計(jì)算機(jī)性能的單位,表示該計(jì)算機(jī)每秒可至少進(jìn)行百億億次浮點(diǎn)運(yùn)算。
為了解決這個時代最復(fù)雜的問題,比如如何治療像新冠肺炎和癌癥這樣的疾病、以及如何緩解氣候變化等。計(jì)算機(jī)的計(jì)算量正在不斷增加。
所有這些重大挑戰(zhàn)將計(jì)算帶入了現(xiàn)今的百億億次級時代,頂級性能通常以 exaflops 來衡量。
什么是 Exaflop?
Exaflop 是衡量超級計(jì)算機(jī)性能的單位,表示該計(jì)算機(jī)每秒可以至少進(jìn)行 10^18 或百億億次浮點(diǎn)運(yùn)算。
Exaflop 中的 exa-前綴表示“百億億”,即 10 億乘以 10 億或1的后面有 18 個零。同樣,單個 exabyte 的內(nèi)存子系統(tǒng)可以儲存百億億字節(jié)的數(shù)據(jù)。
exaflop 中的“flop”是浮點(diǎn)運(yùn)算的縮寫。exaflop/s 是表示系統(tǒng)每秒浮點(diǎn)運(yùn)算次數(shù)的單位。
浮點(diǎn)是指所有數(shù)字都用小數(shù)點(diǎn)表示的計(jì)算方法。
1000 Petaflop = 1 Exaflop
前綴 peta- 表示 10^15,即 1 的后面有 15 個零。因此 1 exaflop 等于 1000 petaflop。

1 exaflop 的計(jì)算量到底有多大?相當(dāng)于十億人中的每個人都拿著十億個計(jì)算器。
如果他們同時按下等號,就是進(jìn)行了 1 個 exaflop。
擁有 Big Red 200 和其他幾臺超級計(jì)算機(jī)的印第安納大學(xué)表示,exaflop 計(jì)算機(jī)的速度相當(dāng)于一個人每秒鐘進(jìn)行一次計(jì)算,并一直計(jì)算 31,688,765,000 年。
Exaflop 簡史
在超級計(jì)算發(fā)展史的大部分時間里,一次浮點(diǎn)運(yùn)算就是一次,但隨著工作負(fù)載引入 AI ,這種情況也發(fā)生了變化。
人們開始使用最高的精度格式來表示數(shù)字,這種格式被稱為雙精度,由 IEEE 浮點(diǎn)運(yùn)算標(biāo)準(zhǔn)定義。它之所以被稱為雙精度或 FP64,是因?yàn)橛?jì)算中的每個數(shù)字都需要以 64 位用 0 或 1 表示的數(shù)據(jù)塊表示,而單精度為 32 位。
雙精度使用 64 位確保每個數(shù)字都精確到很細(xì)微的部分,比如 1.0001 + 1.0001 = 2.0002,而不是 1 + 1 = 2。
這種格式非常適合當(dāng)時的大部分工作負(fù)載,比如從原子到飛機(jī)等全部需要確保模擬結(jié)果接近于真實(shí)的模擬。
因此,當(dāng) 1993 年全球最強(qiáng)大的超級計(jì)算機(jī)榜單 TOP500 首次發(fā)布時,衡量 FP64 數(shù)學(xué)性能的 LINPACK 基準(zhǔn)(又稱HPL)自然成為了默認(rèn)的衡量標(biāo)準(zhǔn)。
AI 大爆炸
十年前,計(jì)算行業(yè)發(fā)生了 NVIDIA 首席執(zhí)行官黃仁勛所說的 AI 大爆炸。
這種強(qiáng)大的新計(jì)算形式開始在科學(xué)和商業(yè)應(yīng)用上展現(xiàn)出重大成果,而且它運(yùn)用了一些非常不同的數(shù)學(xué)方法。
深度學(xué)習(xí)并不是模擬真實(shí)世界中的物體,而是在堆積如山的數(shù)據(jù)中篩選,以找到能夠帶來新洞察的模式。
這種數(shù)學(xué)方法需要很高的吞吐量,所以用經(jīng)過簡化的數(shù)字(比如使用 1.01 而不是 1.0001)進(jìn)行大量計(jì)算要比用更復(fù)雜的數(shù)字進(jìn)行少量計(jì)算好得多。
因此 AI 使用 FP32、FP16 和 FP8 等低精度格式,通過 32 位、16 位和 8 位數(shù)讓用戶更快地進(jìn)行更多計(jì)算。
混合精度不斷發(fā)展
AI 使用 64 位數(shù)就如同在周末外出時帶著整個衣柜。
研究人員一直在積極地為 AI 尋找理想的低精度技術(shù)。
例如首個 NVIDIA Tensor Core GPU——Volta,它使用了混合精度,并以 FP16 格式執(zhí)行矩陣乘法,然后用 FP32 累積結(jié)果以獲得更高的精度。
Hopper 通過 FP8 加速
最近,NVIDIA Hopper 架構(gòu)首次發(fā)布了速度更快的低精度 AI 訓(xùn)練方法。Hopper Transformer Engine 能夠自動分析工作負(fù)載,盡可能采用 FP8 并以 FP32 累積結(jié)果。
在進(jìn)行計(jì)算密集度較低的推理工作,比如在生產(chǎn)中運(yùn)行 AI 模型時,TensorFlow 和 PyTorch 等主要框架通過支持 8 位整數(shù)實(shí)現(xiàn)快速性能,因?yàn)檫@樣就不需要使用小數(shù)點(diǎn)來完成工作。
好消息是,NVIDIA GPU 支持上述所有精度格式,因此用戶可以實(shí)現(xiàn)每個工作負(fù)載的最優(yōu)加速。
去年,IEEE P3109 委員會開始為機(jī)器學(xué)習(xí)中使用的精度格式制定行業(yè)標(biāo)準(zhǔn)。這項(xiàng)工作可能還需要一到兩年的時間才能完成。
一些模擬軟件在低精度工作中大放異彩
雖然 FP64 在模擬工作中仍然很受歡迎,但當(dāng)?shù)途葦?shù)學(xué)能夠更快提供可用結(jié)果時,許多人會使用后者。

影響 HPC 應(yīng)用程序性能的因素各不相同
例如,研究人員用 FP32 運(yùn)行廣受歡迎的汽車碰撞模擬器——Ansys LS-Dyna?;蚪M學(xué)也傾向于使用低精度數(shù)學(xué)。
此外,許多傳統(tǒng)的模擬開始在部分工作流程中采用 AI。隨著越來越多的工作負(fù)載使用 AI,超級計(jì)算機(jī)需要支持較低的精度才能有效運(yùn)行這些新興應(yīng)用。
基準(zhǔn)與工作負(fù)載同步發(fā)展
在認(rèn)識到這些變化后,包括 Jack Dongarra(2021 年圖靈獎得主和 HPL 的貢獻(xiàn)者)在內(nèi)的研究人員在 2019 年首次發(fā)布了 HPL-AI,這項(xiàng)新基準(zhǔn)更適合測量新的工作負(fù)載。
Dongarra 在 2019 年的博客中表示:“無論是技術(shù)不斷優(yōu)化的傳統(tǒng)模擬,還是 AI 應(yīng)用,混合精度技術(shù)對于提高超級計(jì)算機(jī)的計(jì)算效率越來越重要。正如 HPL 實(shí)現(xiàn)了對雙精度能力的基準(zhǔn)測試一樣,這種基于 HPL 的新方法可以對超級計(jì)算機(jī)的混合精度能力進(jìn)行大規(guī)?;鶞?zhǔn)測試?!?/p>
尤利希超級計(jì)算中心主任 Thomas Lippert 同意了這一觀點(diǎn)。
他在去年發(fā)表的一篇博客中表示:“我們使用 HPL-AI 基準(zhǔn)是因?yàn)樗饶軌驕?zhǔn)確地衡量日益增加的 AI 和科學(xué)工作負(fù)載中的混合精度工作,也能反映準(zhǔn)確的 64 位浮點(diǎn)計(jì)算結(jié)果?!?/p>
現(xiàn)今的 Exaflop 系統(tǒng)
在 6 月的一份報告中,全球 20 個超級計(jì)算機(jī)中心提交了 HPL-AI 結(jié)果,其中有三個中心提供了超過 1 exaflop 的性能。
在這些系統(tǒng)中,橡樹嶺國家實(shí)驗(yàn)室的超級計(jì)算機(jī)在 HPL 上的 FP64 性能也超過了 1 exaflop。

2022 年 6 月 HPL-AI 結(jié)果的采樣器
兩年前,一非傳統(tǒng)系統(tǒng)首次達(dá)到 1 exaflop。這臺由 Folding@home 聯(lián)盟組裝的眾源超級計(jì)算機(jī)在呼吁幫助抵御新冠疫情后,達(dá)到了這一里程碑,到現(xiàn)在已有超過 100 萬臺計(jì)算機(jī)加入其中。
理論和實(shí)踐中的Exaflop
許多組織從那時起就已開始安裝理論峰值性能超過 1 exaflop 的超級計(jì)算機(jī)。需要注意的是,TOP500 榜單同時發(fā)布 Rmax(實(shí)際)和 Rpeak(理論)分?jǐn)?shù)。
Rmax 指計(jì)算機(jī)實(shí)際表現(xiàn)出的最佳性能。
Rpeak 是一切系統(tǒng)都處于高水平運(yùn)行時的最高理論性能,而這幾乎從未發(fā)生過。該數(shù)值的計(jì)算方法通常是將系統(tǒng)中的處理器數(shù)量乘以其時鐘速度,然后再將結(jié)果乘以處理器在一秒鐘內(nèi)可執(zhí)行的浮點(diǎn)運(yùn)算數(shù)。
因此,如果有人說他們的系統(tǒng)達(dá)到 1 exaflop,請?jiān)儐査f的是 Rmax(實(shí)際)還是Rpeak(理論)。
Exaflop 時代的眾多指標(biāo)
這也是新百億億次時代的眾多細(xì)微變化之一。
值得注意的是,HPL 和 HPL-AI 屬于合成基準(zhǔn),即它們衡量的是數(shù)學(xué)程序的性能,而不是真實(shí)世界的應(yīng)用。MLPerf 等其他基準(zhǔn)則基于真實(shí)世界中的工作負(fù)載。
最后,衡量系統(tǒng)性能的最佳標(biāo)準(zhǔn)當(dāng)然是它運(yùn)行用戶應(yīng)用程序的情況。該衡量標(biāo)準(zhǔn)不是基于 exaflop,而是基于投資回報率。
審核編輯:湯梓紅
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5594瀏覽量
109723 -
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7807瀏覽量
93193 -
AI
+關(guān)注
關(guān)注
91文章
39793瀏覽量
301381
原文標(biāo)題:什么是 Exaflop?
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
湖北發(fā)布傳感器產(chǎn)業(yè)發(fā)展行動方案 劍指2030年帶動5000億應(yīng)用規(guī)模
四方光電:2025年?duì)I收突破10億元
TI AM62L經(jīng)典再進(jìn)化!高能效,低功耗全新發(fā)布
三安光電攜手知名機(jī)構(gòu)推動Micro LED光互連技術(shù)突破,為AI數(shù)據(jù)中心開啟低功耗傳輸新紀(jì)元
江波龍將亮相2026德國紐倫堡嵌入式展,以集成AI Storage賦能車載與具身智能創(chuàng)新
銀基科技亮相巴塞羅那MWC 2026星閃論壇
多家領(lǐng)先企業(yè)集成NVIDIA加速計(jì)算和AI技術(shù)以提升OT網(wǎng)絡(luò)安全
20年專業(yè)rfid標(biāo)簽生產(chǎn)廠家,滿足客戶大量或個性化定制需求 #rfid標(biāo)簽廠家
嵌入式開發(fā)工具的現(xiàn)狀和發(fā)展簡史
一文讀懂京東技術(shù)發(fā)展簡史
物聯(lián)網(wǎng)20年簡史
人形機(jī)器人進(jìn)化簡史
《電子發(fā)燒友電子設(shè)計(jì)周報》聚焦硬科技領(lǐng)域核心價值 第13期:2025.05.26--2025.05.30
機(jī)器人和自動化的未來(1)
五金清洗機(jī)的簡史與未來發(fā)展趨勢解析
Exaflop簡史
評論