91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA全新Hopper架構(gòu)H100 GPU芯片的特別之處

lPCU_elecfans ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:電子發(fā)燒友網(wǎng) ? 2022-03-26 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/程文智)GTC大會(huì)自2020年開始舉辦后,成為了AI開發(fā)者非常關(guān)注的一個(gè)會(huì)議,每次會(huì)議,NVIDIA的CEO黃仁勛都會(huì)發(fā)布一個(gè)主題演講,會(huì)介紹NVIDIA最新的進(jìn)展,以及重磅新品。本次GTC 2022春季大會(huì)也不例外。

GTC2022依然是在線上舉辦,NVIDIA首席執(zhí)行官黃仁勛在數(shù)字孿生技術(shù)支持下的虛擬NVIDIA總部大樓里發(fā)表了主題演講。在他看來(lái),隨著AI技術(shù)的發(fā)展,AI的發(fā)展方向也在發(fā)生著改變,“第一波AI學(xué)習(xí)是感知和推理,比如圖像識(shí)別、語(yǔ)音理解、推薦視頻或商品;下一波AI的發(fā)展方向?qū)⑹?a href="http://m.makelele.cn/soft/data/42-101/" target="_blank">機(jī)器人,也就是使用AI來(lái)規(guī)劃行動(dòng),數(shù)字機(jī)器人、虛擬形象和實(shí)體機(jī)器人將完成感知、規(guī)劃,并采取行動(dòng)?!?/p>

AI正在各個(gè)方向加速發(fā)展,包括新的架構(gòu)、新的學(xué)習(xí)策略、更大和更可靠的模型,同時(shí),AI也在很多新的科學(xué)、新的應(yīng)用、新的行業(yè)等方面加速發(fā)展。比如說,如今的AI不僅學(xué)習(xí)理解圖像、聲音和語(yǔ)言,還正在學(xué)習(xí)生物學(xué)、化學(xué),甚至是量子物理學(xué)等等。

“數(shù)據(jù)中心規(guī)模的加速計(jì)算于機(jī)器學(xué)習(xí)相結(jié)合,可以將計(jì)算速度提高百萬(wàn)倍。正式由于加速計(jì)算的推動(dòng),像Transfermer這樣的革命性AI模型和自監(jiān)督學(xué)習(xí)成為了可能。”黃仁勛特別指出,“各公司都在處理和完善自己的數(shù)據(jù)、開發(fā)AI軟件,并使自己成為智能的生產(chǎn)商。他們 數(shù)據(jù)中心正在逐步演變?yōu)锳I工廠?!边@也意味著AI工廠時(shí)代的來(lái)臨。

為了應(yīng)對(duì)AI工廠時(shí)代對(duì)AI的需求,NVIDIA帶來(lái)了全新的Hopper架構(gòu)H100 GPU芯片、Grace CPU超級(jí)芯片、DGX H100系統(tǒng)、DGX SuperPOD、融合加速器H100 CNX、AI 超級(jí)計(jì)算機(jī)NVIDIA Eos、Spectrum-4、Jetson AGX Orin開發(fā)者套件等一系列新品。下面就讓我們來(lái)看一看這些新品都有什么特別之處。

H100 GPU:全新Hopper架構(gòu),800億個(gè)晶體管

NVIDIA H100 GPU集成了800億個(gè)晶體管,它也是NVIDIA發(fā)布的首款采用Hopper架構(gòu)的GPU。Hopper架構(gòu)是以美國(guó)計(jì)算機(jī)領(lǐng)域的先驅(qū)科學(xué)家Grace Hopper 的名字命名的,它將取代兩年前推出的 NVIDIA Ampere架構(gòu)。

據(jù)黃仁勛介紹,H100 是全球范圍內(nèi)最大的性能出眾的加速器,擁有革命性的 Transformer 引擎和高度可擴(kuò)展的 NVIDIA NVLink互連技術(shù)等突破性功能,可推動(dòng)龐大的 AI 語(yǔ)言模型、深度推薦系統(tǒng)、基因組學(xué)和復(fù)雜數(shù)字孿生的發(fā)展。

從技術(shù)角度來(lái)看,H100帶來(lái)了6項(xiàng)突破性創(chuàng)新:

強(qiáng)大的性能 —— H100 由 800 億個(gè)晶體管構(gòu)建而成,這些晶體管采用了專為 NVIDIA 加速計(jì)算需求設(shè)計(jì)的TSMC 4N工藝,因而能夠顯著提升AI、HPC、顯存帶寬、互連和通信的速度,并能夠?qū)崿F(xiàn)近 5TB/s 的外部互聯(lián)帶寬。H100 是首款支持 PCIe 5.0 的 GPU,也是首款采用 HBM3 的 GPU,可實(shí)現(xiàn) 3TB/s 的顯存帶寬。20個(gè) H100 GPU 便可承托相當(dāng)于全球互聯(lián)網(wǎng)的流量,使其能夠幫助客戶推出先進(jìn)的推薦系統(tǒng)以及實(shí)時(shí)運(yùn)行數(shù)據(jù)推理的大型語(yǔ)言模型。

新的 Transformer 引擎 —— Transformer 現(xiàn)在已成為自然語(yǔ)言處理的標(biāo)準(zhǔn)模型方案,也是深度學(xué)習(xí)模型領(lǐng)域最重要的模型之一。H100 加速器的 Transformer 引擎旨在不影響精度的情況下,將這些網(wǎng)絡(luò)的速度提升至上一代的六倍。

第二代安全多實(shí)例 GPU —— MIG 技術(shù)支持將單個(gè) GPU 分為七個(gè)更小且完全獨(dú)立的實(shí)例,以處理不同類型的作業(yè)。與上一代產(chǎn)品相比,在云環(huán)境中 Hopper 架構(gòu)通過為每個(gè) GPU 實(shí)例提供安全的多租戶配置,將 MIG 的部分能力擴(kuò)展了 7 倍。

機(jī)密計(jì)算 —— H100 是全球首款具有機(jī)密計(jì)算功能的加速器,可保護(hù) AI 模型和正在處理的客戶數(shù)據(jù)??蛻暨€可以將機(jī)密計(jì)算應(yīng)用于醫(yī)療健康和金融服務(wù)等隱私敏感型行業(yè)的聯(lián)邦學(xué)習(xí),也可以應(yīng)用于共享云基礎(chǔ)設(shè)施。

第 4 代 NVIDIA NVLink —— 為加速大型 AI 模型,NVLink 結(jié)合全新的外接 NVLink Switch,可將 NVLink 擴(kuò)展為服務(wù)器間的互聯(lián)網(wǎng)絡(luò),最多可以連接多達(dá) 256 個(gè) H100 GPU,相較于上一代采用 NVIDIA HDR Quantum InfiniBand網(wǎng)絡(luò),帶寬高出9倍。

DPX 指令 —— 新的 DPX 指令可加速動(dòng)態(tài)規(guī)劃,適用于包括路徑優(yōu)化和基因組學(xué)在內(nèi)的一系列算法,與 CPU 和上一代 GPU 相比,其速度提升分別可達(dá) 40 倍和 7 倍。Floyd-Warshall 算法與 Smith-Waterman 算法也在其加速之列,前者可以在動(dòng)態(tài)倉(cāng)庫(kù)環(huán)境中為自主機(jī)器人車隊(duì)尋找最優(yōu)線路,而后者可用于 DNA 和蛋白質(zhì)分類與折疊的序列比對(duì)。

具體來(lái)說,H100 將支持聊天機(jī)器人使用功能超強(qiáng)大的monolithic Transformer 語(yǔ)言模型 Megatron 530B,吞吐量比上一代產(chǎn)品高出 30 倍,同時(shí)滿足實(shí)時(shí)對(duì)話式 AI 所需的次秒級(jí)延遲。利用 H100,研究人員和開發(fā)者能夠訓(xùn)練龐大的模型,如包含 3950 億個(gè)參數(shù)的混合專家模型,訓(xùn)練速度加速高達(dá)9倍,將訓(xùn)練時(shí)間從幾周縮短到幾天。

H100將提供SXM和PCIe兩種規(guī)格,可滿足各種服務(wù)器設(shè)計(jì)需求。NVIDIA H100 SXM 提供 4 GPU 和 8 GPU 配置的 HGX H100 服務(wù)器主板,主要用于高性能服務(wù)器,可助力企業(yè)將應(yīng)用擴(kuò)展至一臺(tái)服務(wù)器和多臺(tái)服務(wù)器中的多個(gè) GPU。H100 PCIe相對(duì)來(lái)說更加實(shí)惠,用于主流服務(wù)器。與上一代相比,這兩種外形尺寸的功率要求都顯著提高。

NVIDIA為SXM版本的顯卡提供了700W TDP,比A100官方的400W TDP高出了75%。官方推薦的冷卻方式是風(fēng)冷和液冷兩種。但在如此功率下,估計(jì)液冷會(huì)更受用戶青睞,畢竟這個(gè)價(jià)格不菲,要是由于散熱問題而導(dǎo)致出問題就不劃算了。

同時(shí),H100 PCIe卡的TDP提高到了350W,冷卻方式也是風(fēng)冷和液冷兩種。當(dāng)然,如果像降低散熱壓力,也可以通過配置方式來(lái)降低顯卡的功耗,只是這么做就要犧牲一些性能了。

為了將Hopper的強(qiáng)大算力引入主流服務(wù)器,英偉達(dá)推出了全新的融合加速器H100 CNX。它將網(wǎng)絡(luò)與GPU直接相連,耦合H100 GPU與英偉達(dá)ConnectX-7 400Gb/s InfiniBand和以太網(wǎng)智能網(wǎng)卡,使網(wǎng)絡(luò)數(shù)據(jù)通過DMA以50GB/s的速度直接傳輸?shù)紿100,能夠避免帶寬瓶頸,為I/O密集型應(yīng)用提供更強(qiáng)勁的性能。

Grace CPU超級(jí)芯片:144個(gè)CPU核心

除了GPU產(chǎn)品,NVIDIA還發(fā)布了其第一款轉(zhuǎn)為數(shù)據(jù)中心設(shè)計(jì)的,基于Arm Neoverse的數(shù)據(jù)中心專屬CPU------ Grace CPU超級(jí)芯片,其可提供最高的性能,是當(dāng)今領(lǐng)先服務(wù)器芯片內(nèi)存帶寬和能效的兩倍。

NVIDIA Grace CPU超級(jí)芯片由兩個(gè)CPU芯片組成,它們之間通過NVLink-C2C互連在一起。NVLink-C2C 是一種新型的高速、低延遲、芯片到芯片的互連技術(shù)。

Grace CPU超級(jí)芯片是去年NVIDIA發(fā)布的首款由 CPU-GPU 集成的“Grace Hopper 超級(jí)芯片”的模塊,它將與基于 NVIDIA Hopper架構(gòu)的 GPU一同應(yīng)用于大型 HPC 和AI 應(yīng)用。這兩款超級(jí)芯片采用相同的底層 CPU 架構(gòu)及 NVLink-C2C 互連。

Grace CPU 超級(jí)芯片專為提供最高的性能而打造,能夠在單個(gè)插座(socket)中容納 144 個(gè) Arm 核心。NVIDIA宣稱,在SPECrate 2017_int_base基準(zhǔn)測(cè)試中,Grace CPU超級(jí)芯片的模擬性能得分為740,據(jù)NVIDIA實(shí)驗(yàn)室使用同類編譯器估算,這一結(jié)果相比當(dāng)前DGX A100搭載的雙CPU高1.5倍以上。

Grace CPU 超級(jí)芯片依托帶有糾錯(cuò)碼的LPDDR5x 內(nèi)存組成的創(chuàng)新的內(nèi)存子系統(tǒng),可實(shí)現(xiàn)速度和功耗的最佳平衡。LPDDR5x 內(nèi)存子系統(tǒng)提供兩倍于傳統(tǒng)DDR5設(shè)計(jì)的帶寬,可達(dá)到每秒1 TB ,同時(shí)功耗也大幅降低 ,CPU加內(nèi)存整體功耗僅500瓦。

此外,Grace CPU 超級(jí)芯片基于最新的數(shù)據(jù)中心架構(gòu) Arm v9,具備最高的單線程核心性能,并支持 Arm 新一代矢量擴(kuò)展。

Grace CPU超級(jí)芯片可運(yùn)行所有的英偉達(dá)計(jì)算軟件棧,結(jié)合NVIDIA ConnectX-7網(wǎng)卡,能夠靈活地配置到服務(wù)器中,或作為獨(dú)立的純CPU系統(tǒng),或作為GPU加速服務(wù)器,可以搭配1塊、2塊、4塊或8塊基于Hopper的GPU。

也就是說,用戶只維護(hù)一套軟件棧,就能針對(duì)自身特定的工作負(fù)載做好性能優(yōu)化。

NVIDIA正在通過 Grace CPU超級(jí)芯片擴(kuò)展其目標(biāo)市場(chǎng),現(xiàn)在涵蓋超大規(guī)模計(jì)算、云、數(shù)據(jù)分析、HPC 和 AI 工作負(fù)載,有效地瞄準(zhǔn)了通用服務(wù)器市場(chǎng)。Grace CPU超級(jí)芯片支持NVIDIA的整個(gè)CUDA 堆棧,并將運(yùn)行NVIDIA的所有應(yīng)用程序,包括NVIDIA RTX、NVIDIA AI、HPC 和 Omniverse。

關(guān)于出貨方面,Grace CPU超級(jí)芯片將于 2023 年上半年開始出貨。

DGX H100系統(tǒng):企業(yè)級(jí)AI基礎(chǔ)設(shè)施

第四代 NVIDIA DGX系統(tǒng),是全球首個(gè)基于全新 NVIDIA H100 Tensor Core GPU的AI平臺(tái)。該系統(tǒng)能夠滿足大型語(yǔ)言模型、推薦系統(tǒng)、醫(yī)療健康研究和氣候科學(xué)的大規(guī)模計(jì)算需求。每個(gè) DGX H100 系統(tǒng)配備8塊 NVIDIA H100 GPU,并由 NVIDIA NVLink 連接,能夠在新的 FP8 精度下達(dá)到 32 Petaflop 的 AI 性能,比上一代系統(tǒng)性能高 6 倍。

DGX H100 系統(tǒng)是新一代 NVIDIA DGX POD 和 NVIDIA DGX SuperPOD AI 基礎(chǔ)設(shè)施平臺(tái)的構(gòu)建模塊。新的 DGX SuperPOD 架構(gòu)采用了一個(gè)全新的 NVIDIA NVLink Switch 系統(tǒng),通過這一系統(tǒng)最多可連接 32 個(gè)節(jié)點(diǎn),總計(jì) 256 塊 H100 GPU。 新一代 DGX SuperPOD 提供 1 Exaflops 的 FP8 AI 性能,比上一代產(chǎn)品性能高 6 倍,能夠運(yùn)行具有數(shù)萬(wàn)億參數(shù)的龐大 LLM 工作負(fù)載,從而推動(dòng) AI 的前沿發(fā)展。 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“AI 已經(jīng)從根本上改變了軟件的功能和產(chǎn)出方式。利用 AI 來(lái)革新自身所處行業(yè)的公司也意識(shí)到了自身 AI 基礎(chǔ)設(shè)施的重要性。NVIDIA 全新 DGX H100 系統(tǒng)將賦能企業(yè) AI 工廠,助力其從數(shù)據(jù)中提煉出我們最具價(jià)值的資源,即‘智能’。"

除了8塊 H100 GPU 以及總計(jì) 6400 億個(gè)晶體管之外,每個(gè) DGX H100 系統(tǒng)還包含兩個(gè) NVIDIA BlueField-3 DPU,以用于卸載、加速和隔離高級(jí)網(wǎng)絡(luò)、存儲(chǔ)及安全服務(wù)。

8個(gè) NVIDIA ConnectX-7 Quantum-2 InfiniBand 網(wǎng)卡能夠提供 400 GB/s 的吞吐量,可用于連接計(jì)算和存儲(chǔ),這一速度比上一代系統(tǒng)提升了一倍。第四代 NVLink 與 NVSwitch相結(jié)合,能夠在每個(gè) DGX H100 系統(tǒng)中的各個(gè) GPU 之間實(shí)現(xiàn) 900 GB/s 的連接速度,是上一代系統(tǒng)的 1.5 倍。 DGX H100 系統(tǒng)使用雙 x86 CPU,能夠與 NVIDIA 網(wǎng)絡(luò)和 NVIDIA 合作伙伴提供的存儲(chǔ)設(shè)備相結(jié)合,使 DGX POD 能夠靈活用于各種規(guī)模的 AI 計(jì)算。 借助 DGX H100 系統(tǒng),DGX SuperPOD 可成為具有可擴(kuò)展性的卓越的企業(yè)級(jí) AI 中心。DGX SuperPOD 中的 DGX H100 節(jié)點(diǎn)和 H100 GPU 由 NVLink Switch 系統(tǒng)和 NVIDIA Quantum-2 InfiniBand 連接,帶寬速度可達(dá) 70 TB/s,比上一代產(chǎn)品高 11 倍。NVIDIA 合作伙伴提供的存儲(chǔ)設(shè)備將經(jīng)過測(cè)試和認(rèn)證,以滿足 DGX SuperPOD AI 計(jì)算的需求。

多個(gè) DGX SuperPOD 單元可組合使用,為汽車、醫(yī)療健康、制造、通信、零售等行業(yè)提供開發(fā)大型模型所需的 AI 性能。

NVIDIA Eos:運(yùn)行速度最快的超計(jì)算機(jī)

NVIDIA 將使用突破性的新型 AI 架構(gòu)來(lái)構(gòu)建 DGX SuperPOD,賦能 NVIDIA 研究人員的研究工作,推動(dòng)氣候科學(xué)、數(shù)字生物學(xué)和 AI 未來(lái)的發(fā)展。 “Eos”超級(jí)計(jì)算機(jī)將于今年晚些時(shí)候開始運(yùn)行,共配備 576 臺(tái) DGX H100 系統(tǒng),共計(jì) 4608 塊 DGX H100 GPU,有望成為全球運(yùn)行速度最快的 AI 系統(tǒng)。 NVIDIA Eos 預(yù)計(jì)將提供 18.4 Exaflops 的 AI 計(jì)算性能,比日本的 Fugaku 超級(jí)計(jì)算機(jī)快 4 倍,后者是目前運(yùn)行速度最快的系統(tǒng)。在傳統(tǒng)的科學(xué)計(jì)算方面,Eos 預(yù)計(jì)將提供 275 Petaflop 的性能。 對(duì)于 NVIDIA 及其 OEM 和云計(jì)算合作伙伴,Eos 將成為其先進(jìn) AI 基礎(chǔ)設(shè)施的藍(lán)圖。

其他新品

NVIDIA早已經(jīng)不是一個(gè)單純的芯片供應(yīng)商了,它們已經(jīng)轉(zhuǎn)型成了一個(gè)全棧公司,除了GPU之外,還提供CPU、DPU產(chǎn)品,甚至還會(huì)跟很多OEM等合作伙伴,把整個(gè)系統(tǒng)都做出來(lái),而且提供各種加速引擎,或者SDK,針對(duì)不同的領(lǐng)域提供不同的解決方案。比如醫(yī)療領(lǐng)域的Clara、智慧城市的Metropolis,自動(dòng)駕駛領(lǐng)域的Drive等等。

在本次GTC大會(huì)上,NVIDIA也介紹了相關(guān)行業(yè)的一些解決方案,比如Clara Holoscan MGX,這是一個(gè)可供醫(yī)療設(shè)備行業(yè)在邊緣開發(fā)和部署實(shí)時(shí) AI 應(yīng)用的平臺(tái),專為滿足必要的監(jiān)管標(biāo)準(zhǔn)而設(shè)計(jì)。

Clara Holoscan MGX 能夠擴(kuò)展 Clara Holoscan 平臺(tái),提供一體化的醫(yī)療級(jí)參考架構(gòu)以及長(zhǎng)期軟件支持,以加速醫(yī)療設(shè)備行業(yè)的創(chuàng)新。它通過處理高吞吐量數(shù)據(jù)流來(lái)提供實(shí)時(shí)洞見,將最新的傳感器創(chuàng)新帶到了邊緣計(jì)算。從機(jī)器人手術(shù)到研究生物學(xué)的新方法,外科醫(yī)生和科學(xué)家需要醫(yī)療設(shè)備逐步發(fā)展成為持續(xù)傳感系統(tǒng),進(jìn)而更好地推動(dòng)疾病的研究和治療。

Clara Holoscan MGX 將高性能 NVIDIA Jetson AGX Orin 工業(yè)級(jí)模塊、NVIDIA RTX A6000 GPU 和 NVIDIA ConnectX-7 智能網(wǎng)卡整合到一個(gè)可擴(kuò)展的 AI 平臺(tái)中,提供高達(dá)每秒 254-619 萬(wàn)億次運(yùn)算的 AI 性能。 對(duì)于高吞吐量設(shè)備,ConnectX-7 能夠提供高達(dá) 200 GbE 的帶寬以及用于 GPU 處理的 GPUDirect RDMA 路徑,有助于加快處理速度。它還集成了最新嵌入式安全模塊,該模塊包含負(fù)責(zé)監(jiān)控關(guān)鍵操作、提供遠(yuǎn)程軟件更新和系統(tǒng)恢復(fù)的控制器,以及可實(shí)現(xiàn)最先進(jìn)嵌入式安全的硬件信任根。 醫(yī)療設(shè)備制造商可以直接嵌入 Clara Holoscan MGX,或?qū)⑵溥B接到現(xiàn)有的醫(yī)療設(shè)備安裝平臺(tái),從而使開發(fā)者能夠加速 AI 部署和監(jiān)管審批。 Clara Holoscan SDK 專為高性能流式數(shù)據(jù)應(yīng)用程序而設(shè)計(jì),用于構(gòu)建新一代軟件定義設(shè)備。它匯集了預(yù)訓(xùn)練模型和可擴(kuò)展微服務(wù)框架,允許在設(shè)備和邊緣數(shù)據(jù)中心管理和部署應(yīng)用程序,開創(chuàng)了行業(yè)的軟件即服務(wù)業(yè)務(wù)模式。Clara Holoscan 開發(fā)者套件現(xiàn)已開始供貨。

此外,NVIDIA還發(fā)布了60多個(gè)針對(duì)CUDA-X的一系列庫(kù)、工具和技術(shù)的更新,以加速量子計(jì)算和6G研究、網(wǎng)絡(luò)安全、基因組學(xué)、藥物研發(fā)等領(lǐng)域的研究進(jìn)展。

來(lái)自NVIDIA、加州理工學(xué)院、伯克利實(shí)驗(yàn)室、普渡大學(xué)、密歇根大學(xué)和萊斯大學(xué)的研究人員,開發(fā)了一個(gè)名為FourCastNet的天氣預(yù)報(bào)AI模型。FourCastNet是一種基于物理信息的深度學(xué)習(xí)模型,可以預(yù)測(cè)颶風(fēng),大氣河、以及極端降水等天氣事件。

FourCastNet以歐洲中期天氣預(yù)報(bào)中心長(zhǎng)達(dá)40年的模擬增強(qiáng)型真值數(shù)據(jù)為基礎(chǔ),學(xué)會(huì)了如何預(yù)測(cè)天氣。深度學(xué)習(xí)模型首次在降水預(yù)測(cè)方面達(dá)到了比先進(jìn)的數(shù)值模型更高的準(zhǔn)確率和技能,并使預(yù)測(cè)速度提高了4到5個(gè)數(shù)量級(jí)。也就是說傳統(tǒng)的數(shù)值模擬需要一年的時(shí)間,而現(xiàn)在只需要幾分鐘。

大氣河是天空中巨大的水汽河流,每條河流的水量都比亞馬遜河的還要多。他們一方面為美國(guó)西部提供了關(guān)鍵的降水來(lái)源,但另一方面,這些巨大的強(qiáng)風(fēng)暴也會(huì)導(dǎo)致災(zāi)難性的洪災(zāi)和暴雪。

NVIDIA創(chuàng)建了Physics-ML模型,該模型可以模擬全球天氣模式的動(dòng)態(tài)變化。以超乎想象的速度和準(zhǔn)確性預(yù)測(cè)大氣河等極端天氣事件。此GPU加速的AI數(shù)字孿生模型名為FourCastNet,由傅里葉神經(jīng)算子提供動(dòng)力支持,基于10TB的氣球系統(tǒng)數(shù)據(jù)進(jìn)行訓(xùn)練,依托這些數(shù)據(jù),以及NVIDIA Modulus和Omniverse,我們能夠提前一周預(yù)測(cè)災(zāi)難性大氣河的精確路線,在一個(gè)NVIDIA GPU的助力下,F(xiàn)ourCastNet只需要幾分之一秒即可完成預(yù)測(cè)。

在黃仁勛看來(lái),Transformer模型開啟了自監(jiān)督學(xué)習(xí),并解除了人工標(biāo)記數(shù)據(jù)的需求。因此,我們可以使用龐大的訓(xùn)練集來(lái)訓(xùn)練Transformer模型,學(xué)習(xí)更充分且可靠的特征。

得益于Transformer,模型和數(shù)據(jù)的規(guī)模皆已擴(kuò)大增長(zhǎng),而模型技能和準(zhǔn)確性也因此快速提升。用于語(yǔ)言理解的Google BERT,用于藥物研發(fā)的NVIDIA MegaMolBart,以及DeepMind的AlphaFold,都是基于Transformer模型的突破性成果。

NVIDIA Triton是一款開源的、超大規(guī)模的模型推理服務(wù)器,是AI部署的“中央車站”,Triton支持在每一代NVIDIA GPU、X86和Arm CPU上部署模型,并具備支持AWS Inferentia等加速器的接口。Triton支持各類模型:CNN、RNN、Transformer、GNN、決策樹,還支持各類框架:TensorFlow、PyTorch、Python、ONNX、XGBoost;Triton支持各類查詢類型:實(shí)時(shí)、離線、批處理,或串流視頻和音頻

Triton支持各類機(jī)器學(xué)習(xí)平臺(tái):AWS、Azure、Google、阿里巴巴、VMWare、Domino Data Lab、OctoML等。

Triton可以在各個(gè)地方運(yùn)行,云、本地、邊緣或嵌入式設(shè)備。

Amazon Shopping正在使用Triton進(jìn)行實(shí)時(shí)拼寫檢查,而微軟正藉由Triton為翻譯服務(wù)提供支持,Triton已經(jīng)被25000位客戶下載超過100萬(wàn)次。

NVIDIA Riva是一種先進(jìn)且基于深度學(xué)習(xí)的端到端語(yǔ)音AI,它可以自定義調(diào)整優(yōu)化。Riva已經(jīng)過預(yù)訓(xùn)練,具有世界一流的識(shí)別率,客戶可以使用定制數(shù)據(jù)調(diào)優(yōu)。使其學(xué)習(xí)行業(yè)、國(guó)家和地區(qū),或公司的特定話術(shù)。黃仁勛認(rèn)為,Riva是對(duì)話式AI服務(wù)的理想選擇。

Maxine是一個(gè)AI模型工具包,現(xiàn)已擁有30個(gè)先進(jìn)模型,可優(yōu)化實(shí)時(shí)視頻通信的視聽效果。比如開遠(yuǎn)程視頻會(huì)議時(shí),Maxine可實(shí)現(xiàn)說話者與所有參會(huì)者保持眼神交流,并能將說的語(yǔ)言實(shí)時(shí)切換成另一種語(yǔ)言,而且音色聽起來(lái)不變。

還有面向推薦系統(tǒng)的AI框架Merlin的1.0版本,Merlin可幫助企業(yè)快速構(gòu)建、部署和擴(kuò)展先進(jìn)的AI推薦系統(tǒng)。比如,微信用Merlin將短視頻推薦延遲縮短為原來(lái)的1/4,并將吞吐量提升了10倍。從CPU遷移至GPU,騰訊在該業(yè)務(wù)上的成本減少了1/2。

以及Omniverse,在黃仁勛看來(lái),作為虛擬世界的仿真引擎,Omniverse平臺(tái)能遵循物理學(xué)定律,構(gòu)建一個(gè)趨真的數(shù)字世界,可以應(yīng)用于使用不同工具的設(shè)計(jì)師之間的遠(yuǎn)程協(xié)作,以及工業(yè)數(shù)字孿生。

用于構(gòu)建數(shù)字?jǐn)伾腘VIDIA Omniverse 軟件,以及全新數(shù)據(jù)中心NVIDIA OVX系統(tǒng),將成為“以行動(dòng)為導(dǎo)向的AI"的組成部分。

"Omniverse是我們機(jī)器人平臺(tái)的核心。像 NASA和亞馬遜一樣,我們和機(jī)器人以及工業(yè)自動(dòng)化領(lǐng)域的客戶都意識(shí)到了數(shù)字?jǐn)伾蚈mniverse 的重要性。"

黃仁勛解釋說,OVX將使用Omniverse數(shù)字?jǐn)伾M(jìn)行大規(guī)模模擬,使多個(gè)自主系統(tǒng)在同一時(shí)空運(yùn)行。

OVX 的骨干是其網(wǎng)絡(luò)編織架構(gòu),為此他發(fā)布了NVIDIA Spectrum-4高性能數(shù)據(jù)基礎(chǔ)架構(gòu)平臺(tái)。

全球首400Gbps端到端網(wǎng)絡(luò)平臺(tái)NVIDIA Spectrum -4由Spectrum-4 交換機(jī)系列、NVIDIA ConnectX-7 SmartNIC、NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 數(shù)據(jù)中心基礎(chǔ)設(shè)施軟件組成。

為了讓更多的用戶能夠使用Omniverse, 黃仁勛發(fā)布了Omniverse Cloud?,F(xiàn)在只需簡(jiǎn)單的點(diǎn)擊操作,協(xié)作者就可以通過云端Omniverse 進(jìn)行連接。

另外,黃仁勛認(rèn)為下一波AI浪潮是機(jī)器人,NVIDIA正在構(gòu)建多個(gè)機(jī)器人平臺(tái),包括用于自動(dòng)駕駛汽車的DRIVE、用于操縱和控制系統(tǒng)的Isaac、用于自主式基礎(chǔ)架構(gòu)的Metropolis、用于醫(yī)療設(shè)備的Holoscan等。

原文標(biāo)題:AI工廠時(shí)代來(lái)臨,黃教主帶來(lái)全新Hopper架構(gòu)GPU、超級(jí)計(jì)算機(jī)和軟件等新品

文章出處:【微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5592

    瀏覽量

    109721
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135432
  • 晶體管
    +關(guān)注

    關(guān)注

    78

    文章

    10395

    瀏覽量

    147730
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39762

    瀏覽量

    301366
  • H100
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    588

原文標(biāo)題:?AI工廠時(shí)代來(lái)臨,黃教主帶來(lái)全新Hopper架構(gòu)GPU、超級(jí)計(jì)算機(jī)和軟件等新品

文章出處:【微信號(hào):elecfans,微信公眾號(hào):電子發(fā)燒友網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA RTX PRO 5000 72GB Blackwell GPU現(xiàn)已全面上市

    NVIDIA RTX PRO 5000 72GB Blackwell GPU 現(xiàn)已全面上市,將基于 NVIDIA Blackwell 架構(gòu)的強(qiáng)大代理式與生成式 AI 能力帶到更多桌面和
    的頭像 發(fā)表于 12-24 10:32 ?827次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 72GB Blackwell <b class='flag-5'>GPU</b>現(xiàn)已全面上市

    在Python中借助NVIDIA CUDA Tile簡(jiǎn)化GPU編程

    兼容未來(lái)的 GPU 架構(gòu)。借助 NVIDIA cuTile Python,開發(fā)者可以直接用 Python 編寫 tile kernels。
    的頭像 發(fā)表于 12-13 10:12 ?1191次閱讀
    在Python中借助<b class='flag-5'>NVIDIA</b> CUDA Tile簡(jiǎn)化<b class='flag-5'>GPU</b>編程

    NVIDIA RTX PRO 2000 Blackwell GPU性能測(cè)試

    越來(lái)越多的應(yīng)用正在使用 AI 加速,而無(wú)論工作站的大小或形態(tài)如何,都有越來(lái)越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新 NVIDIA
    的頭像 發(fā)表于 11-28 09:39 ?6287次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 2000 Blackwell <b class='flag-5'>GPU</b>性能測(cè)試

    今日看點(diǎn):馬斯克:特斯拉已部署超百萬(wàn)顆 AI 芯片;長(zhǎng)鑫存儲(chǔ)發(fā)布全新 DDR5 內(nèi)存新品

    H100H200。 ? 報(bào)道,有知情人士透露最近幾周,美國(guó)政府官員一直在私下討論美國(guó)可以對(duì)華出售哪些芯片。一些人認(rèn)為,與英偉達(dá)Blackwell先進(jìn)芯片相比,向中國(guó)出售
    發(fā)表于 11-24 11:10 ?915次閱讀

    NVIDIA推出NVQLink高速互連架構(gòu)

    NVIDIA 推出 NVIDIA NVQLink,這是一種開放式系統(tǒng)架構(gòu),可將 GPU 計(jì)算的極致性能與量子處理器緊密結(jié)合,以構(gòu)建加速的量子超級(jí)計(jì)算機(jī)。
    的頭像 發(fā)表于 11-03 14:53 ?719次閱讀

    適應(yīng)邊緣AI全新時(shí)代的GPU架構(gòu)

    電子發(fā)燒友網(wǎng)站提供《適應(yīng)邊緣AI全新時(shí)代的GPU架構(gòu).pdf》資料免費(fèi)下載
    發(fā)表于 09-15 16:42 ?47次下載

    英偉達(dá) H100 GPU 掉卡?做好這五點(diǎn),讓算力穩(wěn)如泰山!

    H100服務(wù)器停工一天損失的算力成本可能比維修費(fèi)還高。今天,我們給大家總結(jié)一套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風(fēng)險(xiǎn)壓到最低。一、供電是“生命線”,這3點(diǎn)必須盯緊H100滿載功耗
    的頭像 發(fā)表于 09-05 11:03 ?1149次閱讀
    英偉達(dá) <b class='flag-5'>H100</b> <b class='flag-5'>GPU</b> 掉卡?做好這五點(diǎn),讓算力穩(wěn)如泰山!

    NVIDIA RTX PRO 4500 Blackwell GPU測(cè)試分析

    今天我們帶來(lái)全新 NVIDIA Blackwell 架構(gòu) GPU —— NVIDIA RTX PRO 4500 Blackwell 的測(cè)試,
    的頭像 發(fā)表于 08-28 11:02 ?3982次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4500 Blackwell <b class='flag-5'>GPU</b>測(cè)試分析

    NVIDIA桌面GPU系列擴(kuò)展新產(chǎn)品

    NVIDIA 桌面 GPU 系列擴(kuò)展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的頭像 發(fā)表于 08-18 11:50 ?1409次閱讀

    搞定英偉達(dá) H100 ECC 報(bào)錯(cuò):從原理到維修,一步到位解煩憂

    最近,捷智算GPU維修室收到了不少H100服務(wù)器需要維修,故障問題集中為ECC報(bào)錯(cuò)。為了幫大家更好地認(rèn)識(shí)和了解情況,下面就詳細(xì)分享一下ECC報(bào)錯(cuò)系統(tǒng)化排查方法和維修流程。一、ECC報(bào)錯(cuò)
    的頭像 發(fā)表于 08-14 18:05 ?2232次閱讀
    搞定英偉達(dá) <b class='flag-5'>H100</b> ECC 報(bào)錯(cuò):從原理到維修,一步到位解煩憂

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】+NVlink技術(shù)從應(yīng)用到原理

    。。) 原理學(xué)習(xí) 在「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」書中,作者詳解了從帕斯卡架構(gòu)到40系的Hopper
    發(fā)表于 06-18 19:31

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算
    的頭像 發(fā)表于 05-30 10:36 ?1852次閱讀
    <b class='flag-5'>GPU</b><b class='flag-5'>架構(gòu)</b>深度解析

    借助NVIDIA技術(shù)加速半導(dǎo)體芯片制造

    NVIDIA Blackwell GPU、NVIDIA Grace CPU、高速 NVIDIA NVLink 網(wǎng)絡(luò)架構(gòu)和交換機(jī),以及諸如
    的頭像 發(fā)表于 05-27 13:59 ?1107次閱讀

    iTOP-3588S開發(fā)板四核心架構(gòu)GPU內(nèi)置GPU可以完全兼容0penGLES1.1、2.0和3.2。

    性能強(qiáng) iTOP-3588S開發(fā)板采用瑞芯微RK3588S處理器,是全新一代AloT高端應(yīng)用芯片,搭載八核64位CPU,四核Cortex-A76和四核Cortex-A55架構(gòu)主頻高達(dá)2.4GHZ
    發(fā)表于 05-15 10:36

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    上漲,英偉達(dá)H100GPU憑借其強(qiáng)大的算力,成為AI訓(xùn)練、高性能計(jì)算領(lǐng)域的核心硬件。然而,隨著使用場(chǎng)景的復(fù)雜化,H100服務(wù)器故障率也逐漸攀升,輕則影響業(yè)務(wù)進(jìn)度,重
    的頭像 發(fā)表于 05-05 09:03 ?2989次閱讀
    <b class='flag-5'>GPU</b> 維修干貨 | 英偉達(dá) <b class='flag-5'>GPU</b> <b class='flag-5'>H100</b> 常見故障有哪些?