91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá) H100 vs 蘋果M2 大模型訓(xùn)練,哪款性價比更高?

GPU視覺識別 ? 來源:GPU視覺識別 ? 作者:GPU視覺識別 ? 2023-07-28 16:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

M1芯片 | Uitra| AMD| A100

M2芯片|ARM| A800 | H100

關(guān)鍵詞:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX4090、A800;A100;H100;LLAMA、LM、AIGC、CHATGLM、LLVM、LLM、LLMs、GLM、NLP、ChatGPT、AGI、HPC、GPUCPU、CPU+GPU、英偉達(dá)、Nvidia、英特爾、AMD、高性能計(jì)算、高性能服務(wù)器、藍(lán)海大腦、多元異構(gòu)算力、高性能計(jì)算、大模型訓(xùn)練、大型語言模型、通用人工智能、GPU服務(wù)器、GPU集群、大模型訓(xùn)練GPU集群、大語言模型

摘要:訓(xùn)練和微調(diào)大型語言模型對于硬件資源的要求非常高。目前,主流的大模型訓(xùn)練硬件通常采用英特爾的CPU和英偉達(dá)的GPU。然而,最近蘋果的M2 Ultra芯片和AMD的顯卡進(jìn)展給我們帶來了一些新的希望。

蘋果的M2 Ultra芯片是一項(xiàng)重要的技術(shù)創(chuàng)新,它為蘋果設(shè)備提供了卓越的性能和能效。與此同時,基于AMD軟硬件系統(tǒng)的大模型訓(xùn)練體系也在不斷發(fā)展,為用戶提供了更多選擇。盡管英偉達(dá)沒有推出與蘋果相媲美的200G顯卡,但他們在顯卡領(lǐng)域的競爭仍然激烈。對比蘋果芯片與英偉達(dá)、英特爾、AMD的最新硬件和生態(tài)建設(shè),我們可以看到不同廠商在性價比方面帶來了全新的選擇。

藍(lán)海大腦為生成式AI應(yīng)用提供了極具吸引力的算力平臺,與英特爾緊密協(xié)作,為客戶提供強(qiáng)大的大模型訓(xùn)練和推理能力,加速AIGC創(chuàng)新步伐、賦力生成式AI產(chǎn)業(yè)創(chuàng)新。

wKgaomTDeA2AAHc3AAhJqmH5QqU790.png

基于英特爾CPU+英偉達(dá)GPU大模型訓(xùn)練基礎(chǔ)架構(gòu)

一、深度學(xué)習(xí)架構(gòu)大模型的主要優(yōu)勢

當(dāng)前主流大模型架構(gòu)都是基于深度學(xué)習(xí)transformer的架構(gòu)模型,使用GPU訓(xùn)練深度學(xué)習(xí)架構(gòu)的大模型主要有以下優(yōu)勢:

1、高性能計(jì)算

深度學(xué)習(xí)中的大部分計(jì)算都是浮點(diǎn)計(jì)算,包括矩陣乘法和激活函數(shù)的計(jì)算。GPU在浮點(diǎn)計(jì)算方面表現(xiàn)出色,具有高性能計(jì)算能力。

2、并行計(jì)算能力

GPU具有高度并行的計(jì)算架構(gòu),能夠同時執(zhí)行多個計(jì)算任務(wù)。深度學(xué)習(xí)模型通常需要執(zhí)行大量的矩陣乘法和向量運(yùn)算,這些操作可以高度并行的方式進(jìn)行,從而提高深度學(xué)習(xí)模型訓(xùn)練效率。

3、高內(nèi)存帶寬

GPU提供高達(dá)幾百GB/s的內(nèi)存帶寬,滿足深度學(xué)習(xí)模型對數(shù)據(jù)大容量訪問需求。這種高內(nèi)存帶寬能夠加快數(shù)據(jù)傳輸速度,提高模型訓(xùn)練的效率。

wKgaomTDeA6ARyl4AAAAK9URceg317.gif

wKgZomTDeBCAQpPnAAvK8MKbjXE514.png

二、當(dāng)前大多數(shù)大模型采用英特爾的CPU加英偉達(dá)的GPU作為計(jì)算基礎(chǔ)設(shè)施的原因

盡管GPU在訓(xùn)練大模型時發(fā)揮著重要作用,但單靠GPU遠(yuǎn)遠(yuǎn)不夠。除GPU負(fù)責(zé)并行計(jì)算和深度學(xué)習(xí)模型訓(xùn)練外,CPU在訓(xùn)練過程中也扮演著重要角色,其主要負(fù)責(zé)數(shù)據(jù)的預(yù)處理、后處理以及管理整個訓(xùn)練過程的任務(wù)。通過GPU和CPU之間的協(xié)同工作,可以實(shí)現(xiàn)高效的大規(guī)模模型訓(xùn)練。

1、強(qiáng)大的性能

英特爾最新CPU采用Alder Lake架構(gòu),具備出色的通用計(jì)算能力。而英偉達(dá)最新GPU H100擁有3.35TB/s的顯存帶寬、80GB的顯存大小和900GB/s的顯卡間通信速度,對大數(shù)據(jù)吞吐和并行計(jì)算提供友好的支持。

2、廣泛的支持和生態(tài)系統(tǒng)

基于英特爾CPU提供的AVX2指令集和基于英偉達(dá)GPU提供的CUDA并行計(jì)算平臺和編程模型,構(gòu)建優(yōu)秀的底層加速庫如PyTorch等上層應(yīng)用。

3、良好的兼容性和互操作性

在硬件和軟件設(shè)計(jì)上考慮彼此配合使用的需求,能夠有效地協(xié)同工作。這種兼容性和互操作性使得英特爾的CPU和英偉達(dá)的GPU成為流行的組合選擇,在大規(guī)模模型訓(xùn)練中得到廣泛應(yīng)用。

蘋果的M2 Ultra統(tǒng)一內(nèi)存架構(gòu)

在WWDC2023開發(fā)者大會上蘋果推出M2 Ultra芯片,以及搭載該芯片的新款Mac Studio和Mac Pro。這款芯片采用了第二代5nm制程工藝技術(shù),是蘋果迄今為止最大且最強(qiáng)大的芯片。

去年3月,蘋果展示了一種將兩塊M1芯片“粘”在一起的設(shè)計(jì),發(fā)布集成1140億顆晶體管、20核CPU、最高64核GPU、32核神經(jīng)網(wǎng)絡(luò)引擎、2.5TB/s數(shù)據(jù)傳輸速率、800GB/s內(nèi)存帶寬、128GB統(tǒng)一內(nèi)存的“至尊版”芯片M1 Ultra。延續(xù)M1 Ultra的設(shè)計(jì)思路,M2 Ultra芯片通過采用突破性的UltraFusion架構(gòu),將兩塊M2 Max芯片拼接到一起,擁有1340億個晶體管,比上一代M1 Ultra多出200億個。

UltraFusion是蘋果在定制封裝技術(shù)方面的領(lǐng)先技術(shù),其使用硅中介層(interposer)將芯片與超過10000個信號連接起來,從而提供超過2.5TB/s的低延遲處理器間帶寬?;谶@一技術(shù),M2 Ultra芯片在內(nèi)存方面比M1 Ultra高出了50%,達(dá)到192GB的統(tǒng)一內(nèi)存,并且擁有比M2 Max芯片高兩倍的800GB/s內(nèi)存帶寬。以往由于內(nèi)存不足,即使是最強(qiáng)大的獨(dú)立GPU也無法處理大型模型。然而,蘋果通過將超大內(nèi)存帶寬集成到單個SoC中,實(shí)現(xiàn)單臺設(shè)備可以運(yùn)行龐大的機(jī)器學(xué)習(xí)工作負(fù)載,如大型Transformer模型等。

wKgaomTDeA6ARyl4AAAAK9URceg317.gif

AMD的大模型訓(xùn)練生態(tài)

除蘋果的M2 Ultra在大模型訓(xùn)練方面取得了顯著進(jìn)展之外,AMD的生態(tài)系統(tǒng)也在加速追趕。

據(jù)7月3日消息,NVIDIA以其顯著的優(yōu)勢在顯卡領(lǐng)域獲得了公認(rèn)的地位,無論是在游戲還是計(jì)算方面都有著顯著的優(yōu)勢,而在AI領(lǐng)域更是幾乎壟斷。然而,有好消息傳來,AMD已經(jīng)開始發(fā)力,其MI250顯卡性能已經(jīng)達(dá)到了NVIDIA A100顯卡的80%。 AMD在AI領(lǐng)域的落后主要是因?yàn)槠滠浖鷳B(tài)無法跟上硬件發(fā)展的步伐。盡管AMD的顯卡硬件規(guī)格很高,但其運(yùn)算環(huán)境與NVIDIA的CUDA相比仍然存在巨大的差距。最近,AMD升級了MI250顯卡,使其更好地支持PyTorch框架。

MosaicML的研究結(jié)果顯示,MI250顯卡在優(yōu)化后的性能提升顯著,大語言模型訓(xùn)練速度已達(dá)到A100顯卡的80%。AMD指出,他們并未為MosaicML進(jìn)行這項(xiàng)研究提供資助,但表示將繼續(xù)與初創(chuàng)公司合作,以優(yōu)化軟件支持。 但需要注意的是,NVIDIA A100顯卡是在2020年3月發(fā)布的,已經(jīng)是上一代產(chǎn)品,而NVIDIA目前最新的AI加速卡是H100,其AI性能有數(shù)倍至數(shù)十倍的提升。AMD的MI250顯卡也不是最新產(chǎn)品,其在2021年底發(fā)布,采用CDNA2架構(gòu),6nm工藝,擁有208個計(jì)算單元和13312個流處理器核心,各項(xiàng)性能指標(biāo)比MI250X下降約5.5%,其他規(guī)格均未變動。

AMD體系的特點(diǎn)如下:

一、LLM訓(xùn)練非常穩(wěn)定

使用AMD MI250和NVIDIA A100在MPT-1B LLM模型上進(jìn)行訓(xùn)練時,從相同的檢查點(diǎn)開始,損失曲線幾乎完全相同。

二、性能與現(xiàn)有的A100系統(tǒng)相媲美

MosaicML對MPT模型的1B到13B參數(shù)進(jìn)行了性能分析發(fā)現(xiàn)MI250每個GPU的訓(xùn)練吞吐量在80%的范圍內(nèi)與A100-40GB相當(dāng),并且與A100-80GB相比在73%的范圍內(nèi)。隨著AMD軟件的改進(jìn),預(yù)計(jì)這一差距將會縮小。

三、基本無需代碼修改

得益于PyTorch對ROCm的良好支持,基本上不需要修改現(xiàn)有代碼。

英偉達(dá)顯卡與蘋果M2 Ultra 相比性能如何

一、英偉達(dá)顯卡與M2 Ultra相比性能如何

在傳統(tǒng)英特爾+英偉達(dá)獨(dú)立顯卡架構(gòu)下,CPU與GPU之間的通信通常通過PCIe進(jìn)行。最強(qiáng)大的H100支持PCIe Gen5,傳輸速度為128GB/s,而A100和4090則支持PCIe 4,傳輸速度為64GB/s。

另一個重要的參數(shù)是GPU的顯存帶寬,即GPU芯片與顯存之間的讀寫速度。顯存帶寬是影響訓(xùn)練速度的關(guān)鍵因素。例如,英偉達(dá)4090顯卡的顯存帶寬為1.15TB/s,而A100和H100的顯存帶寬分別為1.99TB/s和3.35TB/s。

最后一個重要的參數(shù)是顯存大小,它指的是顯卡上的存儲容量。目前,4090是消費(fèi)級顯卡的頂級選擇,顯存大小為24GB,而A100和H100單張顯卡的顯存大小均為80GB。這個參數(shù)對于存儲大規(guī)模模型和數(shù)據(jù)集時非常重要。

wKgaomTDeA6ARyl4AAAAK9URceg317.gif

wKgZomTDeBKAD3rnAASTVfeCPpo994.png

M2 Ultra的芯片參數(shù)和4090以及A100的對比(CPU采用英特爾最新的i9-13900KS)

從這些參數(shù)來看,蘋果的M2 Ultra相對于英偉達(dá)的4090來說性能稍低,與專業(yè)級顯卡相比則較為遜色。然而,M2 Ultra最重要的優(yōu)勢在于統(tǒng)一內(nèi)存,即CPU讀寫的內(nèi)存可以直接被顯卡用作顯存。因此,擁有192GB的顯存幾乎相當(dāng)于8個4090或者2.5個A100/H100的顯存。這意味著單個M2 Ultra芯片可以容納非常大的模型。例如,當(dāng)前開源的LLaMA 65B模型需要120GB的顯存才能進(jìn)行推理。這意味著蘋果的M2 Ultra可以直接適用于LLaMA 65B,而目前沒有其他芯片能夠單獨(dú)承載如此龐大的模型,甚至包括最新的H100。

wKgaomTDeBOADgkMAAprJYqhjJ0162.png

從上述參數(shù)對比來看,M2 Ultra在其他指標(biāo)接近4090的情況下,顯存大小成為其最大的優(yōu)勢。盡管M2 Ultra并非專為大模型訓(xùn)練而設(shè)計(jì),但其架構(gòu)非常適合進(jìn)行大模型訓(xùn)練。

在上層生態(tài)方面,進(jìn)展也非常良好。2022年5月18日,PyTorch宣布支持蘋果芯片,并開始適配M1 Ultra,利用蘋果提供的芯片加速庫MPS進(jìn)行加速Ultra上使用PyTorch進(jìn)行訓(xùn)練。以文本生成圖片為例,它能夠一次性生成更多且更高精度的圖片。

二、NVIDIA為什么不推出一款200GB顯存以上的GPU?

主要原因可以分為以下幾點(diǎn):

1、大語言模型火起來還沒多久;

2、顯存容量和算力是要匹配的,空有192GB顯存,但是算力不足并無意義;

3、蘋果大內(nèi)存,適合在本地進(jìn)行推理,有希望引爆在端側(cè)部署AI的下一輪熱潮。

從2022年11月ChatGPT火起來到現(xiàn)在,時間也不過才半年時間。從項(xiàng)目立項(xiàng),到確定具體的規(guī)格,再到設(shè)計(jì)產(chǎn)品,并且進(jìn)行各種測試,最終上市的全流程研發(fā)時間至少在一年以上??陀^上講,大語言模型形成全球范圍的熱潮,一定會帶動對于顯存容量的需求。英偉達(dá)未來顯存容量的升級速度一定會提速。

過去之所以消費(fèi)級顯卡的顯存容量升級較慢,根本原因是沒有應(yīng)用場景。8GB的消費(fèi)級顯卡用來打游戲足矣,加速一些視頻剪輯也綽綽有余。更高的顯存容量,只能服務(wù)于少量科研人員,而且大多都去買了專業(yè)卡專門應(yīng)用?,F(xiàn)在有了大語言模型,可以在本地部署一個開源的模型。有了對于顯存的明確需求,未來一定會快速提升顯存容量的。

其次,蘋果有192GB的統(tǒng)一內(nèi)存可以用于大語言模型的“訓(xùn)練”。這個認(rèn)知是完全錯誤的。AI模型可以分為訓(xùn)練(train)、微調(diào)(fine-tune)和推理(inference)。簡單來說,訓(xùn)練就是研發(fā)人員研發(fā)AI模型的過程,推理就是用戶部署在設(shè)備上來用。從算力消耗上來說,是訓(xùn)練>微調(diào)>推理,訓(xùn)練要比推理的算力消耗高至少3個數(shù)量級以上。

訓(xùn)練也不純粹看一個顯存容量大小,而是和芯片的算力高度相關(guān)的。因?yàn)閷?shí)際訓(xùn)練的過程當(dāng)中,將海量的數(shù)據(jù)切塊成不同的batch size,然后送入顯卡進(jìn)行訓(xùn)練。顯存大,意味著一次可以送進(jìn)更大的數(shù)據(jù)塊。但是芯片算力如果不足,單個數(shù)據(jù)塊就需要更長的等待時間。

顯存和算力,必須要相輔相成。在有限的產(chǎn)品成本內(nèi),兩者應(yīng)當(dāng)是恰好在一個平衡點(diǎn)上?,F(xiàn)階段英偉達(dá)的H100能夠廣泛用于各大廠商的真實(shí)模型訓(xùn)練,而不是只存在于幾個自媒體玩具級別的視頻里面,說明H100能夠滿足廠商的使用需要。

要按蘋果的顯存算法,一塊Grace Hopper就超過了啊。一塊Grace Hopper的統(tǒng)一內(nèi)存高達(dá)512GB,外加Hopper還有96GB的獨(dú)立顯存,早就超了。

wKgZomTDeBOAGEnUAAmXFmbztj0005.png

使用NVIDIA H100訓(xùn)練ChatGPT大模型僅用11分鐘

AI技術(shù)的蓬勃發(fā)展使得NVIDIA的顯卡成為市場上備受矚目的熱門產(chǎn)品。尤其是高端的H100加速卡,其售價超過25萬元,然而市場供不應(yīng)求。該加速卡的性能也非常驚人,最新的AI測試結(jié)果顯示,基于GPT-3的大語言模型訓(xùn)練任務(wù)刷新了記錄,完成時間僅為11分鐘。

據(jù)了解,機(jī)器學(xué)習(xí)及人工智能領(lǐng)域的開放產(chǎn)業(yè)聯(lián)盟MLCommons發(fā)布了最新的MLPerf基準(zhǔn)評測。包括8個負(fù)載測試,其中就包含基于GPT-3開源模型的LLM大語言模型測試,這對于評估平臺的AI性能提出了很高的要求。

參與測試的NVIDIA平臺由896個Intel至強(qiáng)8462Y+處理器和3584個H100加速卡組成,是所有參與平臺中唯一能夠完成所有測試的。并且,NVIDIA平臺刷新了記錄。在關(guān)鍵的基于GPT-3的大語言模型訓(xùn)練任務(wù)中,H100平臺僅用了10.94分鐘,與之相比,采用96個至強(qiáng)8380處理器和96個Habana Gaudi2 AI芯片構(gòu)建的Intel平臺完成同樣測試所需的時間為311.94分鐘。

H100平臺的性能幾乎是Intel平臺的30倍,當(dāng)然,兩套平臺的規(guī)模存在很大差異。但即便只使用768個H100加速卡進(jìn)行訓(xùn)練,所需時間仍然只有45.6分鐘,遠(yuǎn)遠(yuǎn)超過采用Intel平臺的AI芯片。

H100加速卡采用GH100 GPU核心,定制版臺積電4nm工藝制造,擁有800億個晶體管。它集成了18432個CUDA核心、576個張量核心和60MB的二級緩存,支持6144-bit HBM高帶寬內(nèi)存以及PCIe 5.0接口

wKgaomTDeA6ARyl4AAAAK9URceg317.gif

wKgZomTDeBWAM9KoAAbs4ovuNQQ833.png

H100計(jì)算卡提供SXM和PCIe 5.0兩種樣式。SXM版本擁有15872個CUDA核心和528個Tensor核心,而PCIe 5.0版本則擁有14952個CUDA核心和456個Tensor核心。該卡的功耗最高可達(dá)700W。

就性能而言,H100加速卡在FP64/FP32計(jì)算方面能夠達(dá)到每秒60萬億次的計(jì)算能力,而在FP16計(jì)算方面達(dá)到每秒2000萬億次的計(jì)算能力。此外,它還支持TF32計(jì)算,每秒可達(dá)到1000萬億次,是A100的三倍。而在FP8計(jì)算方面,H100加速卡的性能可達(dá)每秒4000萬億次,是A100的六倍。

藍(lán)海大腦大模型訓(xùn)練平臺

藍(lán)海大腦大模型訓(xùn)練平臺提供強(qiáng)大的支持,包括基于開放加速模組高速互聯(lián)的AI加速器。配置高速內(nèi)存且支持全互聯(lián)拓?fù)?,滿足大模型訓(xùn)練中張量并行的通信需求。支持高性能I/O擴(kuò)展,同時可以擴(kuò)展至萬卡AI集群,滿足大模型流水線和數(shù)據(jù)并行的通信需求。強(qiáng)大的液冷系統(tǒng)熱插拔及智能電源管理技術(shù),當(dāng)BMC收到PSU故障或錯誤警告(如斷電、電涌,過熱),自動強(qiáng)制系統(tǒng)的CPU進(jìn)入ULFM(超低頻模式,以實(shí)現(xiàn)最低功耗)。致力于通過“低碳節(jié)能”為客戶提供環(huán)保綠色的高性能計(jì)算解決方案。主要應(yīng)用于深度學(xué)習(xí)、學(xué)術(shù)教育、生物醫(yī)藥、地球勘探、氣象海洋、超算中心、AI及大數(shù)據(jù)等領(lǐng)域。

wKgaomTDeA6ARyl4AAAAK9URceg317.gif

一、為什么需要大模型?

1、模型效果更優(yōu)

大模型在各場景上的效果均優(yōu)于普通模型

2、創(chuàng)造能力更強(qiáng)

大模型能夠進(jìn)行內(nèi)容生成(AIGC),助力內(nèi)容規(guī)模化生產(chǎn)

3、靈活定制場景

通過舉例子的方式,定制大模型海量的應(yīng)用場景

4、標(biāo)注數(shù)據(jù)更少

通過學(xué)習(xí)少量行業(yè)數(shù)據(jù),大模型就能夠應(yīng)對特定業(yè)務(wù)場景的需求

二、平臺特點(diǎn)

1、異構(gòu)計(jì)算資源調(diào)度

一種基于通用服務(wù)器和專用硬件的綜合解決方案,用于調(diào)度和管理多種異構(gòu)計(jì)算資源,包括CPU、GPU等。通過強(qiáng)大的虛擬化管理功能,能夠輕松部署底層計(jì)算資源,并高效運(yùn)行各種模型。同時充分發(fā)揮不同異構(gòu)資源的硬件加速能力,以加快模型的運(yùn)行速度和生成速度。

2、穩(wěn)定可靠的數(shù)據(jù)存儲

支持多存儲類型協(xié)議,包括塊、文件和對象存儲服務(wù)。將存儲資源池化實(shí)現(xiàn)模型和生成數(shù)據(jù)的自由流通,提高數(shù)據(jù)的利用率。同時采用多副本、多級故障域和故障自恢復(fù)等數(shù)據(jù)保護(hù)機(jī)制,確保模型和數(shù)據(jù)的安全穩(wěn)定運(yùn)行。

3、高性能分布式網(wǎng)絡(luò)

提供算力資源的網(wǎng)絡(luò)和存儲,并通過分布式網(wǎng)絡(luò)機(jī)制進(jìn)行轉(zhuǎn)發(fā),透傳物理網(wǎng)絡(luò)性能,顯著提高模型算力的效率和性能。

4、全方位安全保障

在模型托管方面,采用嚴(yán)格的權(quán)限管理機(jī)制,確保模型倉庫的安全性。在數(shù)據(jù)存儲方面,提供私有化部署和數(shù)據(jù)磁盤加密等措施,保證數(shù)據(jù)的安全可控性。同時,在模型分發(fā)和運(yùn)行過程中,提供全面的賬號認(rèn)證和日志審計(jì)功能,全方位保障模型和數(shù)據(jù)的安全性。

三、常用配置

目前大模型訓(xùn)練多常用H100、H800、A800、A100等GPU顯卡,其中H100 配備第四代 Tensor Core 和 Transformer 引擎(FP8 精度),與上一代產(chǎn)品相比,可為多專家 (MoE) 模型提供高 9 倍的訓(xùn)練速度。通過結(jié)合可提供 900 GB/s GPU 間互連的第四代 NVlink、可跨節(jié)點(diǎn)加速每個 GPU 通信的 NVLINK Switch 系統(tǒng)、PCIe 5.0 以及 NVIDIA Magnum IO? 軟件,為小型企業(yè)到大規(guī)模統(tǒng)一 GPU 集群提供高效的可擴(kuò)展性。

搭載 H100 的加速服務(wù)器可以提供相應(yīng)的計(jì)算能力,并利用 NVLink 和 NVSwitch 每個 GPU 3 TB/s 的顯存帶寬和可擴(kuò)展性,憑借高性能應(yīng)對數(shù)據(jù)分析以及通過擴(kuò)展支持龐大的數(shù)據(jù)集。通過結(jié)合使用 NVIDIA Quantum-2 InfiniBand、Magnum IO 軟件、GPU 加速的 Spark 3.0 和NVIDIA RAPIDS?,NVIDIA 數(shù)據(jù)中心平臺能夠以出色的性能和效率加速這些大型工作負(fù)載。

1、H100工作站常用配置

CPU:英特爾至強(qiáng)Platinum 8468 48C 96T 3.80GHz 105MB 350W *2

內(nèi)存:動態(tài)隨機(jī)存取存儲器64GB DDR5 4800兆赫 *24

存儲:固態(tài)硬盤3.2TB U.2 PCIe第4代 *4

GPU :Nvidia Vulcan PCIe H100 80GB *8

平臺 :HD210 *1

散熱 :CPU+GPU液冷一體散熱系統(tǒng) *1

網(wǎng)絡(luò) :英偉達(dá)IB 400Gb/s單端口適配器 *8

電源:2000W(2+2)冗余高效電源 *1

2、A800工作站常用配置

CPU:Intel 8358P 2.6G 11.2UFI 48M 32C 240W *2

內(nèi)存:DDR4 3200 64G *32

數(shù)據(jù)盤:960G 2.5 SATA 6Gb R SSD *2

硬盤:3.84T 2.5-E4x4R SSD *2

網(wǎng)絡(luò):雙口10G光纖網(wǎng)卡(含模塊)*1

雙口25G SFP28無模塊光纖網(wǎng)卡(MCX512A-ADAT )*1

GPU:HV HGX A800 8-GPU 8OGB *1

電源:3500W電源模塊*4

其他:25G SFP28多模光模塊 *2

單端口200G HDR HCA卡(型號:MCX653105A-HDAT) *4

2GB SAS 12Gb 8口 RAID卡 *1

16A電源線纜國標(biāo)1.8m *4

托軌 *1

主板預(yù)留PCIE4.0x16接口 *4

支持2個M.2 *1

原廠質(zhì)保3年 *1

3、A100工作站常用配置

CPU:Intel Xeon Platinum 8358P_2.60 GHz_32C 64T_230W *2

RAM:64GB DDR4 RDIMM服務(wù)器內(nèi)存 *16

SSD1:480GB 2.5英寸SATA固態(tài)硬盤 *1

SSD2:3.84TB 2.5英寸NVMe固態(tài)硬盤 *2

GPU:NVIDIA TESLA A100 80G SXM *8

網(wǎng)卡1:100G 雙口網(wǎng)卡IB 邁絡(luò)思 *2

網(wǎng)卡2:25G CX5雙口網(wǎng)卡 *1

4、H800工作站常用配置

CPU:Intel Xeon Platinum 8468 Processor,48C64T,105M Cache 2.1GHz,350W *2

內(nèi)存 :64GB 3200MHz RECC DDR4 DIMM *32

系統(tǒng)硬盤: intel D7-P5620 3.2T NVMe PCle4.0x4 3DTLCU.2 15mm 3DWPD *4

GPU: NVIDIA Tesla H800 -80GB HBM2 *8

GPU網(wǎng)絡(luò): NVIDIA 900-9x766-003-SQO PCle 1-Port IB 400 OSFP Gen5 *8

存儲網(wǎng)絡(luò) :雙端口 200GbE IB *1

網(wǎng)卡 :25G網(wǎng)絡(luò)接口卡 雙端口 *1

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10301

    瀏覽量

    180458
  • 蘋果
    +關(guān)注

    關(guān)注

    61

    文章

    24600

    瀏覽量

    208374
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301428
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4087

    瀏覽量

    99192
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1532

    瀏覽量

    16744
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5185
  • H100
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    588
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    數(shù)據(jù)中心缺電,英偉達(dá)又有新動作!

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,英偉達(dá)宣布將舉辦一場私人峰會,邀請聚焦數(shù)據(jù)中心電力問題的初創(chuàng)公司參會,共同應(yīng)對可能阻礙人工智能發(fā)展的電力難題。當(dāng)下,大模型訓(xùn)練與推理對算力的需求呈指
    的頭像 發(fā)表于 12-14 00:06 ?1.3w次閱讀
    數(shù)據(jù)中心缺電,<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>又有新動作!

    突發(fā)!特朗普批準(zhǔn)英偉達(dá)H200芯片對華出口,抽成25%

    一種“妥協(xié)”。此前,英偉達(dá)一直希望向中國銷售其更先進(jìn)的Blackwell系列芯片,但美政府目前仍明確表示不贊成。H200芯片性能雖低于Blackwell,但強(qiáng)于此前已獲準(zhǔn)對華出口的H2
    的頭像 發(fā)表于 12-09 17:58 ?1598次閱讀

    英偉達(dá) Q3 狂攬 308 億

    廠商季度合計(jì) 500 億美元資本支出中,約 30% 流向了英偉達(dá)。 新一代 Blackwell 芯片已全面投產(chǎn),Q3 交付 1.3 萬個 GPU 樣品,H200 GPU 理論性能較 H100
    的頭像 發(fā)表于 11-20 18:11 ?1251次閱讀

    今日看點(diǎn):蘋果認(rèn)證中國快充品牌遭美調(diào)查;英偉達(dá)擬向OpenAI投資最高1000億美元

    系統(tǒng)建設(shè)并部署至少10吉瓦的人工智能(AI)數(shù)據(jù)中心,用于訓(xùn)練和運(yùn)行下一代模型。這一耗電量相當(dāng)于800萬戶美國家庭的用電量。 英偉達(dá)CEO黃仁勛曾表示,10吉瓦相當(dāng)于400萬至500萬
    發(fā)表于 09-23 10:09 ?460次閱讀

    英偉達(dá) H100 GPU 掉卡?做好這五點(diǎn),讓算力穩(wěn)如泰山!

    H100服務(wù)器停工一天損失的算力成本可能比維修費(fèi)還高。今天,我們給大家總結(jié)一套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風(fēng)險壓到最低。一、供電是“生命線”,這3點(diǎn)必須盯緊H100滿載功耗
    的頭像 發(fā)表于 09-05 11:03 ?1152次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b> <b class='flag-5'>H100</b> GPU 掉卡?做好這五點(diǎn),讓算力穩(wěn)如泰山!

    英偉達(dá)被傳暫停生產(chǎn)H20芯片 外交部回應(yīng)

    韓國三星電子、美國安靠科技、富士康等關(guān)鍵零部件供應(yīng)商。 據(jù)悉,美國安靠科技(Amkor)負(fù)責(zé)H20芯片的封裝,而三星電子負(fù)責(zé)提供高帶寬的內(nèi)存芯片。 業(yè)界人士分析稱,一方面英偉達(dá)H20芯
    的頭像 發(fā)表于 08-22 15:58 ?2833次閱讀

    搞定英偉達(dá) H100 ECC 報錯:從原理到維修,一步到位解煩憂

    最近,捷智算GPU維修室收到了不少H100服務(wù)器需要維修,故障問題集中為ECC報錯。為了幫大家更好地認(rèn)識和了解情況,下面就詳細(xì)分享一下ECC報錯系統(tǒng)化排查方法和維修流程。一、ECC報錯
    的頭像 發(fā)表于 08-14 18:05 ?2240次閱讀
    搞定<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b> <b class='flag-5'>H100</b> ECC 報錯:從原理到維修,一步到位解煩憂

    今日看點(diǎn)丨英偉達(dá)向臺積電訂購30萬片H20芯片;蘋果回應(yīng)首次在中國關(guān)停直營店

    ? ? 傳中國市場需求強(qiáng)勁 英偉達(dá)向臺積電訂購30萬片H20芯片 ? 據(jù)報道,兩位消息人士透露,英偉達(dá)上周向代工廠商臺積電訂購了30萬片
    發(fā)表于 07-30 10:02 ?2082次閱讀
    今日看點(diǎn)丨<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>向臺積電訂購30萬片<b class='flag-5'>H</b>20芯片;<b class='flag-5'>蘋果</b>回應(yīng)首次在中國關(guān)停直營店

    H20中國區(qū)賣爆!英偉達(dá)緊急向臺積電加訂30萬塊

    ,性能上相當(dāng)于英偉達(dá)另一主流GPU芯片H100的20%左右。 ? 盡管如此,在美國解禁對H20芯片的出口后,需求仍然超出了想象。據(jù)路透社報
    的頭像 發(fā)表于 07-30 08:08 ?3309次閱讀

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    上漲,英偉達(dá)H100GPU憑借其強(qiáng)大的算力,成為AI訓(xùn)練、高性能計(jì)算領(lǐng)域的核心硬件。然而,隨著使用場景的復(fù)雜化,H100服務(wù)器故障率也逐漸攀
    的頭像 發(fā)表于 05-05 09:03 ?2997次閱讀
    GPU 維修干貨 | <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b> GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    如何高效訓(xùn)練AI模型?這些常用工具你必須知道!

    模型的發(fā)展同樣面臨瓶頸,訓(xùn)練所需的硬件資源日益增加,比如英偉達(dá)的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業(yè)界有觀點(diǎn)認(rèn)為,在大多數(shù)情況下,并不需要全能的大
    的頭像 發(fā)表于 04-17 16:43 ?2239次閱讀
    如何高效<b class='flag-5'>訓(xùn)練</b>AI<b class='flag-5'>模型</b>?這些常用工具你必須知道!

    特朗普要叫停英偉達(dá)對華特供版 英偉達(dá)H20出口限制 或損失55億美元

    是“中國特供版”人工智能芯片;是英偉達(dá)公司為符合美國出口規(guī)定專門為中國市場開發(fā)的定制芯片,H20芯片在訓(xùn)練AI模型方面不如
    的頭像 發(fā)表于 04-16 16:59 ?2087次閱讀

    英偉達(dá)Cosmos-Reason1 模型深度解讀

    英偉達(dá)近期發(fā)布的 Cosmos-Reason1 模型在物理常識推理領(lǐng)域引發(fā)廣泛關(guān)注。作為專為物理世界交互設(shè)計(jì)的多模態(tài)大語言模型,它通過融合視覺感知與復(fù)雜邏輯推理,重新定義了AI對物理世
    的頭像 發(fā)表于 03-29 23:29 ?2992次閱讀

    英偉達(dá)GROOT N1 全球首個開源人形機(jī)器人基礎(chǔ)模型

    英偉達(dá)GROOT N1 全球首個開源人形機(jī)器人基礎(chǔ)大模型
    的頭像 發(fā)表于 03-20 11:05 ?2141次閱讀