91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心的AI時代轉(zhuǎn)型:挑戰(zhàn)與機遇

穎脈Imgtec ? 2024-07-24 08:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:SDNLAB


隨著人工智能AI)的迅速發(fā)展和廣泛應用,數(shù)據(jù)中心作為AI技術(shù)的基石,也面臨著前所未有的挑戰(zhàn)和機遇。為了滿足AI的高性能和低延遲要求,數(shù)據(jù)中心基礎設施必須進行相應的改變和升級。


01、基礎設施的升級需求數(shù)十年來,企業(yè)一直在不斷改變和升級基礎設施,以適應新的應用程序和工作負載。人工智能工作負載通常需要專門的基礎設施,隨著人工智能的普及,這一過程依然持續(xù)。

最近發(fā)布的IDC全球半年度人工智能跟蹤報告進一步證實:硬件支出在整個人工智能領域(包括服務和軟件)中占比最小,但有望實現(xiàn)巨大增長。

與傳統(tǒng)應用程序和工作負載相比,人工智能工作負載對計算和網(wǎng)絡資源提出了全新的、獨特的需求,涉及處理器、核心網(wǎng)絡元素、功耗等多個方面的變革。當然,企業(yè)也曾通過升級計算基礎設施,遷移到更快的處理器、更高性能的存儲和更高速的互連技術(shù)來適應類似的變化。然而,當前情況與先前的升級有兩個關(guān)鍵不同:首先,主體范圍更廣。過去為了運行更復雜應用程序而升級基礎設施的公司主要是領先的大型企業(yè)。但大多數(shù)公司未受到直接影響,無需改變其基礎設施。而在人工智能時代,各種規(guī)模的公司都積極嘗試利用人工智能來優(yōu)化運營、提升客戶體驗、增加收入等。其次,升級的必要性更強烈。當下,許多人工智能應用程序都是基于對來自不同內(nèi)外部數(shù)據(jù)源的大量數(shù)據(jù)進行收集和分析。在大多數(shù)情況下,一旦企業(yè)缺乏適當?shù)幕A設施,就無法有效地將大量數(shù)據(jù)傳輸?shù)狡溆嬎阍O施中。

多年來,企業(yè)一直通過采用更快的處理器、更高效的存儲和更快速的互連技術(shù)來升級計算基礎設施。例如,使用GPU和協(xié)同處理器來加速工作負載,采用并行分布式文件系統(tǒng)以提高存儲性能,以及利用無限波段網(wǎng)絡來加速存儲和計算系統(tǒng)之間的數(shù)據(jù)傳輸?shù)鹊???傮w而言,采用新技術(shù)以滿足日益增長的工作負載需求的趨勢一直在演變,而隨著人工智能的普及,這一趨勢也在持續(xù)發(fā)展。


02、數(shù)據(jù)中心如何支持人工智能人工智能工作負載通常是數(shù)據(jù)和計算密集型的,數(shù)據(jù)中心提供安全、可擴展且可靠的基礎設施,用于存儲、處理和分析人工智能應用生成的大量數(shù)據(jù)。數(shù)據(jù)中心通過高性能計算 (HPC)、托管專用硬件、數(shù)據(jù)存儲和網(wǎng)絡來支持人工智能。高性能計算(HPC)AI的計算需求巨大,這主要是因為AI模型的訓練和推理工作負載所需。為了滿足這種需求,數(shù)據(jù)中心采用了高性能計算(HPC)集群來支撐AI應用和任務。這些HPC集群由一系列通過高速網(wǎng)絡連接的服務器組成,使其能夠?qū)崿F(xiàn)并行處理和加速訓練過程。在數(shù)據(jù)中心環(huán)境中,HPC系統(tǒng)通常都是按照標準的19英寸寬度設計的四柱機架形式。這種設計不僅適合各種服務器類型(如1U服務器、刀片服務器和存儲設備),還具備了模塊化和可擴展的特性,這使得它可以根據(jù)AI任務的需求進行靈活的擴展和升級。

考慮到機架的功率處理能力,它們的功率密度可以在20 kW至60 kW的范圍內(nèi)變化。以一個42U機架為例,如果每臺1U服務器的功耗是500瓦,那么機架的總功率會達到21 kW。但如果這些服務器的功耗增加到1,430瓦,那么機架的總功率將增加到60 kW。相對地,某些低功耗服務器可能只需100瓦,這意味著42U機架上所有服務器的總功率只有4.2 kW。

a2bead04-4953-11ef-817b-92fbcf53809c.png

假設在一個擁有400個機架的數(shù)據(jù)中心中,部署了“標準”和“高”密度的HPC系統(tǒng)。這意味著整個數(shù)據(jù)中心的電力需求范圍在8.4兆瓦(MW)到24.0兆瓦(MW)之間。對于那些具有非常高功率需求的場景,我們可以利用專用的高性能計算(HPC)環(huán)境,這樣的環(huán)境專門針對大規(guī)模的、計算密集型的人工智能任務設計。HPC系統(tǒng)中使用的專用硬件

HPC系統(tǒng)通過整合高性能處理器(CPU)、高速內(nèi)存和GPU等專用硬件,有效處理大量數(shù)據(jù)并支持AI工作負載。這些高端處理器具備迅速高效執(zhí)行復雜計算和數(shù)據(jù)分析的能力。采用這類處理器可確保HPC系統(tǒng)在處理苛刻工作負載,如數(shù)據(jù)挖掘、科學模擬、高級分析和機器學習(ML)任務時,能夠以快速處理速度和最小延遲的方式運行。

深度學習(DL)模型和實時人工智能需要專門的計算加速器來實現(xiàn)深度學習算法。最初,這種計算依賴于廣泛使用的圖形處理單元(GPU)。然而,一些云服務提供商后來開發(fā)了自己的定制芯片,如谷歌的TPU,一種專用集成電路ASIC),以及微軟的Project Catapult,它使用現(xiàn)場可編程門陣列(FPGA),以滿足不斷增長的人工智能工作負載需求。

GPU、ASIC和FPGA等專用硬件能夠加速機器學習算法,已經(jīng)成為現(xiàn)代HPC系統(tǒng)的重要組成部分。這些專用處理器旨在執(zhí)行矩陣計算,特別適用于需要并行處理大量數(shù)據(jù)的機器學習任務。通過充分利用這些專用處理器,HPC系統(tǒng)能夠顯著提高對AI工作負載的處理速度。數(shù)據(jù)存儲AI模型在進行訓練和推理時需要大量數(shù)據(jù),而數(shù)據(jù)中心提供了必要的存儲容量,以容納這些數(shù)據(jù)集。此外,人工智能應用會執(zhí)行大量輸入/輸出(I/O)操作,例如從存儲設備讀取或?qū)懭霐?shù)據(jù),以及通過通信網(wǎng)絡在設備之間交換信息。對于機器學習、深度學習和數(shù)據(jù)處理等人工智能工作負載而言,高速存儲訪問至關(guān)重要。這些工作負載需要存儲系統(tǒng)具有快速的數(shù)據(jù)訪問和傳輸速率。這種快速訪問使得人工智能模型能夠?qū)崟r或接近實時地高效讀取、寫入和處理數(shù)據(jù),從而提高訓練、推理和數(shù)據(jù)分析等任務的性能并減少延遲。

數(shù)據(jù)中心通常使用硬盤驅(qū)動器(HDD)、固態(tài)驅(qū)動器(SSD)和網(wǎng)絡附加存儲(NAS)等大容量存儲設備來存儲和管理龐大的人工智能數(shù)據(jù)集。云服務提供商(CSP)如AWS、Microsoft Azure和Google Cloud提供低延遲和高吞吐量的存儲解決方案。例如,Amazon FSx for Lustre是一種專為計算密集型工作負載設計的高性能文件系統(tǒng),包括機器學習、高性能計算(HPC)和大數(shù)據(jù)處理。

網(wǎng)絡

AI工作負載涉及大量的矩陣計算,這些計算分散在多個處理器上,如CPU、GPU、DPU等。為了有效地支持這些工作負載,我們需要一個高容量、可擴展且高可靠性的網(wǎng)絡。隨著人工智能集群等應用的普及,對網(wǎng)絡帶寬和容量的需求也在不斷增長,這進一步挑戰(zhàn)了網(wǎng)絡的性能和可靠性。

在AI工作負載中,高性能網(wǎng)絡的關(guān)鍵特性包括:

# 吞吐量

在運行大型AI應用時,網(wǎng)絡的帶寬對數(shù)據(jù)中心的整體性能至關(guān)重要。以GPU集群為例,它們通常需要比傳統(tǒng)計算網(wǎng)絡多出約3倍的帶寬。


# Disaggregated AI應用

在該場景下,高性能網(wǎng)絡的重要性進一步提升,由于AI應用的各個組件分布在數(shù)據(jù)中心內(nèi)的多個硬件和軟件資源上,它們需要快速而可靠地進行通信。這些組件之間需要無縫的通信,只有通過強大的網(wǎng)絡基礎設施才能實現(xiàn),例如NVIDIA Mellanox 400G InfiniBand,其網(wǎng)絡容量為每秒400吉比特(Gbps)。


# 效率

人工智能基礎設施的效率與其網(wǎng)絡性能直接相關(guān)。緩慢的網(wǎng)絡可能會在整個基礎設施中造成瓶頸,從而降低AI應用的運行效率。因此,為了確保AI工作負載的高效運行,一個完備的網(wǎng)絡結(jié)構(gòu),包括擁塞控制和帶寬管理等功能,是至關(guān)重要的。


03、AI數(shù)據(jù)中心散熱AI應用和工作負載對IT設備提出了高功率密度的要求,這導致了大量的熱量產(chǎn)生,從而增加了服務器的冷卻需求。數(shù)據(jù)中心因此面臨更多的冷卻挑戰(zhàn),通常需要進行重新設計以確保維持適當?shù)臏囟?。低效的冷卻不僅可能縮短設備的使用壽命和降低計算性能,還會增加冷卻系統(tǒng)的負擔。

為了應對這些冷卻挑戰(zhàn),液體冷卻和浸入式冷卻成為了兩種主要的解決方案。尤其在每個機架功率超過30 kW的高密度環(huán)境中,熱點問題變得尤為明顯,這時可能需要采用特殊的策略(如液冷)。當功率密度達到每機架60 kW至80 kW時,直接芯片液體冷卻變得更加常見。

液冷液體冷卻是一種涉及通過與 CPU 或 GPU 等電子組件直接接觸的冷板循環(huán)冷卻劑(例如水或 3M Novec 或 Fluorinert 等專用液體)的方法。在這個過程中,熱量被液體冷卻劑吸收,然后通過熱交換器或散熱器傳輸?shù)娇諝庵?。冷卻后的液體重新循環(huán)使用。

液體冷卻在管理高密度人工智能工作負載方面特別有效,因為相比傳統(tǒng)的空氣冷卻系統(tǒng),它更有效地散熱。值得注意的是,每單位體積液體的散熱效率比空氣高數(shù)千倍,因此內(nèi)部硬件電子設備中往往采用循環(huán)液冷,液體循環(huán)可以有效地處理小空間中產(chǎn)生的大量熱量,并將其傳遞到硬件外部的介質(zhì),比如空氣。

總體而言,液冷系統(tǒng)在高功率密度環(huán)境中表現(xiàn)理想。然而,需要注意的是,液體冷卻通常僅用于冷卻CPU或GPU,而在房間中會產(chǎn)生一些余熱,可能需要額外的空調(diào)來冷卻其他組件。

浸沒式冷卻浸入式冷卻是一種將電子元件浸入非導電液體冷卻劑(如3M Novec或Fluorinert)中的方法。在這個過程中,冷卻劑吸收部件產(chǎn)生的熱量,通過循環(huán)送至熱交換器進行冷卻,然后再循環(huán)。浸入式冷卻因其在運行HPC環(huán)境的數(shù)據(jù)中心中提供更高功率密度和更低電源使用效率(PUE)而備受關(guān)注。浸入式冷卻不僅可以冷卻CPU,還能夠冷卻印刷電路板(PCB)或主板上的其他組件。


案例研究 – Meta Platforms 的AI數(shù)據(jù)中心Meta Platforms,原名Facebook,是一家主要提供社交媒體和社交網(wǎng)絡服務的科技巨頭。為了滿足其業(yè)務需求,Meta 在全球范圍內(nèi)擁有和運營了21個數(shù)據(jù)中心園區(qū),總面積超過5000萬平方英尺,并且還從其他第三方提供商那里租用了多個數(shù)據(jù)中心。截至2023年,該公司計劃將超過300億美元的資本支出中的大部分用于增強其人工智能(AI)能力,主要通過對GPU、服務器和數(shù)據(jù)中心的投資來實現(xiàn)。Meta 正在興建專門支持下一代人工智能硬件的新數(shù)據(jù)中心。該公司的人工智能投資和產(chǎn)能將為各種產(chǎn)品和服務提供支持,包括廣告、Feed、Reels和Metaverse。到目前為止,Meta 通過使用大規(guī)模GPU集群已經(jīng)取得了一些成果,通過GPU協(xié)同工作可以更高效、更有效地處理復雜的人工智能工作負載。

基于Grand Teton GPU的硬件平臺相比其前身Zion有多項性能提升,包括4倍的主機到GPU帶寬、2倍的計算和數(shù)據(jù)網(wǎng)絡帶寬以及2倍的功率包絡。Grand Teton的設計具有更高的計算能力,能更有效地支持內(nèi)存帶寬限制的工作負載,例如Meta的深度學習推薦模型(DLRM)。

總體而言,Meta的戰(zhàn)略目標是在其所有的數(shù)據(jù)中心中實現(xiàn)標準化設計,以適應高功率密度的AI工作負載,其功率范圍從每機架25 kW到每機架40 kW不等。為此,Meta目前正與能夠構(gòu)建經(jīng)濟高效、高功率密度AI基礎設施的數(shù)據(jù)中心運營商進行合作。

Meta Platforms的液體冷卻

為了支持其高功率密度的人工智能工作負載,Meta采用了液冷技術(shù)來確保服務器始終處于最佳的運行溫度。具體來說,Meta使用空氣輔助液體冷卻(AALC)技術(shù),結(jié)合閉環(huán)系統(tǒng)和后門熱交換器,從而無需借助高架地板或外部管道就能實現(xiàn)服務器的冷卻。這一技術(shù)的采納是Meta向更為健壯的數(shù)據(jù)中心設計轉(zhuǎn)型的一個關(guān)鍵步驟,進而推動了液體冷卻技術(shù)的廣泛應用。


05、AI時代的數(shù)據(jù)中心設計思考AI應用和工作負載使用高功率密度的機架,這些機架可以部署在各種設施類型中,包括大型的超大規(guī)模/云數(shù)據(jù)中心到小型的邊緣數(shù)據(jù)中心。在超大規(guī)模/云數(shù)據(jù)中心方面,像AWS、Microsoft Azure和Google Cloud等云服務提供商提供了專門用于構(gòu)建和部署AI模型的服務。由于這些設施規(guī)模宏大,它們特別適用于處理機器學習和深度學習訓練、大數(shù)據(jù)分析、自然語言處理(NLP)和計算機視覺等人工智能應用程序和工作負載。至于邊緣數(shù)據(jù)中心,這些設施相對較小而分散,位于更靠近數(shù)據(jù)生成和使用的地方,提供計算和存儲服務。邊緣數(shù)據(jù)中心的設計旨在滿足對低延遲的快速響應時間要求的人工智能應用,例如實時視頻分析、增強現(xiàn)實(AR)和虛擬現(xiàn)實(VR)、自動駕駛汽車以及無人機等。值得注意的是,由于不同的人工智能應用和系統(tǒng)對數(shù)據(jù)中心的要求各異,不是所有的數(shù)據(jù)中心都可以針對單一用例進行優(yōu)化。例如,深度學習和人工智能系統(tǒng)需要較高數(shù)量的CPU或GPU處理器核心來縮短訓練時間,而用于人工智能推理的引擎則可以利用較少的處理器核心來完成其任務。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    18

    文章

    5651

    瀏覽量

    75017
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301400
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265363
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    高通挑戰(zhàn)英偉達,發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)隨著生成式AI應用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,在價值數(shù)千
    的頭像 發(fā)表于 10-29 10:36 ?3641次閱讀
    高通<b class='flag-5'>挑戰(zhàn)</b>英偉達,發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b>推理芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    高通挑戰(zhàn)英偉達!發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)隨著生成式AI應用的爆發(fā)式增長,數(shù)據(jù)中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術(shù)積累,正試圖通過差異化戰(zhàn)略,在價值數(shù)千
    的頭像 發(fā)表于 10-29 09:14 ?6453次閱讀
    高通<b class='flag-5'>挑戰(zhàn)</b>英偉達!發(fā)布768GB內(nèi)存<b class='flag-5'>AI</b>推理芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>

    1分鐘帶你了解數(shù)據(jù)中心供電架構(gòu) #電子元器件 #數(shù)據(jù)中心 #供電架構(gòu)

    數(shù)據(jù)中心
    沛城芯動力
    發(fā)布于 :2026年02月03日 15:39:04

    人工智能數(shù)據(jù)中心的光纖布線策略

    隨著人工智能(AI)技術(shù)的飛速發(fā)展,數(shù)據(jù)中心的光纖布線策略正面臨前所未有的挑戰(zhàn)機遇AI的高帶寬需求、低延遲要求以及大規(guī)模并行計算的特點,
    的頭像 發(fā)表于 11-21 10:21 ?392次閱讀

    能源版圖重塑:傾佳電子碳化硅(SiC)如何賦能AI數(shù)據(jù)中心時代的效率與機遇

    能源版圖重塑:傾佳電子碳化硅(SiC)如何賦能AI數(shù)據(jù)中心時代的效率與機遇 傾佳電子(Changer Tech)是一家專注于功率半導體和新能源汽車連接器的分銷商。主要服務于中國工業(yè)電源
    的頭像 發(fā)表于 10-21 10:06 ?934次閱讀
    能源版圖重塑:傾佳電子碳化硅(SiC)如何賦能<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b><b class='flag-5'>時代</b>的效率與<b class='flag-5'>機遇</b>

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    引領AI時代網(wǎng)絡變革:睿海光電的核心競爭力 在AI時代,數(shù)據(jù)中心正經(jīng)歷從傳統(tǒng)架構(gòu)向AI工廠與
    發(fā)表于 08-13 19:01

    華為面向拉美地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡方案

    在華為數(shù)據(jù)通信創(chuàng)新峰會2025拉美站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”為主題的分論壇上,華為面向拉美地區(qū)發(fā)布全新升級的星河
    的頭像 發(fā)表于 08-11 10:42 ?2323次閱讀

    簡單認識安森美AI數(shù)據(jù)中心電源解決方案

    面對AI算力需求爆發(fā)式增長,數(shù)據(jù)中心電力系統(tǒng)正面臨前所未有的挑戰(zhàn)。安森美(onsemi)推出的AI數(shù)據(jù)中心電源解決方案,直擊能效、尺寸等痛點
    的頭像 發(fā)表于 07-05 13:03 ?3515次閱讀
    簡單認識安森美<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>電源解決方案

    華為面向亞太地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡方案

    在華為數(shù)據(jù)通信創(chuàng)新峰會2025亞太站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”為主題的分論壇上,華為面向亞太地區(qū)發(fā)布全新升級的星河
    的頭像 發(fā)表于 06-11 11:11 ?1424次閱讀

    華為面向中東中亞地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡

    近日,在華為數(shù)據(jù)通信創(chuàng)新峰會2025中東中亞站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”為主題的分論壇上,華為面向中東中亞地區(qū)發(fā)布全
    的頭像 發(fā)表于 05-21 15:49 ?875次閱讀

    華為亮相2025全球數(shù)據(jù)中心產(chǎn)業(yè)論壇

    近日,以“讓數(shù)字世界堅定運行”為主題的2025全球數(shù)據(jù)中心產(chǎn)業(yè)論壇在沙漠之城迪拜隆重召開。全球超過500位智算產(chǎn)業(yè)領袖、技術(shù)專家和上下游生態(tài)伙伴齊聚一堂,圍繞智算時代數(shù)據(jù)中心產(chǎn)業(yè)增長新機遇、發(fā)展新路徑展開深度研討,見證
    的頭像 發(fā)表于 05-15 14:17 ?1068次閱讀

    適用于數(shù)據(jù)中心AI時代的800G網(wǎng)絡

    ,成為新一代AI數(shù)據(jù)中心的核心驅(qū)動力。 AI時代的兩大數(shù)據(jù)中心AI工廠與
    發(fā)表于 03-25 17:35

    華為全新升級星河AI數(shù)據(jù)中心網(wǎng)絡

    在華為中國合作伙伴大會2025期間,以 “星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”為主題的數(shù)據(jù)中心網(wǎng)絡分論壇圓滿落幕。本次論壇匯聚了來自全國
    的頭像 發(fā)表于 03-24 14:46 ?1091次閱讀

    Cadence顛覆AI數(shù)據(jù)中心設計

    ,當今新型數(shù)據(jù)中心AI 工廠)的建設正面臨著如何處理其巨大的功耗和散熱問題的嚴峻挑戰(zhàn),數(shù)字孿生技術(shù)在這場變革中扮演著至關(guān)重要的角色。
    的頭像 發(fā)表于 03-21 15:43 ?1157次閱讀

    華為發(fā)布新一代站點能源架構(gòu)及AI數(shù)據(jù)中心建設理念

    SitePower"及AI數(shù)據(jù)中心建設原則RASTM,旨在加速運營商成為能源產(chǎn)消者,打造更優(yōu)ICT能源基礎設施,把握AI時代機遇。 華為
    的頭像 發(fā)表于 03-13 15:38 ?827次閱讀
    華為發(fā)布新一代站點能源架構(gòu)及<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>建設理念