91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)接近芯片算力極限?如何擺脫被淘汰的命運

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-10-30 08:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

關(guān)于深度學(xué)習(xí),它正在快速接近其極限。雖然事實可能的確如此,但我們?nèi)晕茨茉谌粘I钪懈惺艿饺娌渴鹕疃葘W(xué)習(xí)的影響。

MIT:算力將探底,算法需改革

MIT 發(fā)出警告:深度學(xué)習(xí)正在接近現(xiàn)有芯片的算力極限,如果不變革算法,深度學(xué)習(xí)恐難再進步。

根據(jù)麻省理工學(xué)院,MIT-IBM Watson AI 實驗室,Underwood 國際學(xué)院和巴西利亞大學(xué)的研究人員在最近的研究中發(fā)現(xiàn),持續(xù)不斷的進步將需要通過改變現(xiàn)有技術(shù)或通過尚未發(fā)現(xiàn)的新方法來更有效地使用深度學(xué)習(xí)方法。

目前深度學(xué)習(xí)的繁榮過度依賴算力的提升,在后摩爾定律時代可能遭遇發(fā)展瓶頸,在算法改進上還需多多努力。

深度學(xué)習(xí)不是偶然的計算代價,而是設(shè)計的代價。共同的靈活性使它能夠出色地建模各種現(xiàn)象,并且性能優(yōu)于專家模型,這也使其在計算上的成本大大提高。

研究人員估計,三年的算法改進相當于計算能力提高 10 倍??傮w而言,在深度學(xué)習(xí)的許多領(lǐng)域中,訓(xùn)練模型的進步取決于所使用的計算能力的大幅度提高。另一種可能性是,要改善算法本身可能需要互補地提高計算能力。

在研究過程中,研究人員還對預(yù)測進行了推斷,以了解達到各種理論基準所需的計算能力以及相關(guān)的經(jīng)濟和環(huán)境成本。

即使是最樂觀的計算,要降低 ImageNet 上的圖像分類錯誤率,也需要進行 10 的五次方以上的計算。

根據(jù)多項式和指數(shù)模型的預(yù)測,通過深度學(xué)習(xí)獲得相應(yīng)性能基準所需的算力(以 Gflops 為單位),碳排放量和經(jīng)濟成本,最樂觀的估計,ImageNet 分類誤差要想達到 1%,需要 10^28 Gflops 的算力,這對硬件來說是不小的壓力。

爆炸式增長結(jié)束,頂部提升有機會

用于深度學(xué)習(xí)模型的計算能力的爆炸式增長已經(jīng)結(jié)束了,并為各種任務(wù)的計算機性能樹立了新的基準。但是這些計算限制的可能影響迫使機器學(xué)習(xí)轉(zhuǎn)向比深度學(xué)習(xí)更高效的技術(shù)。

過去算力的提升歸納了兩個原因:

一個是底部的發(fā)展,即計算機部件的小型化,其受摩爾定律制約;

另一個是頂部的發(fā)展,是上面提到的軟件、算法、硬件架構(gòu)的統(tǒng)稱。

在后摩爾定律時代,提升計算性能的方法,雖然底部已經(jīng)沒有太多提升的空間,但頂部還有機會。

在軟件層面,可以通過性能工程(performance engineering)提高軟件的效率,改變傳統(tǒng)軟件的開發(fā)策略,盡可能縮短軟件運行時間,而不是縮短軟件開發(fā)時間。另外,性能工程還可以根據(jù)硬件的情況進行軟件定制,如利用并行處理器和矢量單元。

在算法層面,在已有算法上的改進是不均勻的,而且具有偶然性,大量算法進展可能來源于新的問題領(lǐng)域、可擴展性問題、根據(jù)硬件定制算法。

在硬件層面,由于摩爾定律的制約,顯然需要改進的是硬件的架構(gòu),主要問題就是如何簡化處理器和利用應(yīng)用程序的并行性。

通過簡化處理器,可以將復(fù)雜的處理核替換為晶體管數(shù)量需求更少的簡單處理核。由此釋放出的晶體管預(yù)算可重新分配到其他用途上,比如增加并行運行的處理核的數(shù)量,這將大幅提升可利用并行性問題的效率。

深度學(xué)習(xí)時代 AI 模型需規(guī)?;瘮U展

現(xiàn)代 AI 模型需要消耗大量電力,而且對電力的需求正以驚人的速度增長。在深度學(xué)習(xí)時代,構(gòu)建一流 AI 模型所需要的計算資源平均每 3.4 個月翻一番。

在當今以深度學(xué)習(xí)為中心的研究范式當中,AI 的主要進步主要依賴于模型的規(guī)模化擴展:數(shù)據(jù)集更大、模型更大、計算資源更大。

在訓(xùn)練過程中,神經(jīng)網(wǎng)絡(luò)需要為每一條數(shù)據(jù)執(zhí)行一整套冗長的數(shù)學(xué)運算(正向傳播與反向傳播),并以復(fù)雜的方式更新模型參數(shù)。

在現(xiàn)實環(huán)境中部署并運行 AI 模型,所帶來的能源消耗量甚至高于訓(xùn)練過程。實際上,神經(jīng)網(wǎng)絡(luò)全部算力成本中的 80%到 90%來自推理階段,而非訓(xùn)練階段。

因此,數(shù)據(jù)集規(guī)模越大,與之對應(yīng)的算力與能源需求也在飛速增長。模型中包含的參數(shù)量越大,推理階段所帶來的電力需求就越夸張。

深度學(xué)習(xí)是 AI 核心,但局限性明顯

AI 領(lǐng)域需要在根本上做出長期轉(zhuǎn)變。需要退后一步,承認單純建立越來越龐大的神經(jīng)網(wǎng)絡(luò)并不是通往廣義智能的正確路徑。

深度學(xué)習(xí)是近年來人工智能技術(shù)發(fā)展的核心,雖然取得了巨大成功,但它具有明顯的局限性。與人類視覺系統(tǒng)相比,深度學(xué)習(xí)在通用性、靈活性和適應(yīng)性上要差很多,而在遇到復(fù)雜的自然圖像時,深度學(xué)習(xí)可能還會遇到機制性困難。

研究人員表示,目前形式的深度神經(jīng)網(wǎng)絡(luò)似乎不太可能是未來建立通用智能機器或理解思維的最佳解決方案,但深度學(xué)習(xí)的很多機制在未來仍會繼續(xù)存在。

深度網(wǎng)絡(luò)還存在巨大挑戰(zhàn),而我們要實現(xiàn)通用人工智能和理解生物視覺系統(tǒng),就必須克服這些挑戰(zhàn)。

雖然深度網(wǎng)絡(luò)會是解決方案的一部分,但還需要涉及組合原則和因果模型的互補方法,以捕捉數(shù)據(jù)的基本結(jié)構(gòu)。此外,面對組合性爆炸,需要要再次思考如何訓(xùn)練和評估視覺算法。

每一次人工智能低谷來臨之前,都會有科學(xué)家夸大和炒作他們創(chuàng)造的潛力,僅僅說他們的算法就能夠很好地完成某項任務(wù)是不夠的。

對大多數(shù)問題來說,深度學(xué)習(xí)并不是正確的解決方法,不要試圖為所有的問題尋找通用人工智能解決方案,因為它根本就不存在。

結(jié)尾:

深度學(xué)習(xí)的發(fā)展可能已達極限,但其影響還將持續(xù)深遠。為了避免在“人工智能冬天”中被淘汰的命運,能做的最好的事情就是明確你要解決的問題,并理解其本質(zhì);然后,尋找為特定問題提供解決方案的直觀路徑的方法。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54010

    瀏覽量

    466138
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    云天勵飛正式舉辦大芯片戰(zhàn)略前瞻會

    2月3日,云天勵飛正式舉辦“大芯片戰(zhàn)略前瞻會”,首次對外公布未來三年的大 AI 推理芯片
    的頭像 發(fā)表于 02-06 17:23 ?3664次閱讀

    中國芯片的拐點時刻

    作者|Taylor出品|芯片技術(shù)與工藝當OpenAI的GPT-5在得克薩斯州的機房中晝夜轟鳴,當Nvdia的H200芯片炒至數(shù)十萬美元仍一卡難求,中國的
    的頭像 發(fā)表于 01-31 07:00 ?1707次閱讀
    中國<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>的拐點時刻

    高達 1570 TOPS!支持多硬盤的高服務(wù)器 CSB2-N10

    CSB2-N10服務(wù)器內(nèi)置10個分布式計算節(jié)點,單節(jié)點可提供6-157TOPS,可選瑞芯微、能、NVIDIA等平臺。支持主流AI大模型的私有化部署、多種深度
    的頭像 發(fā)表于 01-06 16:33 ?484次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>高達 1570 TOPS!支持多硬盤的高<b class='flag-5'>算</b><b class='flag-5'>力</b>服務(wù)器 CSB2-N10

    電力重構(gòu):AI狂潮下,數(shù)據(jù)中心UPS系統(tǒng)的極限挑戰(zhàn)與范式轉(zhuǎn)移

    ?當數(shù)千張GPU芯片在數(shù)據(jù)中心里以近乎狂暴的并行計算驅(qū)動著大模型的訓(xùn)練與推理,一場靜默卻深刻的能源革命正在機柜下方發(fā)生。人工智能的指數(shù)級爆發(fā),不僅重塑了上層應(yīng)用生態(tài),更以最直接、最物理的方式
    的頭像 發(fā)表于 12-31 08:26 ?441次閱讀
    電力重構(gòu):AI<b class='flag-5'>算</b><b class='flag-5'>力</b>狂潮下,數(shù)據(jù)中心UPS系統(tǒng)的<b class='flag-5'>極限</b>挑戰(zhàn)與范式轉(zhuǎn)移

    湘軍,讓變成生產(chǎn)

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    國產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細節(jié)?

    最近行業(yè)都在說“是AI的命門”,但國產(chǎn)芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實測下來有點超出預(yù)期——7nm工藝下
    發(fā)表于 10-27 13:12

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的AI
    的頭像 發(fā)表于 09-19 15:26 ?1714次閱讀
    什么是AI<b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的AI
    的頭像 發(fā)表于 09-19 15:25 ?830次閱讀
    什么是AI<b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4185次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    WAIC 2025:芯片企業(yè)競逐AI新賽道!技術(shù)革新突破物理極限

    電子發(fā)燒友網(wǎng)報道(文/李彎彎) 2025年世界人工智能大會(WAIC 2025)上,全球芯片企業(yè)以“革命”為核心,展開了一場關(guān)于技術(shù)突破與生態(tài)構(gòu)建的深度交流。從云端超算到端側(cè)智能,
    的頭像 發(fā)表于 08-04 10:30 ?9221次閱讀
    WAIC 2025:<b class='flag-5'>芯片</b>企業(yè)競逐AI新賽道!技術(shù)革新突破<b class='flag-5'>算</b><b class='flag-5'>力</b>物理<b class='flag-5'>極限</b>

    擺脫依賴英偉達!OpenAI首次轉(zhuǎn)向使用谷歌芯片

    地使用非英偉達芯片,更顯示出其正在逐步擺脫對英偉達芯片深度依賴,在布局上邁出了重要戰(zhàn)略調(diào)整
    的頭像 發(fā)表于 07-02 00:59 ?8336次閱讀

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】+NVlink技術(shù)從應(yīng)用到原理

    前言 【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」書中的芯片知識是比較接近當前的頂尖
    發(fā)表于 06-18 19:31

    摩爾線程與AI平臺AutoDL達成深度合作

    近日,摩爾線程與國內(nèi)領(lǐng)先的AI平臺AutoDL宣布達成深度合作,雙方聯(lián)合推出面向個人開發(fā)者的“摩爾線程專區(qū)”,首次將國產(chǎn)GPU開放至
    的頭像 發(fā)表于 05-23 16:10 ?1726次閱讀

    芯片的生態(tài)突圍與革命

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)大芯片,即具備強大計算能力的集成電路芯片,主要應(yīng)用于高性能計算(HPC)、人工智能(AI)、數(shù)據(jù)中心、自動駕駛等需要海量數(shù)據(jù)并行計算的場景。隨著
    的頭像 發(fā)表于 04-13 00:02 ?3251次閱讀

    接棒,慧榮科技以主控技術(shù)突破AI存儲極限

    電子發(fā)燒友網(wǎng)報道(文/黃山明)在AI的高速增長下,尤其是以DeepSeek為代表的AI大模型推動存儲需求激增,增長倒逼存升級。而存儲是AI生態(tài)的基礎(chǔ),存將成為未來增長核心已成為
    的頭像 發(fā)表于 03-19 01:29 ?2836次閱讀
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧榮科技以主控技術(shù)突破AI存儲<b class='flag-5'>極限</b>