91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

訓練深度神經網絡的感覺就像買彩票,“打了折”的深度學習

DPVg_AI_era ? 來源:lq ? 2019-05-10 09:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MIT CSAIL近期發(fā)表文章《彩票假設:尋找稀疏可訓練的神經網絡》認為神經網絡就像中彩票并不是每一張都有用,但應設法找到最能中獎的那個,因此可通過消除神經網絡結構件不必要的連接(也稱修剪)適應低功率設備,在一系列條件下不斷重復該過程,神經網絡可縮小10%到20%,但并不影響準確率,甚至比原始網絡跟快。

根據(jù)齊魯晚報報道,最近威海一彩民獲得了1219萬大獎,可以說是非常幸運了,看的一眾神經網絡“煉丹師”們羨慕不已。

訓練深度神經網絡的感覺就像買彩票

HackerNews網友opwieurposiu就吐槽,做DNN其實根本和買彩票沒什么區(qū)別:先是收集訓練數(shù)據(jù),然后寫一個python腳本,支付大約1美元的GPU時間,跑一下。所不同的是,你盯著的不是輪盤的轉針,而是損失函數(shù)圖。

95%的時間都是廢的,但是每隔一段時間你就會得到很大的回報。中獎的時候,你可能覺得自己真是個天才!但復盤的時候又發(fā)現(xiàn),你根本不知道為什么A方式有效而B就不行。這種感覺,跟壓彩票非常相似。

1美元的神經網絡很小了。為了更好地學習,神經網絡就必須非常大,需要海量數(shù)據(jù)集,整個訓練過程可能要持續(xù)好多天。投入100美元、1000美元、10000美元……的時候,你可能感受到的不僅僅是經費在燃燒了。

可是,如果說,實際上神經網絡不一定要那么大呢?

不修剪了,把沒用的部分直接砍掉!

MIT CSAIL的兩位研究人員Jonathan Frankle和Michael Carbin發(fā)表過一篇論文《彩票假設:尋找稀疏的、可訓練的神經網絡》剛剛被評為ICLR最佳論文。

論文指出,神經網絡剪枝技術可以在不影響精度的前提下,將訓練網絡的參數(shù)數(shù)量減少90%以上,降低存儲需求并提高推理的計算性能。然而,當前的經驗是,剪枝產生的稀疏架構從一開始就很難訓,然而同時也能提高了效率。

Frankle和Carbin發(fā)現(xiàn),一個標準的修剪技巧可以自然的顯露出一個子網絡,初始化該網絡就能提高訓練效率。因此他們提出了 “彩票假設”(lottery ticket hypothesis):任何密集、隨機初始化的前饋網絡,都包含一個子網絡,以便在隔離訓練時可以在最多相同數(shù)量的訓練迭代中,匹配原始網絡的準確性。

然而,在成功的找到這個子網絡之前,必須經過多次訓練和“修剪”整個網絡。這就好像你去買了一大包彩票,然后從里面找出中獎的那個。神經網絡的好處是,所有的彩票都在你的手中,你總能找出來中獎的那個。

如果能確切的定位到原始網絡中哪個子網絡跟最終預測相關,那么也就用不著多次訓練和“修建”,直接砍掉無關的部分即可。這樣又進一步的降低了工作量,提高了效率。這就意味著,要通過一種技巧,使得每次買彩票必中!

彩票假設也可能遷移學習產生影響,在這種情況下,為圖像識別等任務訓練的網絡可以幫助完成不同的任務。

“打了折”的深度學習

感謝大家對神經網絡的過度熱捧,使得越來越多的人感嘆于神經網絡的神奇效果,但很少有人理解訓練一個神經網絡有多難。一來成本高昂,二來耗時漫長。所以研究人員必須做出許多讓步,在模型的大小、訓練耗時和最終表現(xiàn)等多個方面進行權衡。

包括今天兩位主角提出的“彩票假設”的驗證過程。他們首先采用一種通用的方法,用最低的“權重”“修剪”連接來消除受過訓練的網絡的不必要連接,使其適用于智能手機等低功耗設備。

“彩票假設”的關鍵創(chuàng)新,是發(fā)現(xiàn)經過網絡訓練之后,修剪連接可能根本就沒有必要。為了測試這個假設,他們嘗試再次訓練完全相同的網絡,但沒有修剪連接。

重要的是,他們將每個連接“重置”到訓練開始時分配的權重。這些初始權重對于幫助中獎來說至關重要,沒有它們,被修剪的網絡將無法學習。通過修剪越來越多的連接,最終確定了哪些是可以刪掉而不影響模型預測能力。

為了驗證這一假設,他們在各種條件下在許多不同的網絡上重復了這個過程數(shù)萬次。實驗結果顯示MNIST和CIFAR10的“中獎彩票”的規(guī)模,始終要小于幾個全連接架構和卷積前饋架構的10%-20%。這樣的話,不僅深度網絡在體積上打了折扣,成本、耗時都大打折扣。

下一步,該團隊計劃探索為什么某些子網特別擅長學習,以及有效找出這些子網的方法。

Google已經用Python實現(xiàn)了彩票假設算法,并在Github上開源:

https://github.com/google-research/lottery-ticket-hypothesis

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4839

    瀏覽量

    108050
  • 深度學習
    +關注

    關注

    73

    文章

    5602

    瀏覽量

    124567
  • 遷移學習
    +關注

    關注

    0

    文章

    74

    瀏覽量

    5854

原文標題:ICLR最佳論文:MIT科學家提出彩票假設,神經網路縮小10倍并不影響結果

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經網絡優(yōu)化:模型壓縮深度解析

    1.為什么需要神經網絡模型壓縮? 神經網絡已經成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?5332次閱讀
    面向嵌入式部署的<b class='flag-5'>神經網絡</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    穿孔機頂頭檢測儀 機器視覺深度學習

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學習技術,通過Keras實現(xiàn)卷積神經網絡(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準確性和現(xiàn)場的適應性
    發(fā)表于 12-22 14:33

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡
    的頭像 發(fā)表于 12-17 15:05 ?423次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一種專門用來處理網格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2177次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經網絡</b>是個啥?

    激活函數(shù)ReLU的理解與總結

    ,現(xiàn)有的計算神經網絡和生物神經網絡還是有很大差距的。慶幸的是,ReLu只有負值才會被稀疏掉,即引入的稀疏性是可以訓練調節(jié)的,是動態(tài)變化的。只要進行梯度訓練,
    發(fā)表于 10-31 06:16

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經網絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識
    發(fā)表于 10-22 07:03

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1459次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經網絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1245次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構

    上來先來幾個專有名詞: ANN:人工神經網絡 SNN:脈沖神經網絡DNN:深度神經網絡 神經網絡設計靈感都是來自人類的大腦結構,都是由
    發(fā)表于 09-12 17:30

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?996次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>神經網絡</b>

    深度學習對工業(yè)物聯(lián)網有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經網絡的層級結構,能夠自動從海量工業(yè)數(shù)據(jù)中提取復雜特征,為工業(yè)物聯(lián)網(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1143次閱讀

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經網絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在一個神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe
    的頭像 發(fā)表于 06-03 15:51 ?1430次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析