91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌提出MorphNet:網(wǎng)絡(luò)規(guī)模更小、速度更快!

電子工程師 ? 來(lái)源:YXQ ? 2019-04-22 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一直以來(lái),深度神經(jīng)網(wǎng)絡(luò)在圖像分類(lèi)、文本識(shí)別等實(shí)際問(wèn)題中發(fā)揮重要的作用。但是,考慮到計(jì)算資源和時(shí)間,深度神經(jīng)網(wǎng)絡(luò)架構(gòu)往往成本很高。此次,谷歌研究人員提出一種自動(dòng)化神經(jīng)網(wǎng)絡(luò)架構(gòu)的新方法 MorphNet,通過(guò)迭代縮放神經(jīng)網(wǎng)絡(luò),節(jié)省了資源,提升了性能。

深度神經(jīng)網(wǎng)絡(luò)(DNN)在解決圖像分類(lèi)、文本識(shí)別和語(yǔ)音轉(zhuǎn)錄等實(shí)際難題方面顯示出卓越的效能。但是,為給定問(wèn)題設(shè)計(jì)合適的 DNN 架構(gòu)依然是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。考慮到巨大的架構(gòu)搜索空間,就計(jì)算資源和時(shí)間而言,為具體應(yīng)用從零開(kāi)始設(shè)計(jì)一個(gè)網(wǎng)絡(luò)是極其昂貴的。神經(jīng)架構(gòu)搜索(NAS)和 AdaNet 等方法使用機(jī)器學(xué)習(xí)來(lái)搜索架構(gòu)設(shè)計(jì)空間,從而找出適合的改進(jìn)版架構(gòu)。另一種方法是利用現(xiàn)有架構(gòu)來(lái)解決類(lèi)似問(wèn)題,即針對(duì)手頭任務(wù)一次性對(duì)架構(gòu)進(jìn)行優(yōu)化。

谷歌研究人員提出一種神經(jīng)網(wǎng)絡(luò)模型改進(jìn)的復(fù)雜方法 MorphNet。研究人員發(fā)表了論文《MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks》,MorphNet 將現(xiàn)有神經(jīng)網(wǎng)絡(luò)作為輸入,為新問(wèn)題生成規(guī)模更小、速度更快、性能更好的新神經(jīng)網(wǎng)絡(luò)。研究人員已經(jīng)運(yùn)用該方法解決大規(guī)模問(wèn)題,設(shè)計(jì)出規(guī)模更小、準(zhǔn)確率更高的產(chǎn)品服務(wù)網(wǎng)絡(luò)。目前,MorphNet 的 TensoreFlow 實(shí)現(xiàn)已開(kāi)源,大家可以利用該方法更高效地創(chuàng)建自己的模型。

MorphNet 開(kāi)源項(xiàng)目地址:https://github.com/google-research/morph-net

MorphNet 的工作原理

MorphNet 通過(guò)收縮和擴(kuò)展階段的循環(huán)來(lái)優(yōu)化神經(jīng)網(wǎng)絡(luò)。在收縮階段,MorphNet 通過(guò)稀疏性正則化項(xiàng)(sparsifying regularizer)識(shí)別出效率低的神經(jīng)元,并將它們從網(wǎng)絡(luò)中去除,因而該網(wǎng)絡(luò)的總損失函數(shù)包含每一神經(jīng)元的成本。但是對(duì)于所有神經(jīng)元,MorphNet 沒(méi)有采用統(tǒng)一的成本度量,而是計(jì)算神經(jīng)元相對(duì)于目標(biāo)資源的成本。隨著訓(xùn)練的繼續(xù)進(jìn)行,優(yōu)化器在計(jì)算梯度時(shí)是了解資源成本信息的,從而得知哪些神經(jīng)元的資源效率高,哪些神經(jīng)元可以去除。

MorphNet 的算法。

例如,考慮一下 MorphNet 如何計(jì)算神經(jīng)網(wǎng)絡(luò)的計(jì)算成本(如 FLOPs)。為簡(jiǎn)單起見(jiàn),我們來(lái)思考一下被表示為矩陣乘法的神經(jīng)網(wǎng)絡(luò)層。在這種情況下,神經(jīng)網(wǎng)絡(luò)層擁有 2 個(gè)輸入(x_n)、6 個(gè)權(quán)重 (a,b,...,f) 和 3 個(gè)輸出(y_n)。使用標(biāo)準(zhǔn)教科書(shū)中行和列相乘的方法,你會(huì)發(fā)現(xiàn)評(píng)估該神經(jīng)網(wǎng)絡(luò)層需要 6 次乘法。

神經(jīng)元的計(jì)算成本。

MorphNet 將其計(jì)算成本表示為輸入數(shù)和輸出數(shù)的乘積。請(qǐng)注意,盡管左邊示例顯示出了權(quán)重稀疏性,其中兩個(gè)權(quán)重值為 0,但我們依然需要執(zhí)行所有的乘法,以評(píng)估該神經(jīng)網(wǎng)絡(luò)層。但是,中間示例顯示出了結(jié)構(gòu)性的稀疏,其中神經(jīng)元 y_n 最后一行上的所有權(quán)重值均為 0。MorphNet 意識(shí)到該層的新輸出數(shù)為 2,并且該層的乘次數(shù)量由 6 降至 4?;诖耍琈orphNet 可以確定該神經(jīng)網(wǎng)絡(luò)中每一神經(jīng)元的增量成本,從而生成更高效的模型(右邊示例),其中神經(jīng)元 y_3 被移除。

在擴(kuò)展階段,研究人員使用寬度乘數(shù)(width multiplier)來(lái)統(tǒng)一擴(kuò)展所有層的大小。例如,如果層大小擴(kuò)大 50%,則一個(gè)效率低的層(開(kāi)始有 100 個(gè)神經(jīng)元,之后縮小至 10 個(gè)神經(jīng)元)將能夠擴(kuò)展回 15,而只縮小至 80 個(gè)神經(jīng)元的重要層可能擴(kuò)展至 120,并且擁有更多資源。凈效應(yīng)則是將計(jì)算資源從該網(wǎng)絡(luò)效率低的部分重新分配給更有用的部分。

用戶(hù)可以在收縮階段之后停止 MorphNet,從而削減該網(wǎng)絡(luò)規(guī)模,使之符合更緊湊的資源預(yù)算。這可以在目標(biāo)成本方面獲得更高效的網(wǎng)絡(luò),但有時(shí)可能導(dǎo)致準(zhǔn)確率下降。或者,用戶(hù)也可以完成擴(kuò)展階段,這將與最初目標(biāo)資源相匹配,但準(zhǔn)確率會(huì)更高。

MorphNet 可提供以下四個(gè)關(guān)鍵價(jià)值

有針對(duì)性的正則化:MorphNet 采用的正則化方法比其他稀疏性正則化方法更有目的性。具體來(lái)說(shuō),MorphNet 方法用于更好的稀疏化,但它的目標(biāo)是減少資源(如每次推斷的 FLOPs 或模型大?。?。這可以更好地控制由 MorphNet 推導(dǎo)出的網(wǎng)絡(luò)結(jié)構(gòu),這些網(wǎng)絡(luò)結(jié)構(gòu)根據(jù)應(yīng)用領(lǐng)域和約束而出現(xiàn)顯著差異。

例如,下圖左展示了在 JFT 數(shù)據(jù)集上訓(xùn)練的 ResNet-101 基線(xiàn)網(wǎng)絡(luò)。在指定目標(biāo) FLOPs(FLOPs 降低 40%,中間圖)或模型大?。?quán)重減少 43%,右圖)的情況下,MorphNet 輸出的結(jié)構(gòu)具有很大差異。在優(yōu)化計(jì)算成本時(shí),相比于網(wǎng)絡(luò)較高層中的低分辨率神經(jīng)元,較低層中的高分辨率神經(jīng)元會(huì)被更多地修剪掉。當(dāng)目標(biāo)是較小的模型大小時(shí),剪枝策略相反。

MorphNet 有目標(biāo)性的正則化(Targeted Regularization)。矩形的寬度與層級(jí)中通道數(shù)成正比,底部的紫色條表示輸入層。左:輸入到 MorphNet 的基線(xiàn)網(wǎng)絡(luò);中:應(yīng)用 FLOP regularizer 后的輸出結(jié)果;右:應(yīng)用 size regularizer 后的輸出結(jié)果。

MorphNet 能夠把特定的優(yōu)化參數(shù)作為目標(biāo),這使得它可針對(duì)特定實(shí)現(xiàn)設(shè)立具體參數(shù)目標(biāo)。例如,你可以把「延遲」作為整合設(shè)備特定計(jì)算時(shí)間和記憶時(shí)間的首要優(yōu)化參數(shù)。

拓?fù)渥儞Q(Topology Morphing):MorphNet 學(xué)習(xí)每一層的神經(jīng)元,因此該算法可能會(huì)遇到將一層中所有神經(jīng)元全都稀疏化的特殊情況。當(dāng)一層中的神經(jīng)元數(shù)量為 0 時(shí),它切斷了受影響的網(wǎng)絡(luò)分支,從而有效地改變了網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。例如,在 ResNet 架構(gòu)中,MorphNet 可能保留殘差連接,但移除殘差模塊(如下圖左所示)。對(duì)于 Inception 結(jié)構(gòu),MorphNet 可能移除整個(gè)并行分支(如下圖右所示)。

左:MorphNet 移除 ResNet 網(wǎng)絡(luò)中的殘差模塊。右:MorphNet 移除 Inception 網(wǎng)絡(luò)中的并行分支。

可擴(kuò)展性:MorphNet 在單次訓(xùn)練運(yùn)行中學(xué)習(xí)新的網(wǎng)絡(luò)結(jié)構(gòu),當(dāng)你的訓(xùn)練預(yù)算有限時(shí),這是一種很棒的方法。MorphNet 還可直接用于昂貴的網(wǎng)絡(luò)和數(shù)據(jù)集。例如,在上述對(duì)比中,MorphNet 直接用于 ResNet-101,后者是在 JFT 數(shù)據(jù)集上以極高計(jì)算成本訓(xùn)練出的。

可移植性:MorphNet 輸出的網(wǎng)絡(luò)具備可移植性,因?yàn)樗鼈兛梢詮念^開(kāi)始訓(xùn)練,且模型權(quán)重并未與架構(gòu)學(xué)習(xí)過(guò)程綁定。你不必復(fù)制檢查點(diǎn)或按照特定的訓(xùn)練腳本執(zhí)行訓(xùn)練,只需正常訓(xùn)練新網(wǎng)絡(luò)即可。

Morphing Network

谷歌通過(guò)固定 FLOPs 將 MorphNet 應(yīng)用到在 ImageNet 數(shù)據(jù)集上訓(xùn)練的 Inception V2 模型上(詳見(jiàn)下圖)?;€(xiàn)方法統(tǒng)一縮小每個(gè)卷積的輸出,使用 width multiplier 權(quán)衡準(zhǔn)確率和 FLOPs(紅色)。而 MorphNet 方法在縮小模型時(shí)直接固定 FLOPs,生成更好的權(quán)衡曲線(xiàn)。在相同準(zhǔn)確率的情況下,新方法的 FLOP 成本比基線(xiàn)低 11%-15%。

將 MorphNet 應(yīng)用于在 ImageNet 數(shù)據(jù)集上訓(xùn)練的 Inception V2 模型后的表現(xiàn)。僅使用 flop regularizer(藍(lán)色)的性能比基線(xiàn)(紅色)性能高出 11-15%。一個(gè)完整循環(huán)之后(包括 flop regularizer 和 width multiplier),在相同成本的情況下模型的準(zhǔn)確率有所提升(「x1」,紫色),第二個(gè)循環(huán)之后,模型性能得到繼續(xù)提升(「x2」,青色)。

這時(shí),你可以選擇一個(gè) MorphNet 網(wǎng)絡(luò)來(lái)滿(mǎn)足更小的 FLOP 預(yù)算?;蛘撸憧梢詫⒕W(wǎng)絡(luò)擴(kuò)展回原始 FLOP 成本來(lái)完成縮放周期,從而以相同的成本得到更好的準(zhǔn)確率(紫色)。再次重復(fù) MorphNet 縮?。糯髮⒃俅翁嵘郎?zhǔn)確率(青色),使整體準(zhǔn)確率提升 1.1%。

結(jié)論:谷歌已經(jīng)將 MorphNet 應(yīng)用到其多個(gè)生產(chǎn)級(jí)圖像處理模型中。MorphNet 可帶來(lái)模型大小/FLOPs 的顯著降低,且?guī)缀醪粫?huì)造成質(zhì)量損失。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111458
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107849

原文標(biāo)題:谷歌提出MorphNet:網(wǎng)絡(luò)規(guī)模更小、速度更快!

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌評(píng)論卡,碰一碰即可完成谷歌評(píng)論 #谷歌評(píng)論卡 #NFC標(biāo)簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    從“不確定”到“可預(yù)期”:TSN 交換機(jī)改變了什么?

    工業(yè)和信息化部提出,通過(guò)新型工業(yè)網(wǎng)絡(luò)建設(shè),推動(dòng)工業(yè)互聯(lián)網(wǎng)與人工智能深度融合,并明確提出到2028年,將有不少于5萬(wàn)家企業(yè)完成新型工業(yè)網(wǎng)絡(luò)改造。這意味著,工業(yè)現(xiàn)場(chǎng)對(duì)
    的頭像 發(fā)表于 01-09 17:00 ?1062次閱讀
    從“不確定”到“可預(yù)期”:TSN 交換機(jī)改變了什么?

    漢得利產(chǎn)能擴(kuò)展助力智能制造升級(jí)

    電子設(shè)備持續(xù)向“運(yùn)行速度更快、容量更大、能耗更低、體積更小、成本更低”的方向演進(jìn)。筆記本輕薄化趨勢(shì)對(duì)內(nèi)部散熱風(fēng)扇提出了近乎苛刻的要求。
    的頭像 發(fā)表于 10-27 11:01 ?692次閱讀

    新加坡服務(wù)器的網(wǎng)絡(luò)速度和延遲表現(xiàn)如何?

    速度:全球領(lǐng)先的“速度之城” 新加坡?lián)碛衼喼弈酥寥蝽敿?jí)的網(wǎng)絡(luò)基礎(chǔ)設(shè)施。 高帶寬與國(guó)際出口: 新加坡是眾多國(guó)際海底光纜的核心樞紐,連接著亞洲、美洲、歐洲和澳大利亞。這意味著它擁有海量的國(guó)際出口帶寬,能為服務(wù)器提
    的頭像 發(fā)表于 10-17 17:03 ?1253次閱讀

    谷歌查找我的設(shè)備配件(Google Find My Device Accessory)詳解和應(yīng)用

    物品。為了更好的理解它的工作原理,我們先來(lái)了解一下谷歌查找我的設(shè)備網(wǎng)絡(luò)FMDN(Google find my device network)。FMDN由四部分組成:附件(Accessory),所有者
    發(fā)表于 08-31 21:10

    Arm 洞察與思考:為什么 AI 向邊緣遷移的速度超乎想象

    人工智能 (AI) 正在以驚人的速度發(fā)展。企業(yè)不再僅僅是探索 AI,而是積極推動(dòng) AI 的規(guī)模化落地,從實(shí)驗(yàn)性應(yīng)用轉(zhuǎn)向?qū)嶋H部署。隨著生成式模型日益精簡(jiǎn)和高效,AI 的重心正從云端轉(zhuǎn)向邊緣側(cè)。如今
    的頭像 發(fā)表于 08-11 14:43 ?11.4w次閱讀

    無(wú)速度傳感器感應(yīng)電機(jī)控制系統(tǒng)轉(zhuǎn)速辨識(shí)方法研究

    要點(diǎn)和化缺點(diǎn),在直接轉(zhuǎn)矩控制基礎(chǔ)上設(shè)計(jì)了無(wú)速度傳感器感應(yīng)電機(jī)控制系統(tǒng)模型并進(jìn)行仿真,給出了試驗(yàn)參數(shù)及仿真圖形,并就今后的研究發(fā)展方向提出了看法。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料
    發(fā)表于 07-09 14:23

    從開(kāi)關(guān)速度看MOSFET在高頻應(yīng)用中的性能表現(xiàn)

    切換的響應(yīng)時(shí)間越短,意味著更小的開(kāi)關(guān)損耗和更高的工作效率。MOSFET的開(kāi)關(guān)速度主要受以下幾個(gè)因素的影響:門(mén)極電荷(Qg):門(mén)極電荷是MOSFET開(kāi)關(guān)過(guò)程中的一個(gè)
    的頭像 發(fā)表于 07-01 14:12 ?857次閱讀
    從開(kāi)關(guān)<b class='flag-5'>速度</b>看MOSFET在高頻應(yīng)用中的性能表現(xiàn)

    WiFi和以太網(wǎng)哪個(gè)更快

    以太網(wǎng)通常比WiFi更快、更穩(wěn)定,尤其在理想條件下差距顯著;而WiFi勝在靈活便捷,但實(shí)際速度受環(huán)境干擾較大。 以下是具體分析: 一、理論速度對(duì)比 以太網(wǎng) 千兆以太網(wǎng)(1Gbps) :理論速度
    的頭像 發(fā)表于 07-01 09:54 ?2182次閱讀

    谷歌地圖GPS定位

    谷歌地圖GPS定位:精準(zhǔn)導(dǎo)航背后的技術(shù)解析 谷歌地圖作為全球最受歡迎的地圖服務(wù)之一,其精準(zhǔn)的GPS定位功能為用戶(hù)提供了極大便利。本文將深入探討谷歌地圖如何利用GPS技術(shù),實(shí)現(xiàn)高精度定位,并帶來(lái)革命性
    的頭像 發(fā)表于 05-29 16:54 ?1480次閱讀

    RVCT編譯器是否比GNU的編譯器的代碼執(zhí)行速度更快

    ,是rvct3.1還是rvct4.0?如何把rvct編譯器集成到ide中? 2、RVCT編譯器是否比GNU的編譯器的代碼執(zhí)行速度更快?
    發(fā)表于 05-08 07:49

    SlaveFifo 2bit sync模式下最大速度只有320Mbyte/s左右,還能更快一點(diǎn)嗎?

    你好!我測(cè)試了SlaveFifo 2bit sync32bitBus 模式,采用AN65974官方代碼,硬件芯片是Artix 7 , PCLK設(shè)置為100MHz的時(shí)鐘,目前只開(kāi)通單個(gè)讀線(xiàn)程 最大速度
    發(fā)表于 05-06 14:36

    谷歌發(fā)布混合量子模擬方法

    據(jù)外媒報(bào)道,谷歌發(fā)布了一種混合量子模擬方法;論文已經(jīng)在Nature正式發(fā)表,谷歌混合量子模擬器的核心在于將模擬和數(shù)字技術(shù)相結(jié)合;是全新的模擬-數(shù)字方案,可在保持速度的同時(shí)增強(qiáng)可控制性,這一方案顛覆了
    的頭像 發(fā)表于 04-22 17:17 ?835次閱讀

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶(hù)開(kāi)放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱(chēng)谷歌首款專(zhuān)門(mén)為 AI 推理精心設(shè)計(jì)的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?3755次閱讀

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    提出了三大核心需求: 超低延遲和高帶寬:確保大規(guī)模數(shù)據(jù)傳輸高效進(jìn)行。 智能流量調(diào)度:采用自適應(yīng)路由和負(fù)載均衡技術(shù),減少網(wǎng)絡(luò)擁塞。 性能隔離與穩(wěn)定性:在多租戶(hù)環(huán)境下保障帶寬分配,防止性能
    發(fā)表于 03-25 17:35