91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

效率網(wǎng)絡(luò):比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:YXQ ? 2019-06-04 11:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌AI研究部門華人科學(xué)家再發(fā)論文《EfficientNet:重新思考CNN模型縮放》,模型縮放的傳統(tǒng)做法是任意增加CNN的深度和寬度,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練,而使用EfficientNet使用一組固定額縮放系數(shù)統(tǒng)一縮放每個(gè)維度,超越了當(dāng)先最先進(jìn)圖像識(shí)別網(wǎng)絡(luò)的準(zhǔn)確率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通過任意增加CNN深度或?qū)挾?,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練和評(píng)估。

以固定的資源成本開發(fā),然后按比例放大,以便在獲得更多資源時(shí)實(shí)現(xiàn)更好的準(zhǔn)確性。例如ResNet可以通過增加層數(shù)從ResNet-18擴(kuò)展到ResNet-200。

再比如開源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓(xùn)練庫GPipe,通過將基線CNN擴(kuò)展四倍來實(shí)現(xiàn)84.3% ImageNet top-1精度。

這種方法的優(yōu)勢在于確實(shí)可以提高精度,但劣勢也很明顯。這個(gè)時(shí)候往往需要進(jìn)行繁瑣的微調(diào)。一點(diǎn)點(diǎn)的摸黑去試、還經(jīng)常的徒勞無功。這絕對(duì)不是一件能夠讓人身心愉快的事情,對(duì)于谷歌科學(xué)家們也一樣。

這就是為什么,谷歌人工智能研究部門的科學(xué)家們正在研究一種新的“更結(jié)構(gòu)化”的方式,來“擴(kuò)展”卷積神經(jīng)網(wǎng)絡(luò)。他們給這個(gè)新的網(wǎng)絡(luò)命名為:EfficientNet(效率網(wǎng)絡(luò))。

代碼已開源,論文剛剛上線arXiv,并將在6月11日,作為poster亮相ICML 2019。

比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

為了理解擴(kuò)展網(wǎng)絡(luò)的效果,谷歌的科學(xué)家系統(tǒng)地研究了縮放模型不同維度的影響。模型縮放并確定仔細(xì)平衡網(wǎng)絡(luò)深度后,發(fā)現(xiàn)只要對(duì)網(wǎng)絡(luò)的深度、寬度和分辨率進(jìn)行合理地平衡,就能帶來更好的性能?;谶@一觀察,科學(xué)家提出了一種新的縮放方法,使用簡單但高效的復(fù)合系數(shù)均勻地縮放深度、寬度和分辨率的所有尺寸。

據(jù)悉,EfficientNet-B7在ImageNet上實(shí)現(xiàn)了最先進(jìn)精度的84.4% Top 1/97.1% Top 5,同時(shí)比最好的現(xiàn)有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),F(xiàn)lower(98.8%)和其他3個(gè)遷移學(xué)習(xí)數(shù)據(jù)集上,也能很好地傳輸和實(shí)現(xiàn)最先進(jìn)的精度。參數(shù)減少一個(gè)數(shù)量級(jí),效率卻提高了10倍(更小,更快)。

與流行的ResNet-50相比,另一款EfficientNet-B4使用了類似的FLOPS,同時(shí)將ResNet-50的最高精度從76.3%提高到82.6%。

這么優(yōu)秀的成績是如何做到的

這種復(fù)合縮放方法的第一步是執(zhí)行網(wǎng)格搜索,在固定資源約束下找到基線網(wǎng)絡(luò)的不同縮放維度之間的關(guān)系(例如,2倍FLOPS),這樣做的目的是為了找出每個(gè)維度的適當(dāng)縮放系數(shù)。然后應(yīng)用這些系數(shù),將基線網(wǎng)絡(luò)擴(kuò)展到所需的目標(biāo)模型大小或算力預(yù)算。

與傳統(tǒng)的縮放方法相比,這種復(fù)合縮放方法可以持續(xù)提高擴(kuò)展模型的準(zhǔn)確性和效率,和傳統(tǒng)方法對(duì)比結(jié)果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型縮放的有效性,很大程度上也依賴基線網(wǎng)絡(luò)。

為了進(jìn)一步提高性能,研究團(tuán)隊(duì)還通過使用AutoML MNAS框架執(zhí)行神經(jīng)架構(gòu)搜索來開發(fā)新的基線網(wǎng)絡(luò),該框架優(yōu)化了準(zhǔn)確性和效率(FLOPS)。

由此產(chǎn)生的架構(gòu)使用移動(dòng)倒置瓶頸卷積(MBConv),類似于MobileNetV2和MnasNet,但由于FLOP預(yù)算增加而略大。然后,通過擴(kuò)展基線網(wǎng)絡(luò)以獲得一系列模型,被稱為EfficientNets。

不僅局限于ImageNet

EfficientNets在ImageNet上的良好表現(xiàn),讓谷歌的科學(xué)家希望將其應(yīng)用于更廣泛的網(wǎng)絡(luò)中,造福更多的人。

在8個(gè)廣泛使用的遷移學(xué)習(xí)數(shù)據(jù)集上測試之后,EfficientNet在其中的5個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)了最先進(jìn)的精度。例如,在參數(shù)減少21倍的情況下,實(shí)現(xiàn)了CIFAR-100(91.7%)和Flowers(98.8%)。

看到這樣的結(jié)果,谷歌科學(xué)家預(yù)計(jì)EfficientNet可能成為未來計(jì)算機(jī)視覺任務(wù)的新基礎(chǔ),因此將EfficientNet開源。

華人做出了重要貢獻(xiàn)

論文的兩位作者,都和中國有關(guān)。

第一作者是谷歌的高級(jí)軟件工程師Mingming Tan,北大博士,在康奈爾大學(xué)獲得博士后學(xué)位。

第二作者Quoc V. Le現(xiàn)在是谷歌的一名軟件工程師,在斯坦福獲得博士學(xué)位,師從著名的人工智能領(lǐng)袖吳恩達(dá)。

他在越南農(nóng)村長大,會(huì)英語、普通話、吳語和廣東話。小時(shí)候家里連電都沒有。但他住的地方附近有一個(gè)圖書館。Le在圖書館里,如饑似渴的閱讀那些偉大發(fā)明,小小年紀(jì)便夢想有朝一日自己的名字,也能銘刻在人類偉大發(fā)明家名人堂上。

14歲的時(shí)候,他就幻想一個(gè)足夠聰明的機(jī)器能夠幫助人類。這個(gè)幻想讓他走上了人工智能的道路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111370
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    3205

原文標(biāo)題:谷歌出品EfficientNet:比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    樣板!揭秘嘉立創(chuàng)64層 PCB板 與HDI工藝

    、成本低50%”的顯著優(yōu)勢,成為高端板領(lǐng)域的代表企業(yè)。 一、64層超高層PCB制造服務(wù) 嘉立創(chuàng)超高層PCB服務(wù)打破了行業(yè)壟斷,可以滿足復(fù)雜電路集成化設(shè)計(jì),提供更大的布線層次和空間。 在交付周期方面,嘉立創(chuàng)樣板交期僅為10-15天,傳統(tǒng)同行交期1
    的頭像 發(fā)表于 02-03 14:38 ?215次閱讀

    固件燒錄速度實(shí)測:JTAGUART6.8

    在批量生產(chǎn)場景中,固件燒錄效率直接影響產(chǎn)線節(jié)拍與交付能力。如何選擇最優(yōu)燒錄方式?本文以ZLG致遠(yuǎn)電子MR6450系列核心板為例,通過實(shí)測數(shù)據(jù)為您解析。MR6450核心板MR6450是ZLG致遠(yuǎn)電子
    的頭像 發(fā)表于 01-27 11:34 ?274次閱讀
    固件燒錄速度實(shí)測:JTAG<b class='flag-5'>比</b>UART<b class='flag-5'>快</b>6.8<b class='flag-5'>倍</b>

    杰和 DN84?AI邊緣計(jì)算盒: 工業(yè)質(zhì)檢的“精準(zhǔn)”引擎

    盒,以強(qiáng)算力、廣接口、高穩(wěn)定、高安全的核心優(yōu)勢,直擊工業(yè)質(zhì)檢痛點(diǎn),賦能企業(yè)實(shí)現(xiàn)更精準(zhǔn)、高效、可靠的質(zhì)量管控。一、6TOPSNPU算力,檢測效率比人工10以上人
    的頭像 發(fā)表于 11-20 19:06 ?878次閱讀
    杰和 DN<b class='flag-5'>84</b>?AI邊緣計(jì)算盒:  工業(yè)質(zhì)檢的“精準(zhǔn)<b class='flag-5'>快</b>”引擎

    AI算法開發(fā),SpeedDP打輔助!不止10效率

    。而那些能夠帶來10工作效率的AI自然能夠輕松取代人類。當(dāng)然這也是相對(duì)的,不是每個(gè)領(lǐng)域都適用,廚師再快,也無法讓實(shí)物10熟;醫(yī)生再優(yōu)秀,也不可能讓病人
    的頭像 發(fā)表于 11-20 18:09 ?629次閱讀
    AI算法開發(fā),SpeedDP打輔助!不止10<b class='flag-5'>倍</b><b class='flag-5'>效率</b>

    一些神經(jīng)網(wǎng)絡(luò)加速器的設(shè)計(jì)優(yōu)化方案

    單元的速度越快,效率越高(存儲(chǔ)空間越?。?。 2.CNN中存在數(shù)據(jù)復(fù)用 如圖所示,CNN 滑動(dòng)卷積: 2D 卷積核和滑動(dòng)窗口內(nèi) 2D ifmap 點(diǎn)積,每一個(gè)卷積核權(quán)重復(fù)用了
    發(fā)表于 10-31 07:14

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征?!安蝗?/div>
    發(fā)表于 10-29 07:49

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    谷歌芯片實(shí)現(xiàn)量子計(jì)算新突破,超算13000

    在特定任務(wù)上的運(yùn)行速度傳統(tǒng)超級(jí)計(jì)算機(jī)13000,并且這種算法可以在類似平臺(tái)上得到重現(xiàn)。 ? 量子比特極易受到環(huán)境干擾,導(dǎo)致計(jì)算錯(cuò)誤,這成為量子計(jì)算走向?qū)嵱玫囊淮笞璧K。而谷歌的Willow芯片成功實(shí)現(xiàn)了低于表面碼閾值的量子糾
    的頭像 發(fā)表于 10-27 06:51 ?9666次閱讀

    今日看點(diǎn):谷歌芯片實(shí)現(xiàn)量子計(jì)算經(jīng)典超算13000;NFC 技術(shù)突破:讀取距離從 5 毫米提升至 20 毫米

    谷歌芯片實(shí)現(xiàn)量子計(jì)算經(jīng)典超算13000 近日,谷歌在《自然》雜志披露與Willow芯片相關(guān)的量子計(jì)算突破性研究成果。該公司稱這是歷史上首次證明量子計(jì)算機(jī)可以在硬件上成功運(yùn)行一項(xiàng)可驗(yàn)證算法,其
    發(fā)表于 10-23 10:20 ?1548次閱讀

    10G網(wǎng)速不是夢!5G-A如何“榨干”毫米波,跑出5G10的速度?

    6G網(wǎng)絡(luò)的發(fā)展奠定了堅(jiān)實(shí)基礎(chǔ)。作為5G向6G過渡的關(guān)鍵技術(shù),5G-A通過多載波聚合、毫米波擴(kuò)展、時(shí)隙結(jié)構(gòu)優(yōu)化、1024QAM調(diào)制等創(chuàng)新技術(shù),實(shí)現(xiàn)了網(wǎng)絡(luò)能力的十質(zhì)變,為未來智能生活和產(chǎn)業(yè)數(shù)字化升級(jí)提供了強(qiáng)大的
    的頭像 發(fā)表于 09-16 16:34 ?1726次閱讀

    核心網(wǎng)絡(luò)交換機(jī)穩(wěn)定運(yùn)行的關(guān)鍵:優(yōu)施UPS電源全方位保障方案

    在當(dāng)今數(shù)字化時(shí)代,核心網(wǎng)絡(luò)交換機(jī)作為企業(yè)網(wǎng)絡(luò)架構(gòu)的中樞神經(jīng),承擔(dān)著數(shù)據(jù)傳輸和業(yè)務(wù)流轉(zhuǎn)的重要使命。一旦出現(xiàn)電力中斷,不僅會(huì)造成業(yè)務(wù)停滯,更可能導(dǎo)致數(shù)據(jù)丟失等嚴(yán)重后果。優(yōu)施UPS電源憑借其卓越性
    的頭像 發(fā)表于 08-25 09:14 ?740次閱讀
    核心<b class='flag-5'>網(wǎng)絡(luò)</b>交換機(jī)穩(wěn)定運(yùn)行的關(guān)鍵:優(yōu)<b class='flag-5'>比</b>施UPS電源全方位保障方案

    華為助力埃塞俄亞電信通信網(wǎng)絡(luò)技術(shù)邁向新高度

    近日,埃塞俄亞領(lǐng)先運(yùn)營商埃塞俄亞電信與華為共同宣布,在北非區(qū)域率先完成GigaAAU FDD三頻Massive MIMO站點(diǎn)的商用部署。此次合作是雙方在提升網(wǎng)絡(luò)性能、改善用戶體驗(yàn)方面的又一重大舉措,標(biāo)志著埃塞俄
    的頭像 發(fā)表于 08-20 13:53 ?836次閱讀

    電源抑制

    .   輸出電壓誤差的計(jì)算方法如同電壓失衡與漂移的計(jì)算方法.外部電源的調(diào)整率會(huì)以電源抑制的形式直接轉(zhuǎn)變成運(yùn)算放大器網(wǎng)絡(luò)的輸出誤差. 對(duì)于高質(zhì)量的D/A轉(zhuǎn)換器,要求開關(guān)電路及運(yùn)算放大器所用的電源電壓
    發(fā)表于 04-08 13:30

    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間卷積網(wǎng)絡(luò)

    本文對(duì)一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對(duì)一維卷積的支持情況。在最后通過一個(gè)實(shí)例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?2108次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時(shí)間<b class='flag-5'>卷積</b><b class='flag-5'>網(wǎng)絡(luò)</b>