91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ResNet原始結(jié)果無法復(fù)現(xiàn)?大神何愷明受到了質(zhì)疑

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ResNet原始結(jié)果無法復(fù)現(xiàn)?大神何愷明的經(jīng)典之作受到了網(wǎng)友質(zhì)疑,不過何愷明本人現(xiàn)身解答之后,讓真理越辯越明。

大神何愷明受到了質(zhì)疑。

今天,Reddit上一位用戶對何愷明的ResNet提出質(zhì)疑,他認(rèn)為:

何愷明2015年的原始?xì)埐罹W(wǎng)絡(luò)的結(jié)果沒有被復(fù)現(xiàn),甚至何愷明本人也沒有。

網(wǎng)友稱,他沒有發(fā)現(xiàn)任何一篇論文復(fù)現(xiàn)了原始ResNet網(wǎng)絡(luò)的結(jié)果,或與原始?xì)埐罹W(wǎng)絡(luò)論文的結(jié)果進(jìn)行比較,并且所有的論文報告的數(shù)字都比原始論文的更差。

論文中報告的top1錯誤率的結(jié)果如下:

ResNet-50 @ 20.74

resnet - 101 @ 19.87

resnet - 152 @ 19.38

何愷明等人在2015年提出ResNet之后,ResNet很快成為計算機(jī)視覺最流行的架構(gòu)之一,這篇論文已經(jīng)被引用了超過20000次。

不過,網(wǎng)友稱,DenseNet(https://arxiv.org/abs/1608.06993,3000+引用)和WideResNets(https://arxiv.org/abs/1605.07146,~1000引用)都沒有使用這個結(jié)果。甚至在何愷明最近的一篇論文中,也沒有使用這個結(jié)果。

按理說,何愷明這篇論文應(yīng)該是這個領(lǐng)域被引用最多的論文之一,原始ResNet的結(jié)果真的沒有被復(fù)現(xiàn)出來嗎?在繼續(xù)討論之前,讓我們先來回顧一下ResNet的思想,以及它之所以強(qiáng)大的原因。

重新審視ResNet:計算機(jī)視覺最流行的架構(gòu)之一

2015年,ResNet大大吸引了人們的眼球。實際上,早在ILSVRC2012分類競賽中,AlexNet取得勝利,深度殘差網(wǎng)絡(luò)(deepResidualNetwork)就成為過去幾年中計算機(jī)視覺和深度學(xué)習(xí)領(lǐng)域最具突破性的工作。ResNet使得訓(xùn)練深達(dá)數(shù)百甚至數(shù)千層的網(wǎng)絡(luò)成為可能,而且性能仍然優(yōu)異。

由于其表征能力強(qiáng),ResNet在圖像分類任務(wù)之外的許多計算機(jī)視覺應(yīng)用上也取得了巨大的性能提升,例如對象檢測和人臉識別。

自2015年以來,許多研究對ResNet架構(gòu)進(jìn)行了調(diào)整和改進(jìn)。其中最著名的一些ResNet變體包括:

何愷明等人提出的ResNeXt

康奈爾大學(xué)、清華大學(xué)和Facebook聯(lián)合提出的DenseNet

谷歌MobileNet

孫劍團(tuán)隊ShuffleNet

顏水成團(tuán)隊的雙通道網(wǎng)絡(luò)DPN

最近南開大學(xué)、牛津大學(xué)等提出的 Res2Net

……

那么ResNet 的核心思想是什么呢?

根據(jù)泛逼近定理(universalapproximationtheorem),如果給定足夠的容量,一個單層的前饋網(wǎng)絡(luò)就足以表示任何函數(shù)。但是,這個層可能是非常大的,而且網(wǎng)絡(luò)容易過擬合數(shù)據(jù)。因此,研究界有一個共同的趨勢,就是網(wǎng)絡(luò)架構(gòu)需要更深。

從AlexNet的提出以來,state-of-theart的CNN架構(gòu)都是越來越深。雖然AlexNet只有5層卷積層,但后來的VGG網(wǎng)絡(luò)和GoogLeNet分別有19層和22層。

但是,如果只是簡單地將層堆疊在一起,增加網(wǎng)絡(luò)的深度并不會起太大作用。這是由于難搞的梯度消失(vanishinggradient)問題,深層的網(wǎng)絡(luò)很難訓(xùn)練。因為梯度反向傳播到前一層,重復(fù)相乘可能使梯度無窮小。結(jié)果就是,隨著網(wǎng)絡(luò)的層數(shù)更深,其性能趨于飽和,甚至開始迅速下降。

網(wǎng)絡(luò)深度增加導(dǎo)致性能下降

在ResNet之前,已經(jīng)出現(xiàn)好幾種處理梯度消失問題的方法,例如,2015年C.Szegedy等人提出的GoogLeNet在中間層增加一個輔助損失(auxiliaryloss)作為額外的監(jiān)督,但遺憾的是,沒有一個方法能夠真正解決這個問題。

ResNet的核心思想是引入一個“恒等捷徑連接”(identityshortcutconnection),直接跳過一層或多層,如下圖所示:

一個殘差塊

何愷明等人于2015年發(fā)表的論文《用于圖像識別的深度殘差學(xué)習(xí)》(DeepResidualLearningforImageRecognition)中,認(rèn)為堆疊的層不應(yīng)該降低網(wǎng)絡(luò)的性能,因為我們可以簡單地在當(dāng)前網(wǎng)絡(luò)上堆疊identity映射(層不處理任何事情),并且所得到的架構(gòu)性能不變。這表明,較深的模型所產(chǎn)生的訓(xùn)練誤差不應(yīng)比較淺的模型的誤差更高。作者假設(shè)讓堆疊的層擬合一個殘差映射(residualmapping)要比讓它們直接擬合所需的底層映射更容易。上面的殘差塊(residualblock)顯然仍讓它做到這點。

ResNet 的架構(gòu)

那么這次質(zhì)疑“不能復(fù)現(xiàn)”的結(jié)果是什么呢?討論點集中在原始論文中的表3和表4:

表3:ImageNet驗證集上10-crop測試的錯誤率

表4:ImageNet驗證集上sigle-model的錯誤率結(jié)果

由于其結(jié)果優(yōu)異,ResNet迅速成為各種計算機(jī)視覺任務(wù)最流行的架構(gòu)之一。

新智元昨天發(fā)表的文章《對 ResNet 本質(zhì)的一些思考》,對ResNet做了較深入的探討。作者表示:

不得不贊嘆KaimingHe的天才,ResNet這東西,描述起來固然簡單,但是對它的理解每深一層,就會愈發(fā)發(fā)現(xiàn)它的精妙及優(yōu)雅,從數(shù)學(xué)上解釋起來非常簡潔,非常令人信服,而且直切傳統(tǒng)痛點。

ResNet本質(zhì)上就干了一件事:降低數(shù)據(jù)中信息的冗余度。

具體說來,就是對非冗余信息采用了線性激活(通過skipconnection獲得無冗余的identity部分),然后對冗余信息采用了非線性激活(通過ReLU對identity之外的其余部分進(jìn)行信息提取/過濾,提取出的有用信息即是殘差)。

其中,提取 identity 這一步,就是 ResNet 思想的核心。

何愷明回應(yīng)ResNet結(jié)果不能復(fù)現(xiàn)

再回到文章開頭的討論:原始ResNet的結(jié)果真的無法復(fù)現(xiàn)嗎?

針對網(wǎng)友的質(zhì)疑,不少人在帖子下回復(fù),可以總結(jié)為兩個方面:

ImageNet有多種測試策略,后來的論文在復(fù)現(xiàn)ImageNet時采用的是當(dāng)時流行的策略,而非ResNet原始論文的策略;

后來的論文在訓(xùn)練時采用了一些與原始論文不同的優(yōu)化技巧,使得結(jié)果甚至比原始ResNet 論文的結(jié)果更好

何愷明本人也第一時間作出回復(fù):

ImageNet上有幾種測試策略:(i)single-scale,single-crop測試;(ii)single-scale,multi-crop或fully-convolutional測試;(iii)multi-scale,multi-crop或fully-convolutional測試;(iv)多個模型集成。

在這些設(shè)置下,這篇論文的ResNet-50模型的top-1錯誤率為:(i)24.7%(1-crop,如我的GitHubrepo所展示),(ii)22.85%(10-crop,論文中的表3),(iii)20.74%(full-conv,multi-scale,論文中的Table4)。論文中使用的(ii)和(iii)的描述見第3.4節(jié)。

當(dāng)時是2015年,(ii)和(iii)是最流行的評估設(shè)置。策略(ii)是AlexNet的默認(rèn)值(10-crop),(ii)和(iii)是OverFeat、VGG和GoogleNet中常用的設(shè)置。Single-crop測試在當(dāng)時并不常用。

2015/2016年后,Single-crop測試開始流行。這在一定程度上是因為社區(qū)已經(jīng)變成一個對網(wǎng)絡(luò)精度的差異很感興趣的環(huán)境(因此single-crop足以提供這些差異)。

ResNet是近年來被復(fù)現(xiàn)得最多的架構(gòu)之一。在我的GitHubrepo中發(fā)布的ResNet-50模型是第一次訓(xùn)練的ResNet-50,盡管如此,它仍然十分強(qiáng)大,并且在今天的許多計算機(jī)視覺任務(wù)中仍然是預(yù)訓(xùn)練的骨干。我認(rèn)為,ResNet的可復(fù)現(xiàn)性經(jīng)受住了時間的考驗。

Reddit用戶ajmooch指出:

你忘記了測試時數(shù)據(jù)增強(qiáng)(test-timeaugmentation,TTA)。表4中的數(shù)字來自于不同scales的multi-crop的平均預(yù)測(以計算時間為代價優(yōu)化精度),而其他論文中的數(shù)字是single-crop的。

表3列出了10-crop測試的數(shù)據(jù)。表4的數(shù)字更好,所以它肯定不是singlecrop的數(shù)字。我的猜測是n-crop,可能還包括其他增強(qiáng),比如翻轉(zhuǎn)圖像。

這個帖子讀起來有點像指責(zé),我不喜歡。ResNet因為在ImageNet測試集上表現(xiàn)出色而著名,而ImageNet測試集隱藏在服務(wù)器上,他們沒有辦法在那里處理這些數(shù)字。ResNet是我能想到的被復(fù)現(xiàn)最多的架構(gòu)之一。它顯然是合理的。在開始批評別人之前,我們應(yīng)該先了解我們在批評什么。

谷歌大腦工程師hardmaru也回復(fù)道:

在何愷明加入FAIR之前,F(xiàn)AIRTorch-7團(tuán)隊獨立復(fù)現(xiàn)了ResNet:https://github.com/facebook/fb.resnet.torch

經(jīng)過訓(xùn)練的ResNet18、34、50、101、152和200模型,可供下載。我們包括了使用自定義數(shù)據(jù)集,對圖像進(jìn)行分類并獲得模型的top5預(yù)測,以及使用預(yù)訓(xùn)練的模型提取圖像特征的說明。

他們的結(jié)果如下表:

經(jīng)過訓(xùn)練的模型比原始ResNet模型獲得了更好的錯誤率。

但是,考慮到:

這個實現(xiàn)與ResNet論文在以下幾個方面有所不同:

規(guī)模擴(kuò)大(Scaleaugmentation):我們使用了GooLeNet中的的規(guī)模和長寬比,而不是ResNet論文中的scaleaugmentation。我們發(fā)現(xiàn)這樣的驗證錯誤更好。

顏色增強(qiáng)(Coloraugmentation):除了在ResNet論文中使用的AlexNet風(fēng)格的顏色增強(qiáng)外,我們還使用了AndrewHoward提出的的亮度失真(photometricdistortions)。

權(quán)重衰減(Weightdecay):我們將權(quán)重衰減應(yīng)用于所有權(quán)重和偏差,而不僅僅是卷積層的權(quán)重。

Stridedconvolution:當(dāng)使用瓶頸架構(gòu)時,我們在3x3卷積中使用stride2,而不是在第一個1x1卷積。

何愷明的GitHub有Caffe模型訓(xùn)練的原始版本和更新版本的resnet,而且報告的也不同:

(https://github.com/KaimingHe/deep-residual-networks/blob/master/README.md)

也許他的GitHub報告中的方法與論文不一致,但為了可重復(fù)性而不使用相同的方法也有點奇怪。

也許arxiv或repo應(yīng)該使用一致的數(shù)字進(jìn)行更新,或者更好的是,使用多次獨立運行的平均值。

但是隨著SOTA的改進(jìn)和該領(lǐng)域的發(fā)展,其他人花費資源來產(chǎn)生舊的結(jié)果的動機(jī)就更少了。人們寧愿使用他們的資源來復(fù)現(xiàn)當(dāng)前的SOTA或嘗試其他新想法。

許多人引用它是因為它的概念本身,而不是為了報告排行榜分?jǐn)?shù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 梯度
    +關(guān)注

    關(guān)注

    0

    文章

    30

    瀏覽量

    10566
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47631
  • resnet
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    3409

原文標(biāo)題:經(jīng)典ResNet結(jié)果不能復(fù)現(xiàn)?何愷明回應(yīng):它經(jīng)受住了時間的考驗

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    32億收購!晶豐源有布局?

    1月20日,上海晶豐源半導(dǎo)體股份有限公司發(fā)布公告,宣布擬以398.32萬元出售其持有的上海類比半導(dǎo)體技術(shù)有限公司(以下簡稱“類比半導(dǎo)體”)1.7778%股權(quán)。 相比于上海晶豐源的百億市值來說
    的頭像 發(fā)表于 01-26 10:28 ?348次閱讀
    32億收購!晶豐<b class='flag-5'>明</b>源有<b class='flag-5'>何</b>布局?

    niobeu4 esp32 開發(fā)板無法連接有密碼的wifi

    密碼的熱點,無法連接有密碼的熱點。 (3)使用 esp-idf 原生的 api 開發(fā) wifi(系統(tǒng)環(huán)境是 openharmony,只更換 api),結(jié)果也是只能連接沒有密碼的熱點,無法連接帶密碼的熱點。 問題
    發(fā)表于 01-23 10:36

    果無線充電線圈拆解

    果無線充電技術(shù)通過精密結(jié)構(gòu)與磁場實現(xiàn)高效能量傳輸,結(jié)合散熱系統(tǒng)優(yōu)化充電體驗。
    的頭像 發(fā)表于 11-27 08:24 ?884次閱讀
    蘋<b class='flag-5'>果無</b>線充電線圈拆解

    什么是太陽光譜?如何在實驗室復(fù)現(xiàn)太陽光?

    太陽是地球最主要的能量來源,理解太陽光的本質(zhì)特性,尤其是其光譜分布,對于太陽能技術(shù)、材料研究、環(huán)境科學(xué)等眾多領(lǐng)域至關(guān)重要。而太陽光模擬器,作為在實驗室內(nèi)精準(zhǔn)復(fù)現(xiàn)太陽光的關(guān)鍵設(shè)備,使試驗研究能夠不受
    的頭像 發(fā)表于 11-03 18:04 ?1142次閱讀
    什么是太陽光譜?如何在實驗室<b class='flag-5'>復(fù)現(xiàn)</b>太陽光?

    果無線充電器原理剖析

    果無線充電器通過電磁感應(yīng)和磁共振技術(shù)實現(xiàn)高效能量傳輸,兼顧安全與便捷。
    的頭像 發(fā)表于 10-31 08:18 ?497次閱讀
    蘋<b class='flag-5'>果無</b>線充電器原理剖析

    f103c8t6使用adc采樣時程序無法正常工作怎么解決?

    /details/129649963 但是我復(fù)現(xiàn)以后,出現(xiàn)的問題是有一個startup 的警告,另外就是下載到單片機(jī)運行時無法正常進(jìn)行。 不同的點是教程使用的板子和我的不同 這是報錯內(nèi)容 這是運行以后串口終端的顯示內(nèi)容
    發(fā)表于 10-13 07:25

    KAGA FEI無線模塊在電動牙刷中的應(yīng)用優(yōu)勢

    如今,人們居家時間更長,健康意識也更強(qiáng)。在此背景下,電動牙刷憑借其功能特點受到了更多關(guān)注。
    的頭像 發(fā)表于 09-24 15:14 ?746次閱讀

    基于瑞芯微RK3576的resnet50訓(xùn)練部署教程

    Resnet50簡介ResNet50網(wǎng)絡(luò)是2015年由微軟實驗室的提出,獲得ILSVRC2015圖像分類競賽第一名。在
    的頭像 發(fā)表于 09-10 11:19 ?1322次閱讀
    基于瑞芯微RK3576的<b class='flag-5'>resnet</b>50訓(xùn)練部署教程

    果無線充電器的原理是什么

    果無線充電技術(shù)基于電磁感應(yīng)原理,通過高頻逆變和精密線圈設(shè)計,實現(xiàn)高效、穩(wěn)定的能量傳輸,融合創(chuàng)新與工程優(yōu)化。
    的頭像 發(fā)表于 08-12 08:36 ?2019次閱讀
    蘋<b class='flag-5'>果無</b>線充電器的原理是什么

    XMC?-4500 IIC在出現(xiàn)pwm信號正沿時無法驅(qū)動半個時鐘怎么解決?

    我遇到了 IIC 問題。當(dāng) PWM 同時產(chǎn)生上升沿時, XMC? (作為主機(jī))似乎無法產(chǎn)生正 SCLK 相位。 結(jié)果,只產(chǎn)生了“8 個時鐘”,這導(dǎo)致從設(shè)備卡在其 ACK 中并將 SDA 線永久拉低
    發(fā)表于 08-12 07:35

    CYW43907如果將SECURE_BIT設(shè)置為 1,設(shè)備上的USB和HSIC接口是否被禁用?

    SECURE_BIT 設(shè)置為 1,設(shè)備上的 USB 和 HSIC 接口是否被禁用,或者文檔是否不正確? 如果它是準(zhǔn)確的,這種行為是否會在特定的硅片修訂版中發(fā)生? 我們?nèi)绾未_定哪些修訂受到了影響?
    發(fā)表于 07-09 07:19

    想在bsp工程打印浮點數(shù),結(jié)果找不到rt_vsnprintf_full軟件包,怎么解決?

    想在bsp工程打印浮點數(shù),結(jié)果找不到rt_vsnprintf_full軟件包 問題復(fù)現(xiàn) 使用env-windows-v2.0.0 執(zhí)行pkgs --upgrade 打開menuconfig找不到rt_vsnprintf_full軟件包 使用/搜索找到軟件包但顯示紅色,不
    發(fā)表于 06-13 07:48

    是德N5173B信號發(fā)生器在EMC測試中的干擾信號精準(zhǔn)復(fù)現(xiàn)技巧

    具備寬頻段覆蓋、高精度調(diào)制和靈活的信號生成能力,成為EMC實驗室中復(fù)現(xiàn)干擾信號的重要工具。掌握其使用技巧,可有效提升測試的精準(zhǔn)性和效率。 ? 二、干擾信號精準(zhǔn)復(fù)現(xiàn)的關(guān)鍵要素 在EMC測試中,精準(zhǔn)復(fù)現(xiàn)干擾信號需考慮以下要素: 1.
    的頭像 發(fā)表于 06-03 16:09 ?834次閱讀
    是德N5173B信號發(fā)生器在EMC測試中的干擾信號精準(zhǔn)<b class='flag-5'>復(fù)現(xiàn)</b>技巧

    基于RV1126開發(fā)板的resnet50訓(xùn)練部署教程

    本教程基于圖像分類算法ResNet50的訓(xùn)練和部署到EASY-EAI-Nano(RV1126)進(jìn)行說明
    的頭像 發(fā)表于 04-18 15:07 ?1143次閱讀
    基于RV1126開發(fā)板的<b class='flag-5'>resnet</b>50訓(xùn)練部署教程

    IGBT模塊的反向恢復(fù)現(xiàn)

    IGBT模塊的反向恢復(fù)現(xiàn)象是指在IGBT關(guān)斷時,其內(nèi)部集成的續(xù)流二極管(FWD)從正向?qū)顟B(tài)轉(zhuǎn)變?yōu)榉聪蚪刂範(fàn)顟B(tài)過程中出現(xiàn)的一些特定物理現(xiàn)象和電氣特性變化。
    的頭像 發(fā)表于 03-13 14:39 ?4252次閱讀
    IGBT模塊的反向恢<b class='flag-5'>復(fù)現(xiàn)</b>象