91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

預(yù)測深度神經(jīng)網(wǎng)絡(luò)泛化性能差異

Tensorflowers ? 來源:YXQ ? 作者:h1654155287.6125 ? 2019-07-28 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度神經(jīng)網(wǎng)絡(luò) (DNN) 是近年來機器學(xué)習(xí)研究進展的基礎(chǔ),也是在圖像識別、圖像分割、機器翻譯等諸多領(lǐng)域能夠取得突破性進展的重要原因。

盡管 DNN 無處不在,研究人員仍在嘗試全面了解深度神經(jīng)網(wǎng)絡(luò)的基本原理。例如,傳統(tǒng)理論(如 VC 維和 Rademacher 復(fù)雜度)認為:在處理未知數(shù)據(jù)時,過參數(shù)化函數(shù) (over-parameterized functions) 的泛化能力較差;但在近期研究中卻發(fā)現(xiàn),大規(guī)模過參數(shù)化的函數(shù)(參數(shù)比數(shù)據(jù)點多出幾個數(shù)量級)卻擁有出色的泛化能力,更深層次地地理解泛化對于理論的落地和DNN理論的實現(xiàn)從而改進模型是很有必要的。

在理解泛化之前,我們需了解 Generalization Gap(泛化性能差異)這一重要概念。泛化性能差異即模型針對相同分布的訓(xùn)練數(shù)據(jù)和未知數(shù)據(jù)所表現(xiàn)出的性能差異。在致力獲得更好的 DNN 泛化邊界(即泛化性能差異的上限)的過程中,研究人員取得了重大進展。但是,這類邊界通常仍會大大高估真實的泛化性能差異水平,并且無法解釋部分模型為何具有出色的泛化能力。

另一方面,研究人員基于支持向量機 (support-vector machines) 等淺層模型對邊緣 (notion) 概念(即數(shù)據(jù)點與決策邊界之間的距離)進行了大量研究,最終發(fā)現(xiàn)此概念與模型針對未知數(shù)據(jù)所表現(xiàn)出的泛化能力密切相關(guān)?;诖隧棸l(fā)現(xiàn),研究人員已將使用邊緣研究泛化性能差異的方法拓展至 DNN 領(lǐng)域,從而使泛化性能差異的理論上限得到了高度優(yōu)化,但此方式并未能顯著提高泛化模型的預(yù)測能力。

注:理論上限 鏈接

支持向量機決策邊界示例。w?x-b=0 定義的超平面是此線性分類器的“決策邊界”,即在該線性分類器下,超平面上的每個點 x 在任一類中的可能性相等。

ICLR 2019 論文《使用邊緣分布預(yù)測深度網(wǎng)絡(luò)的泛化性能差異》(Predicting the Generalization Gap in Deep Networks with Margin Distributions) 中,我們提議在各層網(wǎng)絡(luò)上使用標(biāo)準(zhǔn)化的邊緣分布 (Normalized Margin Distribution) 來預(yù)測泛化性能差異。

我們通過實踐研究了邊緣分布與泛化之間的關(guān)系,最終發(fā)現(xiàn)在對距離進行適當(dāng)標(biāo)準(zhǔn)化 (Normalization) 后,邊緣分布的一些基本數(shù)據(jù)可以準(zhǔn)確預(yù)測泛化性能差異。此外,我們還通過 GitHub 代碼庫將所有模型作為數(shù)據(jù)集公開發(fā)布,以便您進行泛化研究。

每張圖均對應(yīng)一個基于 CIFAR-10 訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(分類準(zhǔn)確率各不相同)。三個模型各有差異,從左至右,泛化能力逐漸增強。其中,x 軸表示 4 個層的神經(jīng)網(wǎng)絡(luò)標(biāo)準(zhǔn)化邊緣分布,y 軸表示此分布的概率密度。標(biāo)準(zhǔn)化的邊緣分布與測試準(zhǔn)確率密切相關(guān),這表明我們可以將此類分布用作預(yù)測網(wǎng)絡(luò) Generalization Gap(泛化性能差異)的指標(biāo)。如需了解這些神經(jīng)網(wǎng)絡(luò)的更多詳情,請參閱我們的論文。

邊緣分布作為泛化性能差異的預(yù)測指標(biāo)

如果邊緣分布統(tǒng)計數(shù)據(jù)可以真實預(yù)測泛化性能差異,那么簡單的預(yù)測方案應(yīng)能建立起二者的關(guān)系。

因此,我們選擇使用線性回歸作為預(yù)測指標(biāo)。我們發(fā)現(xiàn),在對邊緣分布統(tǒng)計數(shù)據(jù)進行對數(shù)轉(zhuǎn)換后,轉(zhuǎn)換后的數(shù)據(jù)與 泛化性能差異之間幾乎完全呈線性關(guān)系(參見下圖)。事實上,相較于其他現(xiàn)有的泛化測量方法,我們提出的方案可提供更準(zhǔn)確的預(yù)測。這表明,邊緣分布可能包含與深度模型泛化性能差異相關(guān)的重要信息。

基于 CIFAR-100 和 ResNet-32 得出的 Generalization Gap 預(yù)測值(x 軸)與實際值(y 軸)關(guān)系圖。數(shù)據(jù)點的分布趨近于貼近對角線,這表明該對數(shù)線性模型的預(yù)測值非常符合實際的 Generalization Gap 水平。

深度模型泛化數(shù)據(jù)集

除論文之外,我們還介紹了深度模型泛化 (DEMOGEN) 數(shù)據(jù)集。該數(shù)據(jù)集包含 756 個經(jīng)過訓(xùn)練的深度模型,以及這些深度模型在 CIFAR-10 和 CIFAR-100 數(shù)據(jù)集上的訓(xùn)練與及測試表現(xiàn)。這些模型均為 CNN(所用架構(gòu)類似于“網(wǎng)絡(luò)中的網(wǎng)絡(luò)”(Network-in-Network))和 ResNet-32 的變體,它們采用當(dāng)下流行的各類正則化技術(shù)和超參數(shù)設(shè)置,因而也產(chǎn)生了廣泛的泛化行為。

例如,基于 CIFAR-10 訓(xùn)練的 CNN 模型的測試準(zhǔn)確率在 60% 至 90.5% 之間,泛化性能差異率則介于 1% 至 35% 之間。如需了解數(shù)據(jù)集詳情,請查看我們的論文或 GitHub 代碼庫。發(fā)布數(shù)據(jù)集時,我們還為其添加了許多實用程序,以便您能夠輕松加載模型,并重現(xiàn)論文中所展示的結(jié)果。

我們希望本次研究和 DEMOGEN 數(shù)據(jù)集能為社區(qū)提供便利工具,讓社區(qū)成員無需重新訓(xùn)練大量模型,即可研究深度學(xué)習(xí)領(lǐng)域的泛化問題而提供便利工具。同時,我們也希望本次研究成果能夠提供助力,以幫助我們?nèi)蘸髮﹄[藏層中的泛化性能差異預(yù)測指標(biāo)和邊緣分布進行更加深入的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:預(yù)測深度神經(jīng)網(wǎng)絡(luò)泛化性能差異

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2076次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    :Dropout層隨機跳過神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過隨機制造缺陷進行訓(xùn)練提升整個神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策略:一旦神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率飽和,那么學(xué)習(xí)率應(yīng)當(dāng)
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進行推理和預(yù)測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1210次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    問題。因此,并行計算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)性能和效率,滿足實際應(yīng)用中對快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?900次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3471次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1198次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)
    發(fā)表于 03-06 07:10