91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

訓(xùn)練表示學(xué)習(xí)函數(shù)(即編碼器)以最大化其輸入和輸出之間的互信息

MqC7_CAAI_1981 ? 來源:未知 ? 作者:李倩 ? 2018-09-11 16:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

許多表示學(xué)習(xí)算法使用像素級的訓(xùn)練目標,當(dāng)只有一小部分信號在語義層面上起作用時是不利的。在這篇論文中,Bengio 等研究者假設(shè)應(yīng)該更直接地根據(jù)信息內(nèi)容和統(tǒng)計或架構(gòu)約束來學(xué)習(xí)表示,據(jù)此提出了 Deep INFOMAX(DIM)。該方法可用于學(xué)習(xí)期望特征的表示,并且在分類任務(wù)上優(yōu)于許多流行的無監(jiān)督學(xué)習(xí)方法。他們認為,這是學(xué)習(xí)「好的」和更條理的表示的一個重要方向,有利于未來的人工智能研究。

引言

在意識層面上,智能體并不在像素和其他傳感器的層面上進行預(yù)測和規(guī)劃,而是在抽象層面上進行預(yù)測。因為語義相關(guān)的比特數(shù)量(在語音中,例如音素、說話者的身份、韻律等)只是原始信號中總比特數(shù)的一小部分,所以這樣可能更合適。

然而,大多數(shù)無監(jiān)督機器學(xué)習(xí)(至少是部分地)基于定義在輸入空間中的訓(xùn)練目標。由于無需捕獲少數(shù)語義相關(guān)的比特,就可以很好地優(yōu)化這些目標,因此它們可能不會產(chǎn)生好的表示。深度學(xué)習(xí)的核心目標之一是發(fā)現(xiàn)「好的」表示,所以我們會問:是否有可能學(xué)習(xí)輸入空間中未定義的訓(xùn)練目標的表示呢?本文探討的簡單想法是訓(xùn)練表示學(xué)習(xí)函數(shù)(即編碼器)以最大化其輸入和輸出之間的互信息。

互信息是出了名的難計算,特別是在連續(xù)和高維設(shè)置中。幸運的是,在神經(jīng)估計的最新進展中,已經(jīng)能夠有效計算深度神經(jīng)網(wǎng)絡(luò)的高維輸入/輸出對之間的互信息。而在本項研究中,研究人員利用這些技術(shù)進行表示學(xué)習(xí)。然而,最大化完全輸入與其表示之間的互信息(即全局互信息)不足以學(xué)習(xí)有用的表示,這依賴于下游任務(wù)。相反,最大化輸入的表示和局部區(qū)域之間的平均互信息可以極大地改善例如分類任務(wù)的表示質(zhì)量,而全局互信息在給定表示的重建完整輸入上能發(fā)揮更大的作用。

表示的作用不僅僅體現(xiàn)在信息內(nèi)容的問題上,架構(gòu)等表示特征也非常重要。因此,研究者以類似于對抗性自編碼器或 BiGAN 的方式將互信息最大化與先驗匹配相結(jié)合,以獲得具有期望約束的表示,以及良好的下游任務(wù)表現(xiàn)。該方法接近 INFOMAX 優(yōu)化原則,因此研究者們將他們的方法稱為深度 INFOMAX(DIM)。

本研究貢獻如下:

規(guī)范化的深度 INFOMAX(DIM),它使用互信息神經(jīng)估計(MINE)來明確地最大化輸入數(shù)據(jù)和學(xué)習(xí)的高級表示之間的互信息。

互信息最大化可以優(yōu)先考慮全局或局部一致的信息,這些信息可以用于調(diào)整學(xué)習(xí)表示的適用性,以進行分類或風(fēng)格重建的任務(wù)。

研究者使用對抗學(xué)習(xí)來約束「具有特定于先驗的期望統(tǒng)計特征」的表示。

引入了兩種新的表示質(zhì)量的度量,一種基于 MINE,另一種是 Brakel&Bengio 研究的的依賴度量,研究者用它們來比較不同無監(jiān)督方法的表示。

論文:Learning deep representations by mutual information estimation and maximization

論文地址:https://arxiv.org/abs/1808.06670v2

摘要:許多流行的表示學(xué)習(xí)算法使用在觀察數(shù)據(jù)空間上定義的訓(xùn)練目標,我們稱之為像素級。當(dāng)只有一小部分信號在語義層面上起作用時,這可能是不利的。我們假設(shè)應(yīng)該更直接地根據(jù)信息內(nèi)容和統(tǒng)計或架構(gòu)約束來學(xué)習(xí)和估計表示。為了解決第一個質(zhì)量問題,研究者考慮通過最大化部分或全部輸入與高級特征向量之間的互信息來學(xué)習(xí)無監(jiān)督表示。為了解決第二個問題,他們通過對抗地匹配先驗來控制表示特征。他們稱之為 Deep INFOMAX(DIM)的方法可用于學(xué)習(xí)期望特征的表示,并且在分類任務(wù)按經(jīng)驗結(jié)果優(yōu)于許多流行的無監(jiān)督學(xué)習(xí)方法。DIM 開辟了無人監(jiān)督學(xué)習(xí)表示的新途徑,是面向特定最終目標而靈活制定表征學(xué)習(xí)目標的重要一步。

實驗

我們使用以下指標來評估表示。下面編碼器都固定不變,除非另有說明:

使用支持向量機(SVM)進行線性分類。它同時代表具有線性可分性的表示的互信息。

使用有 dropout 的單個隱藏層神經(jīng)網(wǎng)絡(luò)(200 個單元)進行非線性分類。這同樣代表表示的互信息,其中標簽與線性可分性分開,如上面的 SVM 所測的。

半監(jiān)督學(xué)習(xí),即通過在最后一個卷積層(有標準分類器的匹配架構(gòu))上添加一個小型神經(jīng)網(wǎng)絡(luò)來微調(diào)整個編碼器,以進一步評估半監(jiān)督任務(wù)(STL-10)。

MS-SSIM,使用在 L2 重建損失上訓(xùn)練的解碼器。這代表輸入和表示之間的全部互信息,并且可以表明編碼的像素級信息的數(shù)量。

通過訓(xùn)練參數(shù)為ρ的判別器來最大化 KL 散度的 DV 表示,來表示輸入 X 和輸出表示 Y 之間的互信息神經(jīng)估計(MINE),I_ρ(X,Y)。

神經(jīng)依賴度量(NDM)使用第二判別器來度量 Y 和分批再組(batch-wise shuffled)的 Y 之間的 KL 散度,使得不同的維度相互獨立。

表 1:CIFAR10 和 CIFAR100 的分類準確率(top-1)結(jié)果。DIM(L)(僅局部目標)顯著優(yōu)于之前提出的所有其他無監(jiān)督方法。此外,DIM(L)接近甚至超過具有類似架構(gòu)的全監(jiān)督分類器。具有全局目標的 DIM 表現(xiàn)與任務(wù)中的某些模型相似,但不如 CIFAR100 上的生成模型和 DIM(L)。表中提供全監(jiān)督分類結(jié)果用于比較。

表 2:Tiny ImageNet 和 STL-10 的分類準確率(top-1)結(jié)果。對于 Tiny ImageNet,具有局部目標的 DIM 優(yōu)于所有其他模型,并且接近全監(jiān)督分類器的準確率,與此處使用的 AlexNet 架構(gòu)類似。

圖 5:使用 DIM(G)和 DIM(L)在編碼的 Tiny ImageNet 圖像上使用 L1 距離的最近鄰。最左邊的圖像是來自訓(xùn)練集的隨機選擇的參考圖像(查詢)以及在表示中測量的來自測試集的最近鄰的四個圖像,按照接近度排序。來自 DIM(L)的最近鄰比具有純粹全局目標的近鄰更容易理解。

圖 7:描繪判別器非歸一化輸出分布的直方圖,分別是標準 GAN、具有-log D 損失的 GAN、最小二乘 GAN、Wasserstein GAN 以及作者提出的以 50:1 訓(xùn)練率訓(xùn)練的方法。

方法:深度 INFOMAX

圖 1:圖像數(shù)據(jù)上下文中的基本編碼器模型。將圖像(在這種情況下)編碼到卷積網(wǎng)絡(luò)中,直到有一個 M×M 特征向量的特征圖與 M×M 個輸入塊對應(yīng)。將這些矢量(例如使用額外的卷積和全連接層)歸一化到單個特征向量 Y。目標是訓(xùn)練此網(wǎng)絡(luò),以便從高級特征中提取有關(guān)輸入的相關(guān)信息。

圖 2:具有全局 MI(X; Y)目標的深度 INFOMAX(DIM)。研究者通過由額外的卷積層、flattening 層和全連接層組成的判別器來傳遞高級特征向量 Y 和低級 M×M 特征圖(參見圖 1)以獲得分數(shù)。通過將相同的特征向量與來自另一圖像的 M×M 特征圖結(jié)合來繪制偽樣本。

結(jié)論

在這項研究中,研究者們介紹了 Deep INFOMAX(DIM),這是一種通過最大化互信息來學(xué)習(xí)無監(jiān)督表示的新方法。DIM 允許在架構(gòu)「位置」(如圖像中的塊)中包含局部一致信息的表示。這提供了一種直接且靈活的方式來學(xué)習(xí)在各種任務(wù)上有優(yōu)良表現(xiàn)的表示。他們認為,這是學(xué)習(xí)「好的」和更條理的表示的一個重要方向,這將利于未來的人工智能研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3952

    瀏覽量

    142593
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50091

    瀏覽量

    265241
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124392

原文標題:學(xué)界 | 最大化互信息來學(xué)習(xí)深度表示,Bengio等提出Deep INFOMAX

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學(xué)會】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    labview獲取【顯示分辨率】并實時設(shè)置界面【最大化】和【最小化居中】

    = GetSystemMetrics(SM_CYSCREEN);//屏幕高度在labview中設(shè)置參數(shù)類型和返回類型:labview中調(diào)用代碼:如此就可以獲取顯示分辨率了。(2)、實時設(shè)置界面【最大化
    發(fā)表于 04-19 12:40

    基于最大互信息方法的機械零件圖像識別

    提出了應(yīng)用最大互信息方法進行零件圖像識別的方法,它利用圖像的信息熵描述圖像的特征,結(jié)合圖像的顏色信息及局部形狀信息
    發(fā)表于 12-18 16:39 ?22次下載

    基于互信息的功能磁共振圖像配準

    互信息作為衡量兩幅圖像配準的相似性測度函數(shù),當(dāng)兩幅圖像配準時,互信息達到最大值。該文提出了基于互信息腦功能磁共振圖像配準新方法,采用了無需計
    發(fā)表于 02-28 17:01 ?22次下載

    基于圖嵌入和最大互信息組合的降維

    在特征降維方面,圖嵌入框架統(tǒng)一了PCA, LDA 等一系列特征降維算法,方便求解,但相似度矩陣計算有賴于人為假設(shè)。而最大互信息(MMI)從信息論的角度得到有效的特征降維變換,
    發(fā)表于 08-21 10:24 ?9次下載

    基于互信息梯度優(yōu)化計算的信息判別特征提取

    該文將互信息梯度優(yōu)化引入特征提取矩陣求解,提出一種信息判別分析的特征提取方法。首先,分析了現(xiàn)有線性判別方法的特點和局限,建立了類條件分布參數(shù)模型下互信息最大化
    發(fā)表于 02-10 12:02 ?9次下載

    Powell和SA混合優(yōu)化的互信息圖像配準

    基于互信息的圖像配準方法具有魯棒性強、配準精度高等優(yōu)點,已被廣泛應(yīng)用于醫(yī)學(xué)圖像的配準。但計算互信息涉及大量的浮點運算,且搜索最大互信息時容易陷入局部極值。本文提出
    發(fā)表于 02-21 14:46 ?14次下載

    基于互信息屬性分析與極端學(xué)習(xí)機的超短期風(fēng)速預(yù)測

    基于互信息屬性分析與極端學(xué)習(xí)機的超短期風(fēng)速預(yù)測_黃南天
    發(fā)表于 01-05 15:33 ?0次下載

    基于互信息和余弦的不良文檔過濾

    針對網(wǎng)頁中的維吾爾文不良文檔信息的過濾問題,提出一種基于互信息和余弦相似度的不良文檔信息過濾方案。首先,對輸入文檔進行預(yù)處理,過濾掉無用單詞。然后,利用文檔頻率(DF)和
    發(fā)表于 11-13 10:41 ?7次下載
    基于<b class='flag-5'>互信息</b>和余弦的不良文檔過濾

    基于互信息轉(zhuǎn)發(fā)MIF的網(wǎng)絡(luò)編碼中繼轉(zhuǎn)發(fā)方案

    針對雙向中繼網(wǎng)絡(luò)中傳統(tǒng)中繼轉(zhuǎn)發(fā)協(xié)議放大信號的同時放大了噪聲、可能轉(zhuǎn)發(fā)錯誤的解碼信號、中繼判決結(jié)果不可靠等問題,提出兩種基于互信息轉(zhuǎn)發(fā)(MIF)的網(wǎng)絡(luò)編碼中繼轉(zhuǎn)發(fā)方案。首先,中繼節(jié)點轉(zhuǎn)發(fā)來自兩個源端
    發(fā)表于 12-25 10:40 ?0次下載
    基于<b class='flag-5'>互信息</b>轉(zhuǎn)發(fā)MIF的網(wǎng)絡(luò)<b class='flag-5'>編碼</b>中繼轉(zhuǎn)發(fā)方案

    密碼芯片時域互信息能量分析

    在對密碼芯片進行時域上互信息能量分析基礎(chǔ)上,提出頻域上最大互信息系數(shù)能量分析攻擊的方法。該方法結(jié)合了密碼芯片在頻域上信息泄露的原理和互信息
    發(fā)表于 02-27 10:48 ?0次下載
    密碼芯片時域<b class='flag-5'>互信息</b>能量分析

    是十款各具特色的GANs,深入了解數(shù)學(xué)原理

    InfoGAN是生成對抗網(wǎng)絡(luò)信息理論的擴展,能夠完全非監(jiān)督的方式得到可分解的特征表示。它可以最大化隱含(latent)變量子集與觀測值之間
    的頭像 發(fā)表于 07-20 09:59 ?5944次閱讀

    如何使用最大聯(lián)合條件互信息進行特征選擇詳細資料說明

    數(shù),提高分析結(jié)果精度,但是,現(xiàn)有方法在特征選擇過程中評判特征是否冗余的標準單一,無法合理排除冗余特征,最終影響分析結(jié)果。為此,提出一種基于最大聯(lián)合條件互信息的特征選擇方法(MCJMI)。MCJMI選擇特征時考慮整體聯(lián)合互
    發(fā)表于 04-03 16:54 ?10次下載
    如何使用<b class='flag-5'>最大</b>聯(lián)合條件<b class='flag-5'>互信息</b>進行特征選擇詳細資料說明

    編碼器參數(shù)_編碼器型號說明

    編碼器一種很常見的人機交互信息輸入元器件, 主要分為兩大類一類是光電編碼器一類是接觸式的編碼器,今天主要跟大家分享一下接觸式旋轉(zhuǎn)
    發(fā)表于 02-19 15:15 ?3.4w次閱讀
    <b class='flag-5'>編碼器</b>參數(shù)_<b class='flag-5'>編碼器</b>型號說明

    一種改進互信息的加權(quán)樸素貝葉斯算法

    互信息和樸素貝葉斯算法應(yīng)用于垃圾郵件過濾時,存在特征冗余和獨立性假設(shè)不成立的問題。為此,提出種改進互信息的加權(quán)樸素貝葉斯算法。針對互信息效率較低的問題,通過引入詞頻因子與類間差異因子,提出一種改進
    發(fā)表于 03-16 10:15 ?12次下載
    一種改進<b class='flag-5'>互信息</b>的加權(quán)樸素貝葉斯算法

    基于互信息最大化的Raptor碼優(yōu)化設(shè)計方法

    基于互信息最大化的Raptor碼優(yōu)化設(shè)計方法
    發(fā)表于 07-02 11:47 ?8次下載