91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

汽車玩家 ? 來源: AI科技大本營 ? 作者: AI科技大本營 ? 2020-05-04 09:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自 2012 年以來,深度學(xué)習(xí)的發(fā)展有目共睹,今年 3 月,為此做出巨大貢獻的 Yoshua Bengio、Yann Lecun和Geofrey Hinton 一同獲得了圖靈獎。但現(xiàn)在,深度學(xué)習(xí)需要被進一步挖掘。

在最近一次采訪中,圖靈獎得主Bengio再次再次警示了可解釋因果關(guān)系對深度學(xué)習(xí)發(fā)展的重要性。

在他看來,除非深度學(xué)習(xí)能夠超越模式識別并了解因果關(guān)系的更多信息,否則它將無法實現(xiàn)其全部潛力,也不會帶來真正的AI革命。換句話說,深度學(xué)習(xí)需要開始知道事情發(fā)生的因果關(guān)系,這將使現(xiàn)有的 AI 系統(tǒng)更加智能,更加高效。

不過,對于深度學(xué)習(xí)未來發(fā)展的具體思路,AI 大佬們也有不同意見,在前幾日,紐約大學(xué)教授 Gary Marcus 和 Bengio 就此來了一場隔空“互懟”。

不管怎樣,Bengio 在研究深度學(xué)習(xí)可解釋性方面已經(jīng)出發(fā)了。今年年初,他其他研究者合作發(fā)表了《通過元遷移目標(biāo)來學(xué)習(xí)理解因果關(guān)系》一文,提出了一種基于學(xué)習(xí)器適應(yīng)稀疏分布變化速度的元學(xué)習(xí)因果結(jié)構(gòu),還生成了因果關(guān)系的綜合數(shù)據(jù)集。

以下為這篇論文的主要內(nèi)容要點,AI科技大本營(ID:rgznai100)編譯:

本文提出了一種基于學(xué)習(xí)器適應(yīng)稀疏分布變化速度的元學(xué)習(xí)因果結(jié)構(gòu),這些變化因素如干預(yù),智能體的行為和其他不穩(wěn)定因素。本文表明,在這種假設(shè)下,正確的因果結(jié)構(gòu)選擇會使學(xué)習(xí)器更快適應(yīng)修改后的分布,因為當(dāng)對所學(xué)知識進行適當(dāng)模塊化時,分布變化僅會集中在一種或幾種機制中。這導(dǎo)致為了適應(yīng)這種變化,需要重新學(xué)習(xí)梯度和一些自由度較低的參數(shù)。并將適應(yīng)修改后分布的速度作為元學(xué)習(xí)目標(biāo)的激勵項。

本文闡述了如何將其用于確定兩個觀察到的變量之間的因果關(guān)系。分布的變化不需要對應(yīng)于某種標(biāo)準(zhǔn)的干預(yù)(固定變量),并且學(xué)習(xí)器不會了解這些干預(yù)相關(guān)的知識。本文證明了因果結(jié)構(gòu)可以通過連續(xù)變量和端到端的學(xué)習(xí)進行參數(shù)化。然后,本文探討了如何將這些想法用于學(xué)習(xí)一種編碼器,該編碼器能將初級觀察變量映射到未觀察到的因果變量,從而導(dǎo)致更快的分布適應(yīng)。它學(xué)習(xí)的是一種表示空間,在這種表示空間中,可以滿足獨立性以及微小和稀疏變化的假設(shè)。

引言

當(dāng)目前的機器學(xué)習(xí)方法需要泛化到訓(xùn)練分布之外的場景時,模型的能力似乎很薄弱,而這通常是非常需要的。在與訓(xùn)練數(shù)據(jù)相同的分布相似的測試集上獲得良好的泛化性能是不夠的,我們還希望在一種數(shù)據(jù)集中學(xué)到的知識能夠很好的泛化到其他相關(guān)的分布中。這些分布可能涉及模型之前所見的內(nèi)容,而它的一些變化則是由智能體引起的。

更籠統(tǒng)地說,我們希望以前學(xué)到的知識形成一個豐富的基礎(chǔ),從中可以非常迅速地適應(yīng)新的但相關(guān)的分布,即獲得良好的遷移。可能模型必須學(xué)習(xí)一些新內(nèi)容,但是由于它已經(jīng)掌握了大多數(shù)其他相關(guān)內(nèi)容(以及它們的組成方式),因此在遷移目標(biāo)分布上,可以非??焖俚耐瓿蓪W(xué)習(xí)。

沒有任何假設(shè),就不可能成功遷移到一個無關(guān)的分布上。在本文中,我們關(guān)注于以下假設(shè):當(dāng)以適當(dāng)?shù)哪K化方式表示知識時,改變是稀疏的,即只有一個或幾個模塊更改了。當(dāng)分布變化是由于一種或多種因素的作用引起的,這尤其相關(guān),例如因果關(guān)系文獻中討論的干預(yù)措施,其中單個因果變量被限制在特定值。

總的來說,模型很難一次影響許多潛在的因果變量,盡管本文并不是關(guān)于模型學(xué)習(xí),但這是我們建議在此處利用的一個特性,用于幫助發(fā)現(xiàn)這些變量它們之間的因果關(guān)系。

為了激發(fā)推斷因果結(jié)構(gòu)的需求,需要考慮可以實際執(zhí)行或可以想象的干預(yù)??梢韵胂笠幌拢捎谝豁椄深A(yù)措施,可能會改變相關(guān)變量的聯(lián)合分布,即以前從未觀察到過。這超出了遷移學(xué)習(xí)的范圍,因此需要因果學(xué)習(xí)和因果推理。

為此,僅學(xué)習(xí)觀測變量的聯(lián)合分布是不夠的。人們還應(yīng)該對潛在的高級變量及其因果關(guān)系有足夠的了解,以能夠正確推斷干預(yù)的效果。例如,A =下雨,它會導(dǎo)致B =打開雨傘(反之亦然)。改變下雨的邊緣概率(例如,因為天氣變化)不會改變A和B的之間的關(guān)系(即P(B | A)),但會對邊緣概率P(B)卻產(chǎn)生了影響。相反,智能體對B(打開雨傘)的干預(yù)不會對A(下雨)的邊緣分布產(chǎn)生影響。通常僅從(A,B)訓(xùn)練對中看不到這種不對稱性,直到發(fā)生分布變化(例如由于干預(yù)引起的)。

這是本文的動機,在本文中,人們可以從不一定是已知的干預(yù)措施分布中學(xué)習(xí),而不僅僅是獲取一個聯(lián)合分布,還可以發(fā)現(xiàn)一些潛在的因果結(jié)構(gòu)。機器學(xué)習(xí)方法通常會利用某種形式的關(guān)于數(shù)據(jù)分布的假設(shè)。在本文中,我們不僅要考慮數(shù)據(jù)分布的假設(shè),還要考慮其變化方式(例如,從訓(xùn)練分布轉(zhuǎn)到遷移分布時,可能是由于某些智能體的行為造成的)。

我們建議基于這樣的假設(shè):當(dāng)表示有關(guān)分布的知識時,其中的變化很小。之所以出現(xiàn)這種情況,是因為一個或幾個基本事實機制的假設(shè)(但很難直接驗證),會因為某種干預(yù)形式而改變。

我們?nèi)绾卫眠@個假設(shè)?如果我們擁有正確的知識表示,那么從一個訓(xùn)練好的模型開始,我們應(yīng)該能快速適應(yīng)遷移的分布。之所以出現(xiàn)這種情況,是因為我們假設(shè)數(shù)據(jù)的生成過程是獨立獲得的,而且從訓(xùn)練分布到轉(zhuǎn)移分布,幾乎不需要改變真正的機制和參數(shù)。因此,捕獲相應(yīng)知識分解的模型僅需要進行一些更新和一些樣例,即可適應(yīng)遷移分布。

因此,基于正確知識表示空間的微小變化的假設(shè),我們可以定義一個衡量適應(yīng)速度的元學(xué)習(xí)目標(biāo),以便優(yōu)化知識的表示,分解和結(jié)構(gòu)化方式。這是本文提出的核心思想。

請注意,當(dāng)存在更多的非平穩(wěn)性(即分布變化很多)時,可以獲得更強的信號,就像在元學(xué)習(xí)中一樣,通過更多的元示例獲得更好的結(jié)果。通過這種方式,我們可以將通常被認(rèn)為是機器學(xué)習(xí)中令人討厭的東西(由于非平穩(wěn)性,不受控制的干預(yù)等導(dǎo)致的分布變化)轉(zhuǎn)化為訓(xùn)練信號,從而找到一種將知識分解為要素和知識的好方法。

在本文中,我們將通過對合成生成的數(shù)據(jù)進行特定的實驗來探索上述想法,以便對其進行驗證并證明存在利用它們的簡單算法。但是,對我們來說很明顯,將需要更多的工作來評估提出方法的多樣性。設(shè)置以及具有不同的具體參數(shù)設(shè)置,訓(xùn)練目標(biāo),環(huán)境等。

我們從最簡單的設(shè)置開始,并評估上述方法是否可用于了解因果關(guān)系的方向。然后,我們研究獲得訓(xùn)練信號的關(guān)鍵問題,該訓(xùn)練信號關(guān)于如何將原始觀測數(shù)據(jù)轉(zhuǎn)換為表示空間,在該表示空間中,潛在變量可以通過具有稀疏分布變化的稀疏因果圖來建模,并顯示正確的編碼器確實可以更好地實現(xiàn)我們期望的元學(xué)習(xí)目標(biāo)的價值。

何為因?何為果?

作者在本節(jié)中考慮確定變量A是否導(dǎo)致變量B或反之的問題。學(xué)習(xí)器(模型)會從一對相關(guān)分布中觀察訓(xùn)練樣本(a,b),按照慣例,我們將其稱為訓(xùn)練分布和遷移分布。請注意,僅基于來自單個(訓(xùn)練)分布的樣本,通常A→B模型(A導(dǎo)致B)和B→A模型(反之亦然,請參見下面的公式(1))另請參見附錄A中的理論論證和模擬結(jié)果。

為了突出提出的元學(xué)習(xí)目標(biāo)的功能,我們考慮了很多可用于訓(xùn)練分布但不能用于遷移分布的樣例。實際上,正如我們將在下面討論的那樣,如果我們可以訪問更多短時遷移的樣例,則推斷出正確因果方向的訓(xùn)練信號會更強烈。

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

學(xué)習(xí)帶兩個離散變量的因果關(guān)系圖

我們需要比較兩個假設(shè)(A→B與B→A)的性能,即兩個模型在訓(xùn)練分布上進行訓(xùn)練后在遷移分布上的適應(yīng)速度。我們將在此參數(shù)上假設(shè)簡單的隨機梯度下降,但是當(dāng)然可以使用其他過程。在不失一般性的前提下,令A(yù)→B為正確的因果模型。為了使條件更強,可以考慮兩個分布之間的變化等于原因A的真實P(A)值的隨機變化(因為這會對效果B產(chǎn)生影響,并揭示因果關(guān)系方向)。我們不假定學(xué)習(xí)器(模型)知道進行了何種干預(yù),這與更常見的因果發(fā)現(xiàn)和受控實驗方法不同。我們僅假設(shè)發(fā)生了某些變化,然后嘗試?yán)盟鼇斫沂窘Y(jié)構(gòu)性的因果信息。

適應(yīng)遷移分布的實驗

本文目前進行的實驗是將正確因果模型的學(xué)習(xí)曲線與遷移模型上的因果模型的學(xué)習(xí)曲線進行了比較。對于來自不同但相關(guān)的遷移分布的數(shù)據(jù),僅需幾個梯度步驟,我們的元學(xué)習(xí)算法就可以獲取至關(guān)重要的一些信息(信號)。為了展示這種適應(yīng)的效果,僅使用遷移分布中的少量數(shù)據(jù),本文對離散隨機變量的模型進行了實驗。如上圖1。

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

一個簡單的參數(shù)計數(shù)能有助于我們理解圖1中的觀察結(jié)果。首先,考慮在適應(yīng)遷移分布的階段,指定不同模塊參數(shù)的預(yù)期梯度,并對應(yīng)于學(xué)習(xí)的元示例。作者提出了三個見解

見解1對于在訓(xùn)練階段已正確學(xué)習(xí)的模塊參數(shù),遷移分布相對于模塊參數(shù)的預(yù)期梯度為零,并且具有正確的因果關(guān)系集合,對應(yīng)于正確的因果圖,如果(c)相應(yīng)的正確條件分布沒有從訓(xùn)練分布變?yōu)檫w移分布。

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

見解2上述公式(2)中遷移數(shù)據(jù)的負(fù)對數(shù)似然率的梯度。其結(jié)構(gòu)參數(shù)由下式給出

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

其中D2是遷移數(shù)據(jù),而

是假設(shè)A->B的后驗概率。此外,這可以等效地寫為

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

其中

是遷移數(shù)據(jù)D2上兩個假設(shè)對數(shù)似然之間的差異。

見解3

隨機梯度下降(適當(dāng)降低學(xué)習(xí)率)趨向于

可解釋因果關(guān)系對深度學(xué)習(xí)的影響

作者通過附錄及實驗證實了上述三個見解,具體可以參見論文。

總結(jié)展望

作者使用非常簡單的雙變量設(shè)置,確定了學(xué)習(xí)器可以用適應(yīng)觀察數(shù)據(jù)分布稀疏變化的速率來選擇或優(yōu)化因果結(jié)構(gòu)并解耦因果變量?;谶@樣的假設(shè):在具有正確因果結(jié)構(gòu)的情況下,這些分布變化是局部且稀疏的。本文通過理論結(jié)果和實驗驗證了這些想法。

這項工作只是基于修改分布速率優(yōu)化因果結(jié)構(gòu)的第一步。在實驗方面,除了本文研究的設(shè)定外,還應(yīng)考慮許多其他條件設(shè)定,包括各種參數(shù)設(shè)置,更豐富和更大的因果圖,各種優(yōu)化程序等。此外,由于我們在這一點上僅使用了具有單一自由度的最簡單的編碼器進行了實驗,在探索如何學(xué)習(xí)更優(yōu)的學(xué)習(xí)表達(dá)時,還需要更多的工作。擴充這些想法,便能應(yīng)用于提升學(xué)習(xí)器處理非平穩(wěn)性的分布,從而提高學(xué)習(xí)器的魯棒性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40001

    瀏覽量

    301639
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124439
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能與機器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?524次閱讀

    Modbus產(chǎn)品腳本編輯器“映射關(guān)系解釋?映射關(guān)系的地址對應(yīng)關(guān)系?

    Modbus產(chǎn)品腳本編輯器“映射關(guān)系解釋?映射關(guān)系的地址對應(yīng)關(guān)系
    發(fā)表于 01-20 15:28

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?223次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護周期長
    發(fā)表于 12-22 14:33

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?237次閱讀

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?924次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1057次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4220次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1256次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    中國科學(xué)院西安光機所在計算成像可解釋深度學(xué)習(xí)重建方法取得進展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國科學(xué)院西安光機所空間光學(xué)技術(shù)研究室在計算成像可解釋深度學(xué)習(xí)重建方法研究取得創(chuàng)新性進展。相關(guān)研究成果發(fā)表于計算機視覺與圖形學(xué)領(lǐng)域國際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?696次閱讀
    中國科學(xué)院西安光機所在計算成像<b class='flag-5'>可解釋</b>性<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>重建方法取得進展

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1536次閱讀

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1234次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動!