91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在不更改模型結(jié)構(gòu)和不修改數(shù)據(jù)的情況下提升智能體

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:張霽雯 ? 2021-11-09 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2018 年 Anderson 等人提出了視覺語言導(dǎo)航(Vision-and-Language Navigation,VLN)任務(wù)和對(duì)應(yīng)的基準(zhǔn)數(shù)據(jù)集(Room-to-Room Dataset)。該任務(wù)旨在探究智能體是否能在仿真模擬環(huán)境中遵循自然語言指令,因此可以形式化的評(píng)估智能體是否具有跨模態(tài)的理解能力。先前的工作取得了長(zhǎng)足的進(jìn)步,然而少有工作專注于探究智能體是否充分學(xué)習(xí)了數(shù)據(jù)中的信息,或者說,智能體是一個(gè)好學(xué)生嗎?在計(jì)算機(jī)視覺領(lǐng)域,Hlynsson 等人試圖通過衡量數(shù)據(jù)效率來回答這個(gè)問題。具體而言,該工作將模型性能作為數(shù)據(jù)集大小的函數(shù),并衡量在不同規(guī)模數(shù)據(jù)集上模型的性能。在視覺語言導(dǎo)航領(lǐng)域,Huang 等人開發(fā)了基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)鑒別器(discriminator),可以過濾低質(zhì)量的指令路徑對(duì)以提升智能體的學(xué)習(xí)效率。而在本文中,我們?cè)噲D回答:能否在不更改模型結(jié)構(gòu)和不修改數(shù)據(jù)的情況下進(jìn)一步提升智能體?

我們監(jiān)控了智能體在導(dǎo)航過程中所犯的第一個(gè)錯(cuò)誤,并在下圖中展示了不同錯(cuò)誤的比率。我們發(fā)現(xiàn)當(dāng)智能體導(dǎo)航失敗時(shí),大約 50% 的錯(cuò)誤是由代理錯(cuò)誤地預(yù)測(cè)下一個(gè)室內(nèi)方向引起的。此類錯(cuò)誤的比例隨著導(dǎo)航任務(wù)跨越更多房間而降低,但仍保持在一個(gè)較高水平。這些現(xiàn)象表明導(dǎo)航智能體受限于它在一個(gè)房間內(nèi)和兩個(gè)房間之間導(dǎo)航的能力。因此,我們認(rèn)為傳統(tǒng)學(xué)習(xí)過程使得智能體不能充分地學(xué)習(xí)數(shù)據(jù)中的信息,采用類似范式進(jìn)行訓(xùn)練的導(dǎo)航智能體很可能被低估了。

02 Methods

智能體在這些簡(jiǎn)單案例上的糟糕表現(xiàn)激勵(lì)我們借鑒課程學(xué)習(xí)的想法。課程學(xué)習(xí)是一類關(guān)注數(shù)據(jù)集中樣本難度的分布的訓(xùn)練范式,由 Bengio 于 2009 年提出,主要思想是模仿人類學(xué)習(xí)的特點(diǎn),讓模型先從容易的樣本開始學(xué)習(xí),并逐漸進(jìn)階到復(fù)雜的樣本和知識(shí)。本文借鑒了課程學(xué)習(xí)的理念,首創(chuàng)性地提出了基于課程的 VLN 訓(xùn)練范式。

首先,我們?yōu)閷?dǎo)航任務(wù)設(shè)計(jì)了合適的課程。從抽象角度看,課程被視為一系列訓(xùn)練準(zhǔn)則。每個(gè)訓(xùn)練準(zhǔn)則都與訓(xùn)練樣本上的一組不同的權(quán)重相關(guān)聯(lián),或更普遍地,與訓(xùn)練樣本分布的重新加權(quán)有關(guān)。要定義課程,首先需要定義樣本的難度。對(duì)于人類來說,很容易在很小的范圍內(nèi)找到特定物體或地點(diǎn)。在經(jīng)過簡(jiǎn)單的探索后,人類就可以利用有關(guān)環(huán)境的知識(shí)來完成更艱巨的任務(wù)。因此,我們假設(shè)路徑 可以覆蓋的房間數(shù)量 主導(dǎo)了導(dǎo)航任務(wù)的難度級(jí)別。我們建議根據(jù) 對(duì)基準(zhǔn)數(shù)據(jù)集R2R數(shù)據(jù)集進(jìn)行重新劃分,劃分后的數(shù)據(jù)集如下表所示:

b679f9d0-412b-11ec-b939-dac502259ad0.png

我們認(rèn)為從簡(jiǎn)單到困難的數(shù)據(jù)集劃分方式使得對(duì)智能體在這些子集上的學(xué)習(xí)與玩街機(jī)游戲非常相似,因此我們根據(jù)子集中樣本的難度將訓(xùn)練集的各個(gè)子集命名為第一回合(Round 1)至第五回合(Round 5)。從平均路徑長(zhǎng)度、平均指令長(zhǎng)度和全景圖覆蓋率可以看出,我們劃分的數(shù)據(jù)子集呈現(xiàn)出明顯的階梯特征。這說明我們對(duì)數(shù)據(jù)集難度的劃分是合理的。新數(shù)據(jù)集被稱為為課程學(xué)習(xí)設(shè)計(jì)的R2R數(shù)據(jù)集(R2R for curriculum learning dataset,CLR2R dataset)。

有許多方法可以應(yīng)用在 CLR2R 數(shù)據(jù)集上。如果我們將每個(gè)子集都視為一個(gè)課程,則 CLR2R 適用于自動(dòng)課程學(xué)習(xí)。如果我們將整個(gè)數(shù)據(jù)集視為一個(gè)大課程,則每個(gè)回合中的樣本應(yīng)被賦予相同的優(yōu)先級(jí),因此可以使用自定進(jìn)度的課程學(xué)習(xí)。在本文中,我們將重點(diǎn)放在后一種模式上。

由 Jiang 等人提出的自定進(jìn)度課程學(xué)習(xí)(Self-Paced Curriculum Learning,SPCL)是一種“師生協(xié)作”學(xué)習(xí)方法,它在統(tǒng)一框架中考慮了訓(xùn)練之前人類對(duì)于數(shù)據(jù)的先驗(yàn)知識(shí)和訓(xùn)練過程中智能體對(duì)數(shù)據(jù)的學(xué)習(xí)進(jìn)度。具體而言,SPCL 的目標(biāo)損失函數(shù)定義為

其中 表示參數(shù)化的導(dǎo)航智能體, 是反映樣本重要性的權(quán)重變量。 稱為控制學(xué)習(xí)方案的自定進(jìn)度函數(shù), 是限制學(xué)習(xí)速度的超參數(shù)。 是編碼預(yù)定課程表(predetermined curriculum)信息的可行區(qū)域。本文將 CLR2R 數(shù)據(jù)集看作一個(gè)完整的課程。因此每個(gè)回合中的樣本應(yīng)被賦予相同的課程等級(jí)。因此,在 CLR2R 數(shù)據(jù)集上只需 5 個(gè)標(biāo)量就足以定義課程區(qū)域的參數(shù)向量。Jiang 等人討論了一些自定進(jìn)度函數(shù)的具體形式,在本文中, 我們主要關(guān)注兩種較為簡(jiǎn)單的自定進(jìn)度函數(shù):二進(jìn)制方案(binary scheme)和線性方案(linear scheme)。

容易發(fā)現(xiàn),公式(1)中的兩個(gè)參數(shù)是可以交替優(yōu)化的。具體而言,對(duì)于參數(shù) 的優(yōu)化是一個(gè)凸優(yōu)化問題,

在 和簡(jiǎn)單自定進(jìn)度函數(shù)的條件下具有封閉解。本質(zhì)上公式(2)是一個(gè)線性約束凸優(yōu)化問題。對(duì)于一般的課程區(qū)域 我們可以應(yīng)用投影梯度下降法(Projected Gradient Descent,PGD)來獲得最優(yōu)權(quán)重 。

通常, 公式(1)中的優(yōu)化問題可以采用交替凸搜索算法(Alternative Convex Search,ACS)求解。原始算法的主要問題是在第 4 步,其中使用固定的最新權(quán)重向量 來學(xué)習(xí)最佳模型參數(shù) 。在基于神經(jīng)網(wǎng)絡(luò)的導(dǎo)航智能體的訓(xùn)練中,由于梯度下降方法優(yōu)化的神經(jīng)網(wǎng)絡(luò)缺乏全局最優(yōu)保證以及計(jì)算復(fù)雜度問題,我們不可能計(jì)算的確切最優(yōu)值。因此本文建議無需計(jì)算確切的最小值,將原算法中的第 4 步替換為機(jī)器學(xué)習(xí)訓(xùn)練范式中的多個(gè)梯度下降更新步驟。這樣做能使算法的速度加快,并且此時(shí)權(quán)重向量 實(shí)際上是通過考慮 “當(dāng)前”學(xué)習(xí)進(jìn)度而不是 “最終” 學(xué)習(xí)進(jìn)度來更新的。

03 Experiments

3.1 Setup

在實(shí)驗(yàn)中,我們采用了三種訓(xùn)練范式

機(jī)器學(xué)習(xí): 對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行一致采樣(Uniform Sampling),采樣得到的數(shù)據(jù)作為批數(shù)據(jù)(mini-batch)呈遞給模型進(jìn)行學(xué)習(xí)。

樸素課程學(xué)習(xí)(Na?ve Curriculum Learning):對(duì)訓(xùn)練集中的樣本從易到難進(jìn)行排序,按照從易到難的順序?qū)颖境蔬f給模型進(jìn)行學(xué)習(xí)。具體而言, 智能體首先在 CLR2R 數(shù)據(jù)集的 Round 1 子集上進(jìn)行學(xué)習(xí), 然后在 Round 1~2 子集上進(jìn)行學(xué)習(xí), 最終在集合 Round 1~5 (也就是 R2R 的訓(xùn)練集) 上進(jìn)行學(xué)習(xí)。

自定進(jìn)度課程學(xué)習(xí)(Self-Paced Curriculum Learning):如前所述,為了應(yīng)用 SPCL 算法,我們需要首先確定課程區(qū)域和自定進(jìn)度函數(shù)。對(duì)于課程區(qū)域,我們假設(shè) CLR2R 數(shù)據(jù)集中每個(gè) Round 子集中的樣本都具有相同的難度,因此我們?cè)O(shè)置 Round 。對(duì)于自定進(jìn)度的函數(shù),由于在導(dǎo)航任務(wù)中每個(gè)樣本對(duì)于的損失 是不受限的,因此我們選擇二進(jìn)制方案和線性方案。

3.2 Results

主要結(jié)果:下表提供三個(gè) SOTA 智能體在不同的訓(xùn)練設(shè)置下在驗(yàn)證集的上的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)表明,采用自定進(jìn)度課程學(xué)習(xí)訓(xùn)練的智能體在已見和未見的驗(yàn)證劃分上都可以達(dá)到最佳性能。

學(xué)習(xí)速率:整體而言,相比于傳統(tǒng)機(jī)器學(xué)習(xí),采用自定進(jìn)度課程學(xué)習(xí)訓(xùn)練的智能體在迭代相同的次數(shù)之后可以獲得更優(yōu)的性能表現(xiàn)。相同精度的結(jié)果,采用自定進(jìn)度課程學(xué)習(xí)所需要的循環(huán)次數(shù)大大減少。這說明自定進(jìn)度課程學(xué)習(xí)不僅可以提升模型的性能,還可以優(yōu)化模型的訓(xùn)練效率。

SPCL 超參數(shù)魯棒性:為了理解權(quán)重 初始化和步長(zhǎng) 的選擇對(duì)自定進(jìn)度課程學(xué)習(xí)的影響,我們對(duì)這兩個(gè)超參數(shù)進(jìn)行網(wǎng)格搜索,結(jié)果如圖所示。下圖表明,自定進(jìn)度課程學(xué)習(xí)對(duì)權(quán)重初始化和步長(zhǎng)選擇并不敏感,在大多數(shù)情況下采用自定進(jìn)度課程學(xué)習(xí)訓(xùn)練的導(dǎo)航智能體在驗(yàn)證集上的結(jié)果都要優(yōu)于機(jī)器學(xué)習(xí)基準(zhǔn)。

損失地形:為了探究自定進(jìn)度課程學(xué)習(xí)為何能夠提升導(dǎo)航智能體的性能,我們遵循計(jì)算機(jī)視覺分析批歸一化采用的方法,通過計(jì)算最大和最小損失之間的距離來研究智能體訓(xùn)練期間的損失地形。結(jié)果如圖所示。一般而言,我們的實(shí)驗(yàn)結(jié)果與理論結(jié)果一致,即課程學(xué)習(xí)可以有效地平滑優(yōu)化環(huán)境、改善損失地形。

遷移學(xué)習(xí):使用課程學(xué)習(xí)訓(xùn)練 的智能體既可以保持在 R2R 數(shù)據(jù)集上的導(dǎo)航性能,也能夠遷移到 RxR-en 數(shù)據(jù)集上完成更難的導(dǎo)航任務(wù)。

b9401ff0-412b-11ec-b939-dac502259ad0.png

與預(yù)訓(xùn)練方法結(jié)合:為了探究采用課程學(xué)習(xí)范式訓(xùn)練的導(dǎo)航智能體是否也可以從預(yù)訓(xùn)練方法中受益,我們將智能體與基于視覺語言 Transformer 的模型 VLN-BERT(Majumdar 等,2020)相結(jié)合。我們將束搜索大小限制為 5,并純粹使用 VLN-BERT 模型來評(píng)分和選擇路徑-指令對(duì)。在未見驗(yàn)證劃分上的結(jié)果如圖所示。Beam search 和 VLN-BERT 都可以提高智能體的導(dǎo)航性能。通過基于課程的方法訓(xùn)練的導(dǎo)航智能體獲得更多改進(jìn)。

04 Conclusion

我們首先建議將有關(guān)訓(xùn)練樣本的人類先驗(yàn)知識(shí)整合到導(dǎo)航智能體的訓(xùn)練過程中,首先提出采用課程學(xué)習(xí)對(duì)導(dǎo)航智能體進(jìn)行訓(xùn)練。

我們?yōu)橐曈X語言導(dǎo)航任務(wù)設(shè)計(jì)了第一個(gè)課程,并基于 Room-to-Room ( ) 數(shù)據(jù)集構(gòu)建了可用于課程學(xué)習(xí)的第一個(gè) VLN 數(shù)據(jù)集。

我們采用自定進(jìn)度課程學(xué)習(xí)提出了一種導(dǎo)航智能體的訓(xùn)練范式。這種訓(xùn)練范式能在不增加模型復(fù)雜度的前提下提高智能體的訓(xùn)練效率和性能。

我們驗(yàn)證了課程學(xué)習(xí)的作用是平滑損失函數(shù) (smooth loss landscape),從而加速學(xué)習(xí)進(jìn)度、使智能體收斂到更好的局部最優(yōu)點(diǎn)。

我們進(jìn)一步的實(shí)驗(yàn)表明,課程學(xué)習(xí)適用于遷移學(xué)習(xí),并能與預(yù)訓(xùn)練方法相結(jié)合。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器視覺
    +關(guān)注

    關(guān)注

    165

    文章

    4806

    瀏覽量

    126239
  • 導(dǎo)航
    +關(guān)注

    關(guān)注

    7

    文章

    578

    瀏覽量

    43982

原文標(biāo)題:NeurlPS2021 | 視覺語言導(dǎo)航的課程學(xué)習(xí)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    請(qǐng)問如何在按鈕的情況下重置電路板?

    我有一臺(tái)舊的 Raspberry Pi 1B,我用它通過 UART 照顧 VF2。如果 VF2 無法啟動(dòng)但 u-boot 仍然可以訪問,我可以 ssh 進(jìn)入 RPI 并運(yùn)行 picocom 來修復(fù)它。 如果 VF2 崩潰且無法訪問 u-boot,有沒有辦法按重置按鈕的
    發(fā)表于 03-20 08:01

    小藝開放平臺(tái)鴻蒙智能開發(fā)智能配置-基礎(chǔ)信息

    。 圖標(biāo):上傳的圖標(biāo)建議比例1:1正方形圖片,大小超過5M,支持png、jpeg、jpg不透明背景。 智能名稱:支持編輯智能名稱,
    發(fā)表于 02-02 16:47

    結(jié)構(gòu)聲明與定義

    1、聲明 結(jié)構(gòu)的聲明使用struct關(guān)鍵字,如果我們想要把我們的學(xué)籍信息組織一的話,可以這樣表示: struct Info { unsigned long identifier;//學(xué)號(hào)
    發(fā)表于 12-11 07:52

    為什么建議用匿名結(jié)構(gòu)

    說起匿名結(jié)構(gòu),想必大家第一感覺就是看著好高大上的名字,但實(shí)際上也就那樣。 typedef struct { union { struct { uint8_t bit_0:1
    發(fā)表于 12-04 07:39

    C語言結(jié)構(gòu)使用

    有時(shí)候需要將不同類型的數(shù)據(jù)組合為一個(gè)整體,以便于引用。例如,一名學(xué)生有學(xué)號(hào)、姓名、性別、年齡等屬性,如果針對(duì)每個(gè)屬性都單獨(dú)定義一個(gè)變量,那么當(dāng)有多名學(xué)生時(shí)變量就難以分清。結(jié)構(gòu)就是用來管理不同類
    發(fā)表于 11-12 08:30

    灌封膠導(dǎo)熱粉絕緣情況下、對(duì)電阻率有沒有提升?

    確保使用絕緣類導(dǎo)熱粉且分散良好的前提下,灌封膠的電阻率不僅不會(huì)下降,反而可能得到顯著的維持、穩(wěn)定甚至間接提升。 這是一個(gè)看似矛盾但至關(guān)重要的概念。許多人擔(dān)心添加任何填料都可
    的頭像 發(fā)表于 10-30 14:55 ?386次閱讀

    當(dāng)不同的數(shù)據(jù)放在同一個(gè)Flash頁(yè)面上時(shí),請(qǐng)問如何在不影響其他數(shù)據(jù)情況下更改一些單獨(dú)的數(shù)據(jù)

    當(dāng)不同的數(shù)據(jù)放在同一個(gè)Flash頁(yè)面上時(shí),如何在不影響其他數(shù)據(jù)情況下更改一些單獨(dú)的數(shù)據(jù)?
    發(fā)表于 08-22 06:25

    CX3 Vsync Hsync時(shí)序參數(shù)如何修改

    請(qǐng)問關(guān)于CX3 max96705 接max9296,可以修改MAX96705 的VS 訊號(hào)達(dá)到CX3 可以解出VS 跟HS,但如果不修改MAX96705 的情況下,我可以改什么參數(shù)上CX3 可以一樣也出VS 跟HS 。
    發(fā)表于 07-24 07:00

    操作說明|修改DJZ1226直流電能表通訊地址

    非必要,不修改
    的頭像 發(fā)表于 07-11 14:58 ?634次閱讀
    操作說明|<b class='flag-5'>修改</b>DJZ1226直流電能表通訊地址

    請(qǐng)問CYW20835sleep mode的情況下,不進(jìn)入SDS或HIDOF的情況下,底電流最低是多少?

    請(qǐng)問CYW20835sleep mode的情況下,不進(jìn)入SDS或HIDOF的情況下,底電流最低是多少?
    發(fā)表于 07-07 07:54

    IAR Arm開發(fā)工具鏈中--function_sections編譯選項(xiàng)的使用

    本文主要介紹IAR Arm開發(fā)工具鏈中不修改源代碼的情況下使用??function_sections編譯選項(xiàng)把函數(shù)放到單獨(dú)的section。
    的頭像 發(fā)表于 06-13 13:53 ?1843次閱讀
    <b class='flag-5'>在</b>IAR Arm開發(fā)工具鏈中--function_sections編譯選項(xiàng)的使用

    在外部實(shí)質(zhì)信號(hào)突變的情況下,經(jīng)過AD9278采集到的數(shù)據(jù)突然變小,為什么?

    應(yīng)用場(chǎng)景:使用AD9278采集超聲信號(hào) 問題:在外部實(shí)質(zhì)信號(hào)突變的情況下,經(jīng)過AD9278采集到的數(shù)據(jù)突然變?。。?!為什么??? 如果將TGC減小,這個(gè)突然變暗的點(diǎn)會(huì)往下移, 但是通過FPGA抓到
    發(fā)表于 06-10 06:39

    FX2LP如何在更改硬件的情況下對(duì)其進(jìn)行重新編程?

    我正在使用 FX2LP/ CY7C68013A-128AXC設(shè)備(定制板),我有一些問題需要您的幫助。 1如果我的 EEPROM 已經(jīng)有固件并且正在運(yùn)行,如何在更改硬件的情況下對(duì)其進(jìn)行重新
    發(fā)表于 05-06 11:16

    LT35805V出入的情況下,如何修改匝數(shù)比和反饋電阻,輸出200V電壓?

    LT35805V出入的情況下,如何修改匝數(shù)比和反饋電阻,輸出200V電壓
    發(fā)表于 04-24 06:12

    學(xué)習(xí)智能開發(fā)

    智能是大模型的應(yīng)用落地,正在學(xué)習(xí)中,這本書太及時(shí)了,非常想看看。
    發(fā)表于 03-27 15:48