91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個學習何時做分類決策的強化學習模型:Jumper

倩倩 ? 來源:雷鋒網(wǎng) ? 2020-04-17 11:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

文本理解是自然語言處理領(lǐng)域的一個核心目標,最近取得了一系列的進展,包括機器翻譯、問答等。不過之前的工作大多數(shù)是關(guān)心最終的效果,而人們對于模型何時做出決定(或做決定的原因)卻知之甚少,這是一個對于理論研究和實際應用都非常重要的課題。深度好奇(DeeplyCurious.AI) 最近在IJCAI-2018上展示了一個學習何時做分類決策的強化學習模型:Jumper, 該論文將文本分類問題建模成離散的決策過程,并通過強化學習來優(yōu)化,符號化表征模型的決策過程具有很好的可解釋性,同時分類效果也達到最高水平。

本文提供了一種新的框架,將文本理解建模為一個離散的決策過程。通常在閱讀過程中,人們尋找線索、進行推理,并從文本中獲取信息;受到人類認知過程的啟發(fā),我們通過將句子逐個地遞送到神經(jīng)網(wǎng)絡(luò)來模仿這個過程。在每個句子中,網(wǎng)絡(luò)基于輸入做出決策(也稱為動作),并且在該過程結(jié)束時,該決策序列可以視為是對文本有了一些“理解”。

特別一提的是,我們專注于幾個預定義子任務(wù)的文本分類問題。當我們的神經(jīng)網(wǎng)絡(luò)讀取一個段落時,每個子任務(wù)在開始時具有默認值“無”(None)。 在每個決策步驟中,段落的句子按順序被遞送到神經(jīng)網(wǎng)絡(luò);之后,網(wǎng)絡(luò)來決定是否有足夠的信心“跳轉(zhuǎn)”到非默認值作為特定時間的預測。我們施加約束,即每次跳轉(zhuǎn)都是最終決定,它不可以在后面的閱讀中被更改。如圖1所示,給定一段話,有多個預先定義好的問題等待回答;模型按句子閱讀,在閱讀過程中,問題的答案陸續(xù)被找到。模型從默認決策到非默認決策都是一個“跳轉(zhuǎn)”的過程,正因此我們稱模型為Jumper。在人類閱讀的過程中,人們通常會獲得一致的閱讀理解的結(jié)果,但是閱讀理解過程中的很多環(huán)節(jié)卻經(jīng)常是微妙和難以捉摸的。同樣,我們也假設(shè)我們的訓練標簽僅包含最終結(jié)果,并且沒有給出關(guān)于模型應該做出決定的步驟的監(jiān)督信號。也就是說,我們通過強化學習在弱監(jiān)督信號情況下訓練Jumper模型。

圖1 Jumper模型在閱讀段落的決策過程

Jumper模型主要由編碼層、控制器、符號輸出層構(gòu)成。編碼層將句子編碼成定長的向量,控制器根據(jù)歷史和當前輸入產(chǎn)生當前的決定,符號輸出層使模型的輸出滿足跳轉(zhuǎn)約束,即每個決策過程最多只能有一次跳轉(zhuǎn)。

圖2 Jumper模型的基本框架

跳轉(zhuǎn)約束的作用在于使模型更加慎重地決定何時跳轉(zhuǎn)。因此,Jumper模型的優(yōu)化目標有兩個,第一個是盡可能早地“跳轉(zhuǎn)”,第二個是盡可能預測準。假設(shè)t* 是最佳的跳轉(zhuǎn)時間,那么如果模型在t* 時刻之前跳轉(zhuǎn),則模型還沒有看到真正的pattern,那么得到的答案等同于隨機猜;如果模型在t* 時刻之后跳轉(zhuǎn),而t* +1句話可能不存在,因此沒有機會跳轉(zhuǎn)從而預測錯誤。

通過上述建模,論文把文本分類問題轉(zhuǎn)化為離散的決策過程,訓練好的Jumper輸出的離散決策過程就可以表達模型對文本的理解過程;而決策過程本身并沒有標簽,因此我們用policy gradient強化學習算法來訓練,如果最終的決定和分類標簽一致,就獎勵整個決策動作,如果不一致,則懲罰。

我們對三個任務(wù)評估了Jumper,包括兩個基準數(shù)據(jù)集和一個實際工業(yè)應用。我們首先分析了Jumper的分類準確性,并與幾個基線進行了比較。表1顯示Jumper在所有這些任務(wù)上實現(xiàn)了相當或更好的性能,這表明將文本分類建模為順序決策過程不僅不會損害、甚至提高了分類準確性。

表1 在電影評論數(shù)據(jù)集(MR)、新聞數(shù)據(jù)集(AG)和工傷數(shù)據(jù)集(OI)的測試集上的準確率

我們想指出,“準確性”并不是我們關(guān)注的唯一表現(xiàn)。更重要的是,提出的模型能夠減少閱讀過程,或者找到文本分類的關(guān)鍵支撐句。只要在閱讀過程中基于“跳轉(zhuǎn)約束”限制而看到足夠的證據(jù),Jumper就能做出決定,并且在預測之后不需要再閱讀之后的句子。在表2中可以看到,我們的模型與強基線相比達到了相似或更高的性能,與此同時,它還將文本讀取的長度縮減了30-40%,從而加速了推斷預測。

表2

除了準確率高和推斷速度快以外,我們更好奇Jumper是否能夠在信息提取式任務(wù)(例如工傷級別分類任務(wù))中找到正確的位置做出決策。我們在400個數(shù)據(jù)點中標注關(guān)鍵支撐句(即最佳跳轉(zhuǎn)位置)作為測試基礎(chǔ)。需要注意的是,在這個實驗中我們?nèi)匀粵]有跳轉(zhuǎn)位置的訓練標簽。我們將Jumper與使用相同神經(jīng)網(wǎng)絡(luò)的層級CNN-GRU模型進行比較,但在訓練方法方面有所不同;層級CNN-GRU在訓練時,用段落末尾的交叉熵作為損失函數(shù)。在測試期間,我們將預測器應用于每個步驟并找到它做出預測的第一個位置。我們還列出了一個經(jīng)典CNN的結(jié)果作為基線模型,并使用了最大池化操作(max-pooling)選擇的單詞最多的那些句子來作為測試數(shù)據(jù)。我們使用了跳轉(zhuǎn)動作的準確率來評測Jumper。通過表3可知,Jumper準確地找到了測試集中所有關(guān)鍵支撐句的位置,說明我們的單跳約束迫使模型更仔細地思考何時做出決策,也驗證了強化學習是學習決策正確位置的有效方法。

表3 各模型在工傷等級分類任務(wù)(OI-Level)上尋找關(guān)鍵支撐句的效果統(tǒng)計。該任務(wù)的關(guān)鍵支撐句在文本中通常聚集于一處,不存在歧義,便于衡量各模型效果。CA:分類準確率,JA:跳躍準確率,OA:在分類準確條件下的跳躍準確率

圖3則顯示了Jumper在閱讀時做出決策的過程。其中,Jumper在前六個句子中保持默認決策(不做跳轉(zhuǎn)),而在到達關(guān)鍵支撐句時突然跳轉(zhuǎn),這體現(xiàn)了Jumper可以識別關(guān)鍵支撐句,從而找到最佳跳躍位置。因此,在這類關(guān)鍵支撐語句集中出現(xiàn)時,Jumper可以在完成分類任務(wù)的同時找到關(guān)鍵支撐句,因此具有較強的可解釋性。

圖3 Jumper決策序列展示

總結(jié)

我們提出了一種新的模型Jumper,它在閱讀段落時將文本分類建模為逐個句子的順序決策過程。我們通過強化學習訓練帶有跳轉(zhuǎn)約束的Jumper,實驗表明:1) Jumper的性能與基線相當或更高;2) 它在很大程度上減少了文本閱讀量;3) 如果所需信息在文中的分布是局域性的,它可以找到關(guān)鍵的支撐句子,具有很好的可解釋性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 控制器
    +關(guān)注

    關(guān)注

    114

    文章

    17840

    瀏覽量

    194730
  • 機器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15549
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14703
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    上汽大眾ID. ERA 9X全球首發(fā)搭載Momenta R7強化學習世界模型

    3月30日,Momenta R7強化學習世界模型全球首發(fā)搭載車型——上汽大眾ID. ERA 9X正式開啟預售。
    的頭像 發(fā)表于 03-31 13:48 ?236次閱讀

    Momenta R6強化學習模型上車東風日產(chǎn)NX8

    3月20日,東風日產(chǎn)NX8技術(shù)暨預售發(fā)布會在廣州舉辦,官宣Momenta R6強化學習模型正式上車東風日產(chǎn)新能源SUV——NX8。以全球頂級大廠合力,融合先鋒科技力量,打造更適配全家出行的智能SUV,開啟合資品牌智能化全新賽道。
    的頭像 發(fā)表于 03-24 09:08 ?718次閱讀

    Momenta強化學習模型助力別克至境世家純電版正式上市

    3月17日,別克至境世家純電版正式上市,這是別克與Momenta強化學習模型的又次深度聯(lián)手。融合別克在MPV市場深耕27年的技術(shù)積淀,以更從容的智慧駕控,重新定義豪華與自在的出行體驗。
    的頭像 發(fā)表于 03-18 15:48 ?234次閱讀

    Momenta R7強化學習世界模型即將推出

    3月16日,上汽大眾舉辦以“人本科技”為主題的ID. ERA技術(shù)發(fā)布會,首次揭曉了ID. ERA 系列包括智能輔助駕駛在內(nèi)的諸多核心技術(shù)亮點。會上,Momenta CEO曹旭東正式宣布:Momenta R7強化學習世界模型即將推出,并將全球首發(fā)搭載于上汽大眾全新旗艦SUV
    的頭像 發(fā)表于 03-17 13:57 ?1113次閱讀

    機器學習特征工程:分類變量的數(shù)值化處理方法

    編碼是機器學習流程里最容易被低估的環(huán)節(jié)之,模型沒辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都
    的頭像 發(fā)表于 02-10 15:58 ?409次閱讀
    機器<b class='flag-5'>學習</b>特征工程:<b class='flag-5'>分類</b>變量的數(shù)值化處理方法

    自動駕駛中常提的離線強化學習是什么?

    [首發(fā)于智駕最前沿微信公眾號]在之前談及自動駕駛模型學習時,詳細聊過強化學習的作用,由于強化學習能讓大模型通過交互學到策略,不需要固定的規(guī)則
    的頭像 發(fā)表于 02-07 09:21 ?306次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學習</b>是什么?

    強化學習會讓自動駕駛模型學習更快嗎?

    種讓機器通過“試錯”學會決策的辦法。與監(jiān)督學習不同,監(jiān)督學習是有人提供示范答案,讓模型去模仿;而強化
    的頭像 發(fā)表于 01-31 09:34 ?779次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學習</b>更快嗎?

    多智能體強化學習(MARL)核心概念與算法概覽

    訓練單個RL智能體的過程非常簡單,那么我們現(xiàn)在換一個場景,同時訓練五智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是多智能體強化學習
    的頭像 發(fā)表于 01-21 16:21 ?285次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強化學習模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發(fā)。新車將搭載Momenta R6強化學習模型,帶來全場景的智能出行體驗。
    的頭像 發(fā)表于 01-12 16:23 ?436次閱讀

    如何訓練好自動駕駛端到端模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:端到端算法是怎樣訓練的?是模仿學習強化學習和離線強化學習這三類嗎?其實端到端(end-to-end)算法在自動駕駛、智能體決策
    的頭像 發(fā)表于 12-08 16:31 ?1557次閱讀
    如何訓練好自動駕駛端到端<b class='flag-5'>模型</b>?

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學習技術(shù),已在與龍旗科技合作的驗證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機強化學習方案,機器人
    發(fā)表于 11-05 09:44 ?1138次閱讀

    自動駕駛中常提的“強化學習”是啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習類讓機器通過試錯來學會做決策的技術(shù)。
    的頭像 發(fā)表于 10-23 09:00 ?810次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是<b class='flag-5'>個</b>啥?

    NVIDIA Isaac Lab可用環(huán)境與強化學習腳本使用指南

    Lab 是適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環(huán)境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習
    的頭像 發(fā)表于 07-14 15:29 ?2541次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學習</b>腳本使用指南

    18常用的強化學習算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學習方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學習算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?1727次閱讀
    18<b class='flag-5'>個</b>常用的<b class='flag-5'>強化學習</b>算法整理:從基礎(chǔ)方法到高級<b class='flag-5'>模型</b>的理論技術(shù)與代碼實現(xiàn)

    基于RV1126開發(fā)板實現(xiàn)自學習圖像分類方案

    在RV1126開發(fā)板上實現(xiàn)自學習:在識別前對物體圖片進行模型學習,訓練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計邏輯流程
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實現(xiàn)自<b class='flag-5'>學習</b>圖像<b class='flag-5'>分類</b>方案