人類可以在應(yīng)對(duì)各種情況時(shí)在大腦中事先進(jìn)行充分思考,那么人工智能也可以嗎?近日,由谷歌大腦研究科學(xué)家 David Ha 與瑞士 AI 實(shí)驗(yàn)室 IDSIA 負(fù)責(zé)人 Jürgen Schmidhuber(他也是 LSTM 的提出者)共同提出的「世界模型」可以讓人工智能在「夢(mèng)境」中對(duì)外部環(huán)境的未來狀態(tài)進(jìn)行預(yù)測(cè),大幅提高完成任務(wù)的效率。這篇論文一經(jīng)提出便吸引了人們的熱烈討論。
人類基于有限的感官感知開發(fā)關(guān)于世界的心智模型,我們的所有決策和行為都是基于這一內(nèi)部模型。系統(tǒng)動(dòng)力學(xué)之父 Jay Wright Forrester 將這一心智模型定義為:
「我們周圍的世界在我們的大腦中只是一個(gè)模型。沒有人的大腦可以想象整個(gè)世界、所有政府或國家。他只選擇概念及其之間的關(guān)系,然后使用它們表征真實(shí)的系統(tǒng)?!?/p>
為了處理我們?nèi)粘I钪械暮A啃畔?,大腦學(xué)習(xí)對(duì)信息進(jìn)行時(shí)空抽象化表征。我們能夠觀察一個(gè)場(chǎng)景,并記住其抽象描述 [5, 6]。有證據(jù)表明我們?cè)谌我鈺r(shí)刻的感知都由大腦基于內(nèi)部模型所做的未來預(yù)測(cè)而決定 [7, 8]。
圖 2:我們看到的事物基于大腦對(duì)未來的預(yù)測(cè) (Kitaoka, 2002; Watanabe et al., 2018)。
一種理解大腦中預(yù)測(cè)模型的方式是:它可能不是預(yù)測(cè)未來,而是根據(jù)給出的當(dāng)前運(yùn)動(dòng)動(dòng)作預(yù)測(cè)未來的感官數(shù)據(jù) [12, 13]。在面對(duì)危險(xiǎn)時(shí),我們能夠本能地根據(jù)該預(yù)測(cè)模型來行動(dòng),并執(zhí)行快速的反射行為 [14],無需有意識(shí)地規(guī)劃一系列動(dòng)作。
以棒球?yàn)槔?[15]。棒球擊球手只有幾毫秒時(shí)間來決定如何揮動(dòng)球棒,而眼睛的視覺信號(hào)傳到大腦所需時(shí)間比這更少。擊球手能夠快速根據(jù)大腦對(duì)未來的預(yù)測(cè)來行動(dòng),無需有意識(shí)地展開多個(gè)未來場(chǎng)景再進(jìn)行規(guī)劃 [16]。
在很多強(qiáng)化學(xué)習(xí)(RL)[17, 18, 19] 問題中,人工智能體還受益于過去和現(xiàn)在狀態(tài)的良好表征,以及優(yōu)秀的未來預(yù)測(cè)模型 [20, 21],最好是在通用計(jì)算機(jī)上實(shí)現(xiàn)的強(qiáng)大預(yù)測(cè)模型,如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)[22, 23, 24]。
大型 RNN 是具備高度表達(dá)能力的模型,可以學(xué)習(xí)數(shù)據(jù)豐富的時(shí)空表征。但是,文獻(xiàn)中很多無模型 RL 方法通常僅使用具備少量參數(shù)的小型神經(jīng)網(wǎng)絡(luò)。RL 算法通常受限于信用分配問題(credit assignment problem),該挑戰(zhàn)使傳統(tǒng)的 RL 算法很難學(xué)習(xí)大型模型的數(shù)百萬權(quán)重,因此在實(shí)踐中常使用小型網(wǎng)絡(luò),因?yàn)樗鼈冊(cè)谟?xùn)練過程中迭代速度更快,可以形成優(yōu)秀策略。
理想情況下,我們希望能夠高效訓(xùn)練基于大型 RNN 網(wǎng)絡(luò)的智能體。反向傳播算法 [25, 26, 27] 可用于高效訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)。本研究中,我們?cè)噲D通過將智能體分為大型世界模型和小型控制器模型,來訓(xùn)練能夠解決 RL 任務(wù)的大型神經(jīng)網(wǎng)絡(luò)。我們首先用無監(jiān)督的方式訓(xùn)練一個(gè)大型神經(jīng)網(wǎng)絡(luò),來學(xué)習(xí)智能體世界的模型,然后訓(xùn)練小型控制器模型來使用該世界模型執(zhí)行任務(wù)。小型控制器使得算法聚焦于小搜索空間的信用分配問題,同時(shí)無需犧牲大型世界模型的容量和表達(dá)能力。通過世界模型來訓(xùn)練智能體,我們發(fā)現(xiàn)智能體學(xué)會(huì)一個(gè)高度緊湊的策略來執(zhí)行任務(wù)。
盡管存在大量與基于模型的強(qiáng)化學(xué)習(xí)相關(guān)的研究,但本文并不是對(duì)該領(lǐng)域當(dāng)前狀況進(jìn)行綜述。本文旨在從 1990—2015 年一系列結(jié)合 RNN 世界模型和控制器的論文 [22, 23, 24, 30, 31] 中提煉出幾個(gè)關(guān)鍵概念。我們還討論了其他相關(guān)研究,它們也使用了類似的「學(xué)習(xí)世界模型,再使用該模型訓(xùn)練智能體」的思路。
本文提出了一種簡(jiǎn)化框架,我們使用該框架進(jìn)行實(shí)驗(yàn),證明了這些論文中的一些關(guān)鍵概念,同時(shí)也表明這些思路可以被高效應(yīng)用到不同的 RL 環(huán)境中。在描述方法論和實(shí)驗(yàn)時(shí),我們使用的術(shù)語和符號(hào)與 [31] 類似。
2. 智能體模型
我們提出一種由人類認(rèn)知系統(tǒng)啟發(fā)而來的簡(jiǎn)單模型。在該模型中,我們的智能體有一個(gè)視覺感知模塊,可以把所見壓縮進(jìn)一個(gè)小的表征性代碼。它同樣有一個(gè)記憶模塊,可以根據(jù)歷史信息對(duì)未來代碼做預(yù)測(cè)。最后,智能體還有一個(gè)決策模塊,只基于由其視覺和記憶組件創(chuàng)建的表征來制定行動(dòng)。

圖 4:我們的智能體包含緊密相連的三個(gè)模塊: 視覺 (V)、記憶 (M) 和控制器 (C)。
2.1. VAE (V) 模型
環(huán)境在每一時(shí)間步上為我們的智能體提供一個(gè)高維輸入觀測(cè),這一輸入通常是視頻序列中的一個(gè) 2D 圖像幀。VAE 模型的任務(wù)是學(xué)習(xí)每個(gè)已觀測(cè)輸入幀的抽象壓縮表征。

圖 5:VAE 的流程圖。
在我們的試驗(yàn)中,我們使用一個(gè)變分自編碼器 (VAE) (Kingma & Welling, 2013; Jimenez Rezende et al., 2014) 作為 V 模型。
2.2. MDN-RNN (M) 模型
盡管在每一時(shí)間幀上壓縮智能體的所見是 V 模型的任務(wù),我們也想壓縮隨著時(shí)間發(fā)生的一切變化。為達(dá)成這一目的,我們讓 M 模型預(yù)測(cè)未來,它可以充當(dāng) V 預(yù)期產(chǎn)生的未來 z 向量的預(yù)測(cè)模型。由于自然中的很多復(fù)雜環(huán)境是隨機(jī)的,我們訓(xùn)練 RNN 以輸出一個(gè)概率密度函數(shù) p(z) 而不是一個(gè)確定性預(yù)測(cè) z。

2.3. 控制器 (C) 模型
在環(huán)境的展開過程中,控制器 (C) 負(fù)責(zé)決定動(dòng)作進(jìn)程以最大化智能體期望的累加獎(jiǎng)勵(lì)。在我們的試驗(yàn)中,我們盡可能使 C 模型簡(jiǎn)單而小,并把 V 和 M 分開訓(xùn)練,從而智能體的絕大多數(shù)復(fù)雜度位于世界模型(V 和 M)之中。
2.4. 合并 V、M 和 C
下面的流程圖展示了 V、M 和 C 如何與環(huán)境進(jìn)行交互:

圖 8:智能體模型的流程圖。原始的觀察每個(gè)時(shí)間步 t 到 zt 首先在 V 上進(jìn)行處理。C 的輸入是隱向量 zt 在每個(gè)時(shí)間步上與 M 隱藏態(tài)的串接。隨后 C 會(huì)輸出動(dòng)作矢量以控制 motor,這會(huì)影響整個(gè)環(huán)境。隨后 M 會(huì)以 zt 作為輸入,生成時(shí)間 t+1 的狀態(tài) ht+1。
3.Car Racing 實(shí)驗(yàn)
在這一章節(jié)中,我們描述了如何訓(xùn)練前面所述的智能體模型,并用來解決 Car Racing 任務(wù)。就我們所知,我們的智能體是解決該任務(wù)并獲得預(yù)期分?jǐn)?shù)的第一個(gè)解決方案。
總結(jié)而言,Car Racing 實(shí)驗(yàn)可以分為以下過程:
1. 從隨機(jī)策略中收集 10000 個(gè) rollouts。
2. 訓(xùn)練 VAE(V)將視頻幀編碼為 32 維的隱向量 z。
3. 訓(xùn)練 MDN-RNN(M)建模概率分布 P(z_{t+1} | a_t, z_t, h_t)。
4. 定義控制器(C)為 a_t = W_c [z_t, h_t] + b_c。
5. 使用 CMA-ES 求解 W_c 和 b_c 而最大化預(yù)期累積獎(jiǎng)勵(lì)。

表 1:多種方法實(shí)現(xiàn)的 CarRacing-v0 分?jǐn)?shù)。
因?yàn)槲覀兊氖澜缒P湍軌驅(qū)ξ磥斫?,因此我們能自行假設(shè)或預(yù)想賽車場(chǎng)景。給定當(dāng)前狀態(tài),我們可以要求模型產(chǎn)生 z_{t+1} 的概率分布,然后從 z_{t+1} 中采樣并作為真實(shí)世界的觀察值。我們可以將已訓(xùn)練的 C 放回由 M 生成的預(yù)想環(huán)境中。下圖展示了模型所生成的預(yù)想環(huán)境,而該論文的在線版本展示了世界模型在預(yù)想環(huán)境中的運(yùn)行。
圖 13:我們的智能體在自己的預(yù)想環(huán)境或「夢(mèng)」中學(xué)習(xí)駕駛。在這里,我們將已訓(xùn)練策略部署到從 MDN-RNN 生成的偽造環(huán)境中,bintonggu 并通過 VAE 的解碼器展示。在演示中,我們可以覆蓋智能體的行動(dòng)并調(diào)整τ以控制由 M 生成環(huán)境的不確定性。
4. VizDoom 實(shí)驗(yàn)
如果我們的世界模型足夠準(zhǔn)確,足以處理手邊的問題,那么我們應(yīng)該能夠用實(shí)際環(huán)境來替換世界模型。畢竟,我們的智能體不直接觀察現(xiàn)實(shí),而只是觀察世界模型呈現(xiàn)給它的事物。在該實(shí)驗(yàn)中,我們?cè)谀7?VizDoom 環(huán)境的世界模型所生成的幻覺中訓(xùn)練智能體。
經(jīng)過一段時(shí)間訓(xùn)練后,我們的控制器學(xué)會(huì)在夢(mèng)境中尋路,逃離 M 模型生成怪獸的致命火球攻擊(fireballs shot)。
圖 15:我們的智能體發(fā)現(xiàn)一個(gè)策略可以逃避幻境中的火球。
我們把在虛擬幻境中訓(xùn)練的智能體放在原始 VizDoom 場(chǎng)景中進(jìn)行測(cè)試。
圖 16:將智能體在幻覺 RNN 環(huán)境中學(xué)到的策略部署到真實(shí)的 VizDoom 環(huán)境中。
由于我們的世界模型只是該環(huán)境的近似概率模型,它偶爾會(huì)生成不遵循真實(shí)環(huán)境法則的軌跡。如前所述,世界模型甚至無法確切再現(xiàn)真實(shí)環(huán)境中房間另一端的怪獸數(shù)量。就像知道空中物體總會(huì)落地的孩子也會(huì)想象存在飛越蒼穹的超級(jí)英雄。為此,我們的世界模型將被控制器利用,即使在真實(shí)環(huán)境中此類利用并不存在。
圖 18:智能體在多次運(yùn)行中被火球擊中后,發(fā)現(xiàn)了自動(dòng)熄滅火球的對(duì)抗策略。
5. 迭代訓(xùn)練過程
在我們的實(shí)驗(yàn)中,任務(wù)相對(duì)簡(jiǎn)單,因此使用隨機(jī)策略收集的數(shù)據(jù)集可以訓(xùn)練出較好的世界模型。但是如果環(huán)境復(fù)雜度增加了呢?在難度較大的環(huán)境中,在智能體學(xué)習(xí)如何有策略地穿越其世界后,它也僅能獲取世界的一部分知識(shí)。
更復(fù)雜的任務(wù)則需要迭代訓(xùn)練。我們需要智能體探索自己的世界,不斷收集新的觀測(cè)結(jié)果,這樣其世界模型可以不斷改善和細(xì)化。迭代訓(xùn)練過程(Schmidhuber, 2015a)如下:
1. 使用隨機(jī)模型參數(shù)初始化 M、C。
2. 在真實(shí)環(huán)境中試運(yùn)行 N 次。智能體可能在運(yùn)行過程中學(xué)習(xí)。將運(yùn)行中的所有動(dòng)作 a_t 和觀測(cè)結(jié)果 x_t 保存在存儲(chǔ)設(shè)備上。
3. 訓(xùn)練 M 對(duì) P(x_t+1, r_t+1, a_t+1, d_t+1|x_t, a_t, h_t) 進(jìn)行建模。
4. 如果任務(wù)未完成,則返回步驟 2。
論文:World Models

摘要:我們探索構(gòu)建流行的強(qiáng)化學(xué)習(xí)環(huán)境之下的生成神經(jīng)網(wǎng)絡(luò)。我們的「世界模型」可以無監(jiān)督方式進(jìn)行快速訓(xùn)練,以學(xué)習(xí)環(huán)境的有限時(shí)空表征。通過使用提取自世界模型的特征作為智能體的輸入,我們可以訓(xùn)練一個(gè)非常緊密且簡(jiǎn)單的策略,解決目標(biāo)任務(wù)。我們甚至可以完全通過由世界模型本身生成的虛幻夢(mèng)境訓(xùn)練我們的智能體,并把從中學(xué)會(huì)的策略遷移進(jìn)真實(shí)環(huán)境之中。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4839瀏覽量
107963 -
人工智能
+關(guān)注
關(guān)注
1819文章
50162瀏覽量
266017
原文標(biāo)題:模擬世界的模型:谷歌大腦與Jürgen Schmidhuber提出「人工智能夢(mèng)境」
文章出處:【微信號(hào):fbigdata,微信公眾號(hào):AI報(bào)道】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
谷歌大腦與Jürgen Schmidhuber提出「人工智能夢(mèng)境」
評(píng)論