91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何賦予機器自主學習的能力,強化學習結構與理論

mK5P_AItists ? 來源:未知 ? 作者:李倩 ? 2018-06-25 15:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如何賦予機器自主學習的能力,一直是人工智能領域的研究熱點。

強化學習與寬度學習

如何賦予機器自主學習的能力,一直是人工智能領域的研究熱點。在越來越多的復雜現(xiàn)實場景任務中,需要利用深度學習、寬度學習來自動學習大規(guī)模輸入數(shù)據(jù)的抽象表征,并以此表征為依據(jù)進行自我激勵的強化學習,優(yōu)化解決問題的策略。深度與寬度強化學習技術在游戲、機器人控制、參數(shù)優(yōu)化、機器視覺等領域中的成功應用,使其被認為是邁向通用人工智能的重要途徑。

澳門大學講座教授,中國自動化學會副理事長陳俊龍在中國自動化學會第5期智能自動化學科前沿講習班作了題目為「從深度強化學習到寬度強化學習:結構,算法,機遇及挑戰(zhàn)」的報告。

陳俊龍教授的報告大致可以分為三個部分。首先討論了強化學習的結構及理論,包括馬爾科夫決策過程、強化學習的數(shù)學表達式、策略的構建、估計及預測未來的回報。然后討論了如何用深度神經(jīng)網(wǎng)絡學習來穩(wěn)定學習過程及特征提取、如何利用寬度學習結構跟強化學習結合。最后討論了深度、寬度強化學習帶來的機遇與挑戰(zhàn)。

強化學習結構與理論

陳教授用下圖簡單描述強化學習過程。他介紹道所謂強化學習就是智能體在完成某項任務時,通過動作A與環(huán)境(environment)進行交互,在動作A和環(huán)境的作用下,智能體會產(chǎn)生新的狀態(tài),同時環(huán)境會給出一個立即回報。如此循環(huán)下去,經(jīng)過數(shù)次迭代學習后,智能體能最終地學到完成相應任務的最優(yōu)動作。

提到強化學習就不得不提一下Q-Learning。接著他又用了一個例子來介紹了強化學習Q-Learning的原理。

Q-learning

假設一個樓層共有5個房間,房間之間通過一道門連接,如下圖所示。房間編號為0~4,樓層外的可以看作是一個大房間,編號5。

可以用圖來表示上述的房間,將每一個房間看作是一個節(jié)點,每道門看作是一條邊。

在任意一個房間里面放置一個智能體,并希望它能走出這棟樓,也可以理解為進入房間5??梢园堰M入房間5作為最后的目標,并為可以直接到達目標房間的門賦予100的獎勵值,那些未與目標房間相連的門則賦予獎勵值0。于是可以得到如下的圖。

根據(jù)上圖可以得到獎勵表如下,其中-1代表著空值,表示節(jié)點之間無邊相連。

再添加一個類似的Q矩陣,代表智能體從經(jīng)驗中所學到的知識。矩陣的行代表智能體當前的狀態(tài),列代表到達下一狀態(tài)的可能動作。

然后陳教授又介紹了Q-Learning的轉換規(guī)則,即Q(state, action)=R(state, action) + Gamma * Max(Q[next state, all actions])。

依據(jù)這個公式,矩陣Q中的一個元素值就等于矩陣R中相應元素的值與學習變量Gamma乘以到達下一個狀態(tài)的所有可能動作的最大獎勵值的總和。

為了具體理解Q-Learning是怎樣工作的,陳教授還舉了少量的例子。

首先設置Gamma為0.8,初始狀態(tài)是房間1。

對狀態(tài)1來說,存在兩個可能的動作:到達狀態(tài)3,或者到達狀態(tài)5。通過隨機選擇,選擇到達狀態(tài)5。智能體到達了狀態(tài)5,將會發(fā)生什么?觀察R矩陣的第六行,有3個可能的動作,到達狀態(tài)1,4或者5。根據(jù)公式Q(1, 5) = R(1, 5) + 0.8 * Max[Q(5, 1), Q(5, 4), Q(5, 5)] = 100 + 0.8 * 0 = 100,由于矩陣Q此時依然被初始化為0,Q(5, 1), Q(5, 4), Q(5, 5) 全部是0,因此,Q(1, 5) 的結果是100,因為即時獎勵R(1,5) 等于100。下一個狀態(tài)5現(xiàn)在變成了當前狀態(tài),因為狀態(tài)5是目標狀態(tài),故算作完成了一次嘗試。智能體的大腦中現(xiàn)在包含了一個更新后的Q矩陣。

對于下一次訓練,隨機選擇狀態(tài)3作為初始狀態(tài)。觀察R矩陣的第4行,有3個可能的動作,到達狀態(tài)1,2和4。隨機選擇到達狀態(tài)1作為當前狀態(tài)的動作?,F(xiàn)在,觀察矩陣R的第2行,具有2個可能的動作:到達狀態(tài)3或者狀態(tài)5?,F(xiàn)在計算Q 值:Q(3, 1) = R(3, 1) + 0.8 * Max[Q(1, 2), Q(1, 5)] = 0 + 0.8 *Max(0, 100) = 80,使用上一次嘗試中更新的矩陣Q得到:Q(1, 3) = 0 以及 Q(1, 5) = 100。因此,計算的結果是Q(3,1)=80?,F(xiàn)在,矩陣Q如下。

智能體通過多次經(jīng)歷學到更多的知識之后,Q矩陣中的值會達到收斂狀態(tài)。如下。

通過對Q中的所有的非零值縮小一定的百分比,可以對其進行標準化,結果如下。

一旦矩陣Q接近收斂狀態(tài),我們就知道智能體已經(jīng)學習到了到達目標狀態(tài)的最佳路徑。

至此陳教授已經(jīng)把Q-learning簡單介紹完了。通過上文的介紹大致可以總結出強化學習的六個特點:

無監(jiān)督,只有獎勵信號

不需要指導學習者

不停的試錯

獎勵可能延遲(犧牲短期收益換取更大的長期收益)

需要探索和開拓

目標導向的智能體與不確定的環(huán)境間的交互是個全局性的問題

四個要素:

一、策略:做什么?

1)確定策略:a=π(s)

2)隨機策略:π(a|s)=p[at=a|st=s],st∈S,at∈A(St),∑π(a|s)=1

二、獎勵函數(shù):r(在狀態(tài)轉移的同時,環(huán)境會反饋給智能體一個獎勵)

三、累積獎勵函數(shù):V(一個策略的優(yōu)劣取決于長期執(zhí)行這一策略后的累積獎勵),常見的長期累積獎勵如下:

四、模型:用于表示智能體所處環(huán)境,是一個抽象概念,對于行動決策十分有用。

所有的強化學習任務都是馬爾科夫決策過程,陳教授對MDP的介紹如下。

一個馬爾可夫決策過程由一個五元組構成M =(S,A,p,γ,r)。其中S是狀態(tài)集,A是動作集,p是狀態(tài)轉移概率,γ是折扣因子,r是獎勵函數(shù)。

陳教授在介紹強化學習這部分的最后提到了目前強化學習面臨的兩大挑戰(zhàn)。

信度分配:之前的動作會影響當前的獎勵以及全局獎勵

探索開拓:使用已有策略還是開發(fā)新策略

Q-Learning可以解決信度分配的問題。第二個問題則可以使用ε-greedy算法,SoftMax算法,Bayes bandit算法,UCB算法來處理等。

值函數(shù)(對未來獎勵的一個預測)可分為狀態(tài)值函數(shù)和行為值函數(shù)。

1. 狀態(tài)值函數(shù)Vπ(s):從狀態(tài)s出發(fā),按照策略π采取行為得到的期望回報,

也被稱為Bellman方程。

2. 行為價值函數(shù)Qπ(s,a):從狀態(tài)s出發(fā)采取行為a后,然后按照策略π采取行動得到的期望回報,

同樣被稱為動作‐值函數(shù)的Bellman方程。

類似的給出了相應的最優(yōu)值函數(shù)為:

1. 最優(yōu)值函數(shù)V*(s)是所有策略上的最大值函數(shù):

2. 最優(yōu)行為值函數(shù)Q*(s,a)是在所有策略上的最大行為值函數(shù):

從而的到Bellman最優(yōu)方程:

及對應的最優(yōu)策略:

陳教授介紹了求解強化學習的方法,可分為如下兩種情況:

模型已知的方法:動態(tài)規(guī)劃模型未知的方法:蒙特卡洛方法,時間差分算法

陳教授進一步主要介紹了時間差分算法中兩種不同的方法: 異策略時間差分算法Q‐learning和同策略時間差分算法Sarsa, 兩者的主要區(qū)別在于at+1的選擇上的不同,

普通的Q‐learning是一種表格方法,適用于狀態(tài)空間和動作空間是離散且維數(shù)比較低的情況;當狀態(tài)空間和動作空間是高維連續(xù)的或者出現(xiàn)一個從未出現(xiàn)過的狀態(tài),普通的Q‐learning是無法處理的。為了解決這個問題,陳教授進一步介紹了深度強化學習方法。

深度強化學習

深度強化學習是深度神經(jīng)網(wǎng)絡與強化學習的結合方法, 利用深度神經(jīng)網(wǎng)絡逼近值函數(shù),利用強化學習的方法進行更新,根據(jù)解決問題思路的不同可分為:

1.基于價值網(wǎng)絡:狀態(tài)作為神經(jīng)網(wǎng)絡的輸入,經(jīng)過神經(jīng)網(wǎng)絡分析后,輸出時當前狀態(tài)可能執(zhí)行的所有動作的值函數(shù),即利用神經(jīng)網(wǎng)絡生成Q值。

2.基于策略網(wǎng)絡:狀態(tài)作為神經(jīng)網(wǎng)絡的輸入,經(jīng)過神經(jīng)網(wǎng)絡分析后,輸出的是當前狀態(tài)可能采取的動作(確定性策略),或者是可能采取的每個動作的概率(隨機性策略)。

陳教授也提到了Deepmind公司在2013年的Playing Atari with Deep Reinforcement Learning (DRL) 提出的DQN算法,Deep Q‐learning是利用深度神經(jīng)網(wǎng)絡端到端的擬合Q值,采用Q‐learning算法對值函數(shù)更新。DQN利用經(jīng)驗回放對強化學習過程進行訓練,通過設置目標網(wǎng)絡來單獨處理時間差分算法中的TD偏差。

基于上面內(nèi)容,陳教授進一步介紹了另外一種經(jīng)典的時間差分算法,即Actor-Critic的方法,該方法結合了值函數(shù)(比如Q learning)和策略搜索算法(Policy Gradients)的優(yōu)點,其中Actor指策略搜索算法,Critic指Qlearning或者其他的以值為基礎的學習方法,因為Critic是一個以值為基礎的學習法,所以可以進行單步更新,計算每一步的獎懲值,與傳統(tǒng)的PolicyGradients相比提高了學習效率,策略結構Actor,主要用于選擇動作;而值函數(shù)結構Critic主要是用于評價Actor的動作,agent根據(jù)Actor的策略來選擇動作,并將該動作作用于環(huán)境,Critic則根據(jù)環(huán)境給予的立即獎賞,根據(jù)該立即獎賞來更新值函數(shù),并同時計算值函數(shù)的時間差分誤差TD-error,通過將TDerror反饋給行動者actor,指導actor對策略進行更好的更新,從而使得較優(yōu)動作的選擇概率增加,而較差動作的選擇概率減小。

寬度學習

雖然深度結構網(wǎng)絡非常強大,但大多數(shù)網(wǎng)絡都被極度耗時的訓練過程所困擾。首先深度網(wǎng)絡的結構復雜并且涉及到大量的超參數(shù)。另外,這種復雜性使得在理論上分析深層結構變得極其困難。另一方面,為了在應用中獲得更高的精度,深度模型不得不持續(xù)地增加網(wǎng)絡層數(shù)或者調(diào)整參數(shù)個數(shù)。因此,為了提高訓練速度,寬度學習系統(tǒng)提供了一種深度學習網(wǎng)絡的替代方法,同時,如果網(wǎng)絡需要擴展,模型可以通過增量學習高效重建。陳教授還強調(diào),在提高準確率方面,寬度學習是增加節(jié)點而不是增加層數(shù)?;趶娀瘜W習的高效性,陳教授指出可以將寬度學習與強化學習結合產(chǎn)生寬度強化學習方法,同樣也可以嘗試應用于文本生成、機械臂抓取、軌跡跟蹤控制等領域。

報告的最后陳教授在強化學習未來會面臨的挑戰(zhàn)中提到了如下幾點:

安全有效的探索

過擬合問題

多任務學習問題

獎勵函數(shù)的選擇問題

不穩(wěn)定性問題

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124434
  • 強化學習
    +關注

    關注

    4

    文章

    270

    瀏覽量

    11972

原文標題:陳俊龍:從深度強化學習到寬度強化學習—結構,算法,機遇及挑戰(zhàn)

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    反向強化學習的思路

    強化學習的另一種策略(二)
    發(fā)表于 04-03 12:10

    深度強化學習實戰(zhàn)

    一:深度學習DeepLearning實戰(zhàn)時間地點:1 月 15日— 1 月18 日二:深度強化學習核心技術實戰(zhàn)時間地點: 1 月 27 日— 1 月30 日(第一天報到 授課三天;提前環(huán)境部署 電腦
    發(fā)表于 01-10 13:42

    將深度學習強化學習相結合的深度強化學習DRL

    深度強化學習DRL自提出以來, 已在理論和應用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學習DRL研發(fā)的AlphaGo,將深度強化學習DRL成推上新的熱點和高度
    發(fā)表于 06-29 18:36 ?2.9w次閱讀

    基于LCS和LS-SVM的多機器強化學習

    本文提出了一種LCS和LS-SVM相結合的多機器強化學習方法,LS-SVM獲得的最優(yōu)學習策略作為LCS的初始規(guī)則集。LCS通過與環(huán)境的交互,能更快發(fā)現(xiàn)指導多機器
    發(fā)表于 01-09 14:43 ?0次下載

    人工智能機器學習強化學習

    強化學習是智能系統(tǒng)從環(huán)境到行為映射的學習,以使獎勵信號(強化信號)函數(shù)值最大,強化學習不同于連接主義學習中的監(jiān)督
    發(fā)表于 05-30 06:53 ?1791次閱讀

    什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

    強化學習是人工智能基本的子領域之一,在強化學習的框架中,智能體通過與環(huán)境互動,來學習采取何種動作能使其在給定環(huán)境中的長期獎勵最大化,就像在上述的棋盤游戲寓言中,你通過與棋盤的互動來學習
    的頭像 發(fā)表于 07-15 10:56 ?1.9w次閱讀
    什么是<b class='flag-5'>強化學習</b>?純<b class='flag-5'>強化學習</b>有意義嗎?<b class='flag-5'>強化學習</b>有什么的致命缺陷?

    深度強化學習你知道是什么嗎

    強化學習非常適合實現(xiàn)自主決策,相比之下監(jiān)督學習與無監(jiān)督學習技術則無法獨立完成此項工作。
    發(fā)表于 12-10 14:34 ?1706次閱讀

    一文詳談機器學習強化學習

    強化學習屬于機器學習中的一個子集,它使代理能夠理解在特定環(huán)境中執(zhí)行特定操作的相應結果。目前,相當一部分機器人就在使用強化學習掌握種種新
    發(fā)表于 11-06 15:33 ?2198次閱讀

    83篇文獻、萬字總結強化學習之路

    深度強化學習是深度學習強化學習相結合的產(chǎn)物,它集成了深度學習在視覺等感知問題上強大的理解能力,以及強化
    的頭像 發(fā)表于 12-10 18:32 ?1189次閱讀

    機器學習中的無模型強化學習算法及研究綜述

    強化學習( Reinforcement learning,RL)作為機器學習領域中與監(jiān)督學習、無監(jiān)督學習并列的第三種
    發(fā)表于 04-08 11:41 ?11次下載
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>中的無模型<b class='flag-5'>強化學習</b>算法及研究綜述

    《自動化學報》—多Agent深度強化學習綜述

    突破.由于融合了深度學習強大的表征能力強化學習有效的策略搜索能力,深度強化學習已經(jīng)成為實現(xiàn)人工智能頗有前景的
    發(fā)表于 01-18 10:08 ?2377次閱讀
    《自動<b class='flag-5'>化學</b>報》—多Agent深度<b class='flag-5'>強化學習</b>綜述

    徹底改變算法交易:強化學習的力量

    強化學習(RL)是人工智能的一個子領域,專注于決策過程。與其他形式的機器學習相比,強化學習模型通過與環(huán)境交互并以獎勵或懲罰的形式接收反饋來學習
    發(fā)表于 06-09 09:23 ?976次閱讀

    什么是強化學習

    強化學習機器學習的方式之一,它與監(jiān)督學習、無監(jiān)督學習并列,是三種機器
    的頭像 發(fā)表于 10-30 11:36 ?5578次閱讀
    什么是<b class='flag-5'>強化學習</b>

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環(huán)境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源
    的頭像 發(fā)表于 11-05 17:34 ?1678次閱讀

    強化學習會讓自動駕駛模型學習更快嗎?

    是一種讓機器通過“試錯”學會決策的辦法。與監(jiān)督學習不同,監(jiān)督學習是有人提供示范答案,讓模型去模仿;而強化學習不會把每一步的“正確答案”都告訴你,而是把環(huán)境、動作和結果連起來,讓
    的頭像 發(fā)表于 01-31 09:34 ?668次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?