91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

長短時記憶網(wǎng)絡(luò)(LSTM)介紹

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2022-02-14 14:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

長短時記憶網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練的原因?qū)е滤膶?shí)際應(yīng)用中很處理長距離的依賴。本文將介紹改進(jìn)后的循環(huán)神經(jīng)網(wǎng)絡(luò):長短時記憶網(wǎng)絡(luò)(Long Short Term Memory Network, LSTM),

原始RNN的隱藏層只有一個狀態(tài),即h,它對于短期的輸入非常敏感。那么如果我們再增加一個狀態(tài),即c,讓它來保存長期的狀態(tài),這就是長短時記憶網(wǎng)絡(luò)。

pIYBAGAISreAdMcwAAApJFPBAYY877.png

新增加的狀態(tài)c,稱為單元狀態(tài)。我們把上圖按照時間維度展開:

o4YBAGAISvWAckC2AABA0INGCCg320.png

可以看到在 t 時刻,LSTM的輸入有三個:當(dāng)前時刻網(wǎng)絡(luò)的輸出值 xt 、上一時刻LSTM的輸出值 ht?1、以及上一時刻的單元狀態(tài) ct?1;LSTM的輸出有兩個:當(dāng)前時刻LSTM輸出值 ht 、和當(dāng)前時刻的單元狀態(tài) xt 。注意 x、h、c 都是向量。

LSTM的關(guān)鍵,就是怎樣控制長期狀態(tài)c。在這里,LSTM的思路是使用三個控制開關(guān)。第一個開關(guān),負(fù)責(zé)控制繼續(xù)保存長期狀態(tài)c;第二個開關(guān),負(fù)責(zé)控制把即時狀態(tài)輸入到長期狀態(tài)c;第三個開關(guān),負(fù)責(zé)控制是否把長期狀態(tài)c作為當(dāng)前的LSTM的輸出。三個開關(guān)的作用如下圖所示:

o4YBAGAISzSAaVGLAABdnag0k6w525.png

接下來我們要描述一下,輸出h和單元狀態(tài)c的具體計(jì)算方法。

長短時記憶網(wǎng)絡(luò)的前向計(jì)算

我們引入“門(gate)”的概念。門實(shí)際上就是一層全連接層,它的輸入是一個向量,輸出是一個0到1之間的實(shí)數(shù)向量。假設(shè)W是門的權(quán)重向量,b是偏置項(xiàng),那么門可以表示為:

pIYBAGAIS3GAM73JAAAE1R52yfQ997.png

門的輸出是0到1之間的實(shí)數(shù)向量,用門向量的輸出向量按元素乘以我們需要控制的那個向量,當(dāng)門輸出為0時,任何向量與之相乘都會得到0向量,這就相當(dāng)于啥都不能通過;輸出為1時,任何向量與之相乘都不會有任何改變,這就相當(dāng)于啥都可以通過。因?yàn)棣遥ㄒ簿褪莝igmoid函數(shù))的值域是(0,1),所以門的狀態(tài)都是半開半閉的。

LSTM用兩個門來控制單元狀態(tài) c 的內(nèi)容,一個是遺忘門,它決定了上一時刻的單元狀態(tài) t?1 有多少保留到當(dāng)前時刻 ct ;另外一個是輸出門,他決定了當(dāng)前時刻網(wǎng)絡(luò)的輸入 xt 有多少保存到單元狀態(tài) ct 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值 ht 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值ht。

遺忘門的表達(dá)式是:

o4YBAGAIS6-AYA5JAAAIumgvVIE262.png

上式中,Wf 是遺忘門的權(quán)重矩陣,ht?1 , xt 表示把兩個向量連接成一個更長的向量,bf 是遺忘門的偏置項(xiàng),σ是sigmoid函數(shù)。如果輸入的維度是dx,隱藏層的維度是 dh,單元狀態(tài)的維度是 dc( d_c = d_h ),則遺忘門的權(quán)重矩陣 Wf維度是 dcx(dh + dx ) 。事實(shí)上,權(quán)重矩陣 Wf 都是兩個矩陣拼接而成的:一個是Wfh,它對應(yīng)著輸入項(xiàng) ht?1 ,其維度為 dcxdh;一個是Wfx,它對應(yīng)著輸入項(xiàng) xt ,其維度為dcxdx。Wf 可以寫為:

o4YBAGAIS-6AeeUqAAAL40brfDE660.png

下圖顯示了遺忘門的計(jì)算:

pIYBAGAITCyABllyAAAx2gXi2VE706.png

接下來看看輸入門:

o4YBAGAITIiAHl-MAAAHBHhgbW4336.png

上式中,Wi 是輸入門的權(quán)重矩陣,$b_i$是輸入門的偏置項(xiàng)。下圖表示了輸入門的計(jì)算:

o4YBAGAITMaAdJusAAAyyP2YpDE827.png

接下來,我們計(jì)算用于描述當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png,它是根據(jù)上一次的輸出和本次輸入來計(jì)算的:

pIYBAGAITUCAbLH_AAAHg-93rGk067.png

下圖是o4YBAGAITQOAJV-JAAABTWl_Do0900.png的計(jì)算:

pIYBAGAITbyAS2F0AAA3Ixp84xY912.png

現(xiàn)在,我們計(jì)算當(dāng)前時刻的單元狀態(tài) ct。它是由上一次的單元狀態(tài) ct?1 按元素乘以遺忘門 ft ,再用當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png按元素乘以輸入門 it ,再將兩個積加和產(chǎn)生的:

pIYBAGAITjmACK0WAAAFHe049mE332.png

符號O表示按元素乘。下圖是 ct 的計(jì)算:

o4YBAGAITneAe4ZGAABC5iL1jv8396.png

這樣,我們就把LSTM關(guān)于當(dāng)前的記憶o4YBAGAITQOAJV-JAAABTWl_Do0900.png和長期的記憶 ct?1 組合在一起,形成了新的單元狀態(tài) ct 。由于遺忘門的控制,它可以保存很久很久之前的信息,由于輸入門的控制,它又可以避免當(dāng)前無關(guān)緊要的內(nèi)容進(jìn)入記憶。下面,我們要看看輸出門,它控制了長期記憶對當(dāng)前輸出的影響:

o4YBAGAITvKAWwfGAAAG4I3NkQk500.png

下面表示輸出門的計(jì)算:

o4YBAGAITzCAeFFvAABFRWC5uO8185.png

LSTM最終的輸出,是由輸出門和單元狀態(tài)共同確定的:

pIYBAGAIT3SAbXpiAAAFYp4ak90425.png

下圖表示LSTM最終輸出的計(jì)算:

o4YBAGAIT7KARwrFAABL8irwcA4091.png

式1到式6就是LSTM前向計(jì)算的全部公式。至此,我們就把LSTM前向計(jì)算講完了。

長短時記憶網(wǎng)絡(luò)的訓(xùn)練

LSTM訓(xùn)練算法框架

LSTM的訓(xùn)練算法仍然是反向傳播算法,對于這個算法,我們已經(jīng)非常熟悉了。主要有下面三個步驟:

1、前向計(jì)算每個神經(jīng)元的輸出值,對于LSTM來說,即 ft、it、ct、ot、ht 五個向量的值。計(jì)算方法已經(jīng)在上一節(jié)中描述過了。

2、反向計(jì)算每個神經(jīng)元的誤差項(xiàng)δ值。與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣,LSTM誤差項(xiàng)的反向傳播也是包括兩個方向:一個是沿時間的反向傳播,即從當(dāng)前t時刻開始,計(jì)算每個時刻的誤差項(xiàng);一個是將誤差項(xiàng)向上一層傳播。

3、根據(jù)相應(yīng)的誤差項(xiàng),計(jì)算每個權(quán)重的梯度。

作者:凌逆戰(zhàn)
來源:博客園
原文鏈接:https://www.cnblogs.com/LXP-Never/p/10398531.html

審核編輯:何安

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Evermind AI 研發(fā)三階段 AI 記憶存儲提取架構(gòu)

    近日,由盛大集團(tuán)全資孵化的AI技術(shù)團(tuán)隊(duì)EverMind,正式對外系統(tǒng)性地展示AI記憶操作系統(tǒng)——EverMemOS,最新版本在四大記憶基準(zhǔn)上實(shí)現(xiàn)了最先進(jìn)(SOTA)準(zhǔn)確率。 EverMemOS:打破
    的頭像 發(fā)表于 03-04 15:21 ?78次閱讀

    Evermem 突破大模型記憶瓶頸實(shí)現(xiàn)低耗高效

    由陳天橋和鄧亞峰帶隊(duì)的EverMind最新發(fā)布世界級長期記憶系統(tǒng)——EverMemOS,即SOTA,一舉打破多項(xiàng)記憶基準(zhǔn)測試的同時,還能遠(yuǎn)超此前所有的基線方法。 其次,它是真正能用的。 不是只會跑
    的頭像 發(fā)表于 03-03 13:44 ?68次閱讀
    Evermem 突破大模型<b class='flag-5'>記憶</b>瓶頸實(shí)現(xiàn)低耗高效

    海洋生物實(shí)驗(yàn)室利用AI和虛擬現(xiàn)實(shí)探索人類記憶

    位于馬薩諸塞州的實(shí)驗(yàn)室正在利用 NVIDIA RTX GPU、HP Z 工作站和虛擬現(xiàn)實(shí)技術(shù)研究人類記憶功能的分子機(jī)制。
    的頭像 發(fā)表于 01-20 09:30 ?602次閱讀

    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦記憶

    of Sparsity for Large Language Models》,并同步開源記憶模塊Engram。這一機(jī)制通過可擴(kuò)展查找結(jié)構(gòu),讓大模型實(shí)現(xiàn)O(1)時間復(fù)雜度的"條件反射式"記憶檢索,被業(yè)界視為破解
    的頭像 發(fā)表于 01-14 16:07 ?281次閱讀
    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦<b class='flag-5'>記憶</b>

    單片機(jī)Io口檢測到高電平的最短時間是多少?

    請教一下大神單片機(jī)Io口檢測到高電平的最短時間是多少?
    發(fā)表于 01-14 08:20

    一鍵開啟涂鴉OmniMem:打通跨設(shè)備記憶壁壘,實(shí)現(xiàn)毫秒級高精度召回

    當(dāng)AI仍受困于“聊完就忘”的記憶難題,重復(fù)提問成為交互中難以擺脫的低效循環(huán);當(dāng)不同智能設(shè)備間的記憶割裂,玩具、家電、音箱各存“碎片化記憶”,導(dǎo)致用戶不得不在不同設(shè)備間反復(fù)配置、重復(fù)表達(dá)。用戶要的不是
    的頭像 發(fā)表于 12-17 18:11 ?366次閱讀
    一鍵開啟涂鴉OmniMem:打通跨設(shè)備<b class='flag-5'>記憶</b>壁壘,實(shí)現(xiàn)毫秒級高精度召回

    一文讀懂LSTM與RNN:從原理到實(shí)戰(zhàn),掌握序列建模核心技術(shù)

    在AI領(lǐng)域,文本翻譯、語音識別、股價預(yù)測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)作為最早的序列建模工具,開創(chuàng)了“記憶歷史信息”的先河;而長短記憶
    的頭像 發(fā)表于 12-09 13:56 ?1368次閱讀
    一文讀懂<b class='flag-5'>LSTM</b>與RNN:從原理到實(shí)戰(zhàn),掌握序列建模核心技術(shù)

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    ST AEKD-AICAR1:基于邊緣AI的汽車狀態(tài)分類開發(fā)套件解析

    STMicroelectronics AEKD-AICAR1車用AI套件基于長短記憶 (LSTM) 循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN)。該套件提供汽車狀態(tài)分類:汽車停車、普通道路行車、崎嶇道路
    的頭像 發(fā)表于 10-28 14:40 ?584次閱讀
    ST AEKD-AICAR1:基于邊緣AI的汽車狀態(tài)分類開發(fā)套件解析

    能源管理平臺在光電、儲能等新能源領(lǐng)域有什么應(yīng)用

    ,最大化光伏價值 實(shí)時監(jiān)控與預(yù)測優(yōu)化 能源管理平臺通過物聯(lián)網(wǎng)技術(shù)實(shí)時采集光伏電站的發(fā)電數(shù)據(jù)(如逆變器效率、發(fā)電量),結(jié)合氣象數(shù)據(jù)和歷史發(fā)電記錄,利用AI算法(如LSTM神經(jīng)網(wǎng)絡(luò))進(jìn)行短時、超
    的頭像 發(fā)表于 10-20 17:29 ?632次閱讀

    記憶科技亮相2025云棲大會

    9月24日,以“云智一體·碳硅共生”為主題的2025云棲大會在杭州云棲小鎮(zhèn)隆重開幕。記憶科技作為IT硬件領(lǐng)域國內(nèi)領(lǐng)先的品牌部件提供商,受邀出席本次盛會,并攜全棧產(chǎn)品矩陣亮相展區(qū),全面展示其在服務(wù)器主板及整機(jī)、內(nèi)存、固態(tài)存儲及智能卡等領(lǐng)域的創(chuàng)新成果,為云計(jì)算與AI應(yīng)用提供先進(jìn)的解決方案與技術(shù)支撐。
    的頭像 發(fā)表于 09-28 17:20 ?3140次閱讀

    基于CAN的娛樂車通信網(wǎng)絡(luò)RV-C介紹

    電子發(fā)燒友網(wǎng)站提供《基于CAN的娛樂車通信網(wǎng)絡(luò)RV-C介紹.pdf》資料免費(fèi)下載
    發(fā)表于 04-19 17:01 ?2次下載

    記憶示波器校準(zhǔn)儀能校準(zhǔn)哪些參數(shù)?

    記憶示波器校準(zhǔn)儀是一種綜合性電子計(jì)量標(biāo)準(zhǔn)儀器,能夠校準(zhǔn)記憶示波器的多項(xiàng)關(guān)鍵參數(shù),主要包括以下方面:1. 垂直系統(tǒng)參數(shù) 幅度校準(zhǔn):通過標(biāo)準(zhǔn)信號源輸出精確電壓,校準(zhǔn)示波器的垂直靈敏度,確保幅度測量準(zhǔn)確
    發(fā)表于 04-11 14:05

    如何使用MATLAB實(shí)現(xiàn)一維時間卷積網(wǎng)絡(luò)

    本文對一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實(shí)例演示如何在 MATLAB 中將一維卷積和 LSTM 結(jié)合構(gòu)建分類網(wǎng)絡(luò),實(shí)現(xiàn)基于傳感器數(shù)據(jù)的故障診斷。
    的頭像 發(fā)表于 03-07 09:15 ?2106次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時間卷積<b class='flag-5'>網(wǎng)絡(luò)</b>

    深控技術(shù)工業(yè)網(wǎng)關(guān)通過集成邊緣AI引擎與多源數(shù)據(jù)融合技術(shù),實(shí)現(xiàn)設(shè)備健康狀態(tài)的實(shí)時預(yù)測與能效優(yōu)化

    ),兼容Modbus、OPC UA等協(xié)議,覆蓋90%工業(yè)設(shè)備。 AI預(yù)測模型:內(nèi)置基于LSTM長短記憶網(wǎng)絡(luò))的故障預(yù)測算法,學(xué)習(xí)設(shè)備歷史運(yùn)行數(shù)據(jù),提前預(yù)警軸承磨損、電機(jī)過載等故障
    的頭像 發(fā)表于 03-06 11:12 ?908次閱讀
    深控技術(shù)工業(yè)網(wǎng)關(guān)通過集成邊緣AI引擎與多源數(shù)據(jù)融合技術(shù),實(shí)現(xiàn)設(shè)備健康狀態(tài)的實(shí)時預(yù)測與能效優(yōu)化