91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點(diǎn)以及RNN模型的幾種應(yīng)用

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:人工智能與算法學(xué)習(xí) ? 作者:人工智能與算法學(xué) ? 2021-05-13 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學(xué)習(xí)歷史信息的能力。后面不管是encode-decode 框架,還是注意力模型,以及自注意力模型,以及更加強(qiáng)大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強(qiáng)的。

這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點(diǎn),RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),RNN的缺陷,以及GRU,LSTM是如何試圖解決這些問題,RNN變體等。

這篇文章最大特點(diǎn)是圖解版本,其次語言簡練,總結(jié)全面。

概述

傳統(tǒng)RNN的體系結(jié)構(gòu)。Recurrent neural networks,也稱為RNNs,是一類允許先前的輸出用作輸入,同時具有隱藏狀態(tài)的神經(jīng)網(wǎng)絡(luò)。它們通常如下所示:

e2923ba4-b364-11eb-bf61-12bb97331649.png

對于每一時步 , 激活函數(shù) ,輸出 被表達(dá)為:

這里是時間維度網(wǎng)絡(luò)的共享權(quán)重系數(shù)

是激活函數(shù)

e2a0bf26-b364-11eb-bf61-12bb97331649.png

下表總結(jié)了典型RNN架構(gòu)的優(yōu)缺點(diǎn):

處理任意長度的輸入 計算速度慢
模型形狀不隨輸入長度增加 難以獲取很久以前的信息
計算考慮了歷史信息 無法考慮當(dāng)前狀態(tài)的任何未來輸入
權(quán)重隨時間共享
優(yōu)點(diǎn) 缺點(diǎn)

RNNs應(yīng)用

RNN模型主要應(yīng)用于自然語言處理和語音識別領(lǐng)域。下表總結(jié)了不同的應(yīng)用:

一對一

e2d8925c-b364-11eb-bf61-12bb97331649.png

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)

一對多

e2e514fa-b364-11eb-bf61-12bb97331649.png

音樂生成

多對一

e2f52660-b364-11eb-bf61-12bb97331649.png

e303047e-b364-11eb-bf61-12bb97331649.png

機(jī)器翻譯e31699da-b364-11eb-bf61-12bb97331649.png

RNN 類型圖解例子

對于RNN網(wǎng)絡(luò),所有時間步的損失函數(shù) 是根據(jù)每個時間步的損失定義的,如下所示:損失函數(shù)

時間反向傳播

在每個時間點(diǎn)進(jìn)行反向傳播。在時間步,損失相對于權(quán)重矩陣的偏導(dǎo)數(shù)表示如下:

處理長短依賴

常用激活函數(shù)

RNN模塊中最常用的激活函數(shù)描述如下:

5e33166de-b364-11eb-bf61-12bb97331649.png

e33ef948-b364-11eb-bf61-12bb97331649.png

e3539de4-b364-11eb-bf61-12bb97331649.png

SigmoidTanhRELU

梯度消失/爆炸

在RNN中經(jīng)常遇到梯度消失和爆炸現(xiàn)象。之所以會發(fā)生這種情況,是因為很難捕捉到長期的依賴關(guān)系,因為乘法梯度可以隨著層的數(shù)量呈指數(shù)遞減/遞增。

梯度修剪

梯度修剪是一種技術(shù),用于執(zhí)行反向傳播時,有時遇到的梯度爆炸問題。通過限制梯度的最大值,這種現(xiàn)象在實(shí)踐中得以控制。

e367c954-b364-11eb-bf61-12bb97331649.png

門的類型

為了解決消失梯度問題,在某些類型的RNN中使用特定的門,并且通常有明確的目的。它們通常標(biāo)注為,等于:

其中,是特定于門的系數(shù),是sigmoid函數(shù)。主要內(nèi)容總結(jié)如下表:

Gated Recurrent Unit(GRU)和長-短期記憶單元(LSTM)處理傳統(tǒng)RNNs遇到的消失梯度問題,LSTM是GRU的推廣。下表總結(jié)了每種結(jié)構(gòu)的特征方程:GRU/LSTM

e3730e68-b364-11eb-bf61-12bb97331649.png

注:符號表示兩個向量之間按元素相乘。

RNN的變體

下表總結(jié)了其他常用的RNN模型:

e3a643e6-b364-11eb-bf61-12bb97331649.png

e3e31410-b364-11eb-bf61-12bb97331649.png

Bidirectional (BRNN)Deep (DRNN)

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67499
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    92

    瀏覽量

    7345

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)RNN圖解!

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    算法工程師需要具備哪些技能?

    景:神經(jīng)網(wǎng)絡(luò)中的權(quán)重矩陣計算、降維算法(如PCA)等。 概率論與數(shù)理統(tǒng)計核心內(nèi)容:貝葉斯定理、最大似然估計、假設(shè)檢驗等。應(yīng)用場景:模型不確定性分析、A/B測試效果評估等。 微積分核心內(nèi)容:導(dǎo)數(shù)、梯度
    發(fā)表于 02-27 10:53

    無刷電機(jī)轉(zhuǎn)子永磁體的幾種結(jié)構(gòu)優(yōu)缺點(diǎn)

    幾種中,表貼式是最為常用的一種,即弧形磁片(釹鐵硼或鐵氧體磁瓦)粘貼在轉(zhuǎn)子鐵心表面的結(jié)構(gòu),磁片內(nèi)外圓可以采用不同心設(shè)計而形成不等寬氣隙,使反電動勢波形接近正弦波。
    的頭像 發(fā)表于 01-16 14:27 ?198次閱讀
    無刷電機(jī)轉(zhuǎn)子永磁體的<b class='flag-5'>幾種</b><b class='flag-5'>結(jié)構(gòu)</b><b class='flag-5'>優(yōu)缺點(diǎn)</b>

    星地數(shù)據(jù)大模型融合分析與應(yīng)用分系統(tǒng)平臺的應(yīng)用與未來發(fā)展

    ? ? 星地數(shù)據(jù)大模型融合分析與應(yīng)用分系統(tǒng) ? ?北京華盛恒輝星地數(shù)據(jù)大模型融合分析與應(yīng)用分系統(tǒng),是一套整合衛(wèi)星通信與地面網(wǎng)絡(luò)數(shù)據(jù),依托大模型
    的頭像 發(fā)表于 12-29 10:12 ?193次閱讀

    一文讀懂LSTM與RNN:從原理到實(shí)戰(zhàn),掌握序列建模核心技術(shù)

    RNN的核心局限。今天,我們從原理、梯度推導(dǎo)到實(shí)踐,全面解析這兩大經(jīng)典模型。一、基礎(chǔ)鋪墊:RNN的核心邏輯與痛點(diǎn)RNN的核心是讓模型“記住
    的頭像 發(fā)表于 12-09 13:56 ?1368次閱讀
    一文讀懂LSTM與<b class='flag-5'>RNN</b>:從原理到實(shí)戰(zhàn),掌握序列建模核心技術(shù)

    正確的連接電機(jī)傳動軸的幾種常見連接方式及其優(yōu)缺點(diǎn)

    方式及其優(yōu)缺點(diǎn)分析。 1. 聯(lián)軸器連接 ? 聯(lián)軸器是電機(jī)與傳動軸之間最常用的連接方式之一,其核心功能是傳遞扭矩并補(bǔ)償兩軸之間的偏差(如徑向、軸向或角向偏差)。根據(jù)結(jié)構(gòu)不同,聯(lián)軸器可分為以下幾類: ? (1)剛性聯(lián)軸器 ?
    的頭像 發(fā)表于 09-10 07:41 ?3138次閱讀

    知識分享 | 使用MXAM進(jìn)行AUTOSAR模型的靜態(tài)分析:Embedded Coder與TargetLink模型

    分析:EmbeddedCoder與TargetLink模型文章內(nèi)容來源:MES模賽思官方網(wǎng)站AUTOSAR(AUTomotiveOpenSystemARchite
    的頭像 發(fā)表于 08-27 10:04 ?715次閱讀
    知識分享 | 使用MXAM進(jìn)行AUTOSAR<b class='flag-5'>模型</b>的靜態(tài)<b class='flag-5'>分析</b>:Embedded Coder與TargetLink<b class='flag-5'>模型</b>

    模型推理顯存和計算量估計方法研究

    、顯存估計方法 基于模型結(jié)構(gòu)的顯存估計 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型在推理
    發(fā)表于 07-03 19:43

    模型在半導(dǎo)體行業(yè)的應(yīng)用可行性分析

    的應(yīng)用,比如使用機(jī)器學(xué)習(xí)分析數(shù)據(jù),提升良率。 這一些大模型是否真的有幫助 能夠在解決工程師的知識斷層問題 本人純小白,不知道如何涉足這方面 應(yīng)該問什么大模型比較好,或者是看什么視頻能夠涉足這個行業(yè)
    發(fā)表于 06-24 15:10

    FA模型卡片和Stage模型卡片切換

    ,Stage卡片配置在module.json5和form_config.json中(如下圖1和圖2)。 卡片業(yè)務(wù)邏輯:FA模型和Stage模型在卡片入口文件以及生命周期存在細(xì)微的差異(如下圖3和圖4
    發(fā)表于 06-06 08:10

    從FA模型切換到Stage模型時:module的切換說明

    mainAbility。mainElement標(biāo)簽名稱變更,Stage模型不在使用“.”符號。 package標(biāo)識HAP的包結(jié)構(gòu)名稱,在應(yīng)用內(nèi)保證唯一性。/Stage模型使用name來保證應(yīng)用唯一性。FA
    發(fā)表于 06-05 08:16

    PCBA 表面處理:優(yōu)缺點(diǎn)大揭秘,應(yīng)用場景全解析

    的表面處理工藝,不僅能提升PCBA板的焊接質(zhì)量,還能延長其使用壽命。以下將詳細(xì)介紹幾種常見的PCBA表面處理工藝,分析它們的優(yōu)缺點(diǎn)及應(yīng)用場景,幫助您做出最佳的工藝選擇。 PCBA表面處理優(yōu)缺點(diǎn)
    的頭像 發(fā)表于 05-05 09:39 ?1384次閱讀
    PCBA 表面處理:<b class='flag-5'>優(yōu)缺點(diǎn)</b>大揭秘,應(yīng)用場景全解析

    模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?832次閱讀
    大<b class='flag-5'>模型</b>時代的<b class='flag-5'>深度</b>學(xué)習(xí)框架

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應(yīng)用模型
    發(fā)表于 04-24 07:27

    AI眼鏡大模型激戰(zhàn):多大模型協(xié)同、交互時延低至1.3S

    與AI大模型深度融合,一場技術(shù)演進(jìn)與場景革命正在悄然進(jìn)行。 ? ? 一款眼鏡搭載多個大模型:AI 智能眼鏡下的“百模大戰(zhàn)” AI大模型指的是具有大量參數(shù)(通常超過數(shù)十億)的
    的頭像 發(fā)表于 03-20 08:59 ?2706次閱讀
    AI眼鏡大<b class='flag-5'>模型</b>激戰(zhàn):多大<b class='flag-5'>模型</b>協(xié)同、交互時延低至1.3S

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺中無法導(dǎo)出INT8模型怎么解決?

    無法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54