91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文看懂NLP里的模型框架 Encoder-Decoder和Seq2Seq

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 22:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Encoder-Decoder 和 Seq2Seq

機(jī)器翻譯、對(duì)話機(jī)器人、詩(shī)詞生成、代碼補(bǔ)全、文章摘要(文本 - 文本)

「文本 - 文本」 是最典型的應(yīng)用,其輸入序列和輸出序列的長(zhǎng)度可能會(huì)有較大的差異。

Google 發(fā)表的用Seq2Seq做機(jī)器翻譯的論文《Sequence to Sequence Learning with Neural Networks》

語(yǔ)音識(shí)別音頻 - 文本)

語(yǔ)音識(shí)別也有很強(qiáng)的序列特征,比較適合 Encoder-Decoder 模型。

Google 發(fā)表的使用Seq2Seq做語(yǔ)音識(shí)別的論文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》

圖像描述生成(圖片 - 文本)

通俗的講就是「看圖說(shuō)話」,機(jī)器提取圖片特征,然后用文字表達(dá)出來(lái)。這個(gè)應(yīng)用是計(jì)算機(jī)視覺(jué)和 NLP 的結(jié)合。

圖像描述生成的論文《Sequence to Sequence – Video to Text》

Encoder-Decoder 的缺陷

上文提到:Encoder(編碼器)和 Decoder(解碼器)之間只有一個(gè)「向量 c」來(lái)傳遞信息,且 c 的長(zhǎng)度固定。

為了便于理解,我們類比為「壓縮-解壓」的過(guò)程:

將一張 800X800 像素的圖片壓縮成 100KB,看上去還比較清晰。再將一張 3000X3000 像素的圖片也壓縮到 100KB,看上去就模糊了。

Encoder-Decoder 就是類似的問(wèn)題:當(dāng)輸入信息太長(zhǎng)時(shí),會(huì)丟失掉一些信息。

Attention 解決信息丟失問(wèn)題

Attention 機(jī)制就是為了解決「信息過(guò)長(zhǎng),信息丟失」的問(wèn)題。

Attention 模型的特點(diǎn)是 Eecoder 不再將整個(gè)輸入序列編碼為固定長(zhǎng)度的「中間向量 C」 ,而是編碼成一個(gè)向量的序列。

這樣,在產(chǎn)生每一個(gè)輸出的時(shí)候,都能夠做到充分利用輸入序列攜帶的信息。而且這種方法在翻譯任務(wù)中取得了非常不錯(cuò)的成果。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265423
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23281
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度心大模型5.0正式版上線

    今天,在百度心Moment大會(huì)現(xiàn)場(chǎng),心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1298次閱讀

    百度心大模型5.0 Preview榮登LMArena文本榜國(guó)內(nèi)第

    12月23日,LMArena大模型競(jìng)技場(chǎng)發(fā)布最新排名,心新模型ERNIE-5.0-Preview-1203以1451分登上LMArena文本榜,排名國(guó)內(nèi)第
    的頭像 發(fā)表于 12-23 15:02 ?547次閱讀

    看懂AI大模型的并行訓(xùn)練方式(DP、PP、TP、EP)

    才能有效縮短計(jì)算時(shí)間。搭建并行計(jì)算框架,般會(huì)用到以下幾種常見(jiàn)的并行方式:DataParallelism,數(shù)據(jù)并行PipelineParallelism,流水線并行
    的頭像 發(fā)表于 11-28 08:33 ?1858次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>看懂</b>AI大<b class='flag-5'>模型</b>的并行訓(xùn)練方式(DP、PP、TP、EP)

    摩爾線程新代大語(yǔ)言模型對(duì)齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新代大語(yǔ)言模型對(duì)齊框架——URPO統(tǒng)獎(jiǎng)勵(lì)與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議AAAI 2026收錄。這
    的頭像 發(fā)表于 11-17 16:03 ?497次閱讀
    摩爾線程新<b class='flag-5'>一</b>代大語(yǔ)言<b class='flag-5'>模型</b>對(duì)齊<b class='flag-5'>框架</b>URPO入選AAAI 2026

    百度心大模型5.0-Preview文本能力國(guó)內(nèi)第

    11月8日凌晨,LMArena大模型競(jìng)技場(chǎng)最新排名顯示,心全新模型ERNIE-5.0-Preview-1022登上文本排行榜全球并列第二、中國(guó)第
    的頭像 發(fā)表于 11-11 17:15 ?1473次閱讀

    OK3506-S12 Mini開(kāi)發(fā)板開(kāi)箱和基本使用(飛凌嵌入式)

    OK3506-S12 Mini開(kāi)發(fā)板 圖2 OK3506-S12 Mini開(kāi)發(fā)板 開(kāi)發(fā)板簡(jiǎn)介 ? ?RK3506J/RK3506B是款高性能的三核Cortex-A7應(yīng)用處理器,專為智能語(yǔ)音交互、音頻輸入/輸出
    發(fā)表于 11-03 00:57

    【六岳微LY-F335開(kāi)發(fā)板試用體驗(yàn)】epwm啟動(dòng)ADC并在OLED上顯示結(jié)果

    ;添加還是在C2000linker 的include中添加或用工程文件管理器添加,只要將兩個(gè)CMD文件加入工程就行,F(xiàn)lash和RAM的CMD文件同時(shí)只能個(gè)使用(關(guān)鍵是不同同時(shí)編譯,可以兩個(gè)都添加
    發(fā)表于 09-26 17:32

    寧暢與與百度心大模型展開(kāi)深度技術(shù)合作

    近日,百度正式開(kāi)源心大模型4.5系列模型。作為心開(kāi)源合作伙伴,寧暢在模型開(kāi)源首日即實(shí)現(xiàn)即刻部署,做到“開(kāi)源即接入、發(fā)布即可用”。據(jù)悉,
    的頭像 發(fā)表于 07-07 16:26 ?873次閱讀

    黑芝麻智能與心大模型技術(shù)合作升級(jí)

    近日,心大模型正式開(kāi)源,黑芝麻智能即日起快速啟動(dòng)與心大模型技術(shù)合作。
    的頭像 發(fā)表于 07-04 17:24 ?1332次閱讀
    黑芝麻智能與<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b>技術(shù)合作升級(jí)

    龍芯中科與心系列模型開(kāi)展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 心大模型 心4.5系列模型均使用飛槳深度學(xué)習(xí)框架
    的頭像 發(fā)表于 07-02 16:53 ?1353次閱讀

    兆芯率先展開(kāi)心系列模型深度技術(shù)合作

    對(duì)文心系列大模型的快速適配、無(wú)縫銜接。 ? 心大模型 ? 心4.5系列開(kāi)源模型共10款,均使用飛漿深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 10:49 ?976次閱讀

    ELF2開(kāi)發(fā)板的ubuntu系統(tǒng)的ax200 wifi配網(wǎng)

    root@elf2-desktop:/home/elf/Desktop# ls 5.10.209 碰到的很弟弟的問(wèn)題:我理解是把5.10.209件內(nèi)容復(fù)制到/usr/lib/modules,然后重啟
    發(fā)表于 04-18 16:05

    【米爾-全志T536開(kāi)發(fā)板試用體驗(yàn)】Wi-Fi連接測(cè)試體驗(yàn)

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼有處理DMA請(qǐng)求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼有處理DMA請(qǐng)求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    求助,關(guān)于STM32G070調(diào)用HAL_I2C_Mem_Read_IT測(cè)試疑問(wèn)求解

    HAL_I2C_Slave_Seq_Receive_IT接收內(nèi)存地址后再調(diào)用HAL_I2C_Slave_Seq_Transmit_IT發(fā)送10個(gè)數(shù)據(jù); 現(xiàn)象: 從機(jī)正常接收,給主機(jī)發(fā)送第1個(gè)數(shù)據(jù)正常,到第2
    發(fā)表于 03-11 07:00