91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文本生成任務(wù)中引入編輯方法的文本生成

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:哈工大訊飛聯(lián)合實(shí)驗(yàn)室 ? 作者:吳珂 ? 2021-07-23 16:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

4. FELIX

FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成模型,該論文發(fā)表于EMNLP 2020 Findings。
受限于有限的編輯操作標(biāo)簽,LaserTagger、Seq2Edits主要進(jìn)行單詞或短語(yǔ)的保留、刪除、替換操作,更多的是對(duì)文本的局部編輯,無(wú)法直接改變文本的結(jié)構(gòu)特征(例如主動(dòng)句改被動(dòng)句:“They ate steak for dinner.” “Steak was eaten for dinner.”)。

同時(shí),受限于詞典規(guī)模,LaserTagger與Seq2Edits也不支持大量插入新文本。而如果使用自回歸的方法來(lái)支持大量插入新文本,勢(shì)必大大降低模型的推理速度。所以,F(xiàn)ELIX希望能夠兼顧文本生成的推理速度和靈活性。

本篇工作的主要改進(jìn)有:
(1)在保留、刪除等基本編輯操作上引入重排序(reorder)操作。通過(guò)重排序操作,在復(fù)用重復(fù)文本的同時(shí)實(shí)現(xiàn)文本結(jié)構(gòu)特征的改變,提高文本生成的靈活性。
(2)受BERT自監(jiān)督預(yù)訓(xùn)練任務(wù)啟發(fā),通過(guò)引入Masked Language Model(MLM)來(lái)預(yù)測(cè)待插入的新詞。

4.1 主要方法

FELIX將文本生成分為兩步:通過(guò)標(biāo)注模型(tagging model)對(duì)源文本標(biāo)注編輯標(biāo)簽后進(jìn)行重排序,然后輸入插入模型(insertion model)對(duì)要插入的新文本進(jìn)行預(yù)測(cè)。

標(biāo)注

以圖10為例,源文本為 “The big very loud cat.” ;目標(biāo)文本為 “The noisy large cat.” 。其中為tagger模塊預(yù)測(cè)的標(biāo)簽序列;為經(jīng)過(guò)Pointer重排序后加入特殊標(biāo)簽(, )得到的序列,將輸入插入模型預(yù)測(cè)得到最終結(jié)果。

7e9bb49e-e0fb-11eb-9e57-12bb97331649.png

圖 10 FELIX對(duì)插入文本的兩種預(yù)測(cè)方式

FELIX對(duì)編碼后的源文本進(jìn)行標(biāo)注,保留操作和刪除操作標(biāo)簽仍為和。結(jié)合MLM,F(xiàn)ELIX設(shè)計(jì)了兩種方式預(yù)測(cè)要插入的新文本:Masking 和 Infilling 。Masking 方式不僅需要模型預(yù)測(cè)插入內(nèi)容,還需要模型預(yù)測(cè)插入文本的長(zhǎng)度(如,對(duì)應(yīng)中加入兩個(gè)標(biāo)簽)。

Infilling 方式直接讓模型預(yù)測(cè)待插入的新文本的內(nèi)容,不需要模型預(yù)測(cè)插入文本的長(zhǎng)度。即,在中插入固定個(gè)數(shù)的標(biāo)簽(實(shí)驗(yàn)中插入8個(gè)即可覆蓋99%的樣本),預(yù)測(cè)插入內(nèi)容時(shí)多余的標(biāo)簽使用標(biāo)簽覆蓋。

需要注意的是,在將輸入到MLM進(jìn)行預(yù)測(cè)時(shí),F(xiàn)ELIX保留了待刪除的span(用一對(duì)特殊的token 和 將span括起來(lái),而非直接將待刪除部分替換為標(biāo)簽)。即使這樣做會(huì)導(dǎo)致fine-tuning和pre-training的不一致,但能夠保留更多的語(yǔ)義信息,提高模型預(yù)測(cè)的準(zhǔn)確性。

重排序

為了保證推理效率,F(xiàn)ELIX的重排序也是非自回歸(non-autoregressive)的,類似于non-projective dependency parsing。具體實(shí)現(xiàn)時(shí)使用constrained beam search來(lái)保證除了待刪除的token外,每一個(gè)token都會(huì)被指向,且避免有token被指向兩次而產(chǎn)生循環(huán)。

4.2 模型概述

FELIX tagging model:

Encoding: 使用12層的BERT-base模型對(duì)源文本進(jìn)行編碼。

Tagging: 使用一層feed-forward layer預(yù)測(cè)標(biāo)簽。

Pointing: 基于注意力機(jī)制的pointer network進(jìn)行重排序。

FELIX insertion model:

12層的BERT-base模型。并使用預(yù)訓(xùn)練權(quán)重進(jìn)行初始化。

5. 實(shí)驗(yàn)評(píng)價(jià)

三篇工作分別在句子融合、句子分割復(fù)述、語(yǔ)法糾錯(cuò)等多種文本生成任務(wù)上進(jìn)行了實(shí)驗(yàn),主要驗(yàn)證了模型在三方面的性能:生成文本的質(zhì)量、模型推理效率以及模型在小樣本上的表現(xiàn)。

句子融合(Sentence Fusion) ? ? ?
句子分割復(fù)述(Split & Rephrase) ? ?
文本摘要(Summarization) ? ?
語(yǔ)法糾錯(cuò)(Grammatical Error Correction) ? ?
文本規(guī)范化(Text Normalization) ?
文本簡(jiǎn)化(Text Simplification) ? ?
自動(dòng)后編輯(Automatic Post-Editing) ?
LaserTagger Seq2Edits FELIX

5.1 生成質(zhì)量

句子融合 & 分割復(fù)述

三篇工作均在句子融合任務(wù)上進(jìn)行了實(shí)驗(yàn),使用數(shù)據(jù)集為DiscoFuse,評(píng)價(jià)指標(biāo)為SARI、Exact。其中SARI將預(yù)測(cè)輸出與輸入文本以及reference比較,評(píng)價(jià)模型對(duì)源文本進(jìn)行各種編輯操作后生成文本的“好壞”;Exact主要評(píng)價(jià)模型生成的文本和標(biāo)準(zhǔn)答案之間“有多接近”。

SARI Exact
full sequence model BERT2BERT 89.52 63.90
Seq2SeqBERT 85.30 53.60
edit-based model LaserTagger 85.45 53.80
Seq2Edits 88.73 61.71
FELIX 88.78 61.31

從上表中可以看出,基于編輯方法的生成模型較之傳統(tǒng)full sequence model在生成文本的質(zhì)量上有下降,但改進(jìn)后的Seq2Edits和FELIX在兩項(xiàng)指標(biāo)上已經(jīng)和full sequence model十分接近。

LaserTagger和Seq2Edits均在句子分割復(fù)述任務(wù)上進(jìn)行了實(shí)驗(yàn)。該任務(wù)為句子融合任務(wù)的逆任務(wù),使用數(shù)據(jù)集為WikiSplit 。Seq2Edits在該項(xiàng)任務(wù)上表現(xiàn)較優(yōu)。

SARI Exact
full sequence model Seq2SeqBERT 62.3 15.1
edit-based model LaserTagger 61.7 15.2
Seq2Edits 63.6 17.0

文本簡(jiǎn)化

Seq2Edits和FELIX均在文本簡(jiǎn)化任務(wù)上進(jìn)行了測(cè)試,并與LaserTagger進(jìn)行了對(duì)比。該任務(wù)需要在保持源文本基本語(yǔ)義的情況下,通過(guò)改寫(xiě)降低源文本的復(fù)雜度,以方便兒童等特殊群體閱讀。實(shí)驗(yàn)使用數(shù)據(jù)集為WikiLarge,評(píng)價(jià)指標(biāo)為SARI。在該項(xiàng)任務(wù)上FELIX有著較好的表現(xiàn)。

SARI
edit-based model LaserTagger 32.31
Seq2Edits 37.16
FELIX 38.13

5.2 推理效率

在推理效率方面三篇工作均與傳統(tǒng)full sequence model進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果證明相較于傳統(tǒng)seq2seq方法,基于編輯方法確實(shí)能夠大大提高模型的推理速度。在推理速度上對(duì)三種模型進(jìn)行橫向?qū)Ρ龋現(xiàn)ELIX最優(yōu),而Seq2Edits由于模型本身的復(fù)雜性,在三者中速度最慢(FELIX > LaserTagger > Seq2Edits)。

5.3 小樣本表現(xiàn)

LaserTagger和FELIX兩篇工作均在小樣本訓(xùn)練數(shù)據(jù)上測(cè)試了模型性能。相比f(wàn)ull sequence model而言,LaserTagger和FELIX兩者對(duì)訓(xùn)練數(shù)據(jù)規(guī)模變化并不敏感(訓(xùn)練數(shù)據(jù)規(guī)模從45k縮小到4.5k時(shí)full sequence model性能出現(xiàn)了較大下降),且在小樣本數(shù)據(jù)上FELIX表現(xiàn)要好于LaserTagger。

6. 總結(jié)

LaserTagger token-level;
保留、刪除、插入
根據(jù)訓(xùn)練數(shù)據(jù)構(gòu)造短語(yǔ)詞典,從詞典中直接選擇。 一輪序列標(biāo)注;
非自回歸;
加速10x-100x (相比SEQ2SEQBERT)
Seq2Edits span-level;
三元組
不同任務(wù)有不同tag vocabulary
open-vocab 預(yù)測(cè)N個(gè)三元標(biāo)簽組;
自回歸;
加速5.2x(相比 full sequence model)
FELIX token-level;
保留、刪除、MASK、重排序
open-vocab
用MLM預(yù)測(cè)MASK對(duì)應(yīng)的token
標(biāo)注+重排序+MLM;
非自回歸;
加速100x(相比 full sequence model)
模型 編輯操作 插入新文本 推理方式 推理效率

基于編輯方法的文本生成優(yōu)勢(shì)與不足主要如下:

與full sequence models相比,推理速度大大加快。
模型輸出可解釋性強(qiáng)。
對(duì)訓(xùn)練數(shù)據(jù)規(guī)模較不敏感;在小樣本上表現(xiàn)較好。
遵循較弱的語(yǔ)言模型。
生成的靈活性不足。
Pros Cons

未來(lái)工作的關(guān)鍵在于生成質(zhì)量和推理效率的對(duì)立統(tǒng)一。目前基于編輯方法使用非自回歸預(yù)測(cè)輸出時(shí),雖然能夠提高推理效率,但勢(shì)必會(huì)損失生成文本的質(zhì)量。因此,質(zhì)量和效率盡量做到“魚(yú)與熊掌二者兼得”將成為未來(lái)研究工作的希冀。

References

[1] Malmi, Eric, et al. "Encode, tag, realize: High-precision text editing." arXiv preprint arXiv:1909.01187 (2019).

[2] Stahlberg, Felix, and Shankar Kumar. “Seq2Edits: Sequence Transduction Using Span-level Edit Operations.” arXiv preprint arXiv:2009.11136 (2020)。

[3] Mallinson, Jonathan, et al. “Felix: Flexible text editing through tagging and insertion.” arXiv preprint arXiv:2003.10687 (2020)。

[4] https://ai.googleblog.com/2020/01/encode-tag-and-realize-controllable-and.html

[5] https://ai.googleblog.com/2021/05/introducing-felix-flexible-text-editing.html

[6] https://thinkwee.top/2021/05/11/text-edit-generation/

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 文本
    +關(guān)注

    關(guān)注

    0

    文章

    120

    瀏覽量

    17869

原文標(biāo)題:基于編輯方法的文本生成(下)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在Arm Neoverse N2平臺(tái)上提升llama.cpp擴(kuò)展性能

    跨 NUMA 內(nèi)存訪問(wèn)可能會(huì)限制 llama.cpp 在 Arm Neoverse 平臺(tái)上的擴(kuò)展能力。本文將為你詳細(xì)分析這一問(wèn)題,并通過(guò)引入原型驗(yàn)證補(bǔ)丁來(lái)加以解決。測(cè)試結(jié)果表明,在基于 Neoverse N2 平臺(tái)的系統(tǒng)上運(yùn)行 llama3_Q4_0 模型時(shí),該補(bǔ)丁可使文本生成
    的頭像 發(fā)表于 02-11 10:06 ?169次閱讀

    Linux Shell文本處理神器合集:15個(gè)工具+實(shí)戰(zhàn)例子,效率直接翻倍

    在 Linux 系統(tǒng),文本是數(shù)據(jù)交互的 “通用語(yǔ)言”—— 日志文件、配置文件、數(shù)據(jù)報(bào)表、程序輸出幾乎都以文本形式存在。手動(dòng)編輯文本不僅繁瑣
    的頭像 發(fā)表于 02-03 15:42 ?1518次閱讀
    Linux Shell<b class='flag-5'>文本</b>處理神器合集:15個(gè)工具+實(shí)戰(zhàn)例子,效率直接翻倍

    萬(wàn)里紅文本生成算法通過(guò)國(guó)家網(wǎng)信辦備案

    近日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了第十四批深度合成服務(wù)算法備案信息,北京萬(wàn)里紅科技有限公司(以下簡(jiǎn)稱:萬(wàn)里紅)自主研發(fā)的“萬(wàn)里紅文本生成算法”正式通過(guò)備案。該算法致力于通過(guò)自動(dòng)化的方式,提升知識(shí)問(wèn)答、RAG分類、預(yù)測(cè)、文檔生成的準(zhǔn)確率,確保信息的安全性和合規(guī)性,為用戶提供及
    的頭像 發(fā)表于 11-14 09:06 ?685次閱讀

    AI生成的測(cè)試用例真的靠譜嗎?

    軟件測(cè)試正經(jīng)歷一場(chǎng)深刻的技術(shù)革命。AI,尤其是以GPT、通義千問(wèn)、文心一言、Claude等為代表的大語(yǔ)言模型(LLM),開(kāi)始廣泛介入測(cè)試流程:從需求分析、測(cè)試用例設(shè)計(jì),到腳本生成與測(cè)試報(bào)告撰寫(xiě),AI
    的頭像 發(fā)表于 08-01 10:02 ?1752次閱讀
    AI<b class='flag-5'>生成</b>的測(cè)試用例真的靠譜嗎?

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    和自然語(yǔ)言推理等復(fù)雜任務(wù)。作為國(guó)產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。本文主要說(shuō)明DeepSeek-R1
    的頭像 發(fā)表于 07-25 15:22 ?1379次閱讀
    速看!EASY-EAI教你離線部署Deepseek R1大模型

    Copilot操作指南(一):使用圖片生成原理圖符號(hào)、PCB封裝

    的操作方法。? ” ? 圖片生成原理圖符號(hào)(Symbol) Copilot 支持圖片生成原理圖符號(hào)功能,支持原理圖編輯器與符號(hào)編輯器兩種場(chǎng)景
    的頭像 發(fā)表于 07-15 11:14 ?4624次閱讀
    Copilot操作指南(一):使用圖片<b class='flag-5'>生成</b>原理圖符號(hào)、PCB封裝

    飛書(shū)開(kāi)源“RTV”富文本組件 重塑鴻蒙應(yīng)用富文本渲染體驗(yàn)

    更高效的富文本解決方案。 富文本作為內(nèi)容展示和信息交互的重要形式,在內(nèi)容創(chuàng)作、辦公協(xié)作、教育學(xué)習(xí)、企業(yè)應(yīng)用等多種復(fù)雜業(yè)務(wù)場(chǎng)景扮演著重要角色。隨著鴻蒙生態(tài)應(yīng)用類型的不斷豐富,富文本渲染
    的頭像 發(fā)表于 07-11 15:20 ?644次閱讀
    飛書(shū)開(kāi)源“RTV”富<b class='flag-5'>文本</b>組件 重塑鴻蒙應(yīng)用富<b class='flag-5'>文本</b>渲染體驗(yàn)

    基于Arm架構(gòu)的新款聯(lián)想Chromebook Plus設(shè)備亮相

    從實(shí)時(shí)文本生成、摘要提煉,到智能助手與高級(jí)搜索,人工智能 (AI) 已成為現(xiàn)代消費(fèi)電子設(shè)備體驗(yàn)不可或缺的要素,正在重新定義人們工作與娛樂(lè)的方式。
    的頭像 發(fā)表于 07-03 14:43 ?1226次閱讀

    關(guān)于鴻蒙App上架“AI文本生成模塊的資質(zhì)證明文件”的情況說(shuō)明

    檢查結(jié)果為“通過(guò)”或?qū)徍藸顟B(tài)為“審核通過(guò)”。 那么對(duì)于這個(gè)問(wèn)題,我也是嘗試去解決……這里分享一下我了解到的情況和方法 首先,這個(gè)政策雖然說(shuō)是針對(duì)AI文本生成模塊,但實(shí)際上,針對(duì)的是所有調(diào)用了AI大模型
    發(fā)表于 06-30 18:37

    邊緣生成式AI面臨哪些工程挑戰(zhàn)?

    本文由TechSugar編譯自electronicdesign當(dāng)大多數(shù)人想到人工智能(AI)時(shí),他們通常能想到的是能夠生成文本、圖像或語(yǔ)音內(nèi)容的應(yīng)用。像ChatGPT這樣流行的文本應(yīng)用(在幾天
    的頭像 發(fā)表于 06-25 10:44 ?1145次閱讀
    邊緣<b class='flag-5'>生成</b>式AI面臨哪些工程挑戰(zhàn)?

    生成式人工智能認(rèn)證:重構(gòu)AI時(shí)代的人才培養(yǎng)與職業(yè)躍遷路徑

    ,恰似一座連接技術(shù)前沿與個(gè)體成長(zhǎng)的橋梁,既承載著時(shí)代對(duì)人才的迫切需求,也指向著未來(lái)職場(chǎng)的核心競(jìng)爭(zhēng)力。 一、技術(shù)革命的雙重性:賦能與失衡并存 生成式人工智能的突破性,在于其首次讓機(jī)器具備了“無(wú)中生有”的創(chuàng)造力。從文本生成到圖像
    的頭像 發(fā)表于 05-23 09:29 ?854次閱讀

    把樹(shù)莓派打造成識(shí)別文本的“神器”!

    在許多項(xiàng)目中,RaspberryPi被用作監(jiān)控?cái)z像頭或執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。在這些場(chǎng)景,圖像中經(jīng)常包含應(yīng)用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過(guò)程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?983次閱讀
    把樹(shù)莓派打造成識(shí)別<b class='flag-5'>文本</b>的“神器”!

    NVIDIA RTX 5880 Ada顯卡部署DeepSeek-R1模型實(shí)測(cè)報(bào)告

    DeepSeek-R1 模型在 4 張 NVIDIA RTX 5880 Ada 顯卡配置下,面對(duì)短文本生成、長(zhǎng)文本生成、總結(jié)概括三大實(shí)戰(zhàn)場(chǎng)景,會(huì)碰撞出怎樣的性能火花?參數(shù)規(guī)模差異懸殊的 70B
    的頭像 發(fā)表于 03-17 11:12 ?3103次閱讀
    NVIDIA RTX 5880 Ada顯卡部署DeepSeek-R1模型實(shí)測(cè)報(bào)告

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無(wú)奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺(jué)效果。
    的頭像 發(fā)表于 03-12 13:49 ?1887次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像<b class='flag-5'>生成</b>

    stm32cubemx 6.13.0(win)版本生成代碼中文注釋亂碼怎么解決?

    stm32cubemx 6.13.0(win)版本生成代碼中文注釋亂碼
    發(fā)表于 03-11 07:10