91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深蘭在自然語言處理領(lǐng)域歐洲頂會上取得好成績

電子工程師 ? 來源:DeepBlue深蘭科技 ? 作者:DeepBlue深蘭科技 ? 2021-04-23 11:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2021年4月19-23日,EACL2021因疫情影響于線上正式召開,這是計(jì)算語言學(xué)和自然語言處理領(lǐng)域的重要國際會議,在Google Scholar計(jì)算語言學(xué)刊物指標(biāo)中排名第七。深蘭科技DeepBlueAI團(tuán)隊(duì)參加了Shared Task on Sarcasm and Sentiment Detection in Arabic 比賽,并在其兩個子任務(wù)諷刺檢測和情感識別中,分別獲得了第二名和第三名的好成績,在深蘭榮譽(yù)榜上再添新篇。

29afae82-a39c-11eb-aece-12bb97331649.jpg

29afae82-a39c-11eb-aece-12bb97331649.jpg

獲獎技術(shù)方案分享

任務(wù)介紹

諷刺檢測要求識別一段文字中是否包含諷刺的內(nèi)容,諷刺是當(dāng)前情感分析系統(tǒng)的主要挑戰(zhàn)之一,因?yàn)榫哂兄S刺性的句子通常用積極的表達(dá)方式去表示消極的情感。文本所表達(dá)的情感以及作者真正想表達(dá)的情感之間存在不同,這種情況給情感分析系統(tǒng)帶來了巨大的挑戰(zhàn)。

諷刺檢測、情感識別在其他語言中引起了很大的關(guān)注,但是在阿拉伯語上則沒有太多進(jìn)展,該任務(wù)則是針對阿拉伯語,針對給定的一個推特文本,判斷是積極、消極或者中立情感,以及是否具有諷刺性。

數(shù)據(jù)分析

任務(wù)數(shù)據(jù)集名字為ArSarcasm-v2[1],數(shù)據(jù)包含以下幾個字段,tweet, sarcasm, sentiment, dialect,tweet代表推特文本,sarcasm為諷刺檢測的標(biāo)簽,sentiment為情感分類的標(biāo)簽,dialect表示當(dāng)前文本確切屬于阿拉伯語中的哪個方言。

2a040f40-a39c-11eb-aece-12bb97331649.png

數(shù)據(jù)集統(tǒng)計(jì)如上圖所示,Arsarcasm-V2 共有12548條訓(xùn)練文本,其中MSA占比達(dá)到了68.2%,Maghrebi占比較少,僅有42條。此外我們還分析了具有諷刺文本中的情感分布情況,占比如下圖所示。可以看出諷刺文本中89%具有消極情感,只有3%具有正面情感,可見諷刺一般情況下傳遞消極的信息。

2a1afd68-a39c-11eb-aece-12bb97331649.png

模型

模型采用當(dāng)前比較流行的預(yù)訓(xùn)練模型,因?yàn)檎Z言為阿拉伯語,我們采用了專門針對阿拉伯語的預(yù)訓(xùn)練模型bert-large-arabertv02[2],以及多語言預(yù)訓(xùn)練模型xlm-roberta-large[3]。其中模型結(jié)構(gòu)如下,選取模型多層[CLS]位置的輸出進(jìn)行加權(quán)平均得到[CLS]位置向量,然后經(jīng)過全連接層,之后經(jīng)過Multi-sample dropout[4]得到損失。對于諷刺檢測為二分類,我們采用Binary Cross Entropy 損失函數(shù),對于情感識別為三分類,我們采用Cross Entropy損失函數(shù)。

2a3a4db2-a39c-11eb-aece-12bb97331649.png

Multi-sample dropout 是dropout的一種變種,傳統(tǒng) dropout 在每輪訓(xùn)練時會從輸入中隨機(jī)選擇一組樣本(稱之為 dropout 樣本),而 multi-sample dropout 會創(chuàng)建多個 dropout 樣本,然后平均所有樣本的損失,從而得到最終的損失,multi-sample dropout 共享中間的全連接層權(quán)重。通過綜合 M 個 dropout 樣本的損失來更新網(wǎng)絡(luò)參數(shù),使得最終損失比任何一個 dropout 樣本的損失都低。這樣做的效果類似于對一個 minibatch 中的每個輸入重復(fù)訓(xùn)練 M 次。因此,它大大減少訓(xùn)練迭代次數(shù),從而大幅加快訓(xùn)練速度。因?yàn)榇蟛糠诌\(yùn)算發(fā)生在 dropout 層之前的BERT層中,Multi-sample dropout 并不會重復(fù)這些計(jì)算,所以對每次迭代的計(jì)算成本影響不大。實(shí)驗(yàn)表明,multi-sample dropout 還可以降低訓(xùn)練集和驗(yàn)證集的錯誤率和損失。

訓(xùn)練策略

任務(wù)自適應(yīng)預(yù)訓(xùn)練(TAPT)[5],在當(dāng)前和任務(wù)相關(guān)的數(shù)據(jù)集上進(jìn)行掩碼語言模型(MLM)訓(xùn)練,提升預(yù)訓(xùn)練模型在當(dāng)前數(shù)據(jù)集上的性能。

對抗訓(xùn)練是一種引入噪聲的訓(xùn)練方式,可以對參數(shù)進(jìn)行正則化,從而提升模型的魯棒性和泛化能力。我們采用FGM (Fast Gradient Method)[6],通過在嵌入層加入擾動,從而獲得更穩(wěn)定的單詞表示形式和更通用的模型,以此提升模型效果。

知識蒸餾[7]由Hinton在2015年提出,主要應(yīng)用在模型壓縮上,通過知識蒸餾用大模型所學(xué)習(xí)到的有用信息來訓(xùn)練小模型,在保證性能差不多的情況下進(jìn)行模型壓縮。我們將利用模型壓縮的思想,采用模型融合的方案,融合多個不同的模型作為teacher模型,將要訓(xùn)練的作為student模型。

假設(shè):采用arabertv模型,F(xiàn)1得分為70,采用不同參數(shù)、不同隨機(jī)數(shù),訓(xùn)練多個arabertv 模型融合后F1可以達(dá)到71;在采用xlm-roberta模型,訓(xùn)練多個模型后與arabertv模型進(jìn)行融合得到最終的F1為72?;谧詈笕诤系亩鄠€模型,采用交叉驗(yàn)證的方式給訓(xùn)練集打上 soft label,此時的soft label已經(jīng)包含多個模型學(xué)到的知識。隨后再去訓(xùn)練arabertv模型,模型同時學(xué)習(xí)soft label以及本來hard label,學(xué)習(xí)soft label采用MSE損失函數(shù),學(xué)習(xí)hard label依舊采用交叉熵?fù)p失,通過這種方式訓(xùn)練出來的arabertv模型的F1可以達(dá)到71點(diǎn)多,最后將蒸餾學(xué)出來的模型再與原來的模型融合,得到最后的結(jié)果。

模型融合

為了更好地利用數(shù)據(jù),我們采用7折交叉驗(yàn)證,針對每一折我們使用了兩種預(yù)訓(xùn)練模型,又通過改變不同的參數(shù)隨機(jī)數(shù)種子以及不同的訓(xùn)練策略訓(xùn)練了多個模型,之后對訓(xùn)練集和測試集進(jìn)行預(yù)測。為了更好地融合模型,我們針對諷刺檢測采用了線性回歸模型進(jìn)行融合,針對情感識別模型,采用支持向量機(jī)SVM進(jìn)行融合。

實(shí)驗(yàn)結(jié)果

評價標(biāo)準(zhǔn),針對諷刺檢測,只評價諷刺類的F1,針對情感分類則對各個類的F1求平均,為了更好地評估模型的好壞,我們采用7折交叉驗(yàn)證的形式,以下結(jié)果是交叉驗(yàn)證結(jié)果的平均。

從下表中可以看出,無論是諷刺檢測任務(wù)還是情感分類任務(wù)都是XLM-Roberta 模型相對好一些,經(jīng)過TAPT和知識蒸餾后效果都有著顯著提升。對于諷刺檢測因?yàn)椴煌P椭g分?jǐn)?shù)相差比較大,直接求平均效果不行,而采用線性回歸后則達(dá)到了一個不錯的水平,由于諷刺檢測類別不平衡,我們將閾值調(diào)整為0.41,即大于0.41為1類。同樣在情感分類任務(wù)中,由于多個模型之間的性能相差較大直接求平均也會造成性能的下降,我們最終采用SVM進(jìn)行模型融合。

2a5b6a6a-a39c-11eb-aece-12bb97331649.png

原文標(biāo)題:賽道 | 深蘭載譽(yù)自然語言處理領(lǐng)域歐洲頂會EACL2021

文章出處:【微信公眾號:DeepBlue深蘭科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40431

    瀏覽量

    302047
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    14017

原文標(biāo)題:賽道 | 深蘭載譽(yù)自然語言處理領(lǐng)域歐洲頂會EACL2021

文章出處:【微信號:kmdian,微信公眾號:深蘭科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    上汽大眾智能制造領(lǐng)域接連取得重要成果

    近日,上汽大眾捷報(bào)頻傳。繼首臺EA211黃金增程器下線之后,上汽大眾ID. ERA 9X正式量產(chǎn)下線。值“十五五”新開局,上汽大眾智能制造領(lǐng)域接連取得重要成果,展現(xiàn)“開局即全速”的昂揚(yáng)姿態(tài),更為今年7款新能源車型的密集投放打下
    的頭像 發(fā)表于 03-10 16:27 ?973次閱讀

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一個分支,它會教計(jì)算機(jī)如何理解口頭和書面形式的人類語言。自然語言處理將計(jì)算
    的頭像 發(fā)表于 01-29 14:01 ?496次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    后摩智能六篇論文入選四大國際

    2025年以來,后摩智能在多項(xiàng)前沿研究領(lǐng)域取得突破性進(jìn)展,近期NeurIPS、ICCV、AAAI、ACMMM四大國際會上有 6 篇論文入
    的頭像 發(fā)表于 11-24 16:42 ?1352次閱讀
    后摩智能六篇論文入選四大國際<b class='flag-5'>頂</b>會

    云知聲論文入選自然語言處理會EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會議 ——2025 年計(jì)算語言學(xué)與自然語言處理國際會議(
    的頭像 發(fā)表于 11-10 17:30 ?866次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b>會EMNLP 2025

    深蘭科技發(fā)布AI法務(wù)大模型產(chǎn)品

    近日,深蘭科技發(fā)布面向律所與企業(yè)法務(wù)部門的AI法務(wù)大模型產(chǎn)品——“深蘭律師辦公自動化系統(tǒng)(AI版)”。通過AI技術(shù)賦能法律服務(wù)行業(yè),它能夠顯著提升法律文書處理效率與事務(wù)性工作自動化水平,為律所和法務(wù)團(tuán)隊(duì)帶來全新的工作體驗(yàn)。
    的頭像 發(fā)表于 10-23 17:58 ?1164次閱讀

    HarmonyOSAI編程自然語言代碼生成

    安裝CodeGenie后,在下方對話框內(nèi),輸入代碼需求描述,將根據(jù)描述智能生成代碼,生成內(nèi)容可一鍵復(fù)制或一鍵插入至編輯區(qū)當(dāng)前光標(biāo)位置。 提問示例 使用ArkTs語言寫一段代碼,頁面中間部分
    發(fā)表于 09-05 16:58

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無需死記 Linux 命令!用 CangjieMagic HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點(diǎn)引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動輸入復(fù)雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級會議

    近日,計(jì)算語言學(xué)與自然語言處理領(lǐng)域全球頂級會議ACL 2025及語音研究領(lǐng)域旗艦會議INTERSPEECH 2025相繼公布論文錄用結(jié)果。思
    的頭像 發(fā)表于 07-11 16:24 ?996次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級會議

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級 AI。
    的頭像 發(fā)表于 06-12 15:42 ?1297次閱讀

    人工智能浪潮下,制造企業(yè)如何借力DeepSeek實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型?

    DeepSeek,憑借其強(qiáng)大的深度學(xué)習(xí)和自然語言處理能力,能夠理解復(fù)雜問題并提供精準(zhǔn)解決方案。它不僅能夠作為學(xué)習(xí)、工作、生活的助手,滿足用戶不同場景下的需求,更能在制造業(yè)中發(fā)揮重要作用。通過
    的頭像 發(fā)表于 05-29 16:17 ?696次閱讀

    云知聲四篇論文入選自然語言處理會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態(tài)大模型、大語言模型可解釋性等關(guān)鍵領(lǐng)域,提
    的頭像 發(fā)表于 05-26 14:15 ?1377次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b>會ACL 2025

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1388次閱讀
    小白學(xué)大模型:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b>模型

    深蘭科技醫(yī)療大模型榮獲MedBench評測第一

    近日,國內(nèi)權(quán)威醫(yī)療大模型評測平臺MedBench官網(wǎng)更新了榜單,多個知名醫(yī)療AI產(chǎn)品及研究團(tuán)隊(duì)入榜,其中深蘭DeepBlue-MR-v1醫(yī)療大模型以復(fù)雜醫(yī)學(xué)推理評測第一的成績領(lǐng)跑MedBench醫(yī)療大模型權(quán)威榜單。
    的頭像 發(fā)表于 04-30 16:08 ?974次閱讀

    自然語言處理的發(fā)展歷程和應(yīng)用場景

    你是否曾經(jīng)對著手機(jī)說:“嘿,Siri,今天天氣怎么樣?”或者在出國旅行時,打開翻譯軟件,對著菜單說:“請把這道菜翻譯成英文”。
    的頭像 發(fā)表于 04-17 11:40 ?1395次閱讀

    自然語言提示原型英特爾Vision大會上首次亮相

    英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?1025次閱讀