91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦CMU聯(lián)手推出XLNet,20項(xiàng)任務(wù)全面超越BERT

gckX_aicapital ? 來源:YXQ ? 2019-06-22 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌大腦和CMU聯(lián)合團(tuán)隊(duì)提出面向NLP預(yù)訓(xùn)練新方法XLNet,性能全面超越此前NLP領(lǐng)域的黃金標(biāo)桿BERT,在20個(gè)任務(wù)上實(shí)現(xiàn)了性能的大幅提升,刷新了18個(gè)任務(wù)上的SOTA結(jié)果,可謂全面屠榜!

近日,谷歌大腦主任科學(xué)家Quoc V. Le在Twitter上放出一篇重磅論文,立即引發(fā)熱議:

這篇論文提出一種新的NLP模型預(yù)訓(xùn)練方法XLNet,在20項(xiàng)任務(wù)上(如SQuAD、GLUE、RACE) 的性能大幅超越了此前NLP黃金標(biāo)桿BERT。

XLNet:克服BERT固有局限,20項(xiàng)任務(wù)性能強(qiáng)于BERT

本文提出的XLNet是一種廣義自回歸預(yù)訓(xùn)練方法,具有兩大特點(diǎn):(1)通過最大化分解階的所有排列的預(yù)期可能性來學(xué)習(xí)雙向語(yǔ)境,(2)由于其自回歸的性質(zhì),克服了BERT的局限性。

此外,XLNet將最先進(jìn)的自回歸模型Transformer-XL的創(chuàng)意整合到預(yù)訓(xùn)練過程中。實(shí)驗(yàn)顯示,XLNet在20個(gè)任務(wù)上的表現(xiàn)優(yōu)于BERT,而且大都實(shí)現(xiàn)了大幅度性能提升,并在18個(gè)任務(wù)上達(dá)到了SOTA結(jié)果,這些任務(wù)包括問答、自然語(yǔ)言推理、情感分析和文檔排名等。

與現(xiàn)有語(yǔ)言預(yù)訓(xùn)練目標(biāo)相比,本文提出了一種廣義的自回歸方法,同時(shí)利用了AR語(yǔ)言建模和AE的優(yōu)點(diǎn),同時(shí)避免了二者的局限性。首先是不再像傳統(tǒng)的AR模型那樣,使用固定的前向或后向分解順序,而是最大化序列的預(yù)期對(duì)數(shù)似然性分解順序的所有可能排列。每個(gè)位置的上下文可以包含來自該位置前后的令牌,實(shí)現(xiàn)捕獲雙向語(yǔ)境的目標(biāo)。

作為通用AR語(yǔ)言模型,XLNet不依賴于數(shù)據(jù)損壞。因此,XLNet不會(huì)受到BERT受到的預(yù)訓(xùn)練和微調(diào)后的模型之間差異的影響。同時(shí)以自然的方式使用乘積規(guī)則,分解預(yù)測(cè)的令牌的聯(lián)合概率,從而消除了在BERT中做出的獨(dú)立性假設(shè)。

除了新的預(yù)訓(xùn)練目標(biāo)外,XLNet還改進(jìn)了預(yù)訓(xùn)練的架構(gòu)設(shè)計(jì)。 XLNet將Transformer-XL的分段重復(fù)機(jī)制和相對(duì)編碼方案集成到預(yù)訓(xùn)練中,從而憑經(jīng)驗(yàn)改進(jìn)了性能,對(duì)于涉及較長(zhǎng)文本序列的任務(wù)效果尤其明顯。

圖1:在給定相同輸入序列x,但分解順序不同的情況下,對(duì)置換語(yǔ)言建模目標(biāo)的預(yù)測(cè)結(jié)果

圖2:(a):內(nèi)容流注意力機(jī)制,與標(biāo)準(zhǔn)的自注意力機(jī)制相同。(b)查詢流注意力,其中不含關(guān)于內(nèi)容xzt的訪問信息。(c):使用雙信息流注意力機(jī)制的置換語(yǔ)言建模訓(xùn)練示意圖。

全面屠榜:大幅刷新18項(xiàng)任務(wù)數(shù)據(jù)集SOTA性能

表1:與閱讀理解任務(wù)RACE測(cè)試集的最新結(jié)果的比較。 *表示使用聚集模型。 RACE中的“Middle”和“High”是代表初中和高中難度水平的兩個(gè)子集。所有BERT和XLNet結(jié)果均采用大小相似的模型(又稱BERT-Large),模型為24層架構(gòu)。我們的XLNet單一模型在精確度方面高出了7.6分

表2:?jiǎn)蝀LNet模型在SQuAD1.1數(shù)據(jù)集上的性能優(yōu)于分別優(yōu)于真人表現(xiàn)和最佳聚集模型性能達(dá)7.6 EM和2.5 EM。

表3:與幾個(gè)文本分類數(shù)據(jù)集的測(cè)試集上錯(cuò)誤率SOTA結(jié)果的比較。所有BERT和XLNet結(jié)果均采用具有相似大小的24層模型架構(gòu)(BERT-Large)

表4:GLUE數(shù)據(jù)集上的結(jié)果。所有結(jié)果都基于具有相似模型尺寸的24層架構(gòu)(也稱BERT-Large)??梢詫⒆钌闲信cBERT和最下行中的結(jié)果直接比較。

表5:與文檔排名任務(wù)ClueWeb09-B的測(cè)試集上的最新結(jié)果的比較。 ?表示XLNet的結(jié)果。

表6:我們使用BERT官方實(shí)現(xiàn)方案和XLNet超參數(shù)搜索空間在其他數(shù)據(jù)集上運(yùn)行BERT,結(jié)果如圖所示,其中K是控制優(yōu)化難度的超參數(shù)。所有模型都在相同的數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練。

從實(shí)驗(yàn)結(jié)果可以看出,說XLNet全面超越BERT其實(shí)一點(diǎn)都不夸張。

知乎熱議:512TPU訓(xùn)練,家里沒礦真搞不起

有熱心網(wǎng)友一早將這篇“屠榜”論文發(fā)在了知乎上,從網(wǎng)友的評(píng)論上看,一方面承認(rèn)谷歌和CMU此項(xiàng)成果的突破,同時(shí)也有人指出,這樣性能強(qiáng)勁的XLNet,還是要背靠谷歌TPU平臺(tái)的巨額算力資源,“大力出奇跡”果然還是深度學(xué)習(xí)界的第一真理嗎?

比如,網(wǎng)友“Towser”在對(duì)論文核心部分內(nèi)容的簡(jiǎn)要回顧中,提到了XLNet的優(yōu)化方法,其中引人注目的一點(diǎn)是其背后的谷歌爸爸的海量算力資源的支持:

512個(gè)TPU訓(xùn)練了2.5天,訓(xùn)練總計(jì)算量是BERT的5倍!要知道作為谷歌的親兒子,BERT的訓(xùn)練計(jì)算量已經(jīng)讓多數(shù)人望塵莫及了。沒錢,搞什么深度學(xué)習(xí)?

難怪NLP領(lǐng)域的專家、清華大學(xué)劉知遠(yuǎn)副教授對(duì)XLNet一句評(píng)價(jià)被毫無(wú)懸念地頂?shù)搅酥踝罡哔潱?/p>

目前,XLNet的代碼和預(yù)訓(xùn)練模型也已經(jīng)在GitHub上放出。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111406
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23280

原文標(biāo)題:NLP新標(biāo)桿!谷歌大腦CMU聯(lián)手推出XLNet,20項(xiàng)任務(wù)全面超越BERT

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Renesas E1/E20仿真器:全面解析與應(yīng)用指南

    Renesas E1/E20 仿真器:全面解析與應(yīng)用指南 引言 在嵌入式系統(tǒng)開發(fā)領(lǐng)域,仿真器是不可或缺的工具之一。Renesas的E1/E20仿真器憑借其強(qiáng)大的功能和廣泛的適用性,在開發(fā)
    的頭像 發(fā)表于 02-28 11:30 ?279次閱讀

    谷歌評(píng)論卡,碰一碰即可完成谷歌評(píng)論 #谷歌評(píng)論卡 #NFC標(biāo)簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    每年10億美元,蘋果與谷歌官宣合作,Gemini大模型注入Siri

    電子發(fā)燒友網(wǎng)報(bào)道 當(dāng)?shù)貢r(shí)間1月12日,蘋果官宣將與谷歌聯(lián)手,為蘋果的人工智能功能提供支持,其中包括今年晚些時(shí)候?qū)iri的一次重大升級(jí)。谷歌在其官方博客上表示,蘋果已與谷歌達(dá)成一
    的頭像 發(fā)表于 01-13 14:59 ?1553次閱讀

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶實(shí)現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進(jìn)的推理技術(shù),與之前的版本相比,它在所有主要的 AI 基準(zhǔn)測(cè)試中都取得了無(wú)與倫比的結(jié)果,尤其是在編程方面也超越了 2.5 Pro,能夠熟練地處理智
    的頭像 發(fā)表于 11-24 11:10 ?1224次閱讀
    <b class='flag-5'>谷歌</b>正式<b class='flag-5'>推出</b>最新Gemini 3 AI模型

    芯原與谷歌聯(lián)合推出開源Coral NPU IP

    芯原股份近日宣布與谷歌聯(lián)合推出面向始終在線、超低能耗端側(cè)大語(yǔ)言模型應(yīng)用的Coral NPU IP。
    的頭像 發(fā)表于 11-13 11:24 ?599次閱讀
    芯原與<b class='flag-5'>谷歌</b>聯(lián)合<b class='flag-5'>推出</b>開源Coral NPU IP

    谷歌云發(fā)布最強(qiáng)自研TPU,性能比前代提升4倍

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,谷歌云在官方博客上正式宣布,公司成功推出第七代TPU(張量處理器)“Ironwood”,該芯片預(yù)計(jì)在未來幾周內(nèi)正式上市。 ? “Ironwood”由谷歌自主
    的頭像 發(fā)表于 11-13 07:49 ?8621次閱讀
    <b class='flag-5'>谷歌</b>云發(fā)布最強(qiáng)自研TPU,性能比前代提升4倍

    今日看點(diǎn):谷歌芯片實(shí)現(xiàn)量子計(jì)算比經(jīng)典超算快13000倍;NFC 技術(shù)突破:讀取距離從 5 毫米提升至 20 毫米

    性能甚至超越了最快的經(jīng)典超級(jí)計(jì)算機(jī),速度快 13000 倍。 ? Willow是谷歌于去年12月宣布推出的量子芯片。當(dāng)時(shí),Willow量子芯片在5分鐘內(nèi)完成了一項(xiàng)傳統(tǒng)超級(jí)計(jì)算機(jī)需要“1
    發(fā)表于 10-23 10:20 ?1549次閱讀

    AI賦能谷歌Chrome與Web工具全面升級(jí)

    2025 Google 谷歌開發(fā)者大會(huì)帶來了最新 Web 工具,包括全面升級(jí)的 Chrome 開發(fā)體驗(yàn)、極大簡(jiǎn)化的 UI 開發(fā),到云端兩側(cè)的 AI 部署。這些強(qiáng)大的工具為出海開發(fā)者提供了前所未有的加速,幫助他們更高效地打造面向全球用戶的 Web 應(yīng)用。
    的頭像 發(fā)表于 08-29 09:33 ?1159次閱讀

    谷歌AI模型點(diǎn)亮開發(fā)無(wú)限可能

    在 2025 年的 Google 谷歌開發(fā)者大會(huì)上,AI 不是一門“技術(shù)”,更是一股徹底改變開發(fā)范式的“力量”,助力開發(fā)者們?cè)诤M馐袌?chǎng)更上一層樓。AI 已經(jīng)不僅僅是生成幾行代碼,它正在全面提升整個(gè)開發(fā)過程。從模型突破到工具優(yōu)化,從本地開發(fā)到全球落地,每一
    的頭像 發(fā)表于 08-29 09:29 ?1139次閱讀

    Task任務(wù):LuatOS實(shí)現(xiàn)“任務(wù)級(jí)并發(fā)”的核心引擎

    LuatOS應(yīng)用程序運(yùn)行的核心大腦——所有LuatOS應(yīng)用項(xiàng)目都會(huì)使用到sys核心庫(kù)。 ? ?sys核心庫(kù)提供了四大類功能: Task任務(wù) Message消息 Timer定時(shí)器 Run調(diào)度器 本文將
    的頭像 發(fā)表于 08-28 13:49 ?514次閱讀
    Task<b class='flag-5'>任務(wù)</b>:LuatOS實(shí)現(xiàn)“<b class='flag-5'>任務(wù)</b>級(jí)并發(fā)”的核心引擎

    揭秘LuatOS Task:多任務(wù)管理的“智能中樞”

    ,也是LuatOS應(yīng)用程序運(yùn)行的核心大腦——所有LuatOS應(yīng)用項(xiàng)目都會(huì)使用到sys核心庫(kù)。 ? ?sys核心庫(kù)提供了四大類功能: Task任務(wù) Message消息 Timer定時(shí)器 Run調(diào)度器 本文將
    的頭像 發(fā)表于 08-28 13:48 ?647次閱讀
    揭秘LuatOS Task:多<b class='flag-5'>任務(wù)</b>管理的“智能中樞”

    首款A(yù)I陪伴玩具出世!樂鑫代理商飛??萍糆SP32芯片讓TA比朋友更懂你

    樂鑫聯(lián)手TOYCITY,里程碑式推出首款A(yù)I陪伴玩具。以樂鑫芯片為“智慧大腦”,賦予毛絨玩偶情感交互能力,開啟智能潮玩新篇章。
    的頭像 發(fā)表于 07-21 10:38 ?2284次閱讀
    首款A(yù)I陪伴玩具出世!樂鑫代理商飛??萍糆SP32芯片讓TA比朋友更懂你

    比亞迪 · 超級(jí)e平臺(tái) · 技術(shù)方案的全面揭秘 | 第三曲: 30000轉(zhuǎn)驅(qū)動(dòng)電機(jī) · 12項(xiàng)核心技術(shù)揭秘

    比亞迪 · 超級(jí)e平臺(tái) · 技術(shù)方案的全面揭秘 | 第三曲: 30000轉(zhuǎn)驅(qū)動(dòng)電機(jī) · 12項(xiàng)核心技術(shù)揭秘
    的頭像 發(fā)表于 06-08 07:20 ?2293次閱讀
    比亞迪 · 超級(jí)e平臺(tái) · 技術(shù)方案的<b class='flag-5'>全面</b>揭秘 | 第三曲: 30000轉(zhuǎn)驅(qū)動(dòng)電機(jī) · 12<b class='flag-5'>項(xiàng)</b>核心技術(shù)揭秘

    如何讓CMU_FM_1能夠監(jiān)控FIRC_CLK頻率?

    我想讓 CMU_FM_1 能夠監(jiān)控FIRC_CLK頻率,但遇到困難。 有人可以指點(diǎn)我一個(gè)教程或一個(gè)分步方法來啟用測(cè)光儀嗎?理想情況下使用 RTD 3.0.0 函數(shù)調(diào)用,但也可以進(jìn)行直接寄存器訪問。
    發(fā)表于 04-11 07:56

    將HFREFR和LFREFR寄存器值設(shè)置為錯(cuò)誤的值來將故障注入CMU,但CMU_ISR值始終為零,為什么?

    我試圖通過將 HFREFR 和 LFREFR 寄存器值設(shè)置為錯(cuò)誤的值來將故障注入 CMU,但 CMU_ISR值始終為零。
    發(fā)表于 03-28 07:41