91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

BERT的自注意力模式

汽車玩家 ? 來源:AI公園 ? 作者:Anna Rogers ? 2020-04-19 11:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

在finetune BERT的時候發(fā)生了什么?

2019年可以被稱為NLP的Transformer之年:這種架構主導了排行榜并激發(fā)了許多分析研究。毫無疑問,最受歡迎的Transformer是BERT(Devlin, Chang, Lee, & Toutanova, 2019)。除了其眾多的應用,許多研究探索了各種語言知識的模型,通常得出這樣的結(jié)論,這種語言知識確實存在,至少在某種程度上(Goldberg, 2019; Hewitt & Manning, 2019; Ettinger, 2019)。

這項工作的重點是補充的問題:在finetune BERT的時候發(fā)生了什么?特別是,有多少可從語言學角度解釋的自注意力模式被認為是它的優(yōu)勢,可以實際用來解決下游的任務?

為了回答這個問題,我們用BERT finetune了以下GLUE (Wang et al., 2018)的任務和數(shù)據(jù)集:

語義檢測 (MRPC and QQP);

文本相似度 (STS-B);

情感分析 (SST-2);

文本蘊含 (RTE);

自然語言推理 (QNLI, MNLI).

BERT的簡單介紹

BERT代表Transformer的雙向編碼器表示。該模型基本上是一個多層雙向Transformer編碼器 (Devlin, Chang, Lee, & Toutanova, 2019),有多個關于它的工作原理的優(yōu)秀指南,包括圖解的Transformer.。我們關注的是Transformer架構的一個特定組件,即self-attention。簡而言之,它是一種衡量輸入和輸出序列組件的方法,以便對它們之間的關系(甚至遠程依賴關系)進行建模。

作為一個簡單的例子,讓我們假設我們需要創(chuàng)建一個句子“Tom is a black cat”的表示。BERT在對“cat”進行編碼時,可能會選擇更多地關注“Tom”,而較少關注“is”、“a”、“black”。這可以表示為權重向量(對于句子中的每個單詞)。當模型對序列中的每個單詞進行編碼時,就會計算出這些向量,從而得到一個方陣,我們稱之為“自注意力圖”。

現(xiàn)在,我們還不清楚“Tom”和“cat”之間的關系是否總是最好的。要回答關于貓的顏色的問題,模特最好關注“black”而不是“Tom”。幸運的是,它不必選擇。BERT(和其他Transformer)很強大很大程度上歸功于這樣一個事實:在多層中有多個頭,它們都學會了構建獨立的自注意力圖。理論上,這可以賦予模型“在不同位置關注來自不同表示子空間的信息”的能力(Vaswani et al., 2017)。換句話說,模型將能夠在當前任務的幾個備選表示之間進行選擇。

自注意力權重的計算大部分發(fā)生在BERT的預訓練中:該模型(預)針對兩項任務(Masked語言模型和下一個句子預測)進行訓練,然后針對個別下游任務(如情緒分析)進行finetune。這種分離的基本思想訓練過程分為semi-supervised訓練和finetune階段,其中finetune階段是監(jiān)督學習:遷移任務的數(shù)據(jù)集通常太小,一般不夠了解整個語言,但大型文本語料庫可以通過語言建模用于此目的(和其他類似的)。因此,我們可以獲得獨立于任務的句子和文本的信息表示,然后這些句子和文本可以“適應”后續(xù)任務。

讓我們在這里指出,“適應”應該工作的確切方式在BERT論文或GPT技術報告(其中強調(diào)了預訓練/finetune方法)中都沒有詳細描述。然而,如果注意力本身是為了提供一種對部分的輸入序列“鏈接”,增加信息量,多頭,多層架構需要提供多個可選擇的自注意力圖,可能finetune過程會教模型依靠對手頭的任務更有用的自注意力圖。例如,在情感分析任務中,名詞和形容詞之間的關系比名詞和介詞之間的關系更重要,因此,finetune會理想地教會模型更多地依賴更有用的自注意力圖。

學到的自注意力模式是什么類型的,每種類型有多少?

那么BERT的自注意力模式是什么呢?我們找到了五個,如下圖所示:

BERT的自注意力模式

圖1,BERT自注意力模式的類型。每個圖像上的兩個軸表示輸入樣本的BERT標記,顏色表示絕對注意力權重(深色表示更大的權重)。

垂直模式表示對單個標記的關注,它通常是[SEP]標記(表示句子結(jié)束的特殊標記)或[CLS]標記(作為提供給分類器的完整序列表示使用的特殊BERT標記)。

對角線模式表示注意前面/后面的單詞;

塊模式表示對序列中所有標記的關注或多或少是一致的;

從理論上講,異構模式是唯一能夠?qū)斎胄蛄懈鞑糠种g的任何有意義的關系的模式(盡管不一定如此)。

以下是BERT在七項GLUE任務中五種注意力的比例(每一列代表所有層中所有頭部的100%):

BERT的自注意力模式

圖2所示。在選定的GLUE任務上,BERT的自注意映射類型的比例進行了微調(diào)。

雖然具體的比例因任務而異,但在大多數(shù)情況下,可能有意義的模式占BERT所有自注意力權重的不到一半。至少有三分之一的BERT head只關注[SEP]和[CLS] —— 這種策略不能為下一層的表示提供很多有意義的信息。它還表明,該模型嚴重參數(shù)化過度,這解釋了最近蒸餾方法的成功嘗試 (Sanh, Debut, Chaumond, & Wolf, 2019; Jiao et al., 2019)。

值得注意的是,我們使用的是BERT-base,即較小的模型,在16層中有12個頭。如果它已經(jīng)被過度參數(shù)化了,這就意味著BERT-large和所有后來的模型,都是過度參數(shù)化的,其中一些是30倍大(Wu et al., 2016)。

這樣對[SEP]和[CLS]的依賴也可能表明,要么BERT以某種方式“吸收”了前面層獲得的信息表示,后續(xù)的self-attention圖并不需要太多,要么BERT某種程度上整體不依賴于self-attention。

fine-tuning的時候發(fā)生了什么?

我們的下一個問題是BERT的微調(diào)過程中發(fā)生了什么變化。下面的熱圖顯示了在finetune之前和之后,每個頭和每一層扁平的自注意映射矩陣之間的余弦相似性。較深的顏色表示在表現(xiàn)上有更多的差異。對于所有的GLUE任務,進行了3個epochs的finetune。

BERT的自注意力模式

圖3所示,在經(jīng)過訓練和調(diào)整的BERT中,平展的自注意圖之間存在余弦相似性。顏色越深表示差異越大。

我們發(fā)現(xiàn),大多數(shù)注意力的權重并沒有發(fā)生太大的變化,對于大多數(shù)任務來說,最后兩層變化最大。這些變化似乎不支持任何特定類型的有意義的注意力模式。相反,我們發(fā)現(xiàn)這個模型基本上更依賴于垂直注意力模式。在SST的例子中,在最后一層中較厚的垂直注意模式是由于對最終[SEP]和它之前的標點符號的聯(lián)合注意,我們觀察到這是垂直注意模式的另一個常見目標。

BERT的自注意力模式

圖4,自注意力圖的一個單獨的例子,在SST上對BERT進行finetune。

這有兩個可能的解釋:

垂直模式在某種程度上是足夠的,也就是說,標記表示在某種程度上吸收了前一層的有意義的注意力模式。我們確實發(fā)現(xiàn)最早的層更關注[CLS],然后[SEP]開始主導大多數(shù)任務(見圖6)

手頭的任務實際上并不需要細粒度的、有意義的注意力模式,而這種模式本應是Transformers的主要特征。

finetune會造成多大的區(qū)別?

考慮到在預訓練和調(diào)優(yōu)中使用的數(shù)據(jù)集的巨大差異,以及非常不同的訓練目標,研究調(diào)優(yōu)實際上產(chǎn)生了多大的差異是很有趣的。據(jù)我們所知,這個問題以前沒有人提出過。

我們對每個選擇的GLUE數(shù)據(jù)集進行了三個實驗:

預訓練模型的權重凍結(jié),并使用特定任務的分類器,看看BERT的表現(xiàn)

從正態(tài)分布中隨機初始化模型,并對任務數(shù)據(jù)集進行3個epochs的finetune,然后看看BERT的表現(xiàn)

使用官方的預訓練BERT-base模型,在任務數(shù)據(jù)集上finetune3個epochs,然后看看BERT的表現(xiàn)

實驗結(jié)果如下:

BERT的自注意力模式

雖然很明顯,預訓練+finetune設置可以產(chǎn)生最高的結(jié)果,但隨機+finetune的BERT在所有任務上都表現(xiàn)得令人不安,除了文本相似性。事實上,對于情緒分析來說,隨機初始化和finetune BERT可以得到80%的準確率,而且不需要任何預訓練。考慮到大型預訓練變壓Transformer的規(guī)模,這就提出了一個嚴重的問題:昂貴的預訓練是否能帶來足夠的經(jīng)濟效益。它還提出了關于NLP數(shù)據(jù)集的嚴重問題,這些數(shù)據(jù)集顯然可以在沒有太多任務無關的語言知識的情況下解決,而這些任務無關的語言知識是預xunl+finetune設置應該提供的。

18.01.2020更新:感謝Sam Bowman指出,隨機BERT結(jié)果總體上可與預訓練Transformer的GLUE基線相當,并且可以很好地解釋為這些任務在沒有深入語言知識的情況下可以解決的程度。NLP社區(qū)在更困難的數(shù)據(jù)集上需要更多的工作,實際上需要這樣的知識,在過渡期間,我們至少應該切換到SuperGLUE。請注意,對于這些任務,GLUE基線和大多數(shù)發(fā)布的結(jié)果都使用單詞嵌入或基于計數(shù)的單詞向量作為輸入,而我們的隨機BERT是完全隨機的。因此,直接比較并不完全公平。然而,特別是對于SST,這種比較可以與原始的遞歸神經(jīng)張量網(wǎng)絡進行比較(Socher et al., 2013)。這個2013年的模型相比之下很小,而且也采用隨機向量作為輸入表示,但是它在二進制分類上比我們的隨機+finetuneBERT多7點。

有沒有可以在語言學上解釋的自注意力頭?

在這一點上,有幾項研究試圖找出自注意力的頭編碼特定類型的信息,但大多數(shù)集中在語法上。我們做了一個實驗,關注框架語義元素:我們從FrameNet 1.7抽取了473個句子,最多12個標記的長度,并且核心框架元素距離目標詞至少2個標記。在下面的例子中,是體驗者和分詞之間的關系喚起了emotion_directframe。可以說,這種關系對于理解一個給定的句子所描述的情況是至關重要的,任何聲稱能夠提供語言信息的自注意力圖的機制都應該反映出這些關系(可能包括許多其他關系)。

我們通過預訓練的BERT得到這些句子的表示法,計算與標注的框架語義關系對應的標記對之間的最大權值。圖5表示FrameNet數(shù)據(jù)集中所有示例的這些分數(shù)的平均值。我們發(fā)現(xiàn)兩個頭(第1層的頭2,第7層的頭6)比其他頭更關注這些框架語義關系。

BERT的自注意力模式

但是,在推理的時候,到底是什么信息在起作用呢?

我們認為,通過對訓練前的BERT權值進行探查,得出某些信息實際上是編碼的結(jié)論,未免過于草率??紤]到模型的大小,可能會發(fā)現(xiàn)任何其他關系的編碼的類似證明(事實上,Jawahar等人發(fā)現(xiàn)在那個方向上的不同分解方案之間沒有顯著的差異)。真正的問題是,模型在推理時是否真的依賴于這些信息。

為了確定我們認為對幀語義關系編碼有用的兩個頭是否真的被finetune過的BERT使用,我們進行了一項消融研究,一次禁用一個頭(即用統(tǒng)一注意力替換習得的注意力權重)。圖6顯示了在我們的示例中所有GLUE任務的熱圖,每個單元格顯示的是總體性能,當給定的頭被關閉。很明顯,雖然整體模式不同任務之間,我們最好隨機刪除頭 —— 包括那些我們確認為編碼有意義的信息,應該為最相關的任務。許多頭也可以在不影響任何性能的情況下關閉,這再次表明,即使是BERT-base也嚴重參數(shù)化了。

BERT的自注意力模式

圖6,模型的性能,一次禁用一個頭,藍色線表示沒有禁用頭的基線性能。較深的顏色對應較高的性能分數(shù)。

機器翻譯任務也得出了類似的獨立結(jié)論,即將注意力權重歸零,而不是用統(tǒng)一注意力代替它們(Michel, Levy, & Neubig, 2019)。我們進一步表明,這種觀察不僅擴展到頭,而且擴展到整個層:根據(jù)任務的不同,整個層可能對模型性能有害!

BERT的自注意力模式

圖7,禁用一個層的模型的性能。

討論

我們的主要貢獻在于,雖然BERT的大多數(shù)研究都集中在探索預訓練好的模型上,但我們提出了一個問題,即在微調(diào)過程中會發(fā)生什么,以及通過自注意力機制獲得的表征有多大意義。到目前為止,我們還沒有找到語言上有意義的自注意力圖對微調(diào)BERT的表現(xiàn)至關重要的證據(jù)。我們的研究結(jié)果有助于從以下幾個方向?qū)赥ransformer模型的屬性進行持續(xù)的討論:

a)BERT過度參數(shù)化了。在我們的實驗中,我們一次只禁用一個頭,而在大多數(shù)情況下,模型的性能并沒有受到影響,這一事實表明,許多頭具有功能重復,即禁用一個頭不會損害模型,因為相同的信息可以在其他地方獲得。這個結(jié)果指向了過度參數(shù)化,并解釋了像ALBert和TinyBERT這樣的小型BERT的成功。

這種過度參數(shù)化意味著,BERT可能會有一些非常重要的頭,它們在語言上具有有意義的自注意力模式,但為了證明這一點,我們必須嘗試禁用所有可能的頭組合(這是不可行的)。在同一時期的一項研究中提出了一個很有前途的替代方案:(Voita, Talbot, Moiseev, Sennrich, & Titov, 2019)通過使用具有修剪效果的正則化目標對模型進行finetune,確定了基礎Transformer的“重要”頭。

b)BERT不需要那么聰明來完成這些任務。BERT在沒有預訓練的情況下可以很好地完成大多數(shù)GLUE任務,這一事實表明,在很大程度上,不需要太多的語言知識就可以解決這些問題。與口頭推理不同,它可能學會依靠數(shù)據(jù)集中的各種捷徑、偏見和人為因素來做出正確的預測。在這種情況下,它的自注意力圖不一定對我們有意義。這一發(fā)現(xiàn)支持了當前許多數(shù)據(jù)集問題的最新發(fā)現(xiàn)(Gururangan et al., 2018; McCoy, Pavlick, & Linzen, 2019)。

另一種解釋是BERT的成功是由于玄學,而不是由于自注意力。例如,在finetune之后對標點符號的高度關注可能意味著該模型實際上學會了依賴于某些其他組件,或者存在一些我們無法理解的深層模式。此外,注意力在多大程度上可以用來解釋模型預測的原則目前正在辯論(Jain & Wallace, 2019;Serrano & Smith, 2019;Wiegreffe & Pinter, 2019)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3953

    瀏覽量

    142655
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23281
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    算法工程師需要具備哪些技能?

    ResNet、VGG)。RNN/LSTM:序列建模(如時間序列預測、NLP中的文本生成)。Transformer:注意力機制(如BERT、GPT)。 模型調(diào)優(yōu)正則化:L1/L2正則化防止過擬合。超參數(shù)
    發(fā)表于 02-27 10:53

    Transformer 入門:從零理解 AI 大模型的核心原理

    │ │ 456 │→ │ 25 │ └─────────┘│ 36 │ (2×3) └─────────┘ (3×2) 記憶技巧:想象沿著對角線折疊紙張。 在 Transformer 中的應用:計算注意力分數(shù)
    發(fā)表于 02-10 16:33

    如何基于P300個性化調(diào)控ADHD?

    HUIYINGADHD機理概述注意力缺陷多動障礙(ADHD)的核心機理涉及注意力資源分配缺陷,這反映在事件相關電位(ERP)中P300成分的振幅降低上。ADHD患者(包括成人和兒童)在執(zhí)行
    的頭像 發(fā)表于 01-28 18:24 ?313次閱讀
    如何基于P300個性化調(diào)控ADHD?

    自然場景下注意力如何耳周腦電可靠監(jiān)測

    HUIYING自然聽覺注意力概述聽覺注意力是大腦在復雜聽覺場景中選擇相關信息、抑制無關信息的重要認知功能。傳統(tǒng)研究多在實驗室內(nèi)使用笨重設備與人工刺激進行,限制了其生態(tài)效度。本研究采用語音包絡跟蹤、被
    的頭像 發(fā)表于 12-05 18:03 ?3961次閱讀
    自然場景下<b class='flag-5'>注意力</b>如何耳周腦電可靠監(jiān)測

    湘軍,讓算變成生產(chǎn)

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    USART使用中斷模式通訊

    USART使用中斷模式通訊 示例下載 目的: 演示AT32F403Axx USART使用中斷模式進行通訊,其余系列使用方法類似。 注:本示例代碼是基于雅特提供的V2.x.x板級支持包(BSP
    發(fā)表于 11-19 13:12

    SPI使用單工模式通訊

    SPI使用單工模式通訊 本帖子演示AT32F403Axx SPI使用單工模式通訊,其余系列使用方式與此類似。注:本示例代碼是基于雅特提供的V2.x.x板級支持包(BSP)而開發(fā),對于其他版本
    發(fā)表于 10-20 16:24

    小白學大模型:大模型加速的秘密 FlashAttention 1/2/3

    在Transformer架構中,注意力機制的計算復雜度與序列長度(即文本長度)呈平方關系()。這意味著,當模型需要處理更長的文本時(比如從幾千個詞到幾萬個詞),計算時間和所需的內(nèi)存會急劇增加。最開始
    的頭像 發(fā)表于 09-10 09:28 ?4809次閱讀
    小白學大模型:大模型加速的秘密 FlashAttention 1/2/3

    AI的核心操控:從算法到硬件的協(xié)同進化

    到頂層的應用算法,共同構成AI的“智能引擎”。 算法層:模型架構與訓練控制 現(xiàn)代AI的核心是深度學習算法,其操控依賴于神經(jīng)網(wǎng)絡的結(jié)構設計和訓練過程的精細化調(diào)控。例如,Transformer架構通過注意力機制實現(xiàn)對長序列數(shù)據(jù)的高效處理,
    的頭像 發(fā)表于 09-08 17:51 ?989次閱讀

    【「DeepSeek 核心技術揭秘」閱讀體驗】+看視頻+看書籍+國產(chǎn)開源大模型DeepSeekV3技術詳解--1

    大小的潛在向量 (Latent Vector) c_t 中。同時,為了保證對近期上下文的精確感知,它依然會實時計算當前 token 的 K 和 V。 最終,注意力機制的計算將同時作用于“壓縮的歷史
    發(fā)表于 08-23 15:20

    如何在NVIDIA Blackwell GPU上優(yōu)化DeepSeek R1吞吐量

    開源 DeepSeek R1 模型的創(chuàng)新架構包含多頭潛在注意力機制 (MLA) 和大型稀疏混合專家模型 (MoE),其顯著提升了大語言模型 (LLM) 的推理效率。
    的頭像 發(fā)表于 08-12 15:19 ?4274次閱讀
    如何在NVIDIA Blackwell GPU上優(yōu)化DeepSeek R1吞吐量

    具有旁路 LDO 的降壓型穩(wěn)壓器,用于多頻段/模式 RF 功率放大器 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()具有旁路 LDO 的降壓型穩(wěn)壓器,用于多頻段/模式 RF 功率放大器相關產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有具有旁路 LDO 的降壓型穩(wěn)壓器,用于多頻段/模式 RF 功
    發(fā)表于 07-24 18:31
    具有<b class='flag-5'>自</b>旁路 LDO 的降壓型穩(wěn)壓器,用于多頻段/<b class='flag-5'>模式</b> RF 功率放大器 skyworksinc

    經(jīng)顱電刺激適應癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經(jīng)行為障礙,癥狀包括注意力不集中、多動和沖動,兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會持續(xù),引發(fā)多種并發(fā)癥,給個人、家庭和社會帶來
    的頭像 發(fā)表于 04-22 19:49 ?143次閱讀
    經(jīng)顱電刺激適應癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD

    LED顯示屏:點亮商業(yè)未來的璀璨之光

    LED顯示屏不僅是展示工具,更是連接品牌與消費者的現(xiàn)代橋梁。在注意力經(jīng)濟時代,投資LED顯示屏就是投資于企業(yè)的可見度和影響。讓我們攜手,用LED技術點亮您的商業(yè)未來,在競爭中贏得先機。
    的頭像 發(fā)表于 04-16 15:25 ?1336次閱讀
    LED顯示屏:點亮商業(yè)未來的璀璨之光

    ?VLM(視覺語言模型)?詳細解析

    支持生成式任務。 多模態(tài)融合 :通過跨模態(tài)注意力機制、投影層(如CLIP將圖像文本映射到同一空間)或適配器
    的頭像 發(fā)表于 03-17 15:32 ?8853次閱讀
    ?VLM(視覺語言模型)?詳細解析