91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Transformers在計算機視覺領域的應用情況

新機器視覺 ? 來源:AI科技評論 ? 作者:AI科技評論 ? 2021-06-18 11:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CV(計算機視覺)領域一直是引領機器學習的弄潮兒。近年來更是因為Transformers模型的橫空出世而掀起了一陣腥風血雨。小編今天就帶大家初步認識一下這位初來乍到的CV當紅炸子雞~本文主要介紹Transformers背后的技術(shù)思想,Transformers在計算機視覺領域的應用情況、最新動態(tài)以及該架構(gòu)相對于CNN的優(yōu)勢。讀完這篇文章之后,你將能知道:

為什么Transformers模型在NLP自然語言處理任務中能夠力壓群雄,變成SOTA模型的必備組件之一。

Transformers模型的計算原理。

為什么說Transformers是對CNN的當頭棒喝,Transformers是怎么針對CNN的各種局限性進行補全的。

計算機視覺領域的最新模型是如何應用Transformers提升自己的。

1

長期依賴和計算效率之間的權(quán)衡取舍

在自然語言處理領域中,一個重要的技術(shù)基礎就是創(chuàng)建合理的Embedding。Embedding是NLP系統(tǒng)的根基,一個好的Embedding需要能夠?qū)⒃嘉谋局斜M可能多的語義片段進行有效編碼。

這些語義信息其實并不只是代表一個詞的定義跟含義,很多時候是需要結(jié)合上下文進行聯(lián)系的。比如當我們孤零零的得到一個詞“快”的時候,我們不知道它是指Fast還是Almost,基于這樣沒有上下文的孤零零的單詞的Embedding,很多時候是盲目并且沒有意義的。又比如說這句話:“Transformers特別牛,因為它在很多項目中都能大幅提高模型的性能”。

讀了這句話,我們知道文中的“它”是指Transformers,但是如果沒有這一整句話的承載,而是孤零零的給你一個詞“它”,估計誰都不曉得這個家伙指代的是誰,那如此Embedding出來的結(jié)果也將毫無意義。

一個好的機器學習模型應該能夠準確表達單詞之間的依賴關(guān)系,不論是在超大型的文本中,還是在比較簡短的文字片段中都是如此。

這就像是一個伏筆,作者在第一章中埋下了一個伏筆,隔了四五十頁之后再次提及起它的時候,讀者會覺得這是神來之筆,因為能夠聯(lián)系起它和當前文字之間的關(guān)系。機器學習模型也應該具備這種記憶能力,以及超遠文字之間的記錄和依賴表達能力?;蛘邠Q句話說,好的模型應該具有“長期依賴性的編碼能力”。

在詳細介紹Transformers之前,我們先來梳理一下NLP領域在Transformers技術(shù)誕生之前所面臨的問題,尤其是在挖掘數(shù)據(jù)之間的長期依賴性時所面臨的問題。

循環(huán)神經(jīng)網(wǎng)絡的問題

在NLP領域中,以LSTMs和GRU為代表的循環(huán)神經(jīng)網(wǎng)絡曾經(jīng)風光無限,它們的結(jié)構(gòu)內(nèi)部有極其巧妙的長期狀態(tài)輸入和輸出,能夠讓模型從文本中提取豐富的上下文語義。

它們的工作方式都是串行的,一次處理一個單詞或者輸入單元,并且設計了記憶結(jié)構(gòu)來存儲已經(jīng)看到的內(nèi)容的抽象特征,這些長時的抽象信息能夠在之后的數(shù)據(jù)處理中幫助模型理解當前輸入,或者處理長期的數(shù)據(jù)依賴,從而將前文中的語義信息添加到當前的結(jié)果輸出之中。

RNN結(jié)構(gòu)能夠?qū)⑶拔牡男畔懭氲接洃浤K之中,是因為它們內(nèi)部有各種門結(jié)構(gòu)。其中輸入門能夠讓神經(jīng)網(wǎng)絡有選擇性的記錄一些長時的有效信息,遺忘門會有針對性地拋棄一些無關(guān)的冗余信息,更新門還可以讓網(wǎng)絡對自身當前的狀態(tài)根據(jù)輸入進行實時更新。

相對于普通RNNs來說,加入了各種門結(jié)構(gòu)的LSTM和GRU更受世人的喜愛,這是因為它們能夠解決梯度爆炸和梯度消失的問題,模型的魯棒性得到了明顯提升。

梯度爆炸和梯度消失是長久以來困擾RNNs的一大問題。LSTM和GRU能夠利用自身模型結(jié)構(gòu)給梯度“續(xù)命”,有效追蹤序列數(shù)據(jù)中相當長時間數(shù)據(jù)之間的依賴關(guān)系。

但是我們還是發(fā)現(xiàn),這種序列式的網(wǎng)絡,以及將有效信息存儲到各個零散的神經(jīng)元的方式,并不能有效地保存那些超長的數(shù)據(jù)依賴。

此外,序列式的網(wǎng)絡結(jié)構(gòu)也難以讓LSTM和GRU網(wǎng)絡有效地進行擴展和并行化計算。

因為每一個前向的傳遞都是依賴于前一個時間步的處理結(jié)果,每得到一個輸入,模型只能給出一步的輸出。也就是每一步的計算都只能顧及當前輸出,得到一個Embedding結(jié)果。

卷積神經(jīng)網(wǎng)絡的問題

卷積神經(jīng)網(wǎng)絡也是 NLP 系統(tǒng)中的??停绕涫菍τ谀切┦褂?GPUs 訓練的模型任務來說更是如此。這是因為 CNNs 和 GPU 的組合能夠天然耦合兩者在計算伸縮性和高效性上的特點,所以二者逐漸成為形影不離的好基友。

CNNs 常被用在圖像特征提取上,與此類似,在 NLP領域中,網(wǎng)絡也會利用 CNNs 的一維濾波器從文本中提取有效信息,此時的文本就對應地以一維時間序列的形式進行表示了。

所以圖像處理中使用2D CNN , NLP 中就使用1D CNN ~CNN的感受野(就是CNN能夠看到的局部信息大小)是由卷積核/濾波器的尺寸,以及濾波器的通道數(shù)所決定的。

增加卷積核的尺寸或者濾波器的通道數(shù)會增加模型的大小,也會讓模型的復雜度大幅增加。這也許會導致梯度消失的問題,從而引發(fā)讓整個網(wǎng)絡無法訓練收斂的嚴重后果。

為解決這個問題,殘差連接 Residual connections 和空洞卷積 Dilated Convolutions 應運而生。它們能夠在一定程度上增強梯度的傳播深度,從而在一定程度上擴大模型的感受野(后面的層就能看到更多的局部信息了嘛)。

但是,卷積神經(jīng)網(wǎng)絡畢竟只是關(guān)注局部信息的網(wǎng)絡結(jié)構(gòu),它的這種計算機制導致了它在文本信息處理上難以捕捉和存儲長距離的依賴信息。人們一方面想擴大卷積核、增加通道數(shù)來捕捉長期依賴,一方面還害怕由于擴大模型所導致的維度災難。

2

Transformers橫空出世

扯了半天終于要介紹我們今天的主角——Transformer 了。2017年的時候 Transformer 橫空出世,當時的它被定位成一種簡單并且可擴展的自然語言翻譯方法,并且很快被應用到各類 NLP 任務之中,逐漸成為 SOTA 模型中的必備成員(比如 GLUE 、SQuAD 或者 sWAG )。

但并不是所有任務都是有能夠喂飽深度網(wǎng)絡的數(shù)據(jù)資本的,所以很多任務都會基于上述SOTA模型公開版本的半成品進行微調(diào)( finetuning ),從而適配自己的任務。

這種做法十分常見并且有效,因為它大幅的節(jié)省了訓練所需的數(shù)據(jù)量。這些模型有的已經(jīng)有著數(shù)十億個參數(shù)量了,但是似乎還沒有達到性能的天花板。

隨著模型參數(shù)量的增加,模型的結(jié)果還會持續(xù)上升,模型由此而表現(xiàn)的一些新特性和學習到的新知識也會越來越豐富,具體可以看GPT3的文章。

Transformer模型

當我們給定了一個包含N個單詞的文本輸入時,對于每個單詞W,Transformers會為文本中的每個單詞Wn創(chuàng)建N個權(quán)重,每個權(quán)重的值取決于單詞在上下文中的依賴關(guān)系(Wn),以此來表示正在處理的單詞的語義信息W。下圖表述了這個想法,其中,藍色線條的顏色深度表示分配給某個單詞的注意力Attention的權(quán)重。

09cd5468-cf69-11eb-9e57-12bb97331649.png

在這里,上面一行表示正在處理的單詞,下面一行表示用作上下文的單詞(注意,有些單詞是相同的,但是如果它們正在被處理或被用于處理另一個單詞的時候,它們的地位和處理方式將會有所差異)。

請注意,上面一行的“They ”、“Cool”或者“Efficient”有很高的權(quán)重指向“Transformer”,因為這確實是它們所引用的目標單詞。然后,這些權(quán)重被用來組合來自每對單詞的值,并為每個單詞( W )生成一個更新的嵌入,該單詞( W )現(xiàn)在包含關(guān)于這些重要單詞( Wn )在特定單詞( W )上下文中的信息。

其實,在這些現(xiàn)象的背后,transformers 使用了 self attention 即自注意力技術(shù)來計算這些更新的 Embedding 。

Self Attention 是一種計算效率很高的模型技術(shù),它可以并行地更新輸入文本中每個單詞的嵌入結(jié)果。

自注意力機制

假設我們得到了一段輸入文本,并且從文本中的單詞嵌入 W 開始。我們需要找到一種 Embedding 方法來度量同一文本中其他單詞嵌入相對于 W 的重要度,并合并它們的信息來創(chuàng)建更新的嵌入W‘。

自注意力機制會將 Embedding 輸入文本中的每個單詞線性投影到三個不同的空間中,從而產(chǎn)生三種新的表示形式:即查詢query、鍵key和值value。這些新的嵌入將用于獲得一個得分,該得分將代表 W 和每個Wn 之間的依賴性(如果 W 依賴于 W’,則結(jié)果為絕對值很高的正數(shù),如果 W 與W‘不相關(guān),則結(jié)果為絕對值很高的負值)。

這個分數(shù)將被用來組合來自不同 Wn 單詞嵌入的信息,為單詞 W 創(chuàng)建更新的嵌入W’。下面這張圖展示了如何計算兩個單詞之間的 Attention 得分:

09df0258-cf69-11eb-9e57-12bb97331649.png

作者親繪

圖中的藍色線段表示來自第一個單詞 W 的信息流,棕色線代表來自第二個單詞 Wn 的信息流。每個單詞的嵌入將乘以一個鍵和一個查詢矩陣,從而得到每個單詞的查詢值和鍵值。

為了計算 W 和 Wn 之間的分數(shù),將W(W_q)的查詢嵌入發(fā)送到 Wn ( Wn_k )的密鑰嵌入,并為兩個張量使用點積相乘。點積的結(jié)果值是它與自身之間的得分,表示 W 相對于 Wn 的依賴程度。需要注意的是,我們還可以將第二個單詞作為W,以及將第一個單詞作為 Wn 。

這樣的話,我們就可以另外計算出一個分數(shù),表示第二個單詞對第一個單詞的依賴性。我們甚至可以用同一個詞 W 和 Wn 來計算這個詞本身對它的定義有多重要~很巧妙吧。

自注意力機制能夠計算文本中每對單詞之間的注意力得分。該得分將被軟最大化處理 (Softmaxed),也就是將其轉(zhuǎn)換為0到1之間的權(quán)重。下圖展示了如何使用這些權(quán)重獲得每個單詞的最終詞嵌入:

09f75e20-cf69-11eb-9e57-12bb97331649.png

作者親繪

請注意,每個單詞的 Embedding 現(xiàn)在需要乘以第三個矩陣來生成它們的值表示。這個結(jié)果將用于計算每個單詞的最終嵌入。對于每個單詞 W,文本 Wn 中每個單詞的計算權(quán)重將乘以其相應的值表示(Wn_v),然后將它們相加。這個加權(quán)和的結(jié)果將用于更新嵌入單詞 W (圖中用e1和e1表示)。

這里我們只是簡單的對計算過程進行介紹,如果有小伙伴對其中的具體過程感興趣的話,可以看看 Jay Alamar 下面的這篇文章:https://jalammar.github.io/illustrated-transformer/。

3

卷積歸納偏差

卷積網(wǎng)絡模型多年來在計算機視覺領域是絕對的大哥大,獲得了無數(shù)的成功,收獲了無數(shù)的好評。GPU 作為 CNN 的好基友,由于可以進行有效的并行卷積計算而身價瘋長。此外,CNN 也會在圖像特征提取的過程中提供適當?shù)臍w納偏差( Inductive Biases )。CNN 中的卷積運算由于使用了兩個重要的空間約束,從而有助于視覺特征的學習和提?。?/p>

由于 CNN 權(quán)重共享機制,卷積層所提取的特征便具有平移不變性,它們對特征的全局位置不感冒,而只在乎這些決定性的特征是否存在。

由于卷積算子的性質(zhì),所以卷積的特征圖具有局部敏感性,也就是每次卷積操作只會考慮原始數(shù)據(jù)的一小部分的局部信息。

正是由于此,CNN 的歸納偏差缺乏對輸入數(shù)據(jù)本身的整體把握。

它很擅長提取局部的有效信息,但是沒能提取全局數(shù)據(jù)之間的長距離特征。比如,當我們使用 CNN 去訓練一個人臉識別模型時,卷積層可以有效的提取出眼睛大小、鼻子翹不翹、嘴巴顏色等小器官的特征,但是無法將他們聯(lián)系起來,無法形成“眼鏡在鼻子上”、“嘴巴在眼睛下面”的這種長距離的特征。

因為每個卷積核都很局部,沒辦法同時處理這么多個特征。為了提取和跟蹤這些原始數(shù)據(jù)中的長相關(guān)特征,模型需要擴大自己的感受野,這就需要使用一些更大的卷積核,以及更深的卷積。但是由此會帶來計算效率的大幅下降,會讓模型的復雜度劇烈上升,甚至會讓模型產(chǎn)生維度災難從而無法收斂訓練。

這種顧此失彼的權(quán)衡是不是聽起來很耳熟?

4

計算機視覺領域中的Transformers

受到 Transformer 論文中使用自注意力機制來挖掘文本中的長距離相關(guān)依賴的啟發(fā),很多計算機視覺領域的任務提出使用自注意力機制來有效克服卷積歸納偏差所帶來的局限性。

希望能夠?qū)⑦@種 NLP 領域中的技術(shù)思想借鑒到視覺領域中,從而提取長時依賴關(guān)系。功夫不負有心人,Transformer為視覺領域帶來了革新性的變化,它讓視覺領域中目標檢測、視頻分類、圖像分類和圖像生成等多個領域有了長足的進步。

這些應用了 Transformer 技術(shù)的模型有的識別能達到甚至超越該領域 SOTA 解決方案的效果。

更讓人興奮的是,這些技術(shù)有的甚至干脆拋棄了 CNN,直接單單使用自注意力機制來構(gòu)建網(wǎng)絡。

目標檢測:https://arxiv.org/pdf/2005.12872.pdf

視頻分類:https://arxiv.org/pdf/1711.07971.pdf

圖像分類:https://arxiv.org/pdf/1802.05751.pdf

圖像生成:https://arxiv.org/pdf/2010.11929.pdf

這些使用了自注意力機制所生成的視覺特征圖不會像卷積計算一樣具有空間限制。相反,它們能夠根據(jù)任務目標和網(wǎng)絡中該層的位置來學習最合適的歸納偏差。

研究表明,在模型的前幾層中使用自注意力機制可以學習到類似于卷積計算的結(jié)果。

如果小伙伴想具體了解這一領域最近的動態(tài),可以查看這篇由 Gbriel | lharco

撰寫的推文:https://arxiv.org/pdf/1911.03584.pdf

自注意力層

計算機視覺領域中的自注意力層的輸入是特征圖,目的是計算每對特征之間的注意力權(quán)重,從而得到一個更新的特征映射。其中每個位置都包含關(guān)于同一圖像中任何其他特征的信息。

這些層可以直接代替卷積或與卷積層相結(jié)合,它們也能夠處理比常規(guī)卷積更大的感受野。因此這些模型能夠獲取空間上具有長距離間隔的特征之間的依賴關(guān)系。

比如Non-local Netorks和Attention Augmented Convolutional Networks文章中所述,自注意力層最基本的實現(xiàn)方法是將輸入特征圖的空間維度展開成為一系列的 HWxF 的特征序列,其中 HW 表示二維空間維度, F 表示特征圖的深度。自注意力層可以直接作用在序列數(shù)據(jù)上來獲取更新后的特征圖表示。

想具體了解這兩篇論文的小伙伴請戳這里Non-local Netorks:https://arxiv.org/pdf/1711.07971.pdfAttention Augmented Convolutional Networks:https://arxiv.org/abs/1904.09925

但是實際上,對于高分辨率的輸入來說,自注意力機制層的計算量很大,因此它只適用于較小的空間維度輸入的數(shù)據(jù)場景。

很多工作也注意到這個問題,并且提出了一些解決方案,比如Axial DeepLab,它們沿著兩個空間軸順序計算Attention,而不是像普通自注意力機制一樣直接處理整個圖像數(shù)據(jù),這使得計算更加高效。還有一些其他的優(yōu)化解決方案,比如只處理較小的特征圖Patch,而不是處理整個特征圖空間。

但是這樣操作的代價是感受野比較小,這是在論文Stand-Alone Self-Attention in Vision Models中提出的。但是即便這樣的感受野受到了限制,也比卷積操作的卷積核的感受野要大得多。

Axial DeepLab:https://arxiv.org/pdf/2003.07853.pdfStand-Alone Self-Attention in Vision Models:https://arxiv.org/pdf/1906.05909.pdf

當我們在模型的最后一層是用自注意力機制來將前面的各種卷積層相融合的時候,就可以得到最優(yōu)的模型結(jié)果。

事實上,在實驗中我們會發(fā)現(xiàn),自注意力機制和卷積層是很類似的,尤其是在網(wǎng)絡的前若干層中自注意力機制學習到的歸納偏差和卷積層學習到的特征圖十分類似。

視覺Transformers

現(xiàn)有的計算機視覺工作中,除了那些將自注意力機制加入卷積流程中的工作之外,其他的方法的計算都僅僅依賴于自注意力層,并且只使用了最原始的Transformer的編碼-解碼器結(jié)構(gòu)。

當我們的模型參數(shù)量能夠設置得很大,并且數(shù)據(jù)量充足的時候,這些模型在圖像分類任務/目標檢測等任務中所表現(xiàn)出來的效果能夠達到SOTA的程度,甚至有時候更好。

同時這些模型的結(jié)構(gòu)會更加簡單,訓練速度還會更快。最原始的Transorfer的編碼-解碼器結(jié)構(gòu):https://arxiv.org/pdf/1706.03762.pdf

接下來我們簡要的介紹三篇重要的相關(guān)論文,它們都在自己的網(wǎng)絡中使用了Transformer結(jié)構(gòu)。

1、Image Transormer這篇論文提出了一種在ImageNet數(shù)據(jù)集上的全新SOTA圖像生成器,并且在超高分辨率任務上取得了很好的效果。

論文地址:https://arxiv.org/pdf/1802.05751.pdf

在這篇論文中,他們將圖像生成任務視作一個自回歸問題,圖片中的每個新像素僅基于圖像中先前已知的像素值生成。在每一個特征生成過程中,自注意力機制將m個展開后的特征圖作為上下文,從而生成未知的像素值。為了讓這些像素能夠匹配自注意力層的輸入,論文使用1D卷積將每個RGB值轉(zhuǎn)換為d維張量,并將局部的上下文特征圖的m維特征展平到一維。下圖就是這個模型的示意圖:

0a0e9b94-cf69-11eb-9e57-12bb97331649.png

原文中3.2節(jié)圖1的自注意力結(jié)構(gòu)

在圖中,q表示要更新的像素embedding,它與內(nèi)存中的像素m的所有其他嵌入相乘,使用查詢和鍵矩陣(Wq和Wk)生成一個得分,然后對該得分進行softmax操作,并將其作為矩陣Wv的權(quán)重。

算法最終將該Embedding加到原始的q Embedding中,從而得到最終的結(jié)果。在圖中,p表示添加到每個輸入嵌入中的位置編碼。這種編碼是從每個像素的坐標生成的。

需要注意的是,通過使用自注意力機制,算法可以并行地預測多個像素值,因為算法已經(jīng)知道輸入圖像的原始像素值,并且用于計算自我注意的Patch機制,可以處理比卷積層更高的感受野。但是在評估的操作過程中,由于圖像的生成依賴于每個像素的鄰居的值,因此只能單步執(zhí)行。

2、DETRDETR是DEtection TRansformer的縮寫,它是一種結(jié)構(gòu)較為簡單的模型,在目標檢測領域中達到了SOTA的高度。論文地址:https://arxiv.org/pdf/2005.12872.pdf模型的結(jié)構(gòu)如下圖所示:

0a2516f8-cf69-11eb-9e57-12bb97331649.png

原文中3.2節(jié)圖2的DETR結(jié)構(gòu)圖

它搭配著使用了自注意力機制,以及從卷積神經(jīng)網(wǎng)絡提取的視覺特征。在CNN的主干模塊中,算法計算的特征圖會首先被展平,也就是說,如果特征地圖具有形狀(h x w x d),則展平結(jié)果將具有形狀(hw x d)。每一個維度中都添加了一個可學習的位置編碼,而編碼器也會將結(jié)果序列作為輸入。

編碼器使用多個自注意力塊來組合不同Embedding之間的特征。處理后的Embedding被傳遞到一個解碼器模塊。這個解碼器模塊使用可學習的Embedding作為對象查詢來處理所有視覺特征,從而生成一個嵌入。在該嵌入中,執(zhí)行目標檢測所需的所有信息都被編碼。

每個輸出被輸入到一個全連接層中,該網(wǎng)絡模塊將輸出一個包含元素c和b的五維張量,其中c表示該元素的預測類個數(shù),b表示邊界框的坐標(分別是一維和四維)。

c的值分配給一個“no object”標記,它表示沒有找到任何有意義的檢測的目標查詢,所以說模型將不考慮它的坐標。

這個模型能夠并行計算單個圖像的多個檢測。但是,它可以檢測到的目標個數(shù)受制于所使用的目標查詢次數(shù)。

論文的作者在文中表示,該模型在大尺寸目標識別的圖像處理方面優(yōu)于SOTA模型。他們認為這都歸功于自注意力機制為模型提供了更高的感受野。

3、Vision Transformer(ViT)這個模型是圖像識別領域的代表性SOTA工作,它僅僅使用了自注意力機制,而且達到了目前的SOTA識別率。論文地址:https://arxiv.org/pdf/2010.11929.pdf下面是論文模型的一個例子:

0a68ee6e-cf69-11eb-9e57-12bb97331649.png

原文3.1節(jié)圖1中的ViT結(jié)構(gòu)

該模型的輸入是從像素大小為PxP的塊中提取的平坦像素向量。每個輸入像素被送入一個線性投影層,這個層將產(chǎn)生文中所謂的“補丁嵌入(Patch embeddings)”。

注意,在序列的開頭處,模型附加了一個額外可學習的嵌入。這種嵌入處于自我注意更新之后,用于預測輸入圖像的類別。

每個Embedding中也添加了一個可學習的位置Embedding。分類只需將一個 MLP 頭放在Transformer結(jié)構(gòu)的頂部,具體的插入位置就是在我們添加到序列中的額外可學習的Embedding位置。

此外,本文還給出了一種混合的模型結(jié)構(gòu)。它使用ResNet早期的特征映射作為Transformer的輸入,而沒有選擇輸入投影的圖像塊。

通過對 Transformer 模型和 CNN 骨干網(wǎng)絡端到端的訓練,模型能夠達到最好的圖像分類結(jié)果。

5

位置編碼

由于Transformers需要學習一個具體的任務,也就是需要學習該任務的歸納偏差,所以只要進行模型訓練,就都會對該網(wǎng)絡產(chǎn)生一定的收益。

換句話說,任何可以包含在模型輸入中的歸納偏差都將有助于模型的學習,并能夠用于改善結(jié)果。當使用Transformers的更新功能時,輸入序列的順序信息會被丟失。

對于Transformer模型來說,這個順序信息是很難被學習到的,或者說有的時候根本不可能被學習到。

所以它所做的就是將一個位置表示聚合到模型的輸入嵌入中。這種位置編碼可以通過學習獲得,也可以從一個固定的函數(shù)中取樣得到。

雖然聚合操作通常只在輸入到模型的嵌入處完成,但是我們其實是可以改變這個聚合操作的位置。在計算機視覺中,這些嵌入既可以表示特征在一維平坦序列中的位置,也可以表示特征的二維位置。在該領域中,大家普遍認為位置編碼是很有效的一種信息。

它們由可學習的若干個嵌入組成。

這些嵌入特征不用編碼全局的位置,轉(zhuǎn)而去學習各個編碼特征之間的相對距離從而達到更好的效果。

6

結(jié)論

Transformers結(jié)構(gòu)解決了一個自然語言處理和計算機視覺領域都困擾已久的問題——長期依賴。

Transformer模型是一種很簡單但是很靈活的方法,如果將其抽象為一系列嵌入,那么它可以應用于任何類型的數(shù)據(jù)。卷積具有平移不變性、局部敏感性,也缺少對圖像的整體感知和宏觀理解。

Transformers可用于卷積網(wǎng)絡中,從而讓網(wǎng)絡學習處對圖像的全局理解。

Transformers能夠用于計算機視覺領域,就算我們把原來卷積網(wǎng)絡中的卷積層都拋棄,只使用Transformers層的時候,模型也能得到SOTA的結(jié)果。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47633
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136962
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14667

原文標題:Transformer在CV界火的原因是?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    上海計算機視覺企業(yè)行學術(shù)沙龍走進西井科技

    12月5日,由中國圖象圖形學學會青年工作委員會(下簡稱“青工委”)、上海市計算機學會計算機視覺專委會(下簡稱“專委會”)聯(lián)合主辦,上海西井科技股份有限公司、江蘇路街道商會承辦的“上海計算機
    的頭像 發(fā)表于 12-16 15:39 ?588次閱讀

    使用代理式AI激活傳統(tǒng)計算機視覺系統(tǒng)的三種方法

    當前的計算機視覺系統(tǒng)擅長于識別物理空間與流程中的事件,卻難以詮釋場景細節(jié)及其意義,也無法推理后續(xù)可能發(fā)生的情況。
    的頭像 發(fā)表于 12-01 09:44 ?647次閱讀

    工控機與普通計算機的核心差異解析

    工業(yè)自動化和智能制造領域計算機設備作為核心控制單元,其選擇直接影響整個系統(tǒng)的穩(wěn)定性與可靠性。工控機與普通計算機雖同屬計算設備,但其設計目
    的頭像 發(fā)表于 11-25 14:45 ?1787次閱讀
    工控機與普通<b class='flag-5'>計算機</b>的核心差異解析

    STM32計算機視覺開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    CMOS RGB圖像傳感器、ISM330DLC慣性運動單元和VL53L5CX ToF傳感器。B-CAMS-IMX可用于任何具有MIPI CSI-2? 接口(帶22引腳FFC連接器)的STM32開發(fā)板,輕松STM32微控制器和微處理器上實現(xiàn)全功能計算機
    的頭像 發(fā)表于 10-20 09:46 ?1281次閱讀
    STM32<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    【作品合集】賽昉科技VisionFive 2單板計算機開發(fā)板測評

    :jf_05916765【VisionFive 2單板計算機試用體驗】 + 開箱體驗【VisionFive 2單板計算機試用體驗】SD卡分區(qū)【VisionFive 2單板計算機試用體驗】
    發(fā)表于 09-04 09:08

    請問如何僅使用軟件和 TC375 精簡板來測量函數(shù)調(diào)用的堆棧使用情況?

    類型的硬件調(diào)試模塊。 基本上,我通過 USB 將開發(fā)板連接到計算機,然后使用 ADS 進行編譯、運行、調(diào)試等。 是否可以?如果是:該怎么做?我想要一個逐步的教程。我不習慣使用這些工具(ADS、winIDEA 等),而且使用起來很困難。我甚至很難瀏覽文檔(如果有辦法實現(xiàn)我想要實現(xiàn)的目標)
    發(fā)表于 08-08 07:28

    易控智駕榮獲計算機視覺頂會CVPR 2025認可

    近日,2025年國際計算機視覺與模式識別頂級會議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)美國田納西州納什維爾召開。
    的頭像 發(fā)表于 07-29 16:54 ?1222次閱讀

    CYUSB3014不關(guān)機的情況下用USB 2.0的線連接電腦,計算機無法識別FX3,這種情況正常嗎?

    我正在使用自供電模式的 CYUSB3014。我先用USB 3.0的線傳輸數(shù)據(jù),然后再不關(guān)機的情況下用USB 2.0的線連接電腦。計算機無法識別 FX3。這種情況正常嗎?和USB傳輸協(xié)議有關(guān)系嗎?
    發(fā)表于 07-28 06:25

    自動化計算機經(jīng)過加固后有什么好處?

    讓我們討論一下部署堅固的自動化計算機的一些好處。1.溫度范圍寬自動化計算機經(jīng)過工程設計,配備了支持寬溫度范圍的組件,使自動化計算解決方案能夠各種不同的極端環(huán)境中運行。自動化
    的頭像 發(fā)表于 07-21 16:44 ?627次閱讀
    自動化<b class='flag-5'>計算機</b>經(jīng)過加固后有什么好處?

    自動化計算機的功能與用途

    工業(yè)自動化是指利用自動化計算機來控制工業(yè)環(huán)境中的流程、機器人和機械,以制造產(chǎn)品或其部件。工業(yè)自動化的目的是提高生產(chǎn)率、增加靈活性,并提升制造過程的質(zhì)量。工業(yè)自動化汽車制造中體現(xiàn)得最為明顯,其中許多
    的頭像 發(fā)表于 07-15 16:32 ?747次閱讀
    自動化<b class='flag-5'>計算機</b>的功能與用途

    工業(yè)計算機與商用計算機的區(qū)別有哪些

    工業(yè)計算機是一種專為工廠和工業(yè)環(huán)境設計的計算系統(tǒng),具有高可靠性和穩(wěn)定性,能夠應對惡劣環(huán)境下的自動化、制造和機器人操作。其特點包括無風扇散熱技術(shù)、無電纜連接和防塵防水設計,使其各種工業(yè)自動化場景中
    的頭像 發(fā)表于 07-10 16:36 ?752次閱讀
    工業(yè)<b class='flag-5'>計算機</b>與商用<b class='flag-5'>計算機</b>的區(qū)別有哪些

    工業(yè)計算機如何設計用于沖擊和振動

    工業(yè)計算機是為挑戰(zhàn)消費級系統(tǒng)耐用性的環(huán)境而構(gòu)建的。制造業(yè)、運輸業(yè)、國防和采礦業(yè)等領域,計算機面臨著持續(xù)的沖擊、振動和其他物理壓力。設計這些系統(tǒng)以在這種條件下保持可靠需要卓越的工程和創(chuàng)
    的頭像 發(fā)表于 05-19 15:27 ?502次閱讀
    工業(yè)<b class='flag-5'>計算機</b>如何設計用于沖擊和振動

    利用邊緣計算和工業(yè)計算機實現(xiàn)智能視頻分析

    IVA的好處、實際部署應用程序以及工業(yè)計算機如何實現(xiàn)這些解決方案。一、什么是智能視頻分析(IVA)?智能視頻分析(IVA)集成了復雜的計算機視覺,通常與卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 05-16 14:37 ?842次閱讀
    利用邊緣<b class='flag-5'>計算</b>和工業(yè)<b class='flag-5'>計算機</b>實現(xiàn)智能視頻分析

    計算機網(wǎng)絡入門指南

    計算機網(wǎng)絡是指將地理位置不同且具有獨立功能的多臺計算機及其外部設備,通過通信線路連接起來,在網(wǎng)絡操作系統(tǒng)、網(wǎng)絡管理軟件及網(wǎng)絡通信協(xié)議的管理和協(xié)調(diào)下,實現(xiàn)資源共享和信息傳遞的計算機系統(tǒng)。
    的頭像 發(fā)表于 04-22 14:29 ?2257次閱讀
    <b class='flag-5'>計算機</b>網(wǎng)絡入門指南

    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對計算機視覺的支持

    計算機視覺的支持,擴大了當前對音頻、雷達和其他時間序列信號數(shù)據(jù)的支持范圍。增加這項支持后,該平臺將能夠用于開發(fā)低功耗、低內(nèi)存的邊緣AI視覺模型。這將給諸多應用
    的頭像 發(fā)表于 03-11 15:11 ?816次閱讀
    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的支持