91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊優(yōu)圖/浙大/北大提出:重新思考高效神經(jīng)模型的移動模塊

CVer ? 來源:CVHu ? 2023-01-08 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

本文重新思考了 MobileNetv2 中高效的倒殘差模塊 Inverted Residual Block 和 ViT 中的有效 Transformer 的本質(zhì)統(tǒng)一,歸納抽象了 MetaMobile Block 的一般概念。受這種現(xiàn)象的啟發(fā),作者設(shè)計了一種面向移動端應(yīng)用的簡單而高效的現(xiàn)代反向殘差移動模塊 (InvertedResidualMobileBlock,iRMB),它吸收了類似 CNN 的效率來模擬短距離依賴和類似 Transformer 的動態(tài)建模能力來學(xué)習(xí)長距離交互。所提出的高效模型 (EfficientMOdel,EMO) 在 ImageNet-1K、COCO2017 和 ADE20K 基準(zhǔn)上獲取了優(yōu)異的綜合性能,超過了同等算力量級下基于 CNN/Transformer 的 SOTA 模型,同時很好地權(quán)衡模型的準(zhǔn)確性和效率。

動機(jī)

近年來,隨著對存儲和計算資源受限的移動應(yīng)用程序需求的增加,涌現(xiàn)了非常多參數(shù)少、FLOPs 低的輕量級模型,例如Inceptionv3時期便提出了使用非對稱卷積代替標(biāo)準(zhǔn)卷積。后來MobileNet提出了深度可分離卷積 depth-wise separable convolution 以顯著減少計算量和參數(shù),一度成為了輕量化網(wǎng)絡(luò)的經(jīng)典之作。在此基礎(chǔ)上,MobileNetv2 提出了一種基于 Depth-Wise Convolution (DW-Conv) 的高效倒置殘差塊(IRB),更是成為標(biāo)準(zhǔn)的高效模塊代表作之一。然而,受限于靜態(tài) CNN 的歸納偏差影響,純 CNN 模型的準(zhǔn)確性仍然保持較低水平,以致于后續(xù)的輕量化之路并沒有涌現(xiàn)出真正意義上的突破性工作。

47186fcc-8ea5-11ed-bfe3-dac502259ad0.png

Swin

472e2376-8ea5-11ed-bfe3-dac502259ad0.png

PVT

47367a44-8ea5-11ed-bfe3-dac502259ad0.png

Eatformer

4742876c-8ea5-11ed-bfe3-dac502259ad0.png

EAT

隨著 Transformer 在 CV 領(lǐng)域的崛起,一時間涌現(xiàn)了許多性能性能超群的網(wǎng)絡(luò),如 Swin transformer、PVT、Eatformer、EAT等。得益于其動態(tài)建模和不受歸納偏置的影響,這些方法都取得了相對 CNN 的顯著改進(jìn)。然而,受多頭自注意(MHSA)參數(shù)和計算量的二次方限制,基于 Transformer 的模型往往具有大量資源消耗,因此也一直被吐槽落地很雞肋。

針對 Transformer 的這個弊端,當(dāng)然也提出了一些解決方案:

設(shè)計具有線性復(fù)雜性的變體,如FAVOR+和Reformer等;

降低查詢/值特征的空間分辨率,如Next-vit、PVT、Cvt等;

重新排列通道比率來降低 MHSA 的復(fù)雜性,如Delight;

不過這種小修小改還是難成氣候,以致于后續(xù)也出現(xiàn)了許多結(jié)合輕量級 CNN 設(shè)計高效的混合模型,并在準(zhǔn)確性、參數(shù)和 FLOPs 方面獲得比基于 CNN 的模型更好的性能,例如Mobilevit、MobileViTv2和Mobilevitv3等。然而,這些方法通常也會引入復(fù)雜的結(jié)構(gòu),或者更甚者直接采用多個混合的模塊如Edgenext和Edgevits,這其實是不利于優(yōu)化的。

總而言之,目前沒有任何基于 Transformer 或混合的高效塊像基于 CNN 的 IRB 那樣流行。因此,受此啟發(fā),作者重新考慮了 MobileNetv2 中的 Inverted Residual Block 和 Transformer 中的 MHSA/FFN 模塊,歸納抽象出一個通用的 Meta Mobile Block,它采用參數(shù)擴(kuò)展比 λ 和高效算子 F 來實例化不同的模塊,即 IRB、MHSA 和前饋網(wǎng)絡(luò) (FFN)。

基于此,本文提出了一種簡單高效的模塊——反向殘差移動塊(iRMB),通過堆疊不同層級的 iRMB,進(jìn)而設(shè)計了一個面向移動端的輕量化網(wǎng)絡(luò)模型——EMO,它能夠以相對較低的參數(shù)和 FLOPs 超越了基于 CNN/Transformer 的 SOTA 模型,如下圖所示:

474f64c8-8ea5-11ed-bfe3-dac502259ad0.png

方法

4756bdea-8ea5-11ed-bfe3-dac502259ad0.png

EMO

上圖是整體框架圖,左邊是 iRMB 模塊的示例圖。下面讓我們進(jìn)一步拆解下這個網(wǎng)絡(luò)結(jié)構(gòu)圖。

Meta Mobile Block

475d169a-8ea5-11ed-bfe3-dac502259ad0.png

Meta Mobile Block

如上所述,通過對 MobileNetv2 中的 Inverted Residual Block 以及 Transformer 中的核心 MHSA 和 FFN 模塊進(jìn)行抽象,作者提出了一種統(tǒng)一的 Meta Mobile (M2) Block 對上述結(jié)構(gòu)進(jìn)行統(tǒng)一的表示,通過采用參數(shù)擴(kuò)展率 λ 和高效算子 F 來實例化不同的模塊。

Inverted Residual Mobile Block

基于歸納的 M2 塊,本文設(shè)計了一個反向殘差移動塊 (iRMB),它吸收了 CNN 架構(gòu)的效率來建模局部特征和 Transformer 架構(gòu)動態(tài)建模的能力來學(xué)習(xí)長距離交互。

具體實現(xiàn)中,iRMB 中的 F 被建模為級聯(lián)的 MHSA 和卷積運算,公式可以抽象為 。這里需要考慮的問題主要有兩個:

通常大于中間維度將是輸入維度的倍數(shù),導(dǎo)致參數(shù)和計算的二次增加。

MHSA 的 FLOPs 與總圖像像素的二次方成正比。

具體的參數(shù)比對大家可以簡單看下這個表格:

4769234a-8ea5-11ed-bfe3-dac502259ad0.png

因此,作者很自然的考慮結(jié)合 W-MHSA 和 DW-Conv 并結(jié)合殘差機(jī)制設(shè)計了一種新的模塊。此外,通過這種級聯(lián)方式可以提高感受野的擴(kuò)展率,同時有效的將模型的 MPL 降低到 。

為了評估 iRMB 性能,作者將 λ 設(shè)置為 4 并替換 DeiT 和 PVT 中標(biāo)準(zhǔn)的 Transformer 結(jié)構(gòu)。如下述表格所述,我們可以發(fā)現(xiàn) iRMB 可以在相同的訓(xùn)練設(shè)置下以更少的參數(shù)和計算提高性能。

4771173a-8ea5-11ed-bfe3-dac502259ad0.png

EMO

為了更好的衡量移動端輕量化模型的性能,作者定義了以下4個標(biāo)準(zhǔn):

可用性。即不使用復(fù)雜運算符的簡單實現(xiàn),易于針對應(yīng)用程序進(jìn)行優(yōu)化。

簡約性。即使用盡可能少的核心模塊以降低模型復(fù)雜度。

有效性。即良好的分類和密集預(yù)測性能。

高效性。即更少的參數(shù)和計算精度權(quán)衡。

下面的表格總結(jié)了本文方法與其它幾個主流的輕量化模型區(qū)別:

477be17e-8ea5-11ed-bfe3-dac502259ad0.png

可以觀察到以下幾點現(xiàn)象:

基于 CNN 的 MobileNet 系列的性能現(xiàn)在看起來略低,而且其參數(shù)略高于同行;

近期剛提出的 MobileViT 系列雖然取得了更優(yōu)異的性能,但它們的 FLOPs 較高,效率方面欠佳;

EdgeNeXt 和 EdgeViT 的主要問題是設(shè)計不夠優(yōu)雅,模塊較為復(fù)雜;

基于上述標(biāo)準(zhǔn),作者設(shè)計了一個由多個 iRMB 模塊堆疊而成的類似于 ResNet 的高效模型——EMO,主要體現(xiàn)在以下幾個優(yōu)勢:

1)對于整體框架,EMO 僅由 iRMB 組成,沒有多樣化的模塊,這在設(shè)計思想上可稱得上大道至簡;

2)對于特定模塊,iRMB 僅由標(biāo)準(zhǔn)卷積和多頭自注意力組成,沒有其他復(fù)雜的運算符。此外,受益于 DW-Conv,iRMB 還可以通過步長適應(yīng)下采樣操作,并且不需要任何位置嵌入來向 MHSA 引入位置偏差;

3)對于網(wǎng)絡(luò)的變體設(shè)置,作者采用逐漸增加的擴(kuò)展率和通道數(shù),詳細(xì)配置如下表所示。

47866ec8-8ea5-11ed-bfe3-dac502259ad0.png

由于 MHSA 更適合為更深層的語義特征建模,因此 EMO 僅在第3和第4個stage采用它。為了進(jìn)一步提高 EMO 的穩(wěn)定性和效率,作者還在第1和第2個stage引入 BN 和 SiLU 的組合,而在第3和第4個stage替換成 LN 和 GeLU 的組合,這也是大部分 CNN 和 Transformer 模型的優(yōu)先配置。

實驗

參數(shù)比對

先來看下 EMO 和其他輕量化網(wǎng)絡(luò)的相關(guān)超參比對:

478e2e24-8ea5-11ed-bfe3-dac502259ad0.png

可以看到,EMO 并沒有使用大量的強(qiáng) DataAug 和 Tricks,這也充分體現(xiàn)了其模塊設(shè)計的有效性。

性能指標(biāo)

47969884-8ea5-11ed-bfe3-dac502259ad0.png

圖像分類

479eb97e-8ea5-11ed-bfe3-dac502259ad0.png

目標(biāo)檢測

47a73d7e-8ea5-11ed-bfe3-dac502259ad0.png

語義分割

整體來看,EMO 在圖像分類、目標(biāo)檢測和語義分割 CV 三大基礎(chǔ)任務(wù)都表現(xiàn)強(qiáng)勁,可以以較少的計算量和參數(shù)量取得更加有競爭力的結(jié)果。

可視化效果

47b145bc-8ea5-11ed-bfe3-dac502259ad0.png

Qualitative comparisons with MobileNetv2 on two main downstream tasks

從上面的可視化結(jié)果可以明顯的觀察到,本文提出的方法在分割的細(xì)節(jié)上表現(xiàn)更優(yōu)異。

47c90698-8ea5-11ed-bfe3-dac502259ad0.png

Attention Visualizations by Grad-CAM

為了更好地說明本文方法的有效性,作者進(jìn)一步采用 Grad-CAM 方法突出顯示不同模型的相關(guān)區(qū)域。如上圖所示,基于 CNN 的 ResNet 傾向于關(guān)注特定對象,而基于 Transformer 的 MPViT 更關(guān)注全局特征。相比之下,EMO 可以更準(zhǔn)確地關(guān)注顯著物體,同時保持感知全局區(qū)域的能力。這在一定程度上也解釋了為什么 EMO 在各類任務(wù)中能獲得更好的結(jié)果。

47da0178-8ea5-11ed-bfe3-dac502259ad0.png

Feature Similarity Visualizations

上面我們提到過,通過級聯(lián) Convolution 和 MHSA 操作可以有效提高感受野的擴(kuò)展速度。為了驗證此設(shè)計的有效性,這里將第3個Stage中具有不同組成的對角線像素的相似性進(jìn)行可視化,即可視化 DW-Conv 和 EW-MHSA 以及同時結(jié)合兩個模塊。

47f0ff54-8ea5-11ed-bfe3-dac502259ad0.png

可以看出,無論從定量或定性的實驗結(jié)果看來,當(dāng)僅使用 DW-Conv 時,特征往往具有短距離相關(guān)性,而 EW-MHSA 帶來更多的長距離相關(guān)性。相比之下,當(dāng)同時采用這兩者時,網(wǎng)絡(luò)具有更大感受野的模塊,即更好的建模遠(yuǎn)距離的上下文信息。

47fad196-8ea5-11ed-bfe3-dac502259ad0.png

Ablation studies on ImageNet-1K with EMO-5M

最后展示的是本文的消融實驗,整體來說實驗部分還是挺充實的,感興趣的小伙伴去看下原文,時間有限,今天我們就分析到這里。

結(jié)論

本文探討了面向移動端的高效架構(gòu)設(shè)計,通過重新思考 MobileNetv2 中高效的 Inverted Residual Block 和 ViT 中的有效 Transformer 的本質(zhì)統(tǒng)一,作者引入了一個稱為 Meta Mobile Block 的通用概念,進(jìn)而推導(dǎo)出一個簡單而高效的現(xiàn)代 iRMB 模塊。具體地,該模塊包含兩個核心組件,即 DW-Conv 和 EW-MHSA,這兩個組件可以充分利用 CNN 的效率來建模短距離依賴同時結(jié)合 Transformer 的動態(tài)建模能力來學(xué)習(xí)長距離交互。最后,通過以不同的規(guī)模堆疊 iRMB 模塊搭建了一個高效的類 ResNet 架構(gòu)——EMO,最終在 ImageNet-1K、COCO2017 和 ADE20K 三個基準(zhǔn)測試的大量實驗證明了 EMO 優(yōu)于其它基于 CNN 或 Transformer 的 SoTA 方法。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42348
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3764

    瀏覽量

    52138
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23454

原文標(biāo)題:騰訊優(yōu)圖/浙大/北大提出:重新思考高效神經(jīng)模型的移動模塊

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Arm率先適配騰訊混元HY-1.8B-2Bit模型

    騰訊混元今日發(fā)布了 HY-1.8B-2Bit,這是一款等效參數(shù)量僅有 0.3B 的極低比特壓縮模型,有助于移動設(shè)備廠商和開發(fā)者加速實現(xiàn)生成式 AI 的創(chuàng)新落地。作為全球應(yīng)用最為廣泛的高性能、高能效
    的頭像 發(fā)表于 02-10 17:29 ?1914次閱讀

    模型中常提的快慢思考會對自動駕駛產(chǎn)生什么影響?

    提出的“快慢系統(tǒng)”理論啟發(fā),旨在讓自動駕駛系統(tǒng)模擬人類的思考與決策過程。理想汽車結(jié)合端到端與VLM模型,推出了業(yè)界首個在車端部署的雙系統(tǒng)方案,并成功將VLM視覺語言模型部署于車端芯片上
    的頭像 發(fā)表于 11-22 10:59 ?2530次閱讀
    大<b class='flag-5'>模型</b>中常提的快慢<b class='flag-5'>思考</b>會對自動駕駛產(chǎn)生什么影響?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    實現(xiàn)。所以現(xiàn)有的大部分 SNN 加速器的硬件實現(xiàn)上都采用LIF模型。 如圖所示,設(shè)計的 SNN 神經(jīng)核整體架構(gòu)如圖所示。 神經(jīng)核主要由 LIF 神經(jīng)
    發(fā)表于 10-24 08:27

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識別的神經(jīng)
    發(fā)表于 10-22 07:03

    騰訊地圖在AI時代的全新思考與實踐

    9月17日,在2025騰訊全球數(shù)字生態(tài)大會地圖專場上,騰訊集團(tuán)副總裁、騰訊智慧出行總裁鐘翔平分享了騰訊地圖在AI時代的全新思考與實踐。
    的頭像 發(fā)表于 09-18 10:32 ?910次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    。是實現(xiàn)類腦芯片的基本模型。SNN中的神經(jīng)元通過短的電脈沖相互溝通,脈沖之間的時間間隔起著重要作用。 最有利于硬件實現(xiàn)的脈沖神經(jīng)元模型是“漏電整合-激發(fā)”模型: 與DNN相比,SNN的
    發(fā)表于 09-17 16:43

    3萬字長文!深度解析大語言模型LLM原理

    繼續(xù)追本溯源,與騰訊學(xué)堂合作撰寫本文,嘗試讓人人都能懂大語言模型的基礎(chǔ)原理。1、大語言模型簡述截止到2025年“大模型”一般泛指“超大參數(shù)模型
    的頭像 發(fā)表于 09-02 13:34 ?3501次閱讀
    3萬字長文!深度解析大語言<b class='flag-5'>模型</b>LLM原理

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3495次閱讀

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNN
    的頭像 發(fā)表于 08-27 14:06 ?1007次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    今日,騰訊正式發(fā)布新一代混元開源大語言模型。英特爾憑借在人工智能領(lǐng)域的全棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺上完成針對該模型的第零日(Day 0)部署與性能優(yōu)化。值得一提的是, 依托
    的頭像 發(fā)表于 08-07 14:42 ?1413次閱讀
    硬件與應(yīng)用同頻共振,英特爾Day 0適配<b class='flag-5'>騰訊</b>開源混元大<b class='flag-5'>模型</b>

    摩爾線程率先支持騰訊混元-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構(gòu)的大語言模型混元-A13B。同日,摩爾線程團(tuán)隊?wèi){借技術(shù)前瞻性,率先完成該模型在全功能GPU的深度適配與高效支持。這一成果充分彰顯了MUSA架
    的頭像 發(fā)表于 07-04 14:10 ?927次閱讀

    CoT 數(shù)據(jù)集如何讓大模型學(xué)會一步一步思考?

    目前,大模型的回答路徑基本遵循 input-output 的方式,在面對復(fù)雜任務(wù)時表現(xiàn)不佳。反之,人類會遵循一套有條理的思維流程,逐步推理得出正確答案。這種差異促使人們深入思考:如何才能讓大模型“智能涌現(xiàn)”,學(xué)會像人類一樣“一步
    的頭像 發(fā)表于 04-24 16:51 ?1435次閱讀
    CoT 數(shù)據(jù)集如何讓大<b class='flag-5'>模型</b>學(xué)會一步一步<b class='flag-5'>思考</b>?

    基于RV1126開發(fā)板移植NCNN部署庫方法

    神經(jīng)網(wǎng)絡(luò)前向計算框架。并在2017年7月正式開源。NCNN做為騰訊優(yōu)最“火”的開源項目之一,是一個為手機(jī)端極致優(yōu)化的高性能神經(jīng)網(wǎng)絡(luò)前向計算
    的頭像 發(fā)表于 04-16 15:24 ?640次閱讀
    基于RV1126開發(fā)板移植NCNN部署庫方法

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    整合了多個MLKits工具,包含模型轉(zhuǎn)換、模型量化和模型調(diào)優(yōu),將關(guān)鍵模塊融合成一站式、可視化的完整開發(fā)鏈路,開發(fā)者不再需要“拼積木式”組合多
    發(fā)表于 04-13 19:52