91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解基于深度學(xué)習(xí)的偽裝目標(biāo)檢測(cè)

中科院長(zhǎng)春光機(jī)所 ? 來(lái)源:極市平臺(tái) ? 作者:極市平臺(tái) ? 2021-03-12 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最后是O2OGM模塊,將Conv6-3提取的顯著性目標(biāo)特征信息與Conv2-2提取的邊緣特征結(jié)合后的特征分別與Conv3-3、Conv4-3、Conv5-3、Conv6-3每層提取的顯著性目標(biāo)特征進(jìn)行融合,即圖中FF模塊的操作。FF操作很簡(jiǎn)單,就是將高層特征上采樣然后進(jìn)行拼接的操作,就可以達(dá)到融合的效果。

PFANet的結(jié)構(gòu)相對(duì)簡(jiǎn)單,采用VGG網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),然后將前兩層特征稱為低層特征,后三層特征稱為高層特征,對(duì)他們采用了不同的方式進(jìn)行特征增強(qiáng),以增強(qiáng)檢測(cè)效果。

首先是對(duì)于高層特征,先是采用了一個(gè)CPFE來(lái)增大感受野,然后再接一個(gè)通道注意力模塊,即完成了對(duì)高層特征的特征增強(qiáng)(這里的這個(gè)CPFE,其實(shí)就是ASPP)。

然后再對(duì)經(jīng)過(guò)了CPFE后的高層特征使用通道注意力(CA)。

92b43976-7e43-11eb-8b86-12bb97331649.png

以上即是高層特征的增強(qiáng)方法,而對(duì)于低層特征,處理得則更為簡(jiǎn)單,只需要使用空間注意力模塊(SA),即可完成。

92ee9dfa-7e43-11eb-8b86-12bb97331649.jpg

整個(gè)PFANet的網(wǎng)絡(luò)結(jié)構(gòu)很清晰,如下圖所示。

介紹完EGNet和PFANet兩種方法以后,就剩下SINet了。SINet的思路來(lái)自于19年的一篇CVPR的文章《.Cascaded partial decoder for fast and accurate salient object detection》。這篇文章里提出了CPD的這樣一個(gè)結(jié)構(gòu),具體的可以取搜索一下這篇論文,詳細(xì)了解一下。

接下來(lái)我將介紹一個(gè)用于偽裝目標(biāo)檢測(cè)的網(wǎng)絡(luò)SINet。假設(shè)你是一頭饑腸轆轆的雄獅,此刻你掃視著周?chē)?,視線突然里出現(xiàn)了兩匹斑馬,他們就是你今天的獵物,美食。確定好了目標(biāo)之后,那么就開(kāi)始你的獵殺時(shí)刻。所以整個(gè)過(guò)程是你先掃視周?chē)?,我們稱之為搜索,然后,就是確認(rèn)目標(biāo),開(kāi)始獵殺,我們稱之為確認(rèn)。我們的SINet就是這樣的一個(gè)結(jié)構(gòu),他分為搜索和確認(rèn)兩個(gè)模塊,前者用于搜索偽裝目標(biāo),后者用于精確定位去檢測(cè)他。

我們現(xiàn)在就具體來(lái)看看我們的SINet到底是怎么一回事。首先,我們都知道低層特征有著較多的空間細(xì)節(jié),而我們的高層特征,卻有著較多的語(yǔ)義信息。所以低層的特征我們可以用來(lái)構(gòu)建目標(biāo)區(qū)域,而高層特征我們則可以用來(lái)進(jìn)行目標(biāo)定位。我們將這樣一張圖片,經(jīng)過(guò)一個(gè)ResNet的特征提取器。按照我們剛才的說(shuō)法,于是我們將前兩層稱為低層特征,最后兩層稱之為高層特征,而第三層我們稱之為中層特征。那么有了這樣的五層特征圖,東西已經(jīng)給我們了?我們?cè)撛趺慈ダ煤眠@些東西呢?

首先是我們的搜索模塊,通過(guò)特征提取,我們得到了這么一些特征,我們希望能夠從這些特征中搜索到我們想要的東西。那我們想要的是什么呢?自然就是我們的偽裝線索了。所以我們需要對(duì)我們的特征們做一些增強(qiáng)的處理,來(lái)幫助我們完成搜索的這樣一個(gè)任務(wù)。而我們用到的方法就是RF。我們來(lái)看一下具體是怎么樣實(shí)現(xiàn)的。首先我們把整個(gè)模塊分為5個(gè)分支,這五個(gè)分支都進(jìn)行了1×1的卷積降維,我們都知道,空洞卷積的提出,其目的就是為了增大感受野,所以我們對(duì)第一個(gè)分支進(jìn)行空洞數(shù)為3的空洞卷積,對(duì)第二個(gè)分支進(jìn)行空洞數(shù)為5的空洞卷積,對(duì)第3個(gè)分支進(jìn)行空洞數(shù)為7的空洞卷積,然后將前四個(gè)分支的特征圖拼接起來(lái),這時(shí)候,我們?cè)俨捎靡粋€(gè)1×1卷積降維的操作,與第五個(gè)分支進(jìn)行相加的操作,最后輸出增強(qiáng)后的特征圖。

94050652-7e43-11eb-8b86-12bb97331649.jpg

這個(gè)RF的結(jié)構(gòu)來(lái)自于ECCV2018的一篇論文《 Receptive field block net for accurate and fast object detection》,其作用就是幫助我們獲得足夠的感受野。

我們用RF對(duì)感受野增大來(lái)進(jìn)行搜索,那么搜索過(guò)后,我們得到了增強(qiáng)后的候選特征。我們要從候選特征得到我們最后要的偽裝目標(biāo)的檢測(cè)結(jié)果,這里我們用到的方法是PDC模塊(即是部分解碼組件)。

具體操作是這樣的,所以接下來(lái)就應(yīng)該是對(duì)它們進(jìn)行處理了逐元素相乘方式來(lái)減少相鄰特征之間的差距。我們把RF增強(qiáng)后的特征圖作為輸入,輸入到網(wǎng)絡(luò)里面。首先對(duì)低層的進(jìn)行一個(gè)上采樣,然后進(jìn)行3×3的卷積操作(這里面包含了卷積層,BN層還有Relu層),然后與更高一層的特征圖進(jìn)行乘法的這樣一個(gè)操作,我們?yōu)槭裁词褂弥鹪叵喑四兀恳驗(yàn)橹鹪叵喑朔绞侥軠p少相鄰特征之間的差距。然后我們?cè)倥c輸入的低層特征進(jìn)行拼接。

943d0340-7e43-11eb-8b86-12bb97331649.jpg

我們前面提到了,我們利用增強(qiáng)后的特征通過(guò)PDC得到了我們想要得到的檢測(cè)結(jié)果,但這樣的一個(gè)結(jié)果足夠精細(xì)嗎?其實(shí),這樣得到的檢測(cè)結(jié)果是比較粗略的。這是為什么呢?這是因?yàn)槲覀兊奶卣髦g并不是有和偽裝檢測(cè)不相關(guān)的特征?對(duì)于這樣的多余的特征,我們要消滅掉。我們將前面得到的檢測(cè)圖稱之為,而我們要得到精細(xì)的結(jié)果圖,就得使用我們的注意力機(jī)制了。這里我們引入了搜索注意力,具體是怎么實(shí)現(xiàn)的呢?大家想一想我們前面把特征分成了低層特征、高層特征還有中層特征。我們平時(shí)一般都叫低層特征和高層特征,很少有提到中層特征的。其實(shí)我們這里這樣叫,是有打算的,我們認(rèn)為中層特征他既不像低層特征那么淺顯,也不像高層特征那樣抽象,所以我們對(duì)他進(jìn)行一個(gè)卷積操作(但是我們的卷積核用的是高斯核函數(shù)方差取32,核的尺寸我們?nèi)?,我們學(xué)過(guò)數(shù)字圖像處理,都知道這樣的一個(gè)操作能起到一個(gè)濾波的作用,我們的不相關(guān)特征能被過(guò)濾掉)但是有同學(xué)就會(huì)問(wèn)了,那你這樣一過(guò)濾,有用的特征不也過(guò)濾掉了嗎?基于這樣的考慮,我們把過(guò)濾后的特征圖與剛才的這個(gè)再來(lái)做一個(gè)函數(shù),什么函數(shù)呢?就是一個(gè)最大化函數(shù),這樣我們不就能來(lái)突出偽裝圖初始的偽裝區(qū)域了嗎?

SINet整體的框架如圖所示:

94cda62a-7e43-11eb-8b86-12bb97331649.jpg

講了這么多,我們最后來(lái)看看實(shí)驗(yàn)的效果,通過(guò)對(duì)這三篇文章的復(fù)現(xiàn),我得到了下面的這樣一些結(jié)果。

951437b6-7e43-11eb-8b86-12bb97331649.jpg

可以看出,在精度指標(biāo)的評(píng)價(jià)方面,SINet相比于其他兩種方法都有很大提升,而PFANet模型結(jié)構(gòu)雖然很簡(jiǎn)單,但他的效果也是最差的。

下面我們?cè)倏纯纯梢暬男Ч?/p>

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2843

    瀏覽量

    53356
  • 檢測(cè)
    +關(guān)注

    關(guān)注

    5

    文章

    4871

    瀏覽量

    94215
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124482

原文標(biāo)題:詳解基于深度學(xué)習(xí)的偽裝目標(biāo)檢測(cè)

文章出處:【微信號(hào):cas-ciomp,微信公眾號(hào):中科院長(zhǎng)春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    行業(yè)市場(chǎng)具備深度學(xué)習(xí)能力的視覺(jué)系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺(jué)算法工程師全國(guó)缺口15萬(wàn)+,缺陷檢測(cè)專(zhuān)項(xiàng)人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    行業(yè)市場(chǎng)具備深度學(xué)習(xí)能力的視覺(jué)系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺(jué)算法工程師全國(guó)缺口15萬(wàn)+,缺陷檢測(cè)專(zhuān)項(xiàng)人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-03 13:50

    電壓放大器在全導(dǎo)波場(chǎng)圖像目標(biāo)識(shí)別的損傷檢測(cè)實(shí)驗(yàn)的應(yīng)用

    圖像目標(biāo)識(shí)別的智能損傷檢測(cè)方法,通過(guò)結(jié)合超聲導(dǎo)波檢測(cè)技術(shù)與深度學(xué)習(xí)算法,系統(tǒng)探究了損傷引起的波場(chǎng)畸變特性及其識(shí)別機(jī)制。 測(cè)試設(shè)備:掃描激光多
    的頭像 發(fā)表于 12-02 11:37 ?319次閱讀
    電壓放大器在全導(dǎo)波場(chǎng)圖像<b class='flag-5'>目標(biāo)</b>識(shí)別的損傷<b class='flag-5'>檢測(cè)</b>實(shí)驗(yàn)的應(yīng)用

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?253次閱讀

    廣和通發(fā)布端側(cè)目標(biāo)檢測(cè)模型FiboDet

    為提升端側(cè)設(shè)備視覺(jué)感知與決策能力,廣和通全自研端側(cè)目標(biāo)檢測(cè)模型FiboDet應(yīng)運(yùn)而生。該模型基于廣和通在邊緣計(jì)算與人工智能領(lǐng)域的深度積累,面向工業(yè)、交通、零售等多個(gè)行業(yè)提供高性能、低功耗、高性價(jià)比的視覺(jué)
    的頭像 發(fā)表于 09-26 13:39 ?1643次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或
    的頭像 發(fā)表于 09-10 17:38 ?950次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    【機(jī)器視覺(jué)】睿擎平臺(tái)支持NCNN AI 推理框架,輕松實(shí)現(xiàn)實(shí)時(shí)目標(biāo)檢測(cè)( 睿擎線下 Workshop 報(bào)名已開(kāi)啟)|產(chǎn)品動(dòng)

    在工業(yè)4.0與邊緣計(jì)算加速發(fā)展的背景下,嵌入式設(shè)備的實(shí)時(shí)目標(biāo)檢測(cè)能力已成為智能制造等領(lǐng)域的核心技術(shù)需求。然而,移動(dòng)端設(shè)備受限于算力與能耗,傳統(tǒng)深度學(xué)習(xí)框架難以兼顧效率與精度。為此,睿擎
    的頭像 發(fā)表于 08-20 17:40 ?5307次閱讀
    【機(jī)器視覺(jué)】睿擎平臺(tái)支持NCNN AI 推理框架,輕松實(shí)現(xiàn)實(shí)時(shí)<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>( 睿擎線下 Workshop 報(bào)名已開(kāi)啟)|產(chǎn)品動(dòng)

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    是基于百度飛槳深度學(xué)習(xí)框架開(kāi)發(fā)的一個(gè)高效的目標(biāo)檢測(cè)庫(kù),支持多種先進(jìn)的目標(biāo)檢測(cè)模型,如 YOLO
    發(fā)表于 06-06 14:43

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測(cè)篇)

    基于深度學(xué)習(xí)對(duì)運(yùn)維時(shí)序指標(biāo)進(jìn)行異常檢測(cè),快速發(fā)現(xiàn)線上業(yè)務(wù)問(wèn)題 時(shí)間序列的異常檢測(cè)是實(shí)際應(yīng)用中的一個(gè)關(guān)鍵問(wèn)題,尤其是在 IT 行業(yè)。我們沒(méi)有采用傳統(tǒng)的基于閾值的方法來(lái)實(shí)現(xiàn)異常
    的頭像 發(fā)表于 05-22 16:38 ?1065次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常<b class='flag-5'>檢測(cè)</b>篇)

    基于RK3576開(kāi)發(fā)板的車(chē)輛檢測(cè)算法

    車(chē)輛檢測(cè)是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位的目標(biāo)檢測(cè),能廣泛的用于園區(qū)管理、交通分析等多種場(chǎng)景
    的頭像 發(fā)表于 05-08 17:34 ?1544次閱讀
    基于RK3576開(kāi)發(fā)板的車(chē)輛<b class='flag-5'>檢測(cè)</b>算法

    基于RV1126開(kāi)發(fā)板的車(chē)輛檢測(cè)算法開(kāi)發(fā)

    車(chē)輛檢測(cè)是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位的目標(biāo)檢測(cè),能廣泛的用于園區(qū)管理、交通分析等多種場(chǎng)景
    的頭像 發(fā)表于 04-14 16:00 ?897次閱讀
    基于RV1126開(kāi)發(fā)板的車(chē)輛<b class='flag-5'>檢測(cè)</b>算法開(kāi)發(fā)

    基于RV1126開(kāi)發(fā)板的吸煙檢測(cè)算法開(kāi)發(fā)

    吸煙檢測(cè)是一種基于深度學(xué)習(xí)的對(duì)抽煙人群進(jìn)行檢測(cè)定位的目標(biāo)檢測(cè),能廣泛的用于安防、生產(chǎn)安全、園區(qū)管
    的頭像 發(fā)表于 04-14 15:37 ?768次閱讀
    基于RV1126開(kāi)發(fā)板的吸煙<b class='flag-5'>檢測(cè)</b>算法開(kāi)發(fā)

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28