91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟亞洲研究院視覺計(jì)算組又一個(gè)令人拍案叫絕的操作

DPVg_AI_era ? 來源:lq ? 2018-11-30 09:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟亞洲研究院視覺計(jì)算組又一個(gè)令人拍案叫絕的操作:可變形卷積網(wǎng)絡(luò)v2版!DCNv2方法簡單,結(jié)果更好,在COCO基準(zhǔn)測試中比上個(gè)版本提升了5個(gè)點(diǎn)。

同樣的物體在圖像中可能呈現(xiàn)出不同的大小、姿態(tài)、視角變化甚至非剛體形變,如何適應(yīng)這些復(fù)雜的幾何形變是物體識(shí)別的主要難點(diǎn),也是計(jì)算機(jī)視覺領(lǐng)域多年來關(guān)注的核心問題。

去年,微軟亞洲研究院視覺計(jì)算組提出了 “Deformable Convolutional Networks”(可變形卷積網(wǎng)絡(luò)),首次在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中引入了學(xué)習(xí)空間幾何形變的能力,得到可變形卷積網(wǎng)絡(luò)(Deformable ConvNets),從而更好地解決了具有空間形變的圖像識(shí)別任務(wù)。

通俗地說,圖像中的物體形狀本來就是千奇百怪,方框型的卷積核,即使卷積多次反卷積回去仍然是方框,不能真實(shí)表達(dá)物體的形狀,如果卷積核的形狀是可以變化的,這樣卷積后反卷積回去就可以形成一個(gè)多邊形,更貼切的表達(dá)物體形狀,從而可以更好地進(jìn)行圖像分割和物體檢測。

研究員們通過大量的實(shí)驗(yàn)結(jié)果驗(yàn)證了該方法在復(fù)雜的計(jì)算機(jī)視覺任務(wù)(如目標(biāo)檢測和語義分割)上的有效性,首次表明在深度卷積神經(jīng)網(wǎng)絡(luò)(deep CNN)中學(xué)習(xí)空間上密集的幾何形變是可行的。

但這個(gè)Deformable ConvNets也有缺陷,例如,激活單元的樣本傾向于集中在其所在對象的周圍。然而,對象的覆蓋是不精確的,顯示出超出感興趣區(qū)域的樣本的擴(kuò)散。在使用更具挑戰(zhàn)性的COCO數(shù)據(jù)集進(jìn)行分析時(shí),研究人員發(fā)現(xiàn)這種傾向更加明顯。這些研究結(jié)果表明,學(xué)習(xí)可變形卷積還有更大的可能性。

昨天,MSRA視覺組發(fā)布可變形卷積網(wǎng)絡(luò)的升級(jí)版本:Deformable ConvNets v2 (DCNv2),論文標(biāo)題也相當(dāng)簡單粗暴:更加可變形,更好的結(jié)果!

論文地址:

https://arxiv.org/pdf/1811.11168.pdf

DCNv2具有更強(qiáng)的學(xué)習(xí)可變形卷積的建模能力,體現(xiàn)在兩種互補(bǔ)的形式:

第一種是網(wǎng)絡(luò)中可變形卷積層的擴(kuò)展使用。配備具有offset學(xué)習(xí)能力的更多卷積層允許DCNv2在更廣泛的特征級(jí)別上控制采樣。

第二種是可變形卷積模塊中的調(diào)制機(jī)制,其中每個(gè)樣本不僅經(jīng)過一個(gè)學(xué)習(xí)的offset,而且還被一個(gè)學(xué)習(xí)特征調(diào)制。因此,網(wǎng)絡(luò)模塊能夠改變其樣本的空間分布和相對影響。

為了充分利用DCNv2增強(qiáng)的建模能力,需要進(jìn)行有效的訓(xùn)練。受神經(jīng)網(wǎng)絡(luò)的knowledge distillation這一工作的啟發(fā),我們利用教師網(wǎng)絡(luò)來實(shí)現(xiàn)這一目的,教師在訓(xùn)練期間提供指導(dǎo)。

具體來說,我們利用R-CNN作為教師網(wǎng)絡(luò)。由于它是訓(xùn)練用于對裁剪圖像內(nèi)容進(jìn)行分類的網(wǎng)絡(luò),因此R-CNN學(xué)習(xí)的特征不受感興趣區(qū)域之外無關(guān)信息的影響。為了模仿這個(gè)屬性,DCNv2在其訓(xùn)練中加入了一個(gè)特征模擬損失,這有利于學(xué)習(xí)與R-CNN一致的特征。通過這種方式,DCNv2得到強(qiáng)大的訓(xùn)練信號(hào),用于增強(qiáng)可變形采樣。

通過這些改變,可變形模塊仍然是輕量級(jí)的,并且可以容易地結(jié)合到現(xiàn)有網(wǎng)絡(luò)架構(gòu)中。

具體而言,我們將DCNv2合并到Faster R-CNN 和Mask R-CNN 系統(tǒng),并具有各種backbone網(wǎng)絡(luò)。在COCO基準(zhǔn)測試上的大量實(shí)驗(yàn)證明了DCNv2相對于DCNv1在物體檢測和實(shí)例分割方面都有顯著改進(jìn)。

我們將在不久后發(fā)布DCNv2的代碼。

圖1:常規(guī)ConvNet、DCNv1以及DCNv2中conv5 stage最后一層節(jié)點(diǎn)的空間支持。

圖3:利用R-CNN feature mimicking的訓(xùn)練

結(jié)果

表4:COCO 2017 test-dev set 中各種backbones上的DCNv2、DCNv1和regular ConvNets的結(jié)果。

圖4:在COCO 2017 test-dev set不同分辨率的輸入圖像上,DCNv2和regular ConvNets(Faster R-CNN + ResNet-50 / ResNet-101)的APbbox分?jǐn)?shù)。

表6:DCNv2、DCNv1和regular ConvNets的ImageNet分類準(zhǔn)確度。

可以看到,Deformable ConvNets v2的結(jié)果相當(dāng)亮眼!下面,我們精選了兩篇業(yè)內(nèi)對這篇論文的評(píng)價(jià),經(jīng)授權(quán)發(fā)布:

業(yè)界良心DCNV2:方法簡單,結(jié)果好,分析充分

知乎用戶Bowen Cheng的評(píng)價(jià):

一周前就聽說 Jifeng 組做出了Deformable ConvNet V2(DCNV2),今天 Jifeng 告訴我 paper 已經(jīng)掛 ArXiv 上之后果斷放下所有事把這篇 paper 好好讀了讀。感覺這個(gè)工作特別 solid,果然沒有讓人失望。下面簡單談?wù)剛€(gè)人對這篇 paper 的理解,可能有不對的地方請大家多多指點(diǎn)!

DCNV2 首先用了更好的 visualization 來更深入的理解 DCNV1 為什么 work 以及還存在什么缺陷,發(fā)現(xiàn)存在的問題就是因?yàn)?offset 不可控導(dǎo)致引入了過多的 context,而這些 context 可能是有害的([1]和 [2] 中也說明了這些 context 可能是有害的)。

解決方法也很簡單粗暴:

(1) 增加更多的 Deformable Convolution

(2)讓 Deformable Conv 不僅能學(xué)習(xí) offset,還能學(xué)習(xí)每個(gè)采樣點(diǎn)的權(quán)重(modulation)

(3)模擬 R-CNN 的 feature(knowledge distillation)

(1) 就不用說了,在 DCNV1 中只有 ResNet 的 Conv5 stage 中有 Deformable Conv,在 DCNV2 中把 Conv3-Conv5 的 3x3 convolution 都換成了 Deformable Conv

(2) 在 DCNV1 里,Deformable Conv 只學(xué)習(xí) offset:

而在 DCNV2 中,加入了對每個(gè)采樣點(diǎn)的權(quán)重:

其中是學(xué)到的 offset,是學(xué)到的權(quán)重。這樣的好處是增加了更大的自由度,對于某些不想要的采樣點(diǎn)權(quán)重可以學(xué)成 0。

(3) [1] 中作者(好吧,其實(shí)作者是我)發(fā)現(xiàn)把 R-CNN 和 Faster RCNN 的 classification score 結(jié)合起來可以提升 performance,說明 R-CNN 學(xué)到的 focus 在物體上的 feature 可以解決 redundant context 的問題。但是增加額外的 R-CNN 會(huì)使 inference 速度變慢很多。DCNV2 里的解決方法是把 R-CNN 當(dāng)做 teacher network,讓 DCNV2 的 ROIPooling 之后的 feature 去模擬 R-CNN 的 feature。(圖里畫的很清楚了)

其中 feature mimic 的 loss 定義是:

在 end-to-end train 的時(shí)候這個(gè) loss 給了一個(gè) 0.1 的 weight。

實(shí)驗(yàn)結(jié)果大家看 paper 就好了,在 ResNet-50 backbone COCO 上跟 DCNV1 比漲了 5 個(gè)點(diǎn)!這比目前大部分 detection paper 靠東拼西湊漲的那一兩個(gè)點(diǎn)要強(qiáng)多了。我驚訝的是和 DCNV1 對比,在 image classification 上也有很大的提升。

說說自己的想法吧,DCNV2 方法簡單,結(jié)果好,分析充分,我覺得和近期各種 detection paper 比算是業(yè)界良心了。我覺得還有可以學(xué)習(xí)的一點(diǎn)就是 context 的問題。很多 detection 的 paper 都在引入 context(大家都 claim 說小物體需要引入 context 來解決),其實(shí)我個(gè)人覺得有點(diǎn)在扯淡,物體小最直接的方法難道不是放大物體來解決嗎?比如 SNIP/SNIPER 都是在 “放大” 物體。所以在 context 這個(gè)問題上我(詳情見 [1] 和[2])跟 Jifeng 他們的看法是一樣的,我們也許不需要那么多沒用的 context。作者都是熟人,我也不多吹了,反正我是準(zhǔn)備去 follow 這個(gè)工作了哈哈。

最后說說 DCN 有一個(gè)小缺點(diǎn),其實(shí)就是速度的問題。因?yàn)闆]有 cudnn 的加速,DCN 完全是靠 im2col 實(shí)現(xiàn)的(從目前的 MXNet 版本來看是這樣的),當(dāng) batchsize 大的時(shí)候我感覺速度會(huì)比有 cudnn 加速的 3x3 conv 慢。很好奇當(dāng) batchsize 大的時(shí)候(比如 ImageNet)的 training 時(shí)間會(huì)慢多少。希望以后能和 dilated convolution 一樣被加到 cudnn 里支持吧。

發(fā)現(xiàn)好多人好像沒有看過 [1][2],放張 network 的圖(宣傳一下自己的工作),DCN V2 的 mimic R-CNN 和 DCR V1 的結(jié)構(gòu)類似,但是通過 knowledge distillation 很巧妙的在 inference 階段把 R-CNN 給去掉了。

[1] Revisiting RCNN: On Awakening the Classification Power of Faster RCNN

[2] Decoupled Classification Refinement: Hard False Positive Suppression for Object Detection

創(chuàng)新性與性能雙贏,COCO漲了5個(gè)點(diǎn)!

知乎用戶孔濤的評(píng)價(jià):

首先祭出結(jié)論,這是一篇干貨滿滿,novelty 和 performance 雙贏的 paper(COCO 直接漲了~ 5 個(gè)點(diǎn)?。?/p>

自己一直在做 object detection 相關(guān)的工作,再加上之前在 MSRA 跟 Jifeng 及 CV 組的小伙伴共事過一段時(shí)間,努力給出客觀的評(píng)價(jià)吧。

從 Deform ConvNet V1 說起

目標(biāo)檢測中有一個(gè)比較棘手的問題,即所謂的幾何形變問題(Geometric variations)。就拿人檢測來講,人的姿態(tài)有多種多樣(想想跳舞的場景),這就需要我們設(shè)計(jì)的模型具備 deformation 的能力。通常情況下為了解決這類問題有兩種思路:(a) 收集更多樣的數(shù)據(jù)用于模型的訓(xùn)練;(b) 設(shè)計(jì) transformation invariant 的特征來提升模型多樣化能力。

Deform ConvNet 是在卷積神經(jīng)網(wǎng)絡(luò)的框架下,對 transformation-invariant feature 的比較成功的嘗試。思想非常直觀,在標(biāo)準(zhǔn)的卷積核上加入了可學(xué)習(xí)的 offset,使得原來方方正正的卷積核具備了形變的能力。

deformable convolution

用過的童鞋其實(shí)都知道,在大型的 object detection/instance segmentation 任務(wù)上的表現(xiàn)還蠻搶眼的。

Deform ConvNet V2 在干啥

我認(rèn)為,Deform ConvNet 是在解決如何讓學(xué)到的 offset 能更聚焦到感興趣的物體上邊,也就是提取到更聚焦的 feature 來幫助物體的識(shí)別定位。在下邊的圖片中,我們當(dāng)然希望模型的 feature 能夠聚焦到物體上邊,這樣才能提取到更有意義的 supporting feature。

為了做到這一點(diǎn),作者主要用了幾種策略:

(a) 增加更多的 offset 層,這個(gè)不必細(xì)說;

(b) 在 deform convolution 中引入調(diào)節(jié)項(xiàng) (modulation),這樣既學(xué)到了 offset,又有了每個(gè)位置的重要性信息;

(c) Feature Mimicking,作者強(qiáng)調(diào),簡單在對應(yīng)的 feature 上用 roi-pooling 來提取對應(yīng)位置的 feature 并不一定能提取到最有用的信息(可能包含無用的 context)。如何才能讓 feature 更加聚焦到物體上呢?解決就是 Mimicking 技術(shù),讓 roi-pooling 之后的 feature 更像直接用 R-CNN 學(xué)到的 feature。

其他

除了漂亮的結(jié)果,我覺得 paper 的可視化分析部分也挺值得好好看看的。

另外很難理解為什么 Feature Mimicking 在 regular Faster R-CNN 上不 work。

從最近的一些 paper 結(jié)果看,至少目前在 deep 的框架下,針對 task,讓模型提取更加有意義的 feature 是個(gè)比較熱 / 好的方向吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:MSRA視覺組可變形卷積網(wǎng)絡(luò)升級(jí)!更高性能,更強(qiáng)建模能力

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    MediaTek攜手微軟研究院聯(lián)合開發(fā)有源光纜技術(shù)

    MediaTek、微軟研究院以及其他供應(yīng)商所組成的研發(fā)團(tuán)隊(duì),成功設(shè)計(jì)出新代由微型化 MicroLED 光源驅(qū)動(dòng)的有源光纜(AOC)。這革命性的有源 MicroLED 光纜設(shè)計(jì),相較
    的頭像 發(fā)表于 03-19 14:20 ?210次閱讀

    匯誠儀器與中科微電子蘇州研究院合作,熱重分析儀助力科研創(chuàng)新

    近日,南京匯誠儀器儀表有限公司與中科微電子所蘇州產(chǎn)業(yè)技術(shù)研究院正式達(dá)成友好合作,研究院成功采購匯誠儀器自主研發(fā)生產(chǎn)的TGA-601S熱重分析儀,用于微電子材料領(lǐng)域的科研檢測與技術(shù)攻關(guān)。此次合作既是
    的頭像 發(fā)表于 02-05 16:20 ?1011次閱讀
    匯誠儀器與中科微電子蘇州<b class='flag-5'>研究院</b>合作,熱重分析儀助力科研創(chuàng)新

    誠邁科技攜手應(yīng)急管理大學(xué)、中鐵十九局共建智慧應(yīng)急科技創(chuàng)新研究院

    1月25日,由誠邁科技、應(yīng)急管理大學(xué)、中鐵十九局共同組建的智慧應(yīng)急科技創(chuàng)新研究院(以下簡稱“研究院”)在應(yīng)急管理大學(xué)南校區(qū)正式啟動(dòng)。應(yīng)急管理大學(xué)黨委書記趙峰華,中鐵十九局黨委常委、副總經(jīng)理趙琦,誠邁
    的頭像 發(fā)表于 01-27 11:51 ?589次閱讀
    誠邁科技攜手應(yīng)急管理大學(xué)、中鐵十九局共建智慧應(yīng)急科技創(chuàng)新<b class='flag-5'>研究院</b>

    喜報(bào)!洛微科技獲評(píng)“浙江省企業(yè)研究院”,技術(shù)實(shí)力再登新臺(tái)階

    近日,浙江省經(jīng)信廳正式公布省級(jí)企業(yè)研究院認(rèn)定名單,洛微科技憑借深厚技術(shù)實(shí)力申報(bào)的“浙江省硅光芯片集成激光雷達(dá)企業(yè)研究院”成功認(rèn)定該項(xiàng)殊榮。這既是政府部門對洛微科技在智能空間感知科研創(chuàng)新能力的高度認(rèn)可
    的頭像 發(fā)表于 01-19 16:01 ?540次閱讀
    喜報(bào)!洛微科技獲評(píng)“浙江省企業(yè)<b class='flag-5'>研究院</b>”,技術(shù)實(shí)力再登新臺(tái)階

    纖納光電獲得2025年度浙江省企業(yè)研究院認(rèn)定

    近日,浙江省經(jīng)濟(jì)和信息化廳發(fā)布2025年度擬認(rèn)定省企業(yè)研究院名單。經(jīng)企業(yè)申報(bào)、縣級(jí)審查、市級(jí)推薦、專家評(píng)審等程序,纖納光電建設(shè)的“浙江省纖納新能源鈣鈦礦技術(shù)企業(yè)研究院”成功入選。
    的頭像 發(fā)表于 12-16 17:31 ?1361次閱讀

    朗迅芯海半導(dǎo)體榮獲2025年度浙江省企業(yè)研究院認(rèn)定

    近日,浙江省經(jīng)濟(jì)和信息化廳正式公布2025年度省企業(yè)研究院認(rèn)定名單,朗迅芯海半導(dǎo)體憑借在集成電路先進(jìn)測試領(lǐng)域深厚的創(chuàng)新實(shí)力與技術(shù)積累,成功獲批“浙江省企業(yè)研究院”認(rèn)定。
    的頭像 發(fā)表于 12-11 15:59 ?721次閱讀

    廣電計(jì)量與長沙三大研究院達(dá)成戰(zhàn)略合作

    11月26-27日,廣電計(jì)量與長沙北斗產(chǎn)業(yè)安全技術(shù)研究院集團(tuán)股份有限公司(簡稱“長沙北斗研究院”)、長沙量子測量產(chǎn)業(yè)技術(shù)研究院有限公司(簡稱“長沙量子研究院”)、湖南大學(xué)長沙半導(dǎo)體技術(shù)
    的頭像 發(fā)表于 12-04 14:36 ?576次閱讀

    中科曙光南京研究院榮膺國家級(jí)專精特新“小巨人”企業(yè)

    近日,工業(yè)和信息化部公示第七批國家級(jí)專精特新“小巨人”企業(yè)名單,中科曙光南京研究院憑借在智能計(jì)算、人工智能領(lǐng)域的技術(shù)積淀、創(chuàng)新能力與行業(yè)實(shí)踐,成功入選并獲國家級(jí)權(quán)威認(rèn)證。
    的頭像 發(fā)表于 11-12 16:06 ?431次閱讀

    廣電計(jì)量攜手南山研究院打造大健康產(chǎn)業(yè)新生態(tài)

    10月19日, “南山研究院南海四周年系列活動(dòng)”在廣東省南山醫(yī)藥創(chuàng)新研究院(簡稱“南山研究院”)成功舉辦。期間,南山研究院與廣電計(jì)量等多家單位聯(lián)合共建的華南醫(yī)學(xué)健康功效循證評(píng)價(jià)中心正式
    的頭像 發(fā)表于 10-23 17:42 ?1180次閱讀

    京東方首個(gè)材料研究院項(xiàng)目開工

    2025年8月20日,BOE(京東方)材料研究院項(xiàng)目開工儀式在山東省煙臺(tái)市黃渤海新區(qū)八角片區(qū)成功舉辦。
    的頭像 發(fā)表于 08-22 09:12 ?1389次閱讀

    帝奧微車規(guī)芯片研究院獲得CNAS認(rèn)證

    近日,帝奧微車規(guī)芯片研究院通過中國合格評(píng)定國家認(rèn)可委員會(huì)(CNAS)評(píng)審,正式獲得CNAS認(rèn)證。
    的頭像 發(fā)表于 08-12 14:00 ?2111次閱讀

    今日看點(diǎn)丨亞馬遜上海AI研究院解散;索尼擬出售以色列芯片部門

    ? ? ? 1、 亞馬遜上海AI研究院解散! 據(jù)報(bào)道,AWS亞馬遜云科技上海AI研究院的首席應(yīng)用科學(xué)家王敏捷發(fā)朋友圈稱,他們收到通知,AWS亞馬遜云科技上海AI研究院(也是AWS最后
    發(fā)表于 07-24 09:42 ?1436次閱讀
    今日看點(diǎn)丨亞馬遜上海AI<b class='flag-5'>研究院</b>解散;索尼擬出售以色列芯片部門

    蘇州高新區(qū)聯(lián)合領(lǐng)軍企業(yè)研究院到訪智行者科技

    近日,蘇州高新區(qū)聯(lián)合領(lǐng)軍企業(yè)研究院率蘇州高新區(qū)內(nèi)20余家專精特新企業(yè)負(fù)責(zé)人蒞臨智行者參觀交流。
    的頭像 發(fā)表于 07-23 17:13 ?1212次閱讀

    勇藝達(dá)人工智能研究院迎大咖加盟

    近日,深圳勇藝達(dá)總部隆重舉行 “數(shù)智融合 聚賢賦能 —— 勇藝達(dá)人工智能研究院高端人才聘任儀式”,正式聘請黃道權(quán)先生與吳天準(zhǔn)先生加盟,為研究院注入頂尖智慧力量,此舉標(biāo)志著勇藝達(dá)在人工智能領(lǐng)域的戰(zhàn)略布局邁出關(guān)鍵步,也是踐行 “人
    的頭像 發(fā)表于 07-10 18:04 ?995次閱讀

    導(dǎo)遠(yuǎn)科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院達(dá)成合作

    近日,導(dǎo)遠(yuǎn)科技與清華大學(xué)無錫應(yīng)用技術(shù)研究院(以下簡稱:研究院)達(dá)成合作。導(dǎo)遠(yuǎn)科技將提供高精度定位產(chǎn)品及解決方案,以支持研究院在L4級(jí)自動(dòng)駕駛和人形機(jī)器人領(lǐng)域的技術(shù)研發(fā)及轉(zhuǎn)化落地。
    的頭像 發(fā)表于 06-12 16:34 ?1114次閱讀