91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習部分監(jiān)督的實例分割環(huán)境

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-10-21 14:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

實例分割的任務是將圖像中的像素分組為單個事物的實例,并用類標簽(可計數(shù)的對象,如人、動物、汽車等,并為每個對象分配獨特的標識符,如 car_1 和 car_2)來標識這些事物。實例分割作為一項核心的計算機視覺任務,對許多下游應用至關重要,如自動駕駛汽車、機器人醫(yī)學成像和照片編輯。

近年來,深度學習 (Deep learning) 在使用 Mask R-CNN 之類的架構解決實例分割問題方面取得了重大進展。然而,這些方法依賴于收集大型的標簽實例分割數(shù)據(jù)集。但不同于收集邊界框標簽的方法,如 Extreme clicking,可以實現(xiàn)每個實例 7 秒的收集速度,收集實例分割標簽(稱為“掩碼”)時,每個實例用時可能需要高達 80 秒,該方式較高的成本,拉高了這項研究的門檻。另一個相關任務——泛型分割,甚至需要更多的標簽數(shù)據(jù)。

Mask R-CNN

https://arxiv.org/abs/1703.06870

Extreme clicking

https://arxiv.org/abs/1708.02750

高達 80 秒

https://arxiv.org/abs/1405.0312

部分監(jiān)督的實例分割環(huán)境(即只用實例分割掩碼給一小部分類加標簽,其余大部分類只用邊界框來加標簽)這一方法有可能減少對人工創(chuàng)建的掩碼標簽的依賴,從而大大降低開發(fā)實例分割模型的門檻。不過,這種部分監(jiān)督的方法也需要更強的模型泛化形式來處理訓練時沒有遇到過的新類別,例如,只用動物掩碼進行訓練,然后讓模型針對建筑物或植物產(chǎn)生準確的實例分割。此外,還有簡單的方法,例如訓練一個與類無關的 Mask R-CNN,同時忽略任何沒有掩碼標簽的實例的掩碼損失 (Loss function),但這些方法效果并不好。例如,在典型的 “VOC/Non-VOC” 基準中,Mask R-CNN 針對 COCO 中 20 個類的子集(稱為“已見類”)進行掩碼訓練,并在其余 60 個類(稱為“未見類”)上進行測試,一個帶有 Resnet-50 主干的典型 Mask R-CNN 在未見類上的 掩碼 mAP(即平均精度,數(shù)值越高越好)只能達到約 18%,而在全監(jiān)督時,在同一集合上的掩碼 mAP 則高出很多,超過了 34%。

部分監(jiān)督的實例分割環(huán)境

https://arxiv.org/abs/1711.10370

在即將發(fā)布于 ICCV 2021 的“掩碼頭部架構對新類別分割的驚人影響 (The surprising impact of mask-head architecture on novel class segmentation)”一文中,我們確定了 Mask R-CNN 在新類別上表現(xiàn)不佳的主要原因,并提出了兩個易于實施的修復方法(訓練協(xié)議修復;掩碼頭部架構修復),這兩種方法協(xié)同作用,可以縮小與全監(jiān)督性能之間的差距。

掩碼頭部架構對新類別分割的驚人影響

https://arxiv.org/abs/2104.00613

我們證明了這種方法普遍適用于裁剪-分割模型,即 Mask R-CNN 或類似 Mask R-CNN 的架構:計算整個圖像的特征表征,然后將每個實例的裁剪傳遞給第二階段的掩碼預測網(wǎng)絡(也稱為掩碼頭部網(wǎng)絡)。對發(fā)現(xiàn)結果進行整合,我們提出了基于 Mask R-CNN 的模型,該模型的掩碼 mAP 遠高于目前最先進的模型,提升了 4.7%,且無需更復雜的輔助損失函數(shù)、離線訓練的先驗因素或先前研究中提出的權重轉移函數(shù)。我們還開放了該模型兩個版本的代碼庫,分別稱為 Deep-MAC 和 Deep-MARC,并發(fā)布了一個 colab,從而以互動方式生成掩碼,如下面的視頻演示所示。

Deep-MAC

https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/deepmac.md

Deep-MARC

https://github.com/tensorflow/models/tree/master/official/vision/beta/projects/deepmac_maskrcnn

colab

https://github.com/tensorflow/models/blob/master/research/object_detection/colab_tutorials/deepmac_colab.ipynb

模型 DeepMAC 的演示版,即使是訓練時未見過的類,該模型也可以學習預測準確的掩碼,以及給定用戶所指定的邊框。親自在 colab 中試試吧。圖片來源:Chris Briggs、維基百科和 Europeana

部分監(jiān)督環(huán)境中裁剪方法的影響

裁剪是裁剪-分割模型的一個重要步驟,通過裁剪特征圖以及對應每個實例的邊界框的實際掩碼來訓練 Mask R-CNN。將這些裁剪過的特征傳遞給另一個神經(jīng)網(wǎng)絡(稱為掩碼頭部網(wǎng)絡),該網(wǎng)絡計算出最終的掩碼預測,然后將其與掩碼損失函數(shù)中的實際裁剪進行比較。裁剪有兩種選擇:(1) 直接對實例的實際邊界框進行裁剪, (2) 對模型預測的邊界框(稱為建議)進行裁剪。在測試時始終通過建議來執(zhí)行裁剪,因為要假設實際邊界框不可用。

“對實際邊界框的裁剪”對比“訓練過程中對模型預測的建議裁剪”。標準 Mask R-CNN 實現(xiàn)使用上述兩種類型的裁剪,但我們已經(jīng)證明,只對實際邊界框進行裁剪在新類別上表現(xiàn)出顯著的性能優(yōu)勢

我們考慮了一個類似于 Mask R-CNN 的一般架構系列,與典型的 Mask R-CNN 訓練環(huán)境相比,存在一個微小但關鍵的區(qū)別:我們在訓練時使用實際邊界框(而不是建議邊界框)裁剪

典型的 Mask R-CNN 實現(xiàn)將兩種類型的裁剪都傳遞給掩碼頭部。然而,在傳統(tǒng)的觀點中,這個選擇是一個不重要的實施細節(jié),因為它在全監(jiān)督環(huán)境中不會對性能產(chǎn)生顯著影響。相反,對于部分監(jiān)督環(huán)境,我們發(fā)現(xiàn)裁剪方法起著重要的作用,雖然在訓練過程中,只對實際邊界框進行裁剪不會使全監(jiān)督環(huán)境下的結果發(fā)生明顯變化,但在部分監(jiān)督環(huán)境中卻有著驚人的顯著積極影響,在未見類上的表現(xiàn)明顯改善。

利用建議和實際邊界框(默認設置)或只用實際邊界框進行訓練時,Mask R-CNN 在未見類上的性能。只用實際邊界框訓練掩碼頭部時,在未見類上的性能有明顯的提升,mAP 超過 9%。我們報告了 ResNet-101-FPN 主干加持下的性能

ResNet-101-FPN

https://arxiv.org/pdf/1703.06870.pdf

解鎖掩碼頭部的完全泛化潛力

更令人驚訝的是,上述方法引發(fā)了一個新現(xiàn)象:在訓練過程中啟用實際裁剪, Mask R-CNN 的掩碼頭部對模型的泛化能力(泛化至未見類)起著異常重要的作用。舉個例子,我們在下圖中比較了幾個模型,對象為停車計時器、手機和披薩(訓練期間未見過的類)。每個模型都已啟用實際邊界框裁剪,但使用的開箱即用掩碼頭部架構不同。

使用四種不同的掩碼頭部架構對未見類進行掩碼預測(從左到右分別是:ResNet-4、ResNet-12、ResNet-20、Hourglass-20,其中數(shù)字是指神經(jīng)網(wǎng)絡的層數(shù))盡管從未見過“停車計時器”、“披薩”或“手機”類中的掩碼,但最右的掩碼頭部架構可以正確分割這些類。我們展示的掩碼頭部架構在掩碼預測方面的性能從左到右依次遞增。此外,這種差異只有在未見類上進行評估時才比較明顯,如果在已見類上進行評估,所有四個架構會表現(xiàn)出類似的性能

ResNet-4

https://arxiv.org/abs/1512.03385

ResNet-12

https://arxiv.org/abs/1512.03385

ResNet-20

https://arxiv.org/abs/1512.03385

Hourglass-20

https://arxiv.org/abs/1603.0693

特別需要注意的是,在全監(jiān)督環(huán)境中,掩碼頭部架構之間在這些方面的差異并不明顯。順便說一下,這可能解釋了為什么先前的實例分割研究幾乎只使用淺層(即低層數(shù))掩碼頭部,因為增加復雜性無法帶來任何優(yōu)勢。下面我們比較了三種不同的掩碼頭部架構在已見與未見類上的掩碼 mAP。所有這三種模型在已見類的集合上展現(xiàn)了同樣優(yōu)越的性能,但應用于未見類時,深沙漏型掩碼頭部脫穎而出。我們發(fā)現(xiàn),在所嘗試的架構中,沙漏型掩碼頭部效果是最好的,并且在使用 50 層以上的沙漏型掩碼頭部時獲得了最佳結果。

ResNet-4、Hourglass-10 和 Hourglass-52 掩碼頭部架構在已見類和未見類上的性能。盡管在已見類上的性能幾乎沒有變化,但在未見類上的性能卻有很大差別

沙漏型

https://arxiv.org/abs/1603.06937

最后,我們證明這一發(fā)現(xiàn)具有普遍性,適用于各種主干(如 ResNet、SpineNet 和 Hourglass)和檢測器架構,包括基于錨和無錨的檢測器,甚至在根本沒有檢測器的情況下也適用。

基于錨

https://arxiv.org/abs/1506.01497

無錨的檢測器

https://arxiv.org/abs/1904.07850

總結

為了得出最完善的結果,我們整合了上述發(fā)現(xiàn):我們在高分辨率圖像 (1280x1280) 上利用 SpineNet 主干訓練了一個啟用實際邊界框裁剪且?guī)в猩?Hourglass-52 掩碼頭部的 Mask R-CNN 模型。我們稱此模型為 Deep-MARC (Deep Mask heads Above R-CNN)。在不使用任何離線訓練或其他手動先驗因素的情況下,Deep-MARC 超過了之前最先進的模型,掩碼 mAP 提高了 4.5%(絕對值)以上。為證明這種方法的普遍性,我們還訓練了基于 CenterNet(而非基于 Mask R-CNN)的模型(稱為 Deep-MAC),該模型同樣展現(xiàn)出強大的性能,也超越了之前最先進的水平。

結論

我們開發(fā)的實例分割模型能夠泛化到不屬于訓練集的類。這其中要強調兩個關鍵因素的作用,這兩個因素可以應用于任何裁剪-分割模型(如 Mask R-CNN):(1) 訓練過程中的實際邊界框裁剪, (2) 強大的掩碼頭部架構。雖然這兩個因素對訓練期間有掩碼的類影響不大,但在訓練期間沒有掩碼的新類別上,采用這兩個因素會帶來明顯的改善。此外,這兩個因素足以在部分監(jiān)督的 COCO 基準上實現(xiàn)最先進的性能。最后,我們的研究結果具有普遍性,也可能對相關的任務產(chǎn)生影響,如全景分割和姿勢預測。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3751

    瀏覽量

    52093
  • 架構
    +關注

    關注

    1

    文章

    532

    瀏覽量

    26587
  • 深度學習
    +關注

    關注

    73

    文章

    5598

    瀏覽量

    124385

原文標題:重新審視模型架構的掩碼頭部,用于新類別實例分割

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    強化學習會讓自動駕駛模型學習更快嗎?

    是一種讓機器通過“試錯”學會決策的辦法。與監(jiān)督學習不同,監(jiān)督學習是有人提供示范答案,讓模型去模仿;而強化學習不會把每一步的“正確答案”都告訴你,而是把環(huán)境、動作和結果連起來,讓機器自己
    的頭像 發(fā)表于 01-31 09:34 ?636次閱讀
    強化<b class='flag-5'>學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?

    機器學習深度學習中需避免的 7 個常見錯誤與局限性

    無論你是剛入門還是已經(jīng)從事人工智能模型相關工作一段時間,機器學習深度學習中都存在一些我們需要時刻關注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關注數(shù)據(jù)、模型架構
    的頭像 發(fā)表于 01-07 15:37 ?181次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學習

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境中均可正常工作。 測量原理 利用頂頭與周圍的物質(水、空氣、導盤等)紅外輻射能量的差異,用熱成像相機拍攝出清晰的圖片,再通過深度學習短時間內深度
    發(fā)表于 12-22 14:33

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領域主流開發(fā)環(huán)境,LabVIEW與深度學習的集成
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領域主流開發(fā)環(huán)境,LabVIEW與深度學習的集成
    發(fā)表于 12-03 13:50

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質量評估:基于學習的外觀質量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?218次閱讀

    手機板 layout 走線跨分割問題

    學習layout時,都在說信號線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對。 在后續(xù)工作中,跨分割的基礎都是相鄰層有一面完整的GND參考,跨
    發(fā)表于 09-16 14:56

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡”、“黑箱”、“標注”等術語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?897次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經(jīng)網(wǎng)絡

    深度學習對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡的層級結構,能夠自動從海量工業(yè)數(shù)據(jù)中提取復雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1020次閱讀

    自動駕駛中Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是在自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4181次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    EL非監(jiān)督分割白皮書丨5張OK圖、1分鐘建模、半小時落地的異常檢測工具!

    ,阿丘科技全新發(fā)布《EL非監(jiān)督分割白皮書》,揭秘一款極致速度、零門檻操作、穩(wěn)定可靠的AI質檢神器,解決柔性產(chǎn)線換型慢、未知缺陷難捕捉等行業(yè)難題。傳統(tǒng)檢測技術的三大
    的頭像 發(fā)表于 07-11 15:21 ?646次閱讀
    EL非<b class='flag-5'>監(jiān)督</b><b class='flag-5'>分割</b>白皮書丨5張OK圖、1分鐘建模、半小時落地的異常檢測工具!

    提高IT運維效率,深度解讀京東云AIOps落地實踐(異常檢測篇)

    基于深度學習對運維時序指標進行異常檢測,快速發(fā)現(xiàn)線上業(yè)務問題 時間序列的異常檢測是實際應用中的一個關鍵問題,尤其是在 IT 行業(yè)。我們沒有采用傳統(tǒng)的基于閾值的方法來實現(xiàn)異常檢測,而是通過深度
    的頭像 發(fā)表于 05-22 16:38 ?1019次閱讀
    提高IT運維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實踐(異常檢測篇)

    使用MATLAB進行無監(jiān)督學習

    監(jiān)督學習是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)中隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1433次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學習</b>

    labview調用yolo目標檢測、分割、分類、obb

    labview調用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    如何排除深度學習工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學習工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31