91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

悉尼大學最新綜述:深度學習圖像摳圖

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-04-20 09:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像摳圖是一個計算機視覺領(lǐng)域內(nèi)的基礎(chǔ)任務(wù),旨在獲取任意圖像中的精細前景。對于需要精細細節(jié)的前景類別尤為關(guān)鍵,例如人像,動物,或者植物。圖像摳圖在很多的下游任務(wù)中充當著不可或缺的角色,包括電商網(wǎng)站的廣告宣傳,日常生活娛樂中的圖像編輯,視頻會議中的替換背景,或者虛擬現(xiàn)實,游戲等一些元宇宙應(yīng)用。傳統(tǒng)的研究方法因局限于底層色彩結(jié)構(gòu),且對人類輔助輸入信息非常敏感,從而在復(fù)雜背景中無法得到優(yōu)秀的摳圖結(jié)果。近年來,基于深度學習的解決方案涌現(xiàn),利用神經(jīng)網(wǎng)絡(luò)優(yōu)秀的特征提取能力取得了非常優(yōu)秀的摳圖結(jié)果,隨之誕生的還有多種新方向,諸如全自動摳圖,人機交互式摳圖,語言引導(dǎo)摳圖等等。

本綜述首次系統(tǒng)性的概述了深度學習驅(qū)動下的圖像摳圖研究進展,涵蓋了自深度學習時代以來(8年時間跨度)各類圖像摳圖算法及應(yīng)用的研究進展。我們將主流的算法劃分為兩類,即基于人工輔助信息的摳圖和全自動圖像摳圖研究。在每個類別中,我們對相關(guān)的任務(wù)設(shè)定,網(wǎng)絡(luò)模型,突出貢獻,優(yōu)勢和局限性都進行了充分的論述。另外,本文還整合了包括合成圖像和真實圖像在內(nèi)的諸多圖像摳圖數(shù)據(jù)集,并在典型的數(shù)據(jù)集上對具有代表性的諸多方法進行了系統(tǒng)的實驗和主客觀結(jié)果評估。最后,我們介紹了整個基于深度學習的圖像摳圖領(lǐng)域的相關(guān)應(yīng)用,討論了目前存在的挑戰(zhàn)以及未來可能的研究方向。

本綜述總結(jié)的方法細節(jié),數(shù)據(jù)集,實驗與評估的結(jié)果都已在線公開并會保持更新,詳情請見鏈接 https://github.com/jizhiziLi/matting-survey.

一、圖像摳圖介紹

作為一個自從電影制作產(chǎn)業(yè)初期就出現(xiàn)的問題,圖像摳圖已經(jīng)被學者們用傳統(tǒng)方法研究了幾十年,主流的方法有兩種,基于色彩采樣和相似度矩陣。然而,傳統(tǒng)方法局限于底層色彩特征,且對人類輔助輸入信息非常敏感,從而在復(fù)雜背景中無法得到優(yōu)秀的摳圖結(jié)果。

自深度學習出現(xiàn)之后,研究者設(shè)計出了多種多樣的基于卷積神經(jīng)網(wǎng)絡(luò)的解決方案。和傳統(tǒng)方法一樣,早期的深度學習方法依然需要依賴一定量的人工輔助信息,例如三分圖(trimap),涂抹(scribble),背景圖像等等,粗糙的初始分割等等。近年來,更多靈活多樣的人工輔助信息被探索,例如用戶點擊和語言引導(dǎo)。在下圖中,我們展現(xiàn)了一些常見的人工輔助信息的樣例。

e7bb1f6c-df11-11ed-bfe3-dac502259ad0.jpg

圖1. 圖像摳圖輸入,預(yù)測結(jié)果和一些人工輔助信息的展示,例如三分圖,背景,粗糙分割,用戶點擊,用戶涂抹等等。該圖中的語言輸入可以為:圖像中間的可愛的微笑的小狗。

同時,為了使得圖像摳圖能被快速應(yīng)用于工業(yè)場景,全自動摳圖也在近年內(nèi)被提出。這些方法可以直接從圖像中預(yù)測出最終的結(jié)果,不需要任何額外的人工輔助信息。但是,因為受訓練數(shù)據(jù)集的數(shù)據(jù)分布的影響,它們傾向于得到圖中全部顯著性的前景。為了促進深度學習方法的研究,近年來被研究者構(gòu)建了大量的相關(guān)數(shù)據(jù)集,包括合成數(shù)據(jù)集和真實數(shù)據(jù)集。本文對相關(guān)的研究算法和訓練與測試數(shù)據(jù)集做了詳盡的介紹。同時,我們總結(jié)了深度學習時代相關(guān)算法的時間軸,列圖如下,可以看出近年來該領(lǐng)域的研究熱度不斷增加。

e7d44b22-df11-11ed-bfe3-dac502259ad0.jpg

圖2. 基于深度學習的圖像摳圖方法時間軸

e7f72fa2-df11-11ed-bfe3-dac502259ad0.jpg

圖3. 基于深度學習的圖像摳圖方法總結(jié)表,包括出版刊物,輸入模態(tài),是否自動化,摳圖目標,網(wǎng)絡(luò)結(jié)構(gòu),訓練數(shù)據(jù)集和測試數(shù)據(jù)集等。

二、具體研究進展及討論

鑒于圖像摳圖任務(wù)是一個未知參數(shù)很多的病態(tài)問題,使用用戶輔助信息作為輸入是非常常見的解決方法。從傳統(tǒng)時代開始,一張定義了指定前景,背景,和未知區(qū)域的三分圖(trimap)就被廣泛使用,隨之一起出現(xiàn)的是指定前景背景的用戶涂抹圖像(scribble)。到了深度學習時代,多種多樣的下游任務(wù)催生出了更多類型的用戶輔助信息,諸如背景圖,粗糙的二元分割圖,用戶交互式點擊,語言引導(dǎo)等等。這些方法的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計大致可分為三類,如圖4所示:1)單階段網(wǎng)絡(luò);2)單階段網(wǎng)絡(luò),附加邊緣模塊用以提取輔助信息中更多的圖像特征;3)雙分支或多分支網(wǎng)絡(luò),用以分別處理圖像和輔助信息,并一起經(jīng)過融合網(wǎng)絡(luò)以得到最終輸出。這些方法每一項都彌補了前序方法的不足,對輔助信息進行了更輸入的挖掘和信息提煉,以得到更優(yōu)秀的摳圖結(jié)果。然而,此類方法依然存在兩個問題。首先他們依然依賴于不同程度的人力,使得在實用場景的自動化應(yīng)用有些困難。第二點是這些方法很多依然對輔助信息非常敏感,比如三分圖的未知區(qū)域大小,用戶交互點擊的密度等等。因此研發(fā)更魯棒的方法既是一個挑戰(zhàn)也是一個非常有前景的研究方向。更多詳情可見文章第三章。

e81e90ce-df11-11ed-bfe3-dac502259ad0.jpg

圖4. 基于深度學習和輔助信息的圖像摳圖方法框架分類圖。(a) 單階段網(wǎng)絡(luò)。(b) 帶有邊緣模塊的單階段網(wǎng)絡(luò)。(3) 雙分支或者多分支網(wǎng)絡(luò)。

為了克服基于輔助信息的圖像摳圖方法的局限性,近年來,全自動摳圖也成為了研究熱點。這些方法旨在不經(jīng)過任何人工參與的情況下,直接預(yù)測出圖中的細致前景。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計也可以大體分為三類,如圖5所示:1)單階段網(wǎng)絡(luò)并利用旁支的全局模塊引導(dǎo)圖像高層的語意信息;2)兩階段網(wǎng)絡(luò)來首先預(yù)測輔助信息,再設(shè)計基于輔助信息的第二階段網(wǎng)絡(luò);3)用共享的編碼網(wǎng)絡(luò)獲取不同層次的圖像信息,通過多分支的解碼網(wǎng)絡(luò)分別預(yù)測高層語意和低層細節(jié),并通過硬融合得到最終的結(jié)果。這一類方法由于沒有任何額外信息的引導(dǎo),非常容易受到訓練數(shù)據(jù)集的影響。因此大部分方法局限于某些特定的摳圖目標,比如人像,動物,透明物體等等。近年來,也有方法探索通過將通用物體分為三類,即顯著性閉合前景,顯著性透明或細致前景,以及非顯著前景,并用同一個網(wǎng)絡(luò)進行全種類摳圖。全自動摳圖方法因為不需要任何人工的干預(yù),在工業(yè)界得到了廣泛的實用。然而,此類研究依然存在一些挑戰(zhàn),例如如何提高方法的泛化性,尤其在訓練數(shù)據(jù)集中未見到的圖像上得到很好的效果,或者如何在保有高質(zhì)量摳圖結(jié)果的同時提高運算效率,減小模型大小。更多詳情可見文章第四章。

e83926a0-df11-11ed-bfe3-dac502259ad0.jpg

圖5. 基于深度學習的全自動圖像摳圖方法框架分類圖。(a) 基于全局引導(dǎo)信息的單階段網(wǎng)絡(luò)。(b) 兩階段網(wǎng)絡(luò)。(c) 共享編碼器的雙分支網(wǎng)絡(luò)。

作為深度學習方法不可或缺的驅(qū)動力,構(gòu)建大型數(shù)據(jù)集非常關(guān)鍵。因此,本文對于摳圖領(lǐng)域內(nèi)近年來涌現(xiàn)的數(shù)據(jù)集做了統(tǒng)一的介紹和比較,包括早期的合成圖像數(shù)據(jù)集和最近的真實圖像數(shù)據(jù)集。如圖6所示,我們對現(xiàn)有數(shù)據(jù)集按照輸入模態(tài),標簽類型,摳圖目標,平均尺寸,標注方法,訓練集和測試集的數(shù)目,是否公開,進行了歸類整理和對比。詳情可參見文章第五章。

e8581a4c-df11-11ed-bfe3-dac502259ad0.jpg

圖6. 圖像摳圖數(shù)據(jù)集比較,包括出版刊物,模態(tài),標簽類型,是否是自然圖像,摳圖目標,平均尺寸,標注方式,訓練數(shù)據(jù)量,測試數(shù)據(jù)量,是否公開等等。

三、評測基準

在這一節(jié)里,我們詳細介紹了整個摳圖領(lǐng)域內(nèi)深度學習算法常用的損失函數(shù),評價標準,預(yù)處理方式和訓練技巧。對于基于輔助信息的方法和全自動方法,我們分別在兩類常用的數(shù)據(jù)集上對具有代表性的算法進行了詳盡的比較。包括主觀客觀結(jié)果比較,方法的模型慘數(shù)量,復(fù)雜度,以及處理512x512分辨率的圖像的推理時間。我們在同種設(shè)定下進行了大量的實驗以公正的評測目前的深度學習方法與早先的傳統(tǒng)算法。相關(guān)客觀指標結(jié)果如圖7所示。為了給讀者一個對于目前主流方法結(jié)果直觀的感受,我們在圖8展示了一些實際結(jié)果例子。

e8785eb0-df11-11ed-bfe3-dac502259ad0.jpg

圖7. 圖像摳圖算法的客觀指標結(jié)果

e8c19d82-df11-11ed-bfe3-dac502259ad0.jpg

e8e6be78-df11-11ed-bfe3-dac502259ad0.jpg

圖8. 圖像摳圖算法主觀對比圖

四、挑戰(zhàn)與展望

圖像摳圖,作為一個基礎(chǔ)的圖像底層算法,在諸多的下游任務(wù)中都有非常廣泛的應(yīng)用,包括視覺感知能力例如物體檢測,語義分割,障礙物去除,圖像編輯應(yīng)用例如圖像合成,圖像補全,圖像風格轉(zhuǎn)換,視頻處理應(yīng)用例如視頻特效關(guān)聯(lián),淺景深合成,視頻摳圖,多模態(tài)和3D應(yīng)用例如遙感,3D圖像渲染等等。這些年來,圖像摳圖領(lǐng)域迅速的崛起與發(fā)展也帶來了很多挑戰(zhàn)與新的研究機會。我們在這里做一個簡要的討論,更多詳情請見文章第八章。

1、更精確的評價指標

現(xiàn)有的評價指標可以從客觀上表示預(yù)測結(jié)果和標簽之間的相似度,然而如何更加精確的反應(yīng)人類對于預(yù)測結(jié)果的主觀評價是一個困難的問題。例如SAD可以評價出全圖或者未知區(qū)域的相似度,但是對于人類主觀關(guān)注的區(qū)域,比如頭發(fā),耳環(huán),或者眼鏡框等等卻無法進行精確的評估。一個可能的解決方案是利用基于結(jié)構(gòu)相似性的度量,例如SSIM,來對細節(jié)信息進行更精確的評估。

2、更輕量級的模型設(shè)計

鑒于圖像摳圖會在實時的全自動化工業(yè)領(lǐng)域內(nèi)有廣泛的應(yīng)用,如何設(shè)計一個輕量級的模型并保有精確的預(yù)測結(jié)果是一個長久而充滿潛力的研究方向。一些有效的策略包括降維處理,特征復(fù)用,剪枝操作,或者混合分辨率結(jié)構(gòu)。

3、多模態(tài)摳圖

將圖像摳圖領(lǐng)域與多模態(tài)領(lǐng)域進行融合可以進一步擴展圖像摳圖的適用范圍。已經(jīng)有的研究將摳圖和人類語言輸入進行結(jié)合,預(yù)測出符合人類描述的指定前景。更多的輸入模態(tài)可以包括,語音指令,目光注視點,以及3D的可渲染光線神經(jīng)場模型。

4、擴散模型

近期,擴散模型已經(jīng)在圖像生成領(lǐng)域表現(xiàn)出了優(yōu)秀的潛力。大語言模型和跨模態(tài)預(yù)訓練的顯著進展為擴散模型的多模態(tài)應(yīng)用提供了極速發(fā)展的動力,使得從空白畫板生成并編輯高質(zhì)量的圖像成為了可能性。這也為圖像摳圖領(lǐng)域帶來了一個開放性的問題:在擴散模型的新時代里,圖像摳圖領(lǐng)域會有怎樣的走向,會是一個方向的終結(jié),還是一個嶄新的開端。

五、總結(jié)

我們提供了一份深度學習驅(qū)動的圖像摳圖領(lǐng)域的綜述,涵蓋了該領(lǐng)域詳盡的背景介紹,基于輔助信息的方法概述,全自動化的方法概述,數(shù)據(jù)集的整理和比較,公開的基準測試以及未來的研究方向。為了展示圖像摳圖領(lǐng)域內(nèi)清晰的發(fā)展脈絡(luò)和未來趨勢,我們對現(xiàn)有方法做了精細的分類和深入的探討。此外,我們將長期維護一個開放的github倉庫來定期更新最新的工作進展和數(shù)據(jù)集(https://github.com/jizhiziLi/matting-survey)。我們希望本綜述能夠為相關(guān)領(lǐng)域的研究者和從業(yè)人員提供一個重要的參考,并一起推動這個領(lǐng)域的發(fā)展。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47631
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于深度學習圖像領(lǐng)域應(yīng)用及挑戰(zhàn)

    本文還整合了包括合成圖像和真實圖像在內(nèi)的諸多圖像數(shù)據(jù)集,并在典型的數(shù)據(jù)集上對具有代表性的諸多方法進行了系統(tǒng)的實驗和主客觀結(jié)果評估。
    發(fā)表于 04-20 09:29 ?2125次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>圖像</b><b class='flag-5'>摳</b><b class='flag-5'>圖</b>領(lǐng)域應(yīng)用及挑戰(zhàn)

    深度學習在預(yù)測和健康管理中的應(yīng)用

    深度學習在預(yù)測和健康管理中的應(yīng)用綜述摘要深度學習對預(yù)測和健康管理(PHM)引起了濃厚的興趣,因為它具有強大的表示能力,自動化的功能
    發(fā)表于 07-12 06:46

    如何在交通領(lǐng)域構(gòu)建基于深度學習架構(gòu)

    How to Build a Graph-Based Deep Learning Architecture in Traf?c Domain: A Survey綜述:如何在交通領(lǐng)域構(gòu)建基于深度
    發(fā)表于 08-31 08:05

    的精典教程

    的精典教程:介紹的較為詳細,值得學習。
    發(fā)表于 02-10 10:11 ?0次下載

    解析關(guān)于顏色空間采樣的算法

    由于自然圖像具有高度的不確定性,目前的方法中對于前背景顏色較為復(fù)雜的圖片處理效果并不理想。本文
    的頭像 發(fā)表于 04-02 17:56 ?3164次閱讀
    解析關(guān)于顏色空間采樣的<b class='flag-5'>摳</b><b class='flag-5'>圖</b>算法

    基于深度學習圖像修復(fù)模型及實驗對比

    圖像修復(fù)是計算機視覺領(lǐng)域中極具挑戰(zhàn)性的硏究課題。近年來,深度學習技術(shù)的發(fā)展推動了圖像修復(fù)性能的顯著提升,使得圖像修復(fù)這一傳統(tǒng)課題再次引起了學
    發(fā)表于 04-08 09:38 ?20次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>圖像</b>修復(fù)模型及實驗對比

    端到端的深度學習網(wǎng)絡(luò)人體自動算法

    網(wǎng)絡(luò),以實現(xiàn)系統(tǒng)采集圖像中人體前景自動。該深度學習網(wǎng)絡(luò)包括2個階段:人體前景分割階段和人體前景l(fā)pha
    發(fā)表于 04-21 15:29 ?10次下載
    端到端的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>網(wǎng)絡(luò)人體自動<b class='flag-5'>摳</b><b class='flag-5'>圖</b>算法

    基于模板、檢索和深度學習圖像描述生成方法

    描述技術(shù)的發(fā)展歷程為主線,對圖像描述任務(wù)的方法、評價指標和常用數(shù)據(jù)集進行了詳細的綜述。針對圖像描述任務(wù)的技術(shù)方法,總結(jié)了基于模板、檢索和深度學習
    發(fā)表于 04-23 14:07 ?12次下載
    基于模板、檢索和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>圖像</b>描述生成方法

    基于圖像顯著性識別的自動系統(tǒng)設(shè)計

    ,對RC算法進行改進,并實現(xiàn)一個基于圖像顯著性識別的自動系統(tǒng),克服傳統(tǒng)系統(tǒng)必須人工標記的缺點。實驗結(jié)果表明,相比∏、MZ、GB、RC
    發(fā)表于 06-09 16:36 ?0次下載

    基于深度學習的光學成像算法綜述

    成分信息。近年來,隨著深度學習算法在醫(yī)學圖像處理中的廣泛應(yīng)用,基于深度學習的光聲成像算法也成為該領(lǐng)堿的硏究熱點。對
    發(fā)表于 06-16 14:58 ?10次下載

    基于深度學習的文本主題模型研究綜述

    基于深度學習的文本主題模型研究綜述
    發(fā)表于 06-24 11:49 ?68次下載

    基于深度學習的目標檢測研究綜述

    基于深度學習的目標檢測研究綜述 來源:《電子學報》?,作者羅會蘭等 摘 要:?目標檢測是計算機視覺領(lǐng)域內(nèi)的熱點課題,在機器人導(dǎo)航、智能視頻監(jiān)控及航天航空等領(lǐng)域都有廣泛的應(yīng)用.本文首先綜述
    發(fā)表于 01-06 09:14 ?2759次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的目標檢測研究<b class='flag-5'>綜述</b>

    深度學習在軌跡數(shù)據(jù)挖掘中的應(yīng)用研究綜述

    深度學習在軌跡數(shù)據(jù)挖掘中的應(yīng)用研究綜述 來源:《?計算機科學與應(yīng)用》?,作者 李旭娟 等 摘要:? 在過去十年,深度學習已被證明在很多領(lǐng)域應(yīng)
    發(fā)表于 03-08 17:24 ?2681次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>在軌跡數(shù)據(jù)挖掘中的應(yīng)用研究<b class='flag-5'>綜述</b>

    深度學習中的圖像分割

    深度學習可以學習視覺輸入的模式,以預(yù)測組成圖像的對象類。用于圖像處理的主要深度
    的頭像 發(fā)表于 05-05 11:35 ?2242次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    深度學習作為機器學習領(lǐng)域的一個重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度
    的頭像 發(fā)表于 07-09 10:50 ?2936次閱讀