91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

直接通過(guò)預(yù)測(cè) 3D 關(guān)鍵點(diǎn)來(lái)估計(jì)透明物體深度的 ML 系統(tǒng)

Tensorflowers ? 來(lái)源:TensorFlow ? 作者:TensorFlow ? 2020-09-23 18:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

計(jì)算機(jī)視覺(jué)應(yīng)用領(lǐng)域的核心問(wèn)題是3D 物體的位置與方向的估計(jì),這與對(duì)象感知有關(guān)(如增強(qiáng)現(xiàn)實(shí)和機(jī)器人操作)。在這類應(yīng)用中,需要知道物體在真實(shí)世界中的 3D 位置,以便直接對(duì)物體進(jìn)行操作或在其四周正確放置模擬物。

圍繞這一主題已有大量研究,但此類研究雖然采用了機(jī)器學(xué)習(xí) (ML) 技術(shù),特別是 Deep Nets,但直接測(cè)量與物體的距離大多依賴于 Kinect 等深度感應(yīng)設(shè)備。而對(duì)于表面有光澤或透明的物體,直接采用深度感應(yīng)難以發(fā)揮作用。例如,下圖包括許多物體(左圖),其中兩個(gè)是透明的星星。深度感應(yīng)設(shè)備無(wú)法很好的為星星測(cè)量深度值,因此難以重建 3D 點(diǎn)云效果圖(右圖)。

Deep Nets
https://arxiv.org/abs/1901.04780

左圖:透明物體的 RGB 圖像;右圖:左側(cè)場(chǎng)景的深度重建效果四格圖,上排為深度圖像,下排為 3D 點(diǎn)云,左側(cè)圖格采用深度相機(jī)重建,右側(cè)圖格是 ClearGrasp 模型的輸出。需要注意的是,雖然 ClearGrasp 修復(fù)了星星的深度,但它卻錯(cuò)誤地識(shí)別了最右邊星星的實(shí)際深度

要解決這個(gè)問(wèn)題,可以使用深度神經(jīng)網(wǎng)絡(luò)來(lái)修復(fù) (Inpainting) 透明物體的錯(cuò)誤深度圖,例如使用 ClearGrasp 提出的方法:給定透明物體的單個(gè) RGB-D 圖像,ClearGrasp 使用深度卷積網(wǎng)絡(luò)推斷透明表面法線、遮擋和遮擋邊界,然后通過(guò)這些信息完善場(chǎng)景中所有透明表面的初始深度估計(jì)(上圖最右)。這種方法很有前景,可以通過(guò)依賴深度的位置姿態(tài)估計(jì)方法處理具有透明物體的場(chǎng)景。但是修復(fù)可能會(huì)比較棘手,仍然可能導(dǎo)致深度錯(cuò)誤,尤其是完全使用合成圖像進(jìn)行訓(xùn)練的情況。

我們與斯坦福大學(xué) AI 實(shí)驗(yàn)室在 CVPR 2020 上合作發(fā)表了“KeyPose: Multi-View 3D Labeling and Keypoint Estimation for Transparent Objects”,論文描述了直接通過(guò)預(yù)測(cè) 3D 關(guān)鍵點(diǎn)來(lái)估計(jì)透明物體深度的 ML 系統(tǒng)。為了訓(xùn)練該系統(tǒng),我們以半自動(dòng)化方式收集了真實(shí)世界中透明物體圖像的大型數(shù)據(jù)集,并使用人工選擇的 3D 關(guān)鍵點(diǎn)標(biāo)記有效姿態(tài)。然后開(kāi)始訓(xùn)練深度模型(稱為 KeyPose),從單目或立體圖像中估計(jì)端到端 3D 關(guān)鍵點(diǎn),而不明確計(jì)算深度。

論文
https://openaccess.thecvf.com/content_CVPR_2020/html/Liu_KeyPose_Multi-View_3D_Labeling_and_Keypoint_Estimation_for_Transparent_Objects_CVPR_2020_paper.html

在訓(xùn)練期間,模型在見(jiàn)過(guò)和未見(jiàn)過(guò)的物體上運(yùn)行,無(wú)論是單個(gè)物體還是幾類物體。雖然 KeyPose 可以處理單目圖像,但立體圖像提供的額外信息使其結(jié)果提高了兩倍,根據(jù)物體不同,典型誤差在 5 毫米至 10 毫米之間。它對(duì)這些物體的姿態(tài)預(yù)測(cè)遠(yuǎn)高于當(dāng)前最先進(jìn)水平,即使其他方法帶有地面真實(shí)深度。我們將發(fā)布關(guān)鍵點(diǎn)標(biāo)記的透明物體數(shù)據(jù)集,供研究界使用。

關(guān)鍵點(diǎn)標(biāo)記的透明物體數(shù)據(jù)集
https://sites.google.com/corp/view/transparent-objects

透明物體數(shù)據(jù)集

為了方便收集大量真實(shí)世界圖像,我們建立了一個(gè)機(jī)器人數(shù)據(jù)收集系統(tǒng)。系統(tǒng)的機(jī)械臂通過(guò)軌跡移動(dòng),同時(shí)使用立體攝像頭和 Kinect Azure 深度攝像頭拍攝視頻。

使用帶有立體攝像頭和 Azure Kinect 設(shè)備的機(jī)械臂自動(dòng)捕捉圖像序列

目標(biāo)上的 AprilTags 可以讓攝像頭準(zhǔn)確跟蹤姿態(tài)。通過(guò)人工標(biāo)記每個(gè)視頻中少量圖像 2D 關(guān)鍵點(diǎn),我們可以使用多視角幾何圖形為視頻的所有幀提取 3D 關(guān)鍵點(diǎn),將標(biāo)記效率提高 100 倍。

我們捕捉了五種類別的 15 個(gè)不同透明物體的圖像,對(duì)每個(gè)物體使用 10 種不同的背景紋理和 4 種不同的姿勢(shì),總計(jì)生成 600 個(gè)視頻序列,包括 4.8 萬(wàn)個(gè)立體和深度圖像。我們還用不透明版本的物體捕捉了相同的圖像,以提供準(zhǔn)確的深度圖像。所有圖像都標(biāo)有 3D 關(guān)鍵點(diǎn)。我們將公開(kāi)發(fā)布這一真實(shí)世界圖像數(shù)據(jù)集,為 ClearGrasp 合成數(shù)據(jù)集提供補(bǔ)充。

真實(shí)世界圖像數(shù)據(jù)集
https://sites.google.com/corp/view/transparent-objects

使用前期融合立體的 KeyPose 算法

針對(duì)關(guān)鍵點(diǎn)估計(jì),本項(xiàng)目獨(dú)立開(kāi)發(fā)出直接使用立體圖像的概念;這一概念最近也出現(xiàn)在手動(dòng)跟蹤的環(huán)境下。下圖為基本思路:來(lái)自立體攝像頭的兩張圖像的物體被裁剪并饋送到 KeyPose 網(wǎng)絡(luò),該網(wǎng)絡(luò)預(yù)測(cè)一組稀疏的 3D 關(guān)鍵點(diǎn),代表物體的 3D 姿態(tài)。KeyPose 網(wǎng)絡(luò)使用 3D 關(guān)鍵點(diǎn)標(biāo)記完成監(jiān)督訓(xùn)練。

手動(dòng)跟蹤
https://bmvc2019.org/wp-content/uploads/papers/0219-paper.pdf

立體 KeyPose 的一個(gè)關(guān)鍵是使用允許網(wǎng)絡(luò)隱式計(jì)算視差的前期融合來(lái)混合立體圖像,與后期融合不同。后期融合是分別預(yù)測(cè)每個(gè)圖像的關(guān)鍵點(diǎn),然后再進(jìn)行組合。如下圖所示,KeyPose 的輸出圖像在平面上是 2D 關(guān)鍵點(diǎn)熱力圖,以及每個(gè)關(guān)鍵點(diǎn)的視差(即逆深度)熱力圖。這兩張熱力圖的組合會(huì)為每個(gè)關(guān)鍵點(diǎn)生成關(guān)鍵點(diǎn) 3D 坐標(biāo)。

Keypose 系統(tǒng)圖:立體圖像被傳遞到 CNN 模型,為每個(gè)關(guān)鍵點(diǎn)生成概率熱力圖。此熱力圖輸出關(guān)鍵點(diǎn)的 2D 圖像坐標(biāo) (U,V)。CNN 模型還為每個(gè)關(guān)鍵點(diǎn)生成一個(gè)視差(逆深度)熱力圖,與 (U,V) 坐標(biāo)結(jié)合時(shí),可以給出 3D 位置 (X,Y,Z)

相較于后期融合或單目輸入,前期融合立體通常可以達(dá)到兩倍的準(zhǔn)確率。

結(jié)果

下圖顯示了 KeyPose 對(duì)單個(gè)物體的定性結(jié)果。左側(cè)是一個(gè)原始立體圖像,中間是投射到圖像上的預(yù)測(cè) 3D 關(guān)鍵點(diǎn)。在右側(cè),我們將 3D 瓶子模型中的點(diǎn)可視化,并放置在由預(yù)測(cè) 3D 關(guān)鍵點(diǎn)確定的姿態(tài)上。該網(wǎng)絡(luò)高效準(zhǔn)確,在標(biāo)準(zhǔn) GPU 上僅用 5 ms 的時(shí)間就預(yù)測(cè)出瓶子的 5.2 mm MAE (Mean Absolute Error) 和杯子的 10.1 mm MAE 關(guān)鍵點(diǎn)。

下表為 KeyPose 類別級(jí)別估計(jì)的結(jié)果。測(cè)試集使用了訓(xùn)練集未見(jiàn)過(guò)的背景紋理。注意,MAE 從 5.8 mm 到 9.9 mm 不等,這表明該方法的準(zhǔn)確率非常高。

在類別級(jí)別數(shù)據(jù)上,KeyPose 與最先進(jìn)的 DenseFusion 系統(tǒng)進(jìn)行定量比較。我們?yōu)?DenseFusion 提供了兩個(gè)版本的深度:透明物體與不透明物體。<2cm是誤差小于 2cm 的估計(jì)百分比。MAE是關(guān)鍵點(diǎn)的平均絕對(duì)誤差,以 mm 為單位。

DenseFusion
https://arxiv.org/abs/1901.04780

有關(guān)定量結(jié)果以及消融研究的完整說(shuō)明,請(qǐng)參見(jiàn)論文和補(bǔ)充材料以及 KeyPose 網(wǎng)站。

論文和補(bǔ)充材料
https://openaccess.thecvf.com/content_CVPR_2020/html/Liu_KeyPose_Multi-View_3D_Labeling_and_Keypoint_Estimation_for_Transparent_Objects_CVPR_2020_paper.html

KeyPose 網(wǎng)站
https://sites.google.com/corp/view/keypose/

結(jié)論

該研究表明,在不依賴深度圖像的情況下,從 RGB 圖像中可以準(zhǔn)確估計(jì)透明物體的 3D 姿態(tài)。經(jīng)過(guò)驗(yàn)證,立體圖像可以作為前期融合 Deep Net 的輸入。在其中,網(wǎng)絡(luò)被訓(xùn)練為直接從立體對(duì)中提取稀疏 3D 關(guān)鍵點(diǎn)。我們希望提供廣泛的帶標(biāo)簽透明物體數(shù)據(jù)集,推動(dòng)這一領(lǐng)域的發(fā)展。最后,盡管我們使用半自動(dòng)方法對(duì)數(shù)據(jù)集進(jìn)行了有效標(biāo)記,但我們希望在以后的工作中能夠采用自監(jiān)督方法來(lái)消除人工標(biāo)記。

致謝

感謝合著者:斯坦福大學(xué)的 Xingyu Liu 以及 Rico Jonschkowski 和 Anelia Angelova;以及在項(xiàng)目和論文撰寫過(guò)程中,與我們一起討論并為我們提供幫助的人,包括 Andy Zheng、Suran Song、Vincent Vanhoucke、Pete Florence 和 Jonathan Tompson。

原文標(biāo)題:機(jī)器人收集 + Keypose 算法:準(zhǔn)確估計(jì)透明物體的 3D 姿態(tài)

文章出處:【微信公眾號(hào):TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器人收集 + Keypose 算法:準(zhǔn)確估計(jì)透明物體的 3D 姿態(tài)

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度解析TMAG5170D-Q1:高精度3D線性霍爾效應(yīng)傳感器的卓越之選

    深度解析TMAG5170D-Q1:高精度3D線性霍爾效應(yīng)傳感器的卓越之選 在電子工程師的日常設(shè)計(jì)工作中,傳感器的選擇至關(guān)重要,它直接影響著系統(tǒng)
    的頭像 發(fā)表于 02-11 10:45 ?222次閱讀

    PLC平面光波導(dǎo)的圖形凹槽深度測(cè)量-3D白光干涉儀應(yīng)用

    ,過(guò)深會(huì)破壞波導(dǎo)芯層完整性,過(guò)淺則無(wú)法實(shí)現(xiàn)光信號(hào)的有效約束與隔離,直接影響器件性能。傳統(tǒng)凹槽深度測(cè)量方法存在測(cè)量范圍有限、易損傷器件表面等缺陷,難以滿足PLC高精度檢測(cè)需求。3D白光干涉儀憑借非接觸測(cè)量特性、納米級(jí)分辨率及全域
    的頭像 發(fā)表于 02-02 09:32 ?291次閱讀
    PLC平面光波導(dǎo)的圖形凹槽<b class='flag-5'>深度</b>測(cè)量-<b class='flag-5'>3D</b>白光干涉儀應(yīng)用

    不只是好看:透明3D打印材料的美學(xué)潛力

    透明3D打印材料正從玩具和擺件走向日常創(chuàng)意設(shè)計(jì)。透明PLA、PETG、PET等FDM材料因易打印、透光效果豐富,被廣泛用于燈具、裝飾與生活用品。通過(guò)參數(shù)調(diào)整與后處理,
    的頭像 發(fā)表于 01-21 17:12 ?1249次閱讀
    不只是好看:<b class='flag-5'>透明</b><b class='flag-5'>3D</b>打印材料的美學(xué)潛力

    iDS iToF Nion 3D相機(jī),開(kāi)啟高性價(jià)比3D視覺(jué)新紀(jì)元!

    一、友思特新品 友思特 iDS uEye Nion iTof 3D相機(jī)將 120 萬(wàn)像素的卓越空間分辨率與可靠的深度精度相結(jié)合—即使在極具挑戰(zhàn)性的環(huán)境中也能確保獲取精細(xì)的 3D 數(shù)據(jù)。 其外殼達(dá)到
    的頭像 發(fā)表于 12-15 14:59 ?372次閱讀
    iDS iToF Nion <b class='flag-5'>3D</b>相機(jī),開(kāi)啟高性價(jià)比<b class='flag-5'>3D</b>視覺(jué)新紀(jì)元!

    3D打印機(jī)主控:MEGA2560與STM32系列深度解析

    電子發(fā)燒友網(wǎng)綜合報(bào)道? 在當(dāng)前快速發(fā)展的3D打印技術(shù)領(lǐng)域,主控板作為打印機(jī)的 “ 大腦 ” ,直接決定了設(shè)備的性能、穩(wěn)定性與擴(kuò)展能力。在眾多主控方案中,基于ArduinoMEGA2560和STM32
    的頭像 發(fā)表于 12-14 00:10 ?7326次閱讀

    京東11.11直播技術(shù)全面升級(jí),立影3D技術(shù)、JoyAI大模型重構(gòu)沉浸式購(gòu)物體驗(yàn)

    隨著京東 11.11 大促的火熱進(jìn)行,京東直播再度升級(jí)技術(shù)布局,以 “立影 3D 技術(shù)”“JoyAI大模型”等創(chuàng)新技術(shù),打破傳統(tǒng)直播邊界,為用戶帶來(lái)更具沉浸感、趣味性的購(gòu)物體驗(yàn),引領(lǐng)直播電商技術(shù)創(chuàng)新
    的頭像 發(fā)表于 10-27 14:58 ?626次閱讀

    【海翔科技】玻璃晶圓 TTV 厚度對(duì) 3D 集成封裝可靠性的影響評(píng)估

    ,在 3D 集成封裝中得到廣泛應(yīng)用 。總厚度偏差(TTV)作為衡量玻璃晶圓質(zhì)量的關(guān)鍵指標(biāo),其數(shù)值大小直接影響 3D 集成封裝的可靠性 。深入評(píng)估玻璃晶圓 TTV 厚
    的頭像 發(fā)表于 10-14 15:24 ?462次閱讀
    【海翔科技】玻璃晶圓 TTV 厚度對(duì) <b class='flag-5'>3D</b> 集成封裝可靠性的影響評(píng)估

    iTOF技術(shù),多樣化的3D視覺(jué)應(yīng)用

    動(dòng)態(tài)模糊,確保高耐光性,同時(shí)輸出2D(紅外)和3D深度)數(shù)據(jù)。 ◆ Testing Principles ※ 測(cè)量脈沖光的飛行時(shí)間,以檢測(cè) TOF 相機(jī)與被測(cè)物體之間的距離。
    發(fā)表于 09-05 07:24

    索尼與VAST達(dá)成3D業(yè)務(wù)合作

    近日,索尼空間現(xiàn)實(shí)顯示屏與VAST旗下的3D大模型Tripo AI正式宣布達(dá)成業(yè)務(wù)合作:雙方將圍繞裸眼3D顯示技術(shù)、AI驅(qū)動(dòng)的3D內(nèi)容生成與交互創(chuàng)新展開(kāi)深度協(xié)同,致力于
    的頭像 發(fā)表于 08-28 17:32 ?1430次閱讀

    Zivid3D相機(jī)安裝使用教程

    Zivid3D相機(jī)小巧便攜,重量輕,分辨率高,速度快,適合高反光透明物體。本文介紹Zivid 3D相機(jī)的操作流程,幫助用戶掌握其功能。從硬件連接、軟件安裝到參數(shù)設(shè)置,重點(diǎn)涵蓋點(diǎn)云生成、
    的頭像 發(fā)表于 08-26 15:34 ?660次閱讀
    Zivid<b class='flag-5'>3D</b>相機(jī)安裝使用教程

    臺(tái)階儀在3D打印中的應(yīng)用:精確測(cè)量物體表面粗糙度

    增材制造(AM)技術(shù)通過(guò)逐層堆積材料實(shí)現(xiàn)復(fù)雜結(jié)構(gòu)成型,但3D打印表面質(zhì)量存在層厚均勻性和組裝方式導(dǎo)致的臺(tái)階效應(yīng)問(wèn)題,表面粗糙度直接影響機(jī)械性能與功能可靠性,尤其在航空航天、生物醫(yī)療等領(lǐng)域至關(guān)重要
    的頭像 發(fā)表于 07-22 09:51 ?774次閱讀
    臺(tái)階儀在<b class='flag-5'>3D</b>打印中的應(yīng)用:精確測(cè)量<b class='flag-5'>物體</b>表面粗糙度

    3D AD庫(kù)文件

    3D庫(kù)文件
    發(fā)表于 05-28 13:57 ?6次下載

    安森美這款iToF傳感器讓3D深度測(cè)量技術(shù)輕松落地

    現(xiàn)代工業(yè)自動(dòng)化的成功離不開(kāi)3D視覺(jué)技術(shù)的強(qiáng)大功能。傳統(tǒng)的2D傳感器只能提供平面圖像,這使其在設(shè)備檢測(cè)等應(yīng)用中的效能大打折扣。2D傳感器可以讀取包含物品尺寸的條形碼,但無(wú)法獨(dú)立測(cè)量物體
    的頭像 發(fā)表于 03-28 14:31 ?1044次閱讀
    安森美這款iToF傳感器讓<b class='flag-5'>3D</b><b class='flag-5'>深度</b>測(cè)量技術(shù)輕松落地

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測(cè)場(chǎng)景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域,尤其是在三維重建、場(chǎng)景理解和環(huán)境感知
    的頭像 發(fā)表于 03-19 16:33 ?1110次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b><b class='flag-5'>估計(jì)</b>

    使用海爾曼太通/HellermannTyton 3D CAD 模型進(jìn)行快速高效的設(shè)計(jì)

    網(wǎng)站源鏈接和每個(gè)產(chǎn)品的相應(yīng)目錄頁(yè)面一起出現(xiàn)在搜索結(jié)果列表中。用戶可以在線瀏覽查看相應(yīng)的 3D CAD 模型及其數(shù)據(jù)信息。雙方通過(guò)合作,CADENAS能將3dfindit的三維模型下載直接
    發(fā)表于 03-14 16:55