91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的收集透明物體深度數(shù)據(jù)的光學(xué)傳感器算法

電子設(shè)計(jì) ? 來(lái)源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2020-12-23 11:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器人計(jì)算機(jī)視覺領(lǐng)域,光學(xué) 3D 距離傳感器已經(jīng)得到了廣泛應(yīng)用,比如 RGB-D 攝像頭和 LIDAR 傳感器,都在 3D 環(huán)境繪制和無(wú)人駕駛等任務(wù)中扮演了重要角色。

盡管它們性能十分強(qiáng)大,兼具高敏感度、高精度和高可靠性等特質(zhì),但在識(shí)別透明物體上卻不盡如人意。想要破壞這些傳感器的成像效果,或者讓機(jī)械手臂無(wú)從下手,只需要在它們面前放上玻璃杯一類的透明物體就可以了,因此難以在不使用其他傳感器的情況下獨(dú)立完成特定任務(wù)。

這是因?yàn)?a href="http://m.makelele.cn/tags/光學(xué)傳感器/" target="_blank">光學(xué)傳感器算法假設(shè)所有表面均是理想散射的 (Lambert),即物體會(huì)在各個(gè)方向和各個(gè)角度均勻地反射光線。在 Lambert 光照模型中,無(wú)論觀察者的視角如何,其表面亮度都是相同的。

現(xiàn)實(shí)中的絕大多數(shù)物體符合這一假設(shè),除了透明物體,因?yàn)樗鼈兊谋砻婕日凵溆址瓷涔饩€。這樣一來(lái),光線傳播的復(fù)雜性大幅提升,表面亮度與視角無(wú)關(guān)的假設(shè)被破壞了,基于 Lambert 模型的算法也就失效了,導(dǎo)致傳感器收集的透明物體的大多數(shù)深度數(shù)據(jù)都是噪聲或者無(wú)效的。

圖 | 透明物體在傳統(tǒng)算法眼中是噪聲(來(lái)源:谷歌 AI

為了改善這一問(wèn)題,讓機(jī)器可以更好地感知透明表面,谷歌 AI,Synthesis AI 和哥倫比亞大學(xué)的研究人員合作開發(fā)了一種名為 ClearGrasp 的機(jī)器學(xué)習(xí)算法,能夠從 RGB-D 圖像中估算透明物體的準(zhǔn)確 3D 數(shù)據(jù)。

根據(jù)谷歌 AI 介紹,在設(shè)計(jì)之初,ClearGrasp算法就考慮到了兼容性。它可以與任何標(biāo)準(zhǔn) RGB-D 相機(jī)捕捉的數(shù)據(jù)配合使用,借助神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)來(lái)準(zhǔn)確地重建透明物體的景深數(shù)據(jù)。

圖 | ClearGrasp 算法的工作原理(來(lái)源:谷歌 AI)

與目前所使用的技術(shù)不同,ClearGrasp 算法不依賴于對(duì)透明物體的先驗(yàn)知識(shí),比如預(yù)先對(duì)透明物體進(jìn)行 3D 建模,還要補(bǔ)充觀察視角和光線數(shù)據(jù)。在神經(jīng)網(wǎng)絡(luò)的幫助下,它可以很好地泛化到從未見過(guò)的全新物體身上。

在測(cè)試過(guò)程中,研究人員將新算法集成到了一套現(xiàn)有的拾取機(jī)器人控制系統(tǒng)中,最終發(fā)現(xiàn)它對(duì)透明塑料物體的抓取成功率有了非常顯著的提升,最多可以提升 6 倍。未來(lái)有望在拾取機(jī)器人和自動(dòng)駕駛等領(lǐng)域應(yīng)用。

透明對(duì)象的可視數(shù)據(jù)集

無(wú)論是什么樣的深度學(xué)習(xí)模型,訓(xùn)練時(shí)都要依賴于大量數(shù)據(jù),比如訓(xùn)練自然語(yǔ)言模型 BERT 需要維基百科,ClearGrasp 也不例外。然而目前廣泛使用的 3D 數(shù)據(jù)集,包括 Matterport3D 和 ScanNet,都會(huì)忽略透明表面和物體,因?yàn)闃?biāo)記過(guò)程過(guò)于復(fù)雜和耗時(shí)。

這讓研究人員不得不自己創(chuàng)建訓(xùn)練集和測(cè)試集,專門針對(duì)透明對(duì)象設(shè)計(jì)。

在訓(xùn)練數(shù)據(jù)集中,他們創(chuàng)造了 5 萬(wàn)多個(gè)符合真實(shí)物理原則的渲染圖,每張圖片最多包含 5 個(gè)透明物體,放置于平面上或者開放式容器中,視角、背景和光線各不相同。每個(gè)物體還有配套的表面法線(曲率)、分割蒙版、邊緣和深度等信息,用于訓(xùn)練各種 2D 和 3D 物體檢測(cè)任務(wù)。

至于測(cè)試集,研究團(tuán)隊(duì)選擇用真實(shí)場(chǎng)景創(chuàng)建圖片和數(shù)據(jù),方便最大程度上測(cè)試算法的真實(shí)表現(xiàn)。這是一個(gè)十分痛苦的過(guò)程,因?yàn)閷?duì)于每個(gè)場(chǎng)景都要在保證視角、光線和場(chǎng)景布置完全一致的情況下照兩遍:第一遍用透明物體,第二遍用一模一樣的非透明物體替換它們(必須保證位置完全一樣)。

最終他們得到了 286 個(gè)真實(shí)場(chǎng)景測(cè)試圖,其中不僅包括透明物體本身,還有各種不同的背景貼圖和隨機(jī)不透明物體。圖片中既包含訓(xùn)練集中存在的已知對(duì)象,也包括從未出現(xiàn)過(guò)的新物體。

在數(shù)據(jù)集的問(wèn)題解決之后,下一步是思考如何收集透明物體的深度數(shù)據(jù)。

雖然在透明物體上,RGB-D 經(jīng)典的深度估算方法無(wú)法給出準(zhǔn)確數(shù)據(jù),但仍然有一些蛛絲馬跡暗示了物體的形狀。最重要的一點(diǎn)是,透明表面會(huì)出現(xiàn)鏡面反射,在光線充足的環(huán)境中會(huì)顯示成亮點(diǎn),在 RGB 圖像中非常明顯,而且主要受到物體形狀的影響。

因此,卷積神經(jīng)網(wǎng)絡(luò)可以利用這些反射數(shù)據(jù)推斷出準(zhǔn)確的表面法線,然后將其用于深度估算。

另一方面,大多數(shù)機(jī)器學(xué)習(xí)算法都嘗試直接從單眼 RGB 圖像中估計(jì)深度,不過(guò)即使對(duì)于人類而言,這也是一個(gè)困難的任務(wù)。尤其在背景表面比較平滑時(shí),現(xiàn)有算法對(duì)深度的估計(jì)會(huì)出現(xiàn)很大的誤差。這也會(huì)進(jìn)一步加大透明物體深度的估算誤差。

基于此,研究人員認(rèn)為與其直接估算透明物體深度,不如矯正 RGB-D 相機(jī)的初始深度估算數(shù)據(jù)。這樣更容易實(shí)現(xiàn),還可以通過(guò)非透明表面的深度來(lái)推算透明表面的深度。

ClearGrasp 算法

ClearGrasp 算法使用了三個(gè)神經(jīng)網(wǎng)絡(luò):一個(gè)用于估計(jì)表面法線,一個(gè)用于分析受遮擋邊界(深度不連續(xù)),另一個(gè)給透明對(duì)象罩上蒙版。蒙版負(fù)責(zé)刪除透明對(duì)象的所有像素,以便填充上正確的深度數(shù)據(jù)。

研究人員使用了一種全局優(yōu)化模塊,可以預(yù)測(cè)表面法線并利用其來(lái)引導(dǎo)形狀的重建,實(shí)現(xiàn)對(duì)已知表面深度的拓展,還可以利用推算出的遮擋邊界來(lái)保持不同物體之間的分離狀態(tài)。

由于研究人員創(chuàng)建的數(shù)據(jù)集存在局限性,比如訓(xùn)練圖片只包含放在地平面上的透明物體,因此初期的 ClearGrasp 算法判斷墻壁等其他表面法線的表現(xiàn)很差。為了改善這一問(wèn)題,他們?cè)诒砻娣ň€估算訓(xùn)練中加入了 Matterport3D 和 ScanNet 數(shù)據(jù)集中的真實(shí)室內(nèi)場(chǎng)景,雖然沒有透明物體,但針對(duì)真實(shí)場(chǎng)景的訓(xùn)練有效提高了算法估算表面法線的準(zhǔn)確率。

圖 | 三套神經(jīng)網(wǎng)絡(luò)各有不同分工(來(lái)源:谷歌 AI)

為了系統(tǒng)分析 ClearGrasp 的性能,研究人員分別利用 RGB-D 數(shù)據(jù)和 ClearGrasp 數(shù)據(jù)構(gòu)造了 3D 點(diǎn)云。點(diǎn)云顯示了算法所生成的 3D 表面形狀干凈且連貫,沒有原始單眼深度估算法中常見的鋸齒狀噪聲,而且還可以分辨復(fù)雜圖案背景下的透明物體,以及區(qū)分相互遮擋的透明物體。

最重要的是,ClearGrasp 輸出深度數(shù)據(jù)可以直接控制依賴于 RGB-D 圖像的機(jī)械臂。

研究人員使用了 UR5 工業(yè)機(jī)械臂進(jìn)行測(cè)試,將其原始傳感器數(shù)據(jù)替換成 ClearGrasp 輸出深度數(shù)據(jù)后,它的透明物體抓取成功率得到了顯著改善:平行夾爪的成功率從 12% 大幅提升到 74%,吸爪的成功率從 64% 提升到 86%。

雖然分辨透明物體的準(zhǔn)確率已經(jīng)有了大幅提升,但新算法仍然有很大的進(jìn)步空間。

研究人員認(rèn)為,受到訓(xùn)練數(shù)據(jù)集和傳統(tǒng)路徑跟蹤及渲染算法的局限性影響,ClearGrasp 仍然不能準(zhǔn)確分辨散焦線,經(jīng)常會(huì)把明亮的散焦線和物體陰影混淆為獨(dú)立的透明物體。這將是未來(lái)的重要研究方向之一。

研究人員相信,這項(xiàng)研究成果證明了,基于深度學(xué)習(xí)的深度數(shù)據(jù)重建方法足以勝過(guò)傳統(tǒng)方法,使機(jī)器能夠更好地感知透明表面,不僅有望提高 LIDAR 無(wú)人駕駛等技術(shù)的安全性,而且還可以在多變的應(yīng)用場(chǎng)景中開啟新的交互方式,讓分類機(jī)器人或者室內(nèi)導(dǎo)航等技術(shù)更加高效和可靠。

編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31105

    瀏覽量

    222392
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47641
  • 距離傳感器
    +關(guān)注

    關(guān)注

    3

    文章

    77

    瀏覽量

    15843
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124420
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度剖析TMP113:超小尺寸高精度數(shù)字溫度傳感器的卓越之選

    深度剖析TMP113:超小尺寸高精度數(shù)字溫度傳感器的卓越之選 在電子設(shè)備的設(shè)計(jì)中,溫度監(jiān)測(cè)是一個(gè)至關(guān)重要的環(huán)節(jié),它關(guān)乎著設(shè)備的性能、穩(wěn)定性和壽命。TMP113作為一款超小尺寸、高精度的數(shù)字溫度
    的頭像 發(fā)表于 02-11 09:50 ?153次閱讀

    無(wú)線傾角傳感器在房屋監(jiān)測(cè)中的應(yīng)用:以高精度數(shù)據(jù)支撐既有建筑安全評(píng)估

    無(wú)線傾角傳感器在房屋監(jiān)測(cè)中的應(yīng)用:以高精度數(shù)據(jù)支撐既有建筑安全評(píng)估
    的頭像 發(fā)表于 01-26 10:34 ?775次閱讀
    無(wú)線傾角<b class='flag-5'>傳感器</b>在房屋監(jiān)測(cè)中的應(yīng)用:以高精<b class='flag-5'>度數(shù)據(jù)</b>支撐既有建筑安全評(píng)估

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測(cè)頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過(guò)Keras實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實(shí)現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場(chǎng)需求的模型,進(jìn)一步提升檢測(cè)的準(zhǔn)確性和現(xiàn)場(chǎng)的適應(yīng)性
    發(fā)表于 12-22 14:33

    開啟電子革命:HRPM霍爾效應(yīng)旋轉(zhuǎn)位置傳感器深度解析

    開啟電子革命:HRPM霍爾效應(yīng)旋轉(zhuǎn)位置傳感器深度解析 在電子工程領(lǐng)域,傳感器的性能與可靠性直接影響著整個(gè)系統(tǒng)的運(yùn)行。今天,我們聚焦于PIHER旗下的HRPM霍爾效應(yīng)旋轉(zhuǎn)位置傳感器,它集
    的頭像 發(fā)表于 12-11 15:55 ?395次閱讀

    開啟電子革命:PIHER PSAI 感應(yīng)式弧形位置傳感器深度解析

    開啟電子革命:PIHER PSAI 感應(yīng)式弧形位置傳感器深度解析 在電子科技飛速發(fā)展的今天,位置傳感器作為關(guān)鍵組件,廣泛應(yīng)用于各類工業(yè)設(shè)備中。PIHER 傳感系統(tǒng)公司推出的 PSAI
    的頭像 發(fā)表于 12-11 15:30 ?408次閱讀

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    高清錄屏演示 進(jìn)度梯度設(shè)計(jì):前3章(視覺篇)聚焦傳統(tǒng)算法,第6章起逐步引入深度學(xué)習(xí),避免知識(shí)斷層 2)實(shí)戰(zhàn)項(xiàng)目拆解教學(xué) 以\"雙CCD光學(xué)分選案例\"為例,采用\"硬件連接
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    高清錄屏演示 進(jìn)度梯度設(shè)計(jì):前3章(視覺篇)聚焦傳統(tǒng)算法,第6章起逐步引入深度學(xué)習(xí),避免知識(shí)斷層 2)實(shí)戰(zhàn)項(xiàng)目拆解教學(xué) 以\"雙CCD光學(xué)分選案例\"為例,采用\"硬件連接
    發(fā)表于 12-03 13:50

    打破汽車動(dòng)態(tài)測(cè)量困局, 虹科OMS光學(xué)傳感器重塑汽車測(cè)試精度標(biāo)桿

    科技應(yīng)用對(duì)數(shù)據(jù)精度、可靠性與便捷性的嚴(yán)苛要求。虹科OMS 7光學(xué)傳感器將先進(jìn)光學(xué)感知系統(tǒng)與高精度慣性測(cè)量單元深度融合,帶來(lái)從底層原理到應(yīng)用體
    的頭像 發(fā)表于 10-30 11:38 ?338次閱讀
    打破汽車動(dòng)態(tài)測(cè)量困局, 虹科OMS<b class='flag-5'>光學(xué)</b><b class='flag-5'>傳感器</b>重塑汽車測(cè)試精度標(biāo)桿

    【新啟航】深度學(xué)習(xí)在玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析中的應(yīng)用

    。隨著深度學(xué)習(xí)數(shù)據(jù)處理領(lǐng)域展現(xiàn)出強(qiáng)大能力,將其應(yīng)用于玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析,有助于實(shí)現(xiàn)高精度、高效率的質(zhì)量檢測(cè)與工藝優(yōu)化,為行業(yè)發(fā)展提供新動(dòng)能。
    的頭像 發(fā)表于 10-11 13:32 ?645次閱讀
    【新啟航】<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在玻璃晶圓 TTV 厚<b class='flag-5'>度數(shù)據(jù)</b>智能分析中的應(yīng)用

    基于多傳感器融合的切割深度動(dòng)態(tài)補(bǔ)償與晶圓 TTV 協(xié)同控制

    影響,單一傳感器獲取的信息存在局限性,難以實(shí)現(xiàn)切割深度的精確動(dòng)態(tài)補(bǔ)償與 TTV 的有效控制 。多傳感器融合技術(shù)通過(guò)整合多源信息,為實(shí)現(xiàn)切割深度動(dòng)態(tài)補(bǔ)償與晶圓 TTV 的
    的頭像 發(fā)表于 07-21 09:46 ?653次閱讀
    基于多<b class='flag-5'>傳感器</b>融合的切割<b class='flag-5'>深度</b>動(dòng)態(tài)補(bǔ)償與晶圓 TTV 協(xié)同控制

    常見的溫濕度傳感器類型?

    測(cè)量濕度。其優(yōu)點(diǎn)是響應(yīng)速度快、精度高,但缺點(diǎn)是價(jià)格高。 光學(xué)式濕度傳感器 光學(xué)式濕度傳感器基于濕度對(duì)透明材料的折射率的影響來(lái)測(cè)量濕度。其優(yōu)點(diǎn)
    發(fā)表于 06-24 09:24

    技術(shù)指南丨深視智能點(diǎn)光譜共焦位移傳感器測(cè)量透明物體厚度操作指南

    深視智能光譜共焦位移傳感器SCI系列透明物體厚度測(cè)量操作指南旨在協(xié)助用戶更加全面地了解我們的傳感器設(shè)備。為方便后續(xù)
    的頭像 發(fā)表于 06-16 08:19 ?1038次閱讀
    技術(shù)指南丨深視智能點(diǎn)光譜共焦位移<b class='flag-5'>傳感器</b>測(cè)量<b class='flag-5'>透明</b><b class='flag-5'>物體</b>厚度操作指南

    MAX32674C超低功耗生物識(shí)別算法/傳感器中樞技術(shù)手冊(cè)

    MAX32674C是一款算法/傳感器中樞,提供嵌入式軟件和先進(jìn)的算法,適用于健身和醫(yī)療可穿戴設(shè)備市場(chǎng),可直接與ADI的光學(xué)傳感器進(jìn)行接口。配
    的頭像 發(fā)表于 05-08 09:11 ?969次閱讀
    MAX32674C超低功耗生物識(shí)別<b class='flag-5'>算法</b>/<b class='flag-5'>傳感器</b>中樞技術(shù)手冊(cè)

    光學(xué)傳感器的工作原理與應(yīng)用

    在現(xiàn)代科技的廣闊天地中,光學(xué)傳感器如同一雙雙敏銳的“眼睛”,無(wú)處不在地捕捉著光線中的信息,將其轉(zhuǎn)化為可供我們理解和分析的數(shù)字信號(hào)。從智能手機(jī)上的指紋解鎖,到自動(dòng)駕駛汽車的精確導(dǎo)航,再到醫(yī)療領(lǐng)域
    的頭像 發(fā)表于 04-15 18:24 ?1835次閱讀

    安森美這款iToF傳感器讓3D深度測(cè)量技術(shù)輕松落地

    ,更難以獨(dú)立識(shí)別潛在的凹痕、缺陷或不規(guī)則之處。此外,2D傳感器讀取的數(shù)據(jù)易受光照條件的影響,不理想的光線往往會(huì)使關(guān)鍵區(qū)域變得模糊或失真。然而,深度感知技術(shù)通過(guò)模擬
    的頭像 發(fā)表于 03-28 14:31 ?1058次閱讀
    安森美這款iToF<b class='flag-5'>傳感器</b>讓3D<b class='flag-5'>深度</b>測(cè)量技術(shù)輕松落地