91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于激光雷達(dá)的全稀疏3D物體檢測器

CVer ? 來源:CVer ? 作者:明月不諳離苦 ? 2022-11-15 14:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹一下我們組前段時間的一個微小工作

3d56525e-64a4-11ed-8abf-dac502259ad0.png

Fully Sparse 3D Object Detection (NeurIPS 2022)

Authors:Lue Fan,王峰, 王乃巖,Zhaoxiang Zhang

論文:https://arxiv.org/abs/2207.10035

代碼已經(jīng)開源在:

https://github.com/tusen-ai/SST

長話短說,我們提出了一種基于激光雷達(dá)的全稀疏3D物體檢測器,在Waymo數(shù)據(jù)集和Argoverse 2數(shù)據(jù)集上都達(dá)到了不錯的精度和速度。下面是一個簡要的介紹。

一、導(dǎo)言

目前以SECOND,PointPillars以及CenterPoint為代表的主流一階段點云物體檢測器都或多或少依賴致密特征圖(dense feature map)。這些方法基本都會把稀疏體素特征“拍成“dense BEV feature map。這樣做可以沿用2D檢測器的很多套路,取得了非常不錯的性能。但是由于dense feature map的計算量和檢測范圍的平方成正比,使得這些檢測器很難scale up到大范圍long-range檢測場景中。比如新出的Argoverse 2數(shù)據(jù)集具有[-200, 200] x [-200, 200]的理論檢測范圍,比常用的不超過[-75. 75] x [-75, 75]的范圍大了許多。于是便引出了本文想解決的一個痛點問題:

如何去掉這些dense feature map,把檢測器做成fully sparse的,以此高效地實現(xiàn) long-range LiDAR detection?

這里補(bǔ)一句:全稀疏其實并不是一個新概念,在點云物體檢測發(fā)展的早期,以PointRCNN為代表的眾多純point-based 方法天生就是全稀疏的。但由于Neighborhood query和FPS的存在,純point-based方法在大規(guī)模點云數(shù)據(jù)上的效率不是很理想。這就導(dǎo)致純point-based方法在點云規(guī)模較大的benchmark上性能表現(xiàn)不佳(沒辦法用較大的模型和分辨率。)

而去掉dense feature map的一個直接問題就是會導(dǎo)致物體中心特征的缺失(center feature missing)。這是由于點云常常分布在物體的側(cè)表面,對于大物體尤其如此。在dense detector中,多層的卷積會把物體邊緣的有效特征擴(kuò)散到物體中心,因此這些檢測器不存在直接的中心特征缺失問題,可以使用已被證明非常有效的center assignment。下圖展示了特征擴(kuò)散的過程:

3d8a4cd0-64a4-11ed-8abf-dac502259ad0.jpg

為了解決在全稀疏結(jié)構(gòu)下中心特征缺失的問題,我們有一個基本想法:

既然中心特征缺失了,那么就不依靠中心特征做預(yù)測,而是依靠物體整體的有效特征做預(yù)測。

二、方法

順著上面的基本想法,一個具體的思路就是先把物體分割出來,再將物體當(dāng)作一個整體,并用稀疏的方式提取特征。第一步的分割在全稀疏的結(jié)構(gòu)下很好實現(xiàn),接下來物體特征的提取也可以通過眾多成熟的point-based方法實現(xiàn)。那么我們的方法就呼之欲出了:

sparse voxel encoder作為backbone和segmentor來分割物體并預(yù)測每個點所對應(yīng)的物體中心

對預(yù)測出來的眾多中心點進(jìn)行聚類,得到一個一個的instance。這一步類似VoteNet,但我們采用了connected component labeling的方式來聚類,這一點其實對大物體性能挺重要的。

對于每一個instance用稀疏的方式提取整體特征,并進(jìn)行該instance外接框的reasoning。

前兩步都很簡單直接,但第三步稍有麻煩。對instance提取特征最常用的選擇就是在instance內(nèi)部做point-based operation, 但是之前提到這類方法效率較低。因此我們試圖規(guī)避其中諸如neighborhood query和FPS這種比較耗時的操作。我們的想法是,既然已經(jīng)得到了一個個instance,何不直接將instance作為一個一個獨立neighborhood group,扔掉進(jìn)一步的ball query或者KNN操作。

這樣做實質(zhì)上是把instance當(dāng)成了“voxel”來處理,因為instance和voxel本質(zhì)上都屬于對整個點云的一種non-overlapping劃分。那么我們就可以直接套用提取單個體素特征那一套方案來提取instance特征,比如Dynamic VFE。具體而言,就是對instance內(nèi)的每個點做MLP,再做instance-wise的pooling得到instance feature。instance feature又可以重新assign到instance內(nèi)部的每個point上,這一過程可以不斷重復(fù)。這本質(zhì)上是多個簡單的PointNet疊加,也可以換成其他更強(qiáng)力的操作。值得強(qiáng)調(diào)的是,由于3D空間里instance之間天然不會重疊(正如同voxel),以上的pooling操作可以通過torch中scatter operation來高效地動態(tài)實現(xiàn)(無需對每個組進(jìn)行padding或者設(shè)置點數(shù)上限)。

得到最終的instance feature之后,直接預(yù)測對應(yīng)instance的外接框和類別即可,我們將整個對instance進(jìn)行處理的模塊稱之為 Sparse Instance Recognition (SIR)。

方法總體框架如下圖所示:

3d9d7c60-64a4-11ed-8abf-dac502259ad0.png

Overall Pipeline

這其中還包含著一些后續(xù)操作,比如對重新分割出比聚類得到的更準(zhǔn)確的instance,感興趣的讀者可以查看原文。

三、結(jié)果

提出的方法在Waymo的單幀單模型標(biāo)準(zhǔn)賽道上達(dá)到了SOTA的性能

3de4ad74-64a4-11ed-8abf-dac502259ad0.jpg

Waymo validation 上的性能,截圖不全,感興趣的讀者可查看原論文

同時也在新出的Argoverse 2數(shù)據(jù)集上超越了主流的CenterPoint(雖然還沒幾個人刷。。)。

值得多提一嘴的是我們的方法在長距離檢測上有巨大的效率優(yōu)勢,如下圖所示

3dfb29f0-64a4-11ed-8abf-dac502259ad0.jpg

這是用SST backbone測的,用SparseConv的backbone效果更佳

四、一些特性

我們的方法不受sparse backbone的類型限制,比如文中我們就使用了sparse transformer和sparse conv兩種結(jié)構(gòu)。這一點使得FSD可以作為sparse backbone方面研究的一個strong baseline。

該方法雖然暫時聚焦在檢測任務(wù),但已經(jīng)有了multi task的影子,可以把segmentation和detection一體化。

前向速度很快,再加上收斂也極快,Waymo上訓(xùn)練6個epoch就可以達(dá)到準(zhǔn)sota水平。這在8 x 3090上只需要不到半天時間,其他方法達(dá)到相同性能可能需要至少2天的訓(xùn)練時間。這應(yīng)該會給大家的快速實驗迭代提供很大便利。

我們相信稀疏化是將來的一個趨勢。在很多場景下,sparse feature都比相比笨重的dense feature map具有更高的可操作性和靈活性,歡迎大家試用我們的模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 檢測器
    +關(guān)注

    關(guān)注

    1

    文章

    941

    瀏覽量

    50018
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    981

    文章

    4507

    瀏覽量

    196760

原文標(biāo)題:NeurIPS 2022 | 中科院&圖森未來提出FSD:全稀疏的3D目標(biāo)檢測器

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    固態(tài)激光雷達(dá)參數(shù)以及避障視頻

    本帖最后由 jf_63660781 于 2026-3-27 14:23 編輯 1 產(chǎn)品概述 G90A-60傳感是一款線陣固態(tài)激光雷達(dá)。本產(chǎn)品基于三角測距原理,并配以相關(guān)光學(xué)、電學(xué)
    發(fā)表于 03-27 14:14

    一徑科技NZ系列廣角全場景3D激光雷達(dá)全面賦能商用清潔機(jī)器人

    一徑科技正式發(fā)布面向商用清潔機(jī)器人領(lǐng)域的專用激光雷達(dá)解決方案 ——NZ 系列廣角全場景 3D 激光雷達(dá),以行業(yè)領(lǐng)先的立體感知性能,正式推動商用清潔機(jī)器人行業(yè)從 2D 平面感知時代,全面
    的頭像 發(fā)表于 03-27 11:17 ?389次閱讀

    激光雷達(dá)助力泳池水下機(jī)器人建圖+定位覆蓋

    激光雷達(dá)助力泳池水下機(jī)器人建圖+定位覆蓋
    的頭像 發(fā)表于 02-25 14:24 ?266次閱讀
    <b class='flag-5'>激光雷達(dá)</b>助力泳池水下機(jī)器人建圖+定位<b class='flag-5'>全</b>覆蓋

    禾賽科技2025年割草機(jī)器人3D激光雷達(dá)出貨量第一

    1 月 8 日,全球激光雷達(dá)領(lǐng)導(dǎo)者禾賽科技(NASDAQ: HSAI;HKEX: 2525)今日宣布,禾賽 2025 年割草機(jī)器人 3D 激光雷達(dá)出貨量第一,2026 CES 現(xiàn)場搭載 3D
    的頭像 發(fā)表于 01-10 11:49 ?999次閱讀

    全球體積最小4D FMCW激光雷達(dá)亮相!

    激光雷達(dá),首次成功跨越FMCW激光雷達(dá)成本與性能平衡的行業(yè)臨界點,讓高性價比的4D FMCW激光雷達(dá)技術(shù)真正落地人形機(jī)器人、機(jī)器狗、無人配送、智能割草機(jī)及
    發(fā)表于 12-29 08:49 ?1960次閱讀
    全球體積最小4<b class='flag-5'>D</b> FMCW<b class='flag-5'>激光雷達(dá)</b>亮相!

    什么是激光雷達(dá) 3D SLAM技術(shù)?

    在智能移動設(shè)備自主運行的賽道上,激光雷達(dá)3DSLAM技術(shù)正成為破局關(guān)鍵,但多數(shù)人對其認(rèn)知仍停留在表層。要讀懂這一核心技術(shù),不妨先回溯“SLAM”的本質(zhì)——SLAM
    的頭像 發(fā)表于 12-02 19:23 ?664次閱讀
    什么是<b class='flag-5'>激光雷達(dá)</b> <b class='flag-5'>3D</b> SLAM技術(shù)?

    多線激光雷達(dá) 3D SLAM 無人叉車系統(tǒng)解決方案:開啟工業(yè)物流新變革

    在全球工業(yè)自動化與物流智能化轉(zhuǎn)型的關(guān)鍵時刻,鐳神智能憑借十余年激光雷達(dá)自主導(dǎo)航技術(shù)積淀,成功打造出世界領(lǐng)先的多線激光雷達(dá)3DSLAM無人叉車/AMR(自主移動機(jī)器人)系統(tǒng)解決方案。核心技術(shù)解析
    的頭像 發(fā)表于 11-28 19:46 ?1147次閱讀
    多線<b class='flag-5'>激光雷達(dá)</b> <b class='flag-5'>3D</b> SLAM 無人叉車系統(tǒng)解決方案:開啟工業(yè)物流新變革

    3D傳感到立體相機(jī),解鎖工業(yè)應(yīng)用新可能

    3D傳感是實現(xiàn)深度感知的核心技術(shù)。這些傳感廣泛應(yīng)用于多種常見的3D視覺技術(shù)中,例如立體相機(jī)、激光雷達(dá)(LiDAR)、飛行時間(ToF)相
    的頭像 發(fā)表于 11-28 17:03 ?1913次閱讀
    從<b class='flag-5'>3D</b>傳感<b class='flag-5'>器</b>到立體相機(jī),解鎖工業(yè)應(yīng)用新可能

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】+基于MUSE Pi Pro的3d激光里程計實現(xiàn)

    基于Point-LIO算法的系統(tǒng)設(shè)計、實現(xiàn)方法和優(yōu)化策略。 1. 系統(tǒng)概述 項目目標(biāo) 利用MUSE Pi Pro開發(fā)板和速騰聚創(chuàng)Airy 96線激光雷達(dá)傳感,基于Point-LIO算法開發(fā)高性能的3D
    發(fā)表于 10-24 17:02

    洛微科技攜4D FMCW激光雷達(dá)3D感知方案閃耀光博會,引領(lǐng)行業(yè)新趨勢

    2025年9月10至12日,第二十六屆中國國際光電博覽會(CIOE)在深圳隆重舉行。杭州洛微科技有限公司作為激光雷達(dá)3D感知領(lǐng)域的創(chuàng)新企業(yè)受邀參展。公司營銷副總劉飛在會上發(fā)表了題為《FMCW
    的頭像 發(fā)表于 09-18 15:12 ?1201次閱讀
    洛微科技攜4<b class='flag-5'>D</b> FMCW<b class='flag-5'>激光雷達(dá)</b>與<b class='flag-5'>3D</b>感知方案閃耀光博會,引領(lǐng)行業(yè)新趨勢

    奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機(jī)

    近日,世界機(jī)器人大會現(xiàn)場,奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機(jī),以“場景拓展”與“極限感知”為核心優(yōu)勢,進(jìn)階領(lǐng)域能力矩陣,刷新機(jī)器人性能上限,為各類機(jī)器人帶來更靈活可靠的視覺解決方案。
    的頭像 發(fā)表于 08-15 15:05 ?1485次閱讀

    海伯森面陣固態(tài)激光雷達(dá)產(chǎn)品概述

    HPS-3D160 Pr0、HPS-3D640面陣固態(tài)激光雷達(dá)基于ToF(Time-of-Flight)原理,集成了精密的紅外鏡頭和激光照明系統(tǒng),內(nèi)置高性能處理
    的頭像 發(fā)表于 06-23 10:07 ?1269次閱讀
    海伯森面陣固態(tài)<b class='flag-5'>激光雷達(dá)</b>產(chǎn)品概述

    自動駕駛激光雷達(dá):原理、類型與應(yīng)用梳理

    來探測物體。白天或黑夜下的物體與車之間的距離。甚至由于反射度的不同,車道線和路面也可以區(qū)分。光束無法探測到被遮擋的物體。 2.激光雷達(dá)的關(guān)鍵參數(shù) 點頻:每幀水平方向平均點數(shù)x垂直方向平
    的頭像 發(fā)表于 04-25 11:48 ?3052次閱讀
    自動駕駛<b class='flag-5'>激光雷達(dá)</b>:原理、類型與應(yīng)用梳理

    激光雷達(dá)技術(shù)在自動駕駛汽車中的應(yīng)用

    在不斷發(fā)展的汽車技術(shù)領(lǐng)域,LiDAR(光探測和測距)傳感——也就是“激光雷達(dá)”——已成為關(guān)鍵組件,隨著汽車行業(yè)向自主化邁進(jìn),激光雷達(dá)傳感在提供安全導(dǎo)航所需的實時
    的頭像 發(fā)表于 04-10 10:11 ?2590次閱讀
    <b class='flag-5'>激光雷達(dá)</b>技術(shù)在自動駕駛汽車中的應(yīng)用

    OptiSystem應(yīng)用:激光雷達(dá)系統(tǒng)設(shè)計

    ,CFTNoiseThreshold可以修改恒比鑒別的靈敏度。 圖3.激光測距系統(tǒng) 2.測距(相移) 測量對象/目標(biāo)的距離的另一種方法是使用相移測距儀。 利用該方法,光源以特定頻率Rf被調(diào)制并且朝向目標(biāo)
    發(fā)表于 03-31 10:18