德國馬克斯普朗克智能系統(tǒng)研究所(Max Planck Institute for Intelligent Systems)的自動(dòng)駕駛視覺組聯(lián)合蘇黎世聯(lián)邦理工學(xué)院(ETH-Zurich)計(jì)算機(jī)視覺與幾何組發(fā)表了一篇 67 頁的論文,介紹用于自動(dòng)駕駛的計(jì)算機(jī)視覺方面的研究,從自動(dòng)駕駛的歷史開始,談到了數(shù)據(jù)集與基準(zhǔn)、攝像頭模型與校準(zhǔn)、目標(biāo)識(shí)別、追蹤等問題中的難題與頂尖研究成果。
最近在網(wǎng)上發(fā)現(xiàn)了一個(gè)帖子,這個(gè)帖子整理了自動(dòng)駕駛領(lǐng)域的五個(gè)免費(fèi)的資源:
五個(gè)免費(fèi)入門自動(dòng)駕駛的資源
1.應(yīng)用于自動(dòng)駕駛汽車的機(jī)器學(xué)習(xí)算法
http://www.kdnuggets.com/2017/06/machine-learning-algorithms-used-self-driving-cars.html
這篇文章會(huì)讓你在自主車輛算法領(lǐng)域中從實(shí)踐中學(xué)習(xí),如果你打算沿著這條路走,它會(huì)提供幫助。機(jī)器學(xué)習(xí)應(yīng)用包括通過外部和內(nèi)部傳感器的數(shù)據(jù)融合對(duì)駕駛員狀態(tài)或駕駛情景分類的評(píng)估,這里研究了應(yīng)用于自動(dòng)駕駛汽車的不同算法。
2. 自主車輛的計(jì)算機(jī)視覺:問題、數(shù)據(jù)集和最先進(jìn)技術(shù)
https://arxiv.org/pdf/1704.05519.pdf
這是一篇由Joel Janai, Fatma Güney, Aseem Behl, and Andreas Geiger寫的自主車輛的現(xiàn)狀綜述。這篇文章試調(diào)查既包括歷史上最相關(guān)的文獻(xiàn),也包括當(dāng)前最新幾個(gè)主題,包括識(shí)別、重建、運(yùn)動(dòng)估計(jì)、跟蹤、場景理解和端到端學(xué)習(xí)。對(duì)于那些想要在該領(lǐng)域快速入門的來說,這是一篇全面的概述,也是最好的開始。
3. 應(yīng)用于自動(dòng)駕駛汽車的深度學(xué)習(xí)
http://selfdrivingcars.mit.edu/
這是麻省理工學(xué)院的課件網(wǎng)站。本課程是通過建立一輛自動(dòng)駕駛汽車的應(yīng)用主題來介紹深度學(xué)習(xí)的。
4. Python玩?zhèn)b盜獵車手5
https://www.youtube.com/watch?v=ks4MPfMq8aQ
這是由Harrison Kinsley的視頻系列(又名sentdex),描述如下:
此項(xiàng)目的目的是使用Python來玩?zhèn)b盜獵車手5。在俠盜獵車手5中有許多事情要做,但在這種情況下,我們的第一個(gè)目標(biāo)是創(chuàng)建一輛自動(dòng)駕駛汽車以及滑板車。該系列到目前為止已經(jīng)超過17個(gè)視頻。
5. 自動(dòng)駕駛汽車工程師Nanodegree
https://cn.udacity.com/self-driving-car-engineer--nd013/
忽略Udacity的營銷,這可能是在自主車輛領(lǐng)域人們可以獲得最全面和集中的正式培訓(xùn)/教育的地方。為幫助填補(bǔ)這一空白,你可以在這里找到一些學(xué)生的課程筆記和代碼,如果你想要得到這樣一個(gè)樣本你需要學(xué)習(xí)這一系列的課程。
自主車輛的計(jì)算機(jī)視覺:問題、數(shù)據(jù)集和最先進(jìn)技術(shù)
本文主要分享一下第二個(gè)資源《自主車輛的計(jì)算機(jī)視覺:問題、數(shù)據(jù)集和最先進(jìn)技術(shù)》。它是由德國馬克斯普朗克智能系統(tǒng)研究所(Max Planck Institute for Intelligent Systems)的自動(dòng)駕駛視覺組聯(lián)合蘇黎世聯(lián)邦理工學(xué)院(ETH-Zurich)計(jì)算機(jī)視覺與幾何組發(fā)表的一篇 67 頁的論文,介紹用于自動(dòng)駕駛的計(jì)算機(jī)視覺方面的研究,從自動(dòng)駕駛的歷史開始,談到了數(shù)據(jù)集與基準(zhǔn)、攝像頭模型與校準(zhǔn)、目標(biāo)識(shí)別、追蹤等問題中的難題與頂尖研究成果。此篇文章對(duì)文章結(jié)構(gòu)與引導(dǎo)閱讀的內(nèi)容進(jìn)行了介紹,此外,為了方便閱讀,作者們還給出了一個(gè)交互式在線工具,用圖的方式可視化了相關(guān)研究的分類,提供了額外的信息與論文鏈接,項(xiàng)目地址如下:
http://www.cvlibs.net/projects/autonomous_vision_survey/
文章基本結(jié)構(gòu)
前言
自動(dòng)駕駛歷史
數(shù)據(jù)集&基準(zhǔn)
攝像頭模型&校準(zhǔn)
表征
目標(biāo)識(shí)別
語義分隔
再建構(gòu)
動(dòng)作&姿勢(shì)估測
追蹤
場景理解
傳感器運(yùn)動(dòng)控制的端到端學(xué)習(xí)
結(jié)論
摘要
近年來計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)和自動(dòng)駕駛等人工智能相關(guān)領(lǐng)域發(fā)生了驚人的進(jìn)展。然而,和每一個(gè)快速發(fā)展的領(lǐng)域一樣,人工智能領(lǐng)域也出現(xiàn)了業(yè)內(nèi)人員難以跟上行業(yè)節(jié)奏或者業(yè)外人員難入行的問題。雖然已編寫過幾篇專題調(diào)查論文,但是到目前為止,還沒有關(guān)于自動(dòng)駕駛計(jì)算機(jī)視覺(computer vision for autonomous vehicle)的難題、數(shù)據(jù)集和方法的綜合性調(diào)查。本文通過提供有關(guān)自動(dòng)駕駛計(jì)算機(jī)視覺這一主題的最新調(diào)查以填補(bǔ)這一空白。我們的調(diào)查既包括最為相關(guān)的歷史資料,也包括識(shí)別、重建、運(yùn)動(dòng)估測、追蹤、場景理解以及端到端學(xué)習(xí)等當(dāng)前最先進(jìn)的專業(yè)主題。為了完成這一目標(biāo),我們首先通過分類學(xué)對(duì)每個(gè)方法進(jìn)行分類,接著在 KITTI、ISPRS、MOT 和 Cityscapes 等若干個(gè)挑戰(zhàn)性的基準(zhǔn)數(shù)據(jù)集上分析每個(gè)方法的最佳性能。此外,我們還討論了一些開放問題和當(dāng)前的研究挑戰(zhàn)。考慮到訪問的輕松性和缺失的引用,我們還提供了一個(gè)具有主題和方法導(dǎo)航功能的互動(dòng)平臺(tái),提供額外信息和每篇論文的項(xiàng)目鏈接。
導(dǎo)語
從 20 世紀(jì) 80 年代首次成功演示以來(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自動(dòng)駕駛汽車領(lǐng)域已經(jīng)取得了巨大進(jìn)展。盡管有了這些進(jìn)展,但在任意復(fù)雜環(huán)境中實(shí)現(xiàn)完全自動(dòng)駕駛導(dǎo)航仍被認(rèn)為還需要數(shù)十年的發(fā)展。原因有兩個(gè):首先,在復(fù)雜的動(dòng)態(tài)環(huán)境中運(yùn)行的自動(dòng)駕駛系統(tǒng)需要人工智能歸納不可預(yù)測的情境,從而進(jìn)行實(shí)時(shí)推論。第二,信息性決策需要準(zhǔn)確的感知,目前大部分已有的計(jì)算機(jī)視覺系統(tǒng)有一定的錯(cuò)誤率,這是自動(dòng)駕駛導(dǎo)航所無法接受的。
在此論文中,我們聚焦于第二個(gè)問題,也就是自動(dòng)駕駛視覺(autonomous vision),并調(diào)查了目前自動(dòng)駕駛汽車中感知系統(tǒng)的表現(xiàn)。面向此目標(biāo),我們首先給出了問題分類,歸類了已有的數(shù)據(jù)集,以及在這些類別中可使用的技術(shù)(論文成果),描述了每種方法的優(yōu)缺點(diǎn)。第二,我們?cè)跀?shù)個(gè)流行數(shù)據(jù)集上分析了一些頂尖成果的表現(xiàn)。特別是我們給出了 KITTI 基準(zhǔn)的全新深度質(zhì)量分析,基于提交到平谷服務(wù)器上的方法展現(xiàn)了最容易與最困難的例子?;谶@些分析,我們討論了開放的研究問題和挑戰(zhàn)。為了更輕松的閱讀,我們還給出了一個(gè)交互式在線工具,使用圖像可視化了我們的分類,并用簡單可用的方式提供了額外的信息與鏈接。通過提供詳盡的綜述,我們希望該成果能夠成為自動(dòng)駕駛視覺領(lǐng)域研究員進(jìn)行研究的有用工具,也能降低新人進(jìn)入該領(lǐng)域的門檻。
作者們給出的自動(dòng)駕駛視覺領(lǐng)域中問題的分類。在此交互式工具中,點(diǎn)擊這些主題就能搜索相關(guān)論文。
目前也有其他相關(guān)的研究。Winner et al. (2015) 詳細(xì)解釋了主動(dòng)安全性與駕駛輔助系統(tǒng),考慮到了它們的結(jié)構(gòu)與功能。他們的研究注重覆蓋到輔助駕駛系統(tǒng)的所有方面,但關(guān)于機(jī)器視覺的章節(jié)只覆蓋到了自動(dòng)駕駛視覺問題中最基礎(chǔ)的概念。Klette (2015) 給出了基于視覺的駕駛輔助系統(tǒng)的概述。他們描述了高層次的感知問題的大部分方面,但并不像我們一樣提供了在各種任務(wù)上頂級(jí)成果的深度評(píng)測。
Zhu et al. (2017) 提供了智能汽車環(huán)境感知的概述,聚焦于車道檢測、交通信號(hào)/燈識(shí)別以及汽車追蹤問題,該論文可與我們的研究互補(bǔ)。但相較之下,我們的目標(biāo)是通過提供廣泛的綜述和對(duì)比(包括所有領(lǐng)域的成果),在機(jī)器人、智能汽車、攝影測繪學(xué)和計(jì)算機(jī)視覺社區(qū)之間架起一座橋梁。
1. 自動(dòng)駕駛歷史
1.1 自動(dòng)駕駛項(xiàng)目
1.2 自動(dòng)駕駛競賽
2. 數(shù)據(jù)集和基準(zhǔn)
數(shù)據(jù)集通過提供專門的真值(ground truth)問題實(shí)例,從而在許多研究領(lǐng)域之中發(fā)揮了關(guān)鍵作用。通過提供有關(guān)其能力與局限的核心信息,數(shù)據(jù)集還可以對(duì)方法進(jìn)行量化評(píng)估。
2.1 真實(shí)數(shù)據(jù)集
立體與 3D 重建類數(shù)據(jù)集
光流類數(shù)據(jù)集
對(duì)象識(shí)別與分割類數(shù)據(jù)集
追蹤類數(shù)據(jù)集
航空?qǐng)D像數(shù)據(jù)集
自動(dòng)駕駛數(shù)據(jù)集
長期自控(Long-Term Autonomy)類數(shù)據(jù)集
2.2 合成類數(shù)據(jù)集
MPI Sintel
飛行椅和飛行物
游戲引擎
3. 攝像頭模型與校準(zhǔn)
3.1 校準(zhǔn)
3.2 全向攝像頭
3.3 事件攝像頭
圖 4(a)一個(gè)標(biāo)準(zhǔn)的 CMOS 攝像頭以固定幀頻輸出圖像,運(yùn)動(dòng)視覺傳感器(DVS)及時(shí)輸入波峰事件(spike event)(當(dāng)他們變紅時(shí))。每個(gè)事件對(duì)應(yīng)一個(gè)局部、像素級(jí)別的亮度變化。(b)DVS 盯著一個(gè)旋轉(zhuǎn)點(diǎn)上的輸出視覺化。用顏色的點(diǎn)用于標(biāo)記個(gè)體事件。不屬于螺旋的部分是由傳感器噪音引起的。
4. 表征
圖 5: Pfeiffer & Franke (2011) 的多層 Stixel 世界表征。這一場景被切割為叫做 Stixels 的平面部分。與 Stixel World of Badino et al. (2009) 相反,它可以將目標(biāo)定位在一單個(gè)圖像列中的多個(gè)深度位置。顏色代表的是與障礙物的距離,紅色代表靠近,綠色代表還離得比較遠(yuǎn)。
3D 基元(primitives)
5. 目標(biāo)識(shí)別
傳感器
標(biāo)準(zhǔn)流程
圖 6: Deformable Part Model 進(jìn)行樣本偵測,模型是 Felzenszwalb et al. (2008) 提出的。DPM 包括一個(gè)和多個(gè)高分辨率模型,還有一個(gè)用來限制每部分位置的 spatial constellation 模型。
分類
5.1 2D 目標(biāo)檢測
圖 7:Cai et al. (2016) 提出的提議子網(wǎng)絡(luò)(proposal sub-network),在多輸出層中進(jìn)行識(shí)別,匹配不同尺度的目標(biāo)??梢跃C合特定尺度偵測器,生成一個(gè)強(qiáng)大的多尺度目標(biāo)偵測器。
圖 8:Chen et al. (2016b) 提出的網(wǎng)絡(luò)綜合了來自鳥類視野的分區(qū)(region-wise)特征,LiDAR 點(diǎn)云前視圖以及 RGB 作為 deep fusion network 的輸入。
5.2 從 2D 圖像構(gòu)建 3D 目標(biāo)偵測
5.3 從 3D 點(diǎn)云構(gòu)建 3D 目標(biāo)偵測
5.4 行人檢測
5.5 行人姿勢(shì)估測
5.6 討論
圖 9:KITTI 汽車檢測分析。每個(gè)部分分別展示了包含大量真正例(TP) 檢測、假正例(FP)檢測和假負(fù)例(FN) 檢測的圖像。如果所有的檢測器的 TP、FP 或 FN 一致,目標(biāo)被標(biāo)記為紅色。如果只有一部分檢測器一致,目標(biāo)標(biāo)記為黃色。通過 KITTI 評(píng)測服務(wù)器上公開的 15 種頂級(jí)方法,我們已經(jīng)建立了排名。
圖 10:KITTI 行人檢測分析。每個(gè)部分分別展示了包含大量真正例(TP) 檢測、假正例(FP)檢測和假負(fù)例(FN) 檢測的圖像。如果所有的檢測器的 TP、FP 或 FN 一致,目標(biāo)被標(biāo)記為紅色。如果只有一部分檢測器一致,目標(biāo)標(biāo)記為黃色。通過 KITTI 評(píng)測服務(wù)器上公開的 15 種頂級(jí)方法,我們已經(jīng)建立了排名。
圖 11:KITTI 自行車檢測。每個(gè)部分分別展示了包含大量真正例(TP) 檢測、假正例(FP)檢測和假負(fù)例(FN) 檢測的圖像。如果所有的檢測器的 TP、FP 或 FN 一致,目標(biāo)被標(biāo)記為紅色。如果只有一部分檢測器一致,目標(biāo)標(biāo)記為黃色。通過 KITTI 評(píng)測服務(wù)器上公開的 15 種頂級(jí)方法,我們已經(jīng)建立了排名。
圖 12:Cordts 等人做的 Cityscapes 數(shù)據(jù)集場景語義分割,2016 年記錄于蘇黎世
6. 語義分割
方程(formulation)
結(jié)構(gòu)化 CNN
圖 13: Zhao et al. (2016) 提出的方法的概覽。金字塔解析模塊(c)被用于一個(gè) CNN 的特征圖(b)上,并被輸入一個(gè)卷積層用于像素水平的估測(d)。
條件隨機(jī)場(conditional random field)
討論
基于建議的樣例分割(Proposal-based Instance Segmentation)
無需建議的樣例分割
6.2 . Label Propagation
6.3 多框架語義分割(Semantic Segmentation with Multiple Frames)
6.4 3D 數(shù)據(jù)的語義分割
在線方法
3D CNN
6.5 街景的語義分割
圖 16:Mathias et al. (2016) 提出用于外表面解析的三層解決方案。他們首先分割外表面,并將概率分布分配給語義類作為提取視覺特征。下一層他們使用特定目標(biāo)的檢測器,比如門或窗的檢測器從底層改進(jìn)分類器的輸出。最后,他們結(jié)合弱架構(gòu)先驗(yàn),并使用基于采樣的方法搜索最優(yōu)表面標(biāo)記。
6.6. Semantic Segmentation of Aerial Image
圖 17:ISPRS Vaihingen 采用由 Marmanis et al. (2016b) 提出的 FCN 集合進(jìn)行場景的語義分割。源自 Marmanis et al. (2016b)。
6.6.1 ISPRS 分割挑戰(zhàn)賽
6.7 道路分割
6.7.1 可用空間估計(jì)
圖 18:該圖片源自 Pinggera et al. (2016),其展示了在失物招領(lǐng)(Lost and Found)數(shù)據(jù)集上提出方法的障礙物檢測。
7. 再建構(gòu)
7.1 立體方法
圖 19:使用目標(biāo)知識(shí)解決立體匹配模糊問題。立體方法通常在無紋理或半透明表面(頂部,Zbontar & LeCun (2016))無法反射。而使用目標(biāo)知識(shí),通過加強(qiáng)對(duì)模糊表面(中間)不一致性的認(rèn)同,可以在保持?jǐn)?shù)量上和質(zhì)量上優(yōu)良結(jié)果的同時(shí),恢復(fù)場景目標(biāo)的 3D 幾何形(底部)。源自 Guney & Geiger (2015)。
圖 20:立體匹配的深度學(xué)習(xí)。訓(xùn)練 Siamese 網(wǎng)絡(luò)以提取所有像素可能差異的邊緣分布。源自 Luo et al. (2016)。
7.2 多視角 3D 重構(gòu)
圖 21:KITTI 2015 立體分析。該圖展示了在 KITTI 2015 立體基準(zhǔn)上發(fā)布的 15 個(gè)最佳立體方法的累積誤差。根據(jù) Menze & Geiger (2015) 定義的 3px/5% 標(biāo)準(zhǔn),紅色對(duì)應(yīng)著大多數(shù)方法會(huì)導(dǎo)致壞像素的區(qū)域,黃色對(duì)應(yīng)著某些方法失效的區(qū)域,透明對(duì)應(yīng)著所有方法都正確估計(jì)。
7.3 再建構(gòu)與識(shí)別
圖 22:Haene et al. (2013) 連結(jié) 3D 場景重建和分類。上面一行顯示輸入圖像及其 2D 語義分割與深度圖的示例。下面顯示了連接優(yōu)化和分類所得出的幾何形。源自 Haene et al. (2013)。
8. 運(yùn)動(dòng)與姿勢(shì)估測
8.1 2D 運(yùn)動(dòng)估測-光學(xué)流
8.2 3D 運(yùn)動(dòng)估測-場景流
圖 27: 場景流。基于圖像場景流的最小設(shè)置由兩個(gè)連續(xù)的立體圖像對(duì)給出。源自 Menze & Geiger (2015)。
8.3. Ego-Motion 估計(jì)
圖 30:Scaramuzza & Fraundorfer (2011) 的視覺測距問題圖例。Tk,k?1 轉(zhuǎn)換在兩個(gè)相鄰機(jī)位(或相機(jī)系統(tǒng)位置)由使用視覺特征而獲得。所有轉(zhuǎn)換的累積服從相對(duì)于初始坐標(biāo)系 k = 0 的絕對(duì)姿態(tài) Ck。源自 Scaramuzza & Fraundorfer (2011).
圖 31:Engel et al. (2015) 提出的立體 LSD-SLAM 方法能計(jì)算精確相機(jī)運(yùn)動(dòng)和實(shí)時(shí)半稠密(semi-dense)概率深度圖。深度可視化使用藍(lán)色代表遠(yuǎn)處場景點(diǎn),紅色代表近處目標(biāo)。源自 Engel et al. (2015)。
8.4. 同步定位與構(gòu)圖 (SLAM)
8.5. 定位
9. 追蹤
追蹤的目標(biāo)是給定傳感器測量數(shù)據(jù)的情況下實(shí)時(shí)評(píng)估一個(gè)或多個(gè)目標(biāo)的狀態(tài)。典型來說,目標(biāo)的狀態(tài)由它在一定時(shí)間的位置、速度和加速度來表達(dá)。追蹤其他車輛對(duì)自動(dòng)駕駛?cè)蝿?wù)而言非常重要。舉個(gè)例子,汽車剎車距離隨速度變化會(huì)有次方級(jí)的變化。為了防止相撞,系統(tǒng)需要足夠提前做出反應(yīng)。其他車輛的軌跡足以預(yù)測停車的位置和可能相撞的情況。
在自行車和行人的案例中,比較難以預(yù)測未來的行為,因?yàn)樗麄兛赡軙?huì)突然改變方向。然而,結(jié)合其他車輛的分類進(jìn)行追蹤,能夠調(diào)整汽車在這種情況下的速度。此外,追蹤其他汽車可被用來進(jìn)行自動(dòng)距離控制,提前預(yù)估其他車輛可能做的變動(dòng)。
9.1 立體追蹤
9.2 行人追蹤
9.3 頂級(jí)成果
9.4 討論
10. 場景理解
自動(dòng)駕駛的基本需求之一是充分理解其周遭環(huán)境,比如復(fù)雜的交通場景。戶外場景理解的復(fù)雜任務(wù)包括若干個(gè)子任務(wù),比如深度估計(jì)、場景分類、目標(biāo)探測與追蹤、事件分類以及更多,其中每一個(gè)子任務(wù)描述場景的一個(gè)特定方面。聯(lián)合建模這些特定方面以利用場景不同元素之間的關(guān)系并獲得一個(gè)整體理解,這樣做是有益的。大多數(shù)場景理解模型的目標(biāo)是獲得一個(gè)豐富但緊湊的場景表征,這個(gè)場景包含所有的元素,比如布局元素、交通參與者以及彼此之間的關(guān)系。相比于 2D 圖像域中的推理,3D 推理在解決幾何場景理解的問題上起著重要作用,并以 3D 目標(biāo)模型、布局元素、閉塞關(guān)系等形式促使場景產(chǎn)生了更多的信息表征。場景理解的一個(gè)特殊挑戰(zhàn)是城市市區(qū)與郊區(qū)交通情景的闡釋。相較于高速公路和農(nóng)村公路,市區(qū)場景包含了很多獨(dú)立移動(dòng)的交通參與者,道路與十字路口幾何布局中的更多變化性,以及由于模糊的視覺特征和光照變化所帶來的難度升級(jí)。
從單一圖像到視頻
結(jié)合目標(biāo)探測與跟蹤
圖 41:Wojek et al. (2013) 概述了被結(jié)合的目標(biāo)探測與帶有明確閉塞推理的跟蹤系統(tǒng)。改編自 Wojek et al. (2013)。
其他表征
11. 傳感器運(yùn)動(dòng)控制的端到端學(xué)習(xí)
當(dāng)前最先進(jìn)的自動(dòng)駕駛方法包含大量的模型,例如(交通信號(hào)、燈、汽車、行人的)探測、(車道、門面的)分割、運(yùn)動(dòng)估計(jì)、交通參與者的跟蹤,重建。然后,這些組件的結(jié)果按照控制系統(tǒng)的規(guī)則組合起來。但是,為了解決操控汽車方向和速度的問題,這需要穩(wěn)健地解決場景理解中的諸多開放性難題。最近的文獻(xiàn)提出了作為替代性方案的若干個(gè)端到端自動(dòng)駕駛方法。端到端駕駛使用的是從一個(gè)感覺輸入(比如,正面攝像頭圖像)直接映射到駕駛操作(比如,轉(zhuǎn)向角)的獨(dú)立系統(tǒng)。
結(jié)論
本文中,我們就自動(dòng)駕駛計(jì)算機(jī)視覺的難題、數(shù)據(jù)集和方法提供了一個(gè)綜合性調(diào)查。為了完成這一目標(biāo),我們的調(diào)查同時(shí)涵蓋了最為相關(guān)的歷史資料,以及識(shí)別、重建、運(yùn)動(dòng)估測、追蹤、場景理解、端到端學(xué)習(xí)等當(dāng)前最先進(jìn)的專門主題。通過使用 KITTI 基準(zhǔn)的全新深入質(zhì)量分析并考慮其他數(shù)據(jù)集,我們還討論了開放問題和當(dāng)前這些主題下的研究挑戰(zhàn)。我們的交互式在線工具平臺(tái)運(yùn)用圖形可視化了分類方法,從而可使你輕松瀏覽被調(diào)查的文獻(xiàn)。將來,我們計(jì)劃在這一交互式平臺(tái)上不斷更新相關(guān)文獻(xiàn),為這一領(lǐng)域提供一個(gè)實(shí)時(shí)的概觀。我們希望該項(xiàng)調(diào)查和該工具平臺(tái)可進(jìn)一步激發(fā)新研究,并且通過這一詳盡的概述,使得初學(xué)者更容易進(jìn)入該領(lǐng)域。
-
傳感器
+關(guān)注
關(guān)注
2577文章
55212瀏覽量
792547 -
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
9文章
1715瀏覽量
47673 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
794文章
14922瀏覽量
180473
原文標(biāo)題:自動(dòng)駕駛計(jì)算機(jī)視覺研究綜述:難題、數(shù)據(jù)集與前沿成果
文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
機(jī)器視覺與計(jì)算機(jī)視覺的關(guān)系簡述
自動(dòng)駕駛真的會(huì)來嗎?
如何讓自動(dòng)駕駛更加安全?
自動(dòng)駕駛系統(tǒng)要完成哪些計(jì)算機(jī)視覺任務(wù)?
邊緣計(jì)算在自動(dòng)駕駛汽車的應(yīng)用
基于視覺的slam自動(dòng)駕駛
自動(dòng)駕駛系統(tǒng)設(shè)計(jì)及應(yīng)用的相關(guān)資料分享
阿里首次出現(xiàn)在自動(dòng)駕駛計(jì)算機(jī)視覺算法集KITTI道路場景分割排行榜上
自動(dòng)駕駛計(jì)算機(jī)視覺的難題、數(shù)據(jù)集和方法提供了一個(gè)綜合性調(diào)查
評(píng)論