91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探析自動駕駛規(guī)劃控制發(fā)展現(xiàn)狀及熱點研究

ml8z_IV_Technol ? 來源:cc ? 2019-02-18 16:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動駕駛而言,傳感器、感知、地圖定位和規(guī)劃控制是目前研究的熱點,本文奇點汽車美研中心首席科學(xué)家兼總裁黃浴博士從多個方面綜述了目前自動駕駛的技術(shù)水平以及不同板塊的重要性。

傳感器技術(shù)

傳感器而言,大家比較關(guān)心新技術(shù)。

在攝像頭技術(shù)方面,HDR,夜視鏡頭,熱敏攝像頭等是比較熱的研究。前段時間有研究(MIT MediaLab教授)采用新技術(shù)穿透霧氣的鏡頭,叫做single photon avalanche diode (SPAD) camera;另外,能不能采用計算攝像技術(shù)(computational photography)改進一下如何避免雨雪干擾,采用超分辨率(SR)圖像技術(shù)也可以看的更遠。前不久,圖森的攝像頭可以看1000米遠嗎,要么采用高清攝像頭4K甚至8K,要么采用SR技術(shù)實現(xiàn)。

這是介紹SPAD的兩個截圖:

另外,單目系統(tǒng)比較流行,現(xiàn)在也有雙目系統(tǒng)存在,比如安霸從意大利帕爾馬大學(xué)買到的VisLab自動駕駛技術(shù),還有Bertha Benz著名的Stixel障礙物檢測算法。因為基線原因,車上可以配備多個雙目系統(tǒng),以方便測量不同距離的障礙物。懂計算機視覺的同學(xué)知道,立體匹配和基線寬度在涉及視覺系統(tǒng)的時候有一個權(quán)衡。深度學(xué)習(xí)已經(jīng)用來估計深度/視差圖,就如分割一樣,pixel-to-pixel。甚至單目也可以推理深度,結(jié)果當(dāng)然比雙目差。

激光雷達最熱,一是降低成本和車規(guī)門檻的固態(tài)激光雷達,二是如何提高測量距離,三是提高分辨率和刷新頻率,還有避免互相干擾和入侵的激光編碼技術(shù)等。其實激光雷達的反射灰度圖也是一個指標(biāo),3-D點云加上反射圖會更好,比如用于車道線檢測。

另外,攝像頭和激光雷達在硬件層的融合也是熱點,畢竟一個點云的點是距離信息,加上攝像頭的RGB信息,就是完美了不是?一些做仿真模擬以及VR產(chǎn)品的公司就是這么做的,去除不需要的物體和背景就能生成一個虛擬的仿真環(huán)境。

這里是一家美國激光雷達創(chuàng)業(yè)公司AEye的技術(shù)iDAR截圖,iDAR 是IntelligentDetection and Ranging,最近該公司宣稱已經(jīng)能夠?qū)崿F(xiàn)測距1000米(一兩年前谷歌就說,它的激光雷達能看到3個足球場那么遠):

毫米波雷達方面,現(xiàn)在也在想辦法提高角分辨率。畢竟它是唯一的全天候傳感器了,如果能夠解決分辨率這一痛處,那么以后就不會僅僅在屏幕上展示一群目標(biāo)點,而是有輪廓的目標(biāo),加上垂直方向的掃描,完全可以成為激光雷達的競爭對手。希望新的天線信號處理技術(shù)可以解決雷達成像的難點,包括功耗。

這里是NXP提供的新型高分辨率雷達和激光雷達比較的截圖:

超聲波雷達,基本是用在泊車場景,便宜。

感知模塊

下面談感知模塊。

感知是基于傳感器數(shù)據(jù)的,以前反復(fù)提過了,傳感器融合是標(biāo)配,信息越多越好嗎,關(guān)鍵在于怎么融合最優(yōu)。比如某個傳感器失效怎么辦?某個傳感器數(shù)據(jù)質(zhì)量變差(某個時候,比如隧道,比如天氣,比如夜晚,比如高溫低溫等等造成的)怎么辦?如果你要用數(shù)據(jù)訓(xùn)練一個感知融合模型,那么訓(xùn)練數(shù)據(jù)是否能夠包括這些情況呢?

這里當(dāng)然談到深度學(xué)習(xí)了,而且深度學(xué)習(xí)也不僅僅用在圖像數(shù)據(jù),激光雷達點云數(shù)據(jù)也用,效果也非常好,明顯勝過傳統(tǒng)方法。不過,深度學(xué)習(xí)有弱點,畢竟還是靠大量數(shù)據(jù)“喂”出來的模型,有時候很敏感,比如像素上改變一點兒對人眼沒什么而機器識別就造成錯誤,還有當(dāng)識別類別增多性能會下降,同時出現(xiàn)一些奇怪的誤判,比如谷歌曾經(jīng)把黑人識別成猩猩。機器學(xué)習(xí)一個問題是泛化問題(generalization),如何避免overfitting是一個模型訓(xùn)練的普遍問題,當(dāng)然大家都提出了不少解決方法,比如data augmentation,drop out等。

深度學(xué)習(xí)發(fā)展還是很快的,好的模型不斷涌現(xiàn),如ResNet, DenseNet;好的訓(xùn)練方法也是,比如BN成了標(biāo)配,采用NAS基礎(chǔ)上的AutoML基本上可以不用調(diào)參了(GPU設(shè)備很貴呀);具體應(yīng)用上也是進步很大,比如faster RCNN,YOLO3等等。

在激光雷達數(shù)據(jù)上,最近深度學(xué)習(xí)應(yīng)用發(fā)展很快,畢竟新嗎,而且這種傳感器會逐漸普及,成本也會降下來,畢竟是3-D的,比2-D圖像還是好。這里要提到sync和calibration問題,要做好激光雷達和攝像頭數(shù)據(jù)的同步也不容易,二者的坐標(biāo)系校準(zhǔn)也是,去年有個CNN模型叫RegNet,就是深度學(xué)習(xí)做二者calibration的。

談到融合,這里包括幾個意思,一是數(shù)據(jù)層的直接融合,前面提到硬件層可以直接完成,軟件也可以,而且還可以解決硬件做不了的問題:激光雷達畢竟稀疏,越遠越稀疏,有時候還會有“黑洞”,就是不反射的物質(zhì),比如車窗玻璃;而圖像可以致密,分辨率也可以很高,畢竟造價便宜,二者在深度圖(depth map)空間結(jié)合是一個互補,深度學(xué)習(xí)可以幫上忙,有興趣的可以看看MIT的論文。

除了數(shù)據(jù)層,還有中間模型層融合,以及最后任務(wù)層(一般指多個模型結(jié)果輸出)的融合,目前深度學(xué)習(xí)用在激光雷達數(shù)據(jù)以及結(jié)合圖像數(shù)據(jù)融合的目標(biāo)檢測識別分割跟蹤等方面有不少論文,基本可以在這三個層次劃分。

很有趣的現(xiàn)象是,激光雷達點云投射到平面上變成圖像數(shù)據(jù)是一個很討巧的方法,而且鳥瞰平面比前視平面(攝像機方向)效果好,當(dāng)然也有直接在3-D數(shù)據(jù)上做的,比如VoxelNet,PointNet。很多工作都是將圖像領(lǐng)域成功的模型用在激光雷達數(shù)據(jù)上,做些調(diào)整和推廣,比如faster RCNN,其中RPN和RCNN部分可以通過不同傳感器數(shù)據(jù)訓(xùn)練。

這里是一個激光雷達+攝像頭融合做目標(biāo)檢測的論文截圖:

談到深度學(xué)習(xí)在圖像/視頻/深度圖/3-D點云上的應(yīng)用,不局限在檢測識別分割上,這個以后再談吧,又要寫一篇才行。

感知的任務(wù)是理解自動駕駛車的周圍環(huán)境,除了定位跟地圖有關(guān),像障礙物檢測,運動目標(biāo)跟蹤,紅綠燈識別,道路標(biāo)志識別,車道線檢測(根據(jù)需要而定,比如有些地圖直接用路標(biāo)或者特征匹配實現(xiàn)定位,車道線就是由地圖給出)都是感知的任務(wù)。更高級的任務(wù)會涉及對周圍其他物體的行為預(yù)測,比如行人,尤其是路口行人過馬路的預(yù)測,比如行駛車輛,到底是打算cut-in還是僅僅偏離了車道,在高速入口的車輛,到底是想加速先過還是減速等你,這些都是“老司機”很擅長的,而提供線索的恰恰是感知模塊。

這里是一個做紅綠燈檢測識別的NN模型例子:

而一個檢測路牌的NN模型:

這是一個車道線檢測的NN模型LaneNet示意圖:車道線proposal network和車道線localization network。

這個NN模型就是對行人預(yù)測的:

應(yīng)用場景可以看下面的示意圖:激光雷達點云作為輸入

順便說一下,我對一些大講“感知已經(jīng)OK,現(xiàn)在最重要的是規(guī)劃決策”的言論難以茍同,畢竟感知在這些行為細節(jié)上缺乏充分的數(shù)據(jù)提供給預(yù)測和規(guī)劃部分,所以也很難有更細膩的規(guī)劃決策模型來用。當(dāng)然采用大數(shù)據(jù)訓(xùn)練的規(guī)劃決策模型可以包括這些,但僅僅憑軌跡/速度/加速度這些輸入信息夠嗎?大家也可以注意到一些startup公司已經(jīng)在展示人體運動跟蹤,頭部姿態(tài),路上人工駕駛車輛的駕駛員視線方向 (gaze detection) 和面部表情/手勢識別的結(jié)果,說明大家已經(jīng)意識到這些信息的重要性。

這里展示最近一些基于深度學(xué)習(xí)的人體姿態(tài)研究論文截圖:

另外,感知模型基本上是概率決策,是軟的推理(soft inference),最后是最小化誤差的硬決定(hard decision),所以誤差是難免的?,F(xiàn)在一些安全標(biāo)準(zhǔn),比如ASIL,ISO26262, NHTSA,要求做到功能安全,還有最近的SOTIF,要求考慮unknown safe/unsafe,這些對感知在自動駕駛的作用是提出了更嚴(yán)格的標(biāo)準(zhǔn)。說白了就是,以前給出判斷就行,現(xiàn)在必須給出判斷的可靠性以及不自信的警告(confidence score)。有時候融合就要考慮這個問題,最好給出多個模型輸出,當(dāng)一個模型可靠性不高的時候,就要采用其他可靠性高的模型輸出,當(dāng)所有模型都不可靠,自然就是準(zhǔn)備進入安全模式了。對突發(fā)性事故的適應(yīng)性有多強,就考驗安全模型了。

以前提到過L2-L3-L4演進式開發(fā)自動駕駛模式和L4這種終極自動駕駛開發(fā)模式的不同,提醒大家可以注意一個地方:特斯拉的演進模式在用戶自己人工駕駛的時候仍然運行自動駕駛程序,稱之為“影子”模式,當(dāng)用戶的駕駛動作和自動駕駛系統(tǒng)的判斷出現(xiàn)矛盾的時候,相關(guān)上傳的數(shù)據(jù)會引起重視,以幫助提升自動駕駛系統(tǒng)性能,比如一個立交橋出現(xiàn),自動駕駛系統(tǒng)誤認為是障礙物,而駕駛員毫無猶豫的沖過去,顯然這種傳感器數(shù)據(jù)會重新被標(biāo)注用來訓(xùn)練更新模型,甚至引導(dǎo)工程師采集更多相關(guān)數(shù)據(jù)進行訓(xùn)練;另外,當(dāng)駕駛員突然剎車或者避讓,而自動駕駛系統(tǒng)認為道路無障的情況,收集數(shù)據(jù)的服務(wù)器一端也會將這種數(shù)據(jù)重新標(biāo)注。

這種影子模式就是演進式開發(fā)模式系統(tǒng)升級的法寶,同時大量駕駛數(shù)據(jù)的收集也可以幫助規(guī)劃決策的提升,這個下面再講。相比之下,谷歌模式在安全員操控車輛時候,自然也在收集數(shù)據(jù),當(dāng)運行自動駕駛出現(xiàn)報警或者安全員覺得危險需要接管的時候,這種數(shù)據(jù)也會像影子模式一樣需要注意。兩種開發(fā)模式都會及時獲取特別數(shù)據(jù)方法,唯一不同的是前者是付錢的(買車),而后者是要錢的(工資)。

地圖與定位

再談地圖和定位。

我們知道自動駕駛在L2是不需要地圖的,特別高清地圖(HD Map),帶有車道線信息,L2級別用不上,現(xiàn)在有一種“降維打擊”模式,采用L4技術(shù)去開發(fā)L3甚至L2,主要是地圖定位可以提供很多輔助信息,簡化一些感知負擔(dān),比如車道線,路牌和紅綠燈位置。

一般我們看到的地圖,俗稱導(dǎo)航地圖,基于GPS進行車定位和道路規(guī)劃。現(xiàn)在又出現(xiàn)了一種ADAS地圖(四維圖新就提供這種服務(wù)),其實就是在導(dǎo)航地圖上附加一些信息,比如道路曲率和坡度,可以有助于車輛控制的時候調(diào)整參數(shù),如ACC,LKS。

我們一般談到定位,可以是GPS/IMU,也可以是高清地圖。前者有誤差,要么采用差分GPS,如RTK(國內(nèi)的千尋網(wǎng)絡(luò)就是提供這樣的服務(wù)),要么和其他方式融合,比如激光雷達的點云匹配,攝像頭的特征匹配,也包括基于車道線和路牌的識別定位。

談到高清地圖,以前提到過兩種模式,一是谷歌的高成本方式,采用高價的數(shù)據(jù)采集車,獲取環(huán)境的激光雷達點云以及反射灰度圖,濾除不需要的物體(行人/車輛/臨時障礙物),提取車道線/紅綠燈/路牌(停止/讓路符號,街道距離信息)/車道標(biāo)志(箭頭/限速/斑馬線)等等,另外也標(biāo)注了道路的其他信息如曲率,坡度,高程,側(cè)傾等等。

這是一個谷歌HD Map的截圖:

由于激光雷達點云數(shù)據(jù)大,大家就考慮壓縮的方法,比如TomTom的RoadDNA,國內(nèi)高德地圖的道路指紋匹配,美國startup地圖公司CivilMaps也有類似地圖指紋技術(shù),不過前者是在視覺層,而后者是在點云層。有些公司是不提供點云層,因為數(shù)據(jù)太大,相反視覺層和語義層可以給,基本矢量圖就能描述,數(shù)據(jù)量小多了,但匹配難度大。地圖的繪制,存儲和訪問是相當(dāng)復(fù)雜的工程,所以投入很大,尤其是底圖(base map)的繪制。

這是TomTom的RoadDNA定位的介紹截圖:

高清地圖的第二種方式就是Mobileye和Tesla采用的,一般低成本,期望通過眾包實現(xiàn)。不用激光雷達,采用攝像頭獲取道路標(biāo)識,Mobileye稱之是REM(Road Experience Management),也是“路書”(Roadbook)。REM提取的信息有道路邊緣線、車道中心線、車道邊緣線以及靜態(tài)物體的標(biāo)示。

截圖來自Mobileye的REM介紹:

Bosch基于此,還提出一種基于毫米波雷達的方法提取道路其他信息,比如隔離欄、電線桿和橋梁等等,稱為Bosch Road Signature(BRS)。追隨這種眾包方法的公司也不少,如特斯拉出來的人成立的公司Lvl5,國內(nèi)有幾家,如寬凳科技,MOMENTA,深動科技,最近地平線也給出一個NavNet平臺,支持這種眾包的低成本制圖方式。

這是Lvl5作圖的一個示意圖:像VO的例子吧。

其實“實時更新”是高清地圖提供服務(wù)的關(guān)鍵,而對這個服務(wù)的成本考慮當(dāng)然是第二種方式容易推廣。眾包的缺點是容易數(shù)據(jù)碎片化,同時攝像頭的制圖難度也遠大于激光雷達方法,視覺SLAM是比較有挑戰(zhàn)性的,當(dāng)然如果限制一下做車道線和路牌為主的目標(biāo)取地圖特征,難度可以降低。

美國地圖公司HERE采用的更新方法也是通過眾包,只是它先建了底圖。所以,一些提出眾包建圖的公司都想先擁有底圖。Mobileye就和HERE合作,最近它在日本已經(jīng)完成了REM的高速公路建圖。

這張圖是在今年CES介紹REM的一頁PPT:

定位是基于地圖的,融合方式是包括GPS/IMU/HD Map,比如隧道就沒有GPS信號,甚至高樓大廈密集的地方也不會有穩(wěn)定的GPS信號,如果網(wǎng)絡(luò)不好造成地圖下載不利,基本就是靠IMU和L2的車道線/路牌識別了(激光雷達的反射灰度圖可以做車道線識別,但是傳感器性能有時候限制它的工作距離,不如攝像頭靈活),這時候“降維打擊”的方法都失效了,回歸原始,就靠現(xiàn)場感知了,真正的“老司機”做派:)。

值得一提的是,MIT教授就有在研究如何不用地圖做自動駕駛。

規(guī)劃控制

下面該是規(guī)劃控制(包含預(yù)測和決策)。

規(guī)劃分三個層面,路徑規(guī)劃(任務(wù)規(guī)劃),行為規(guī)劃和運動規(guī)劃。最后一個運動規(guī)劃,和后面的控制模塊捆在一起,基本上L2-L4都通用了,除非軟硬件聯(lián)合開發(fā),L2和L4用的運動規(guī)劃(經(jīng)典的有RRT,Lattice planner)及控制(PID,MPC之類)沒啥變化。路徑規(guī)劃,就是基于道路網(wǎng)絡(luò)確定地圖上A點到B點的路徑,這個以前導(dǎo)航地圖也是要做這個任務(wù)。那么,剩下一個最新的問題就是行為規(guī)劃了。

行為規(guī)劃需要定義一個行為類型集,類似多媒體領(lǐng)域采用的ontology,領(lǐng)域知識的描述。而行為規(guī)劃的過程,變成了一個有限狀態(tài)機的決策過程,需要各種約束求解最優(yōu)解。這里對周圍運動障礙物(車輛/行人)的行為也有一個動機理解和軌跡預(yù)測的任務(wù)。上面談到的,感知模塊對周圍車輛行人的行為理解,就會在這里扮演一個重要的角色。

深度學(xué)習(xí)在這里有價值了。行為模型的學(xué)習(xí)過程需要大量的駕駛數(shù)據(jù),包括感知和定位的輸出,路徑規(guī)劃和車輛的運動狀態(tài)作為輸入,最終的車輛行駛的控制信號(方向盤,油門,剎車)作為輸出,那么這就是一個E2E的行為規(guī)劃+運動規(guī)劃+控制的模型;如果把車輛軌跡作為輸出,那么這個E2E就不包括控制。

如果把傳感器/GPS/IMU/HD Map和路徑規(guī)劃作為輸入,那么這個E2E就是前端加上感知的模型,這就變成特斯拉想做的software 2.0,不過感知太復(fù)雜了,不好辦。還是覺得把感知和定位的輸出作為輸入吧,這樣放心:)。

這里不得不提到自動駕駛的仿真模擬系統(tǒng),按我看,這種規(guī)劃控制的行為模型學(xué)習(xí),最適合在模擬仿真環(huán)境做測試。Waymo在Carcraft仿真系統(tǒng)中測試左拐彎行為時候,會加上各種變化來測試性能,稱子為“fuzzing"。

這里給大家推薦兩篇重要論文做參考:

1 “A Scenario-Adaptive Driving Behavior Prediction Approach to Urban Autonomous Driving”

2 “ChauffeurNet: Learning to Drive by Imitating the Best and Synthesizing the Worst”

第一篇是中科大的論文,個人認為非常適合大家了解百度剛剛發(fā)布的Apollo 3.5的行為規(guī)劃模型。這篇文章我一年前就讀了,不是深度學(xué)習(xí)的方法。這里貼幾個截圖:

第二篇論文是Waymo最近發(fā)的research工作,是深度學(xué)習(xí)方法,完全依賴其強大的感知模塊輸入,還有1000萬英里的駕駛數(shù)據(jù),強烈推薦。附上幾個截圖:

仿真模擬平臺

順便介紹一下,仿真模擬平臺的發(fā)展。

DARPA當(dāng)年比賽的時候前幾名都做了模擬系統(tǒng),谷歌收購斯坦福團隊以后就先把模擬仿真平臺升級了。畢竟它是一個軟件系統(tǒng),谷歌天生就強。這里不包括那些車體動力和電子性能的模擬仿真工作,這個已經(jīng)存在好多年,是車企的強項,比如它們常用的CarMaker,PreScan,CarSim等商用軟件系統(tǒng)。

這是谷歌CarCraft和Xview的樣子:

其中提到的"fuzzing"圖就是這樣的:

仿真模擬平臺已經(jīng)是自動駕駛開發(fā)的標(biāo)配,看看Daimler汽車公司這部分工作的介紹:

還有自動駕駛高校研究的例子:北卡的AutonoVi-Sim

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55041

    瀏覽量

    791383
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14884

    瀏覽量

    179912

原文標(biāo)題:自動駕駛傳感器,感知,地圖定位和規(guī)劃控制發(fā)展現(xiàn)狀及熱點研究

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,端到端(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)到車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模塊化自動駕駛系統(tǒng)不一樣,模塊化自動駕駛系統(tǒng)會
    的頭像 發(fā)表于 02-20 09:25 ?9269次閱讀
    <b class='flag-5'>自動駕駛</b>端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    如何構(gòu)建適合自動駕駛的世界模型?

    提出的。那世界模型是自動駕駛落地的正解嗎? 什么是世界模型? 世界模型對于自動駕駛汽車來說,更像是給汽車大腦里繪制一張地圖,可以將環(huán)境的現(xiàn)狀和未來可能的演變都表示出來,讓自動駕駛系統(tǒng)不
    的頭像 發(fā)表于 02-18 08:14 ?1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動駕駛</b>的世界模型?

    自動駕駛汽車如何完成超車?

    經(jīng)過一套完整的感知、理解、決策、規(guī)劃控制的流程,每一步都要考慮安全和規(guī)范,需要不斷感知周圍環(huán)境,判斷什么時候超車、怎么超車、是否安全等,然后才可以按照計劃執(zhí)行操作。 自動駕駛汽車在變道前需要全面看懂如前車
    的頭像 發(fā)表于 02-16 17:37 ?1.7w次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何完成超車?

    軟錯誤防護:自動駕駛系統(tǒng)邁向高階自動化的必答題?

    問題。本文從系統(tǒng)性文獻綜述視角,全面梳理軟錯誤在自動駕駛感知、決策與執(zhí)行環(huán)節(jié)的傳播機理,深入剖析硬件級、軟件算法級及系統(tǒng)架構(gòu)級三類防護技術(shù)的研究現(xiàn)狀發(fā)展趨勢,詳細闡述基于ISO 26
    的頭像 發(fā)表于 01-05 00:07 ?522次閱讀

    汽車自動駕駛的太陽光模擬應(yīng)用研究

    自動駕駛系統(tǒng)的安全性與可靠性,高度依賴于其在復(fù)雜多變光照環(huán)境中的穩(wěn)定表現(xiàn)。其中,高動態(tài)范圍的自然光照是挑戰(zhàn)車載感知系統(tǒng)的關(guān)鍵因素。紫創(chuàng)測控luminbox太陽光模擬器作為能夠精確復(fù)現(xiàn)光照輻射的室內(nèi)
    的頭像 發(fā)表于 12-10 18:04 ?393次閱讀
    汽車<b class='flag-5'>自動駕駛</b>的太陽光模擬應(yīng)用<b class='flag-5'>研究</b>

    語言模型是否是自動駕駛的必選項?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛發(fā)展并非一成不變,在傳統(tǒng)自動駕駛系統(tǒng)中,通常采用分層的體系架構(gòu)。最底層是感知層,負責(zé)將攝像頭、雷達、激光雷達等傳感器數(shù)據(jù)轉(zhuǎn)化為車輛能夠“看到”的環(huán)境信息;其上
    的頭像 發(fā)表于 11-14 16:23 ?3665次閱讀
    語言模型是否是<b class='flag-5'>自動駕駛</b>的必選項?

    無引導(dǎo)線的左轉(zhuǎn)場景下,自動駕駛如何規(guī)劃軌跡?

    場景下,想要很好地處理好無引導(dǎo)線左轉(zhuǎn)是一個非常大的挑戰(zhàn)。但想要讓自動駕駛汽車滿足所有的出行需求,這一場景必須解決,那在無引導(dǎo)線的左轉(zhuǎn)場景下,自動駕駛是如何進行軌跡規(guī)劃的? 無引導(dǎo)線的左轉(zhuǎn)需要哪些技術(shù)? 首先
    的頭像 發(fā)表于 09-18 09:12 ?758次閱讀
    無引導(dǎo)線的左轉(zhuǎn)場景下,<b class='flag-5'>自動駕駛</b>如何<b class='flag-5'>規(guī)劃</b>軌跡?

    端到端自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)自誕生以來,便承載了人類對安全、高效、智能出行的美好憧憬。傳統(tǒng)自動駕駛系統(tǒng)以層次化、模塊化的架構(gòu)為主,將感知、定位、規(guī)劃與決策、控制四大核心功
    的頭像 發(fā)表于 09-02 09:09 ?830次閱讀
    端到端<b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    自動駕駛汽車是如何準(zhǔn)確定位的?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)的快速發(fā)展,車輛的精準(zhǔn)定位成為安全駕駛與路徑規(guī)劃的核心基礎(chǔ)。相比于傳統(tǒng)人類駕駛依賴路標(biāo)和視覺判
    的頭像 發(fā)表于 06-28 11:42 ?1267次閱讀
    <b class='flag-5'>自動駕駛</b>汽車是如何準(zhǔn)確定位的?

    卡車、礦車的自動駕駛和乘用車的自動駕駛在技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)的發(fā)展,讓組合輔助駕駛得到大量應(yīng)用,但現(xiàn)在對于自動駕駛技術(shù)的宣傳,普遍是在乘用車領(lǐng)域,而對于卡車、礦車的
    的頭像 發(fā)表于 06-28 11:38 ?1400次閱讀
    卡車、礦車的<b class='flag-5'>自動駕駛</b>和乘用車的<b class='flag-5'>自動駕駛</b>在技術(shù)要求上有何不同?

    小馬智行助力公路干線物流自動駕駛發(fā)展

    近日,世界交通運輸大會-大通道貨車自動駕駛創(chuàng)新探索論壇于蘇州舉行。在論壇上,由中交投資發(fā)起,小馬智行和青騅物流參編的《公路干線物流自動駕駛發(fā)展報告》正式發(fā)布,報告展示了當(dāng)前干線物流自動駕駛
    的頭像 發(fā)表于 06-19 13:59 ?1127次閱讀

    韓國自動駕駛技術(shù)交流團到訪光庭信息

    參觀考察。交流團本次訪問重點調(diào)研中國自動駕駛技術(shù)發(fā)展現(xiàn)狀,光庭信息分享了在自動駕駛領(lǐng)域的最新研發(fā)成果。雙方就自動駕駛技術(shù)的前沿趨勢、技術(shù)創(chuàng)新路徑,以及未來潛在合作方向展開深入探討。
    的頭像 發(fā)表于 05-16 11:38 ?875次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    的潛在風(fēng)險增加,尤其是在自動駕駛等安全關(guān)鍵系統(tǒng)中。根據(jù)ISO 26262標(biāo)準(zhǔn),自動駕駛系統(tǒng)的安全完整性等級(ASIL-D)要求單點故障率必須低于10^-8/小時,這意味著每小時的故障概率需控制在億
    發(fā)表于 05-12 15:59

    工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析

    過大數(shù)據(jù)分析的部分觀點,可能對您的企業(yè)規(guī)劃有一定的參考價值。點擊附件查看全文*附件:工業(yè)電機行業(yè)現(xiàn)狀及未來發(fā)展趨勢分析.doc 本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)
    發(fā)表于 03-31 14:35