91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Mobileye公布最新自動駕駛方案

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2020-10-12 11:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2020年9月24日,吉利汽車與Mobileye正式簽約,將使用EyeQ5做自動駕駛,同時,Mobileye也公布了最新的自動駕駛方案。

11個攝像頭中,4個魚眼短距離的泊車用攝像頭,7個遠距離自動駕駛用攝像頭,包括前向6個,后向1個。與EyeQ4最大不同之處在于三目攝像頭被雙目取代了,三目攝像頭實際是單目攝像頭在不同F(xiàn)OV上的擴展,特斯拉和國內(nèi)新興造車的輔助駕駛或自動駕駛方案都是采用三目。而Mobileye這次沒有用三目,擋風(fēng)玻璃后視鏡位置是兩個單目攝像頭,F(xiàn)OV分別是28度和120度。

考慮到兩個攝像頭之間的距離,顯然不是奔馳那樣傳統(tǒng)的Stereo Camera立體雙目攝像頭,并且根據(jù)這兩個攝像頭的FOV看,也不是主攝像頭。倒車鏡上則有一個FOV為100度的攝像頭,A柱下方還有一個側(cè)向的FOV為100度的攝像頭。 實際上Mobileye的前部六個攝像頭(可能后部的攝像頭也參與了)構(gòu)成了SfM(Structurefrom Motion)。Stereo Vision(立體視覺)SfM比較稀疏,再進一步稠密化就是Multi ViewStereo,即MVS。雖然這七個攝像頭都是單目,但他們是合在一起工作的,應(yīng)該叫多目立體視覺。 Mobileye有關(guān)SfM的專利主要有三個,一個是2014年的DenseStructure from motion,另一個是2017年的StereoAuto-Calibration From Structure-from-motion,還有一個是2020年的COMFORTRESPONSIBILITY SENSITIVITY SAFETY MODEL(長達197頁),其中雖未提及SfM具體算法,但描述了SfM Stereo Image的處理流程。

Mobileye的Stereo Image處理流程

自動駕駛領(lǐng)域,感知部分的任務(wù)就是建立一個準(zhǔn)確的3D環(huán)境模型。深度學(xué)習(xí)加單目三目是無法完成這個任務(wù)的。單目和三目攝像頭的致命缺陷就是目標(biāo)識別(分類)和探測(Detection)是一體的,無法分割的。

必須先識別才能探測得知目標(biāo)的信息,而深度學(xué)習(xí)肯定會出現(xiàn)漏檢,也就是說3D模型有缺失,因為深度學(xué)習(xí)的認(rèn)知范圍來自其數(shù)據(jù)集,而數(shù)據(jù)集是有限的,不可能窮舉所有類型,因此深度學(xué)習(xí)容易出現(xiàn)漏檢而忽略前方障礙物,如果無法識別目標(biāo),單目就無法獲得距離信息,系統(tǒng)就會認(rèn)為前方障礙物不存在危險,不做任何減速,特斯拉多次事故大多都是這個原因。 傳統(tǒng)算法,則可能無法識別前方障礙物,但依然能夠獲知前方障礙物的信息,能夠最大限度地保證安全。當(dāng)然這需要傳感器配合,激光雷達和雙目立體視覺都是以傳統(tǒng)算法為核心(因為它不需要識別目標(biāo),自然就不需要深度學(xué)習(xí),當(dāng)然你也可以用深度學(xué)習(xí)處理激光雷達數(shù)據(jù),但不是為了識別目標(biāo))。

其次,深度學(xué)習(xí)是一個典型的黑盒子系統(tǒng),汽車上任何事物都必須具備可解釋性和確定性,深度學(xué)習(xí)并不具備。傳統(tǒng)車廠盡量避免在直接有關(guān)汽車安全領(lǐng)域使用深度學(xué)習(xí),當(dāng)然,深度學(xué)習(xí)是識別目標(biāo)準(zhǔn)確度最高的方法,不得不用。大部分車廠會堅持使用可解釋的具備確定性的傳統(tǒng)圖像算法,直到深度學(xué)習(xí)變成白盒子。

上圖為Waymo深度學(xué)習(xí)科學(xué)家drago anguelov 2019年2月在MIT在講述無人車感知系統(tǒng)時,坦承機器學(xué)習(xí)的不足,單目系統(tǒng)漏檢無法避免,特別是在交通復(fù)雜的中國。深度學(xué)習(xí)的漏檢和算力沒有任何關(guān)系,再強大的算力也無法避免漏檢,也就無法避免事故。 若要解決漏檢這個問題,或者說構(gòu)建一個沒有缺失的3D環(huán)境模型就必須用將識別與探測分離,無需識別也可以探測目標(biāo)的信息,忘掉深度學(xué)習(xí),傳統(tǒng)的做法是激光雷達和雙目立體視覺。但激光雷達商業(yè)化,車載化一直進展緩慢,雙目的缺陷是立體匹配算法門檻太高,在線標(biāo)定非常困難,只有奔馳、斯巴魯、路虎和雷克薩斯運用的比較好。寶馬雖然高端車型使用雙目,但實測結(jié)果并不理想,寶馬如今也部分放棄了雙目路線,電動SUV領(lǐng)域還未放棄雙目。

除了激光雷達和雙目立體視覺外還有一種方法,這就是今天要說的主角:SfM。在雙目立體視覺中,兩個相機之間的相對位姿是通過標(biāo)定靶精確標(biāo)定出來的,在重建時直接使用三角法進行計算;而在SfM中該相對位姿是需要在重建之前先計算的。雙目必須兩個鏡頭輸入兩張照片雙目重建方法,SfM和MVS屬于單目重建多目立體視覺,輸入的是一系列同一物體和場景的多視圖。SfM得到的通常是稀疏點云,而經(jīng)過MVS處理極線約束后可建立稠密點云,可以媲美激光雷達點云,也就是Mobileye所說的Vidar。

SfM的框架圖

Structure fromMotion(SfM)是一個估計相機參數(shù)及三維點位置的問題。一個基本的SfM pipeline可以描述為:對每張2維圖片檢測特征點(feature point),對每對圖片中的特征點進行匹配,只保留滿足幾何約束的匹配,最后執(zhí)行一個迭代式的、魯棒的SfM方法來恢復(fù)攝像機的內(nèi)參(intrinsic parameter)和外參(extrinsic parameter)。并由三角化得到三維點坐標(biāo),然后使用Bundle Adjustment進行優(yōu)化。常見的SfM方法可以分為增量式(incremental/sequentialSfM),全局式(global SfM),混合式(hybrid SfM),層次式(hierarchica SfM)。這些都是傳統(tǒng)OpenCV算法,跟深度學(xué)習(xí)無關(guān),而如今,簡單易學(xué)深度學(xué)習(xí)橫掃一切,復(fù)雜難學(xué)的傳統(tǒng)算法人才非常稀缺,導(dǎo)致SfM幾乎沒有商業(yè)化的例子。

SfM最初是假定相機圍繞靜態(tài)場景運動,實際就是相機獲取在目標(biāo)不同位置的圖像,因此可以用放置多個相機取代運動的單一相機。為了避免干擾,28度FOV與兩個100度FOV的攝像頭構(gòu)成SfM系統(tǒng)。SfM通常針對靜止目標(biāo)(古建筑物居多),移動目標(biāo)難度極大,干擾因素比較多,大部分人都望而卻步。 在MVS重建精準(zhǔn)3D尺寸模型領(lǐng)域有個難點,即尺度因子不確定性,這個可以用其他傳感器如高精度IMU獲取真實尺寸校準(zhǔn),但高精度IMU太貴了,還有一種方法就是DNN。也可以看作用先驗尺寸數(shù)據(jù)推算實際尺寸。當(dāng)然也有傳統(tǒng)的非深度學(xué)習(xí)方法。

上圖即Mobileye的VIDAR,基于比較簡單的神經(jīng)網(wǎng)絡(luò)DNN,對算力要求遠低于圖像識別分類的CNN?;谏疃葘W(xué)習(xí)的3D點云和mesh重構(gòu)是較難以計算的,因為深度學(xué)習(xí)一個物體完整的架構(gòu)需要大量數(shù)據(jù)的支持。傳統(tǒng)的3D模型是由vertices和mesh組成的,因此不一樣的數(shù)據(jù)尺寸data size造成了訓(xùn)練的困難。所以后續(xù)大家都用voxelization(Voxel)的方法把所有CAD model轉(zhuǎn)成binary voxel模式(有值為1,空缺為0)這樣保證了每個模型都是相同的大小。利用一個標(biāo)準(zhǔn)的CNN結(jié)構(gòu)對原始input image進行編碼,然后用Deconv進行解碼,最后用3D LSTM的每個單元重構(gòu)output voxel。3D voxel是三維的,它的精度成指數(shù)增長,所以它的計算相對復(fù)雜。

這個多目立體視覺制造出來的VIDAR與真實的Lidar當(dāng)然有一定差距,與傳統(tǒng)的雙目立體視覺相比精度也有一定差距,畢竟雙目立體視覺發(fā)展了20年,不過多目比雙目覆蓋面更廣。

Mobileye SuperVision的系統(tǒng)框架圖

在2020年Mobileye的專利里也提到了雙處理器設(shè)置,第一個視覺處理器檢測道路標(biāo)識、交通標(biāo)識,并根絕ROADBOOK做定位,第二個視覺處理器則處理SfM,并發(fā)送到第一個視覺處理器,構(gòu)建起一個帶有完整道路結(jié)構(gòu)的3D環(huán)境模型。 和英偉達、特斯拉以及一堆視覺加速器廠家比,Mobileye并不擅長硬件高算力,EyeQ5的算力只有24TOPS,低于英偉達Xavier的32TOPS,2022年即將量產(chǎn)的Orin高達200TOPS。

Mobileye擅長的是算法,SfM和MVS將筑起一道算法護城河,并借此提高安全。EyeQ5預(yù)計在2021年3月量產(chǎn),盡管其算力與許多國內(nèi)初創(chuàng)廠家相比都低,但高算力不代表安全,EyeQ5依然獲得吉利、寶馬等4個大整車廠的訂單。 加入佐思數(shù)據(jù)平臺會員,可獲得Mobileye立體視覺專利完整版。

原文標(biāo)題:忘掉單目和三目吧,Mobileye轉(zhuǎn)向立體視覺

文章出處:【微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20255

    瀏覽量

    252313
  • 攝像頭
    +關(guān)注

    關(guān)注

    61

    文章

    5091

    瀏覽量

    103123
  • 激光雷達
    +關(guān)注

    關(guān)注

    979

    文章

    4470

    瀏覽量

    196538
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14883

    瀏覽量

    179897

原文標(biāo)題:忘掉單目和三目吧,Mobileye轉(zhuǎn)向立體視覺

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Elektrobit與Mobileye合作打造自動駕駛解決方案

    自動駕駛系統(tǒng)。作為面向全球OEM及robotaxi運營商的基礎(chǔ)平臺,Mobileye Drive將采用符合功能安全標(biāo)準(zhǔn)的Elektrobit解決方案,提供車規(guī)級能力及持續(xù)的軟件更新支持。此次合作反映了
    的頭像 發(fā)表于 02-28 09:54 ?1259次閱讀

    如何構(gòu)建適合自動駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號]世界模型經(jīng)歷了系統(tǒng)動力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動駕駛汽車上,還是近幾年才
    的頭像 發(fā)表于 02-18 08:14 ?1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動駕駛</b>的世界模型?

    自動駕駛汽車如何實現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛汽車感知漢字的第一步是場景文本識別技術(shù),
    的頭像 發(fā)表于 02-10 08:50 ?635次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何實現(xiàn)<b class='flag-5'>自動駕駛</b>

    自動駕駛場景生成方法及優(yōu)選方案:康謀aiSim 3DGS方案重塑行業(yè)標(biāo)準(zhǔn)

    生成技術(shù)應(yīng)運而生,其中 康謀aiSim 3DGS方案 憑借技術(shù)突破與工程化落地能力,成為自動駕駛場景生成領(lǐng)域的優(yōu)選方案。 一、自動駕駛場景生成是什么?核心需求與傳統(tǒng)痛點 (一)
    的頭像 發(fā)表于 02-02 17:39 ?356次閱讀

    如何設(shè)計好自動駕駛ODD?

    為確定自動駕駛的可使用范圍,會給自動駕駛設(shè)置一個運行設(shè)計域(Operational Design Domain,ODD)。ODD的作用就是用來明確自動駕駛在什么情況下能工作,在什么情況下不能工作,給車設(shè)定“工作范圍”。
    的頭像 發(fā)表于 01-24 09:27 ?1513次閱讀

    適用于Mobileye EyeQ6L平臺的MPSafe電源子系統(tǒng)解決方案參考設(shè)計

    EVME6L_00A 是 MPS 提供的一種 MPSafeTM 電源子系統(tǒng)解決方案,它能夠為 Mobileye EyeQ6L 平臺供電以實現(xiàn)汽車自動駕駛功能。該解決方案憑借高效率的開關(guān)
    的頭像 發(fā)表于 11-24 11:42 ?715次閱讀
    適用于<b class='flag-5'>Mobileye</b> EyeQ6L平臺的MPSafe電源子系統(tǒng)解決<b class='flag-5'>方案</b>參考設(shè)計

    不同等級的自動駕駛技術(shù)要求上有何不同?

    談到自動駕駛,不可避免地會涉及到自動駕駛分級,美國汽車工程師學(xué)會(SAE)根據(jù)自動駕駛系統(tǒng)與人類駕駛員參與駕駛行為程度的不同,將
    的頭像 發(fā)表于 10-18 10:17 ?2712次閱讀

    卡車、礦車的自動駕駛和乘用車的自動駕駛在技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)的發(fā)展,讓組合輔助駕駛得到大量應(yīng)用,但現(xiàn)在對于自動駕駛技術(shù)的宣傳,普遍是在乘用車領(lǐng)域,而對于卡車、礦車的自動駕駛發(fā)展,卻鮮有提及。其實在卡車、
    的頭像 發(fā)表于 06-28 11:38 ?1391次閱讀
    卡車、礦車的<b class='flag-5'>自動駕駛</b>和乘用車的<b class='flag-5'>自動駕駛</b>在技術(shù)要求上有何不同?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報道 自動駕駛ODD(Operational Design Domain)即設(shè)計運行域,是指自動駕駛系統(tǒng)被設(shè)計為安全、有效運行的具體條件范圍。它定義了自動駕駛汽車在哪些環(huán)境、場景
    的頭像 發(fā)表于 05-19 03:52 ?6430次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    的潛在風(fēng)險增加,尤其是在自動駕駛等安全關(guān)鍵系統(tǒng)中。根據(jù)ISO 26262標(biāo)準(zhǔn),自動駕駛系統(tǒng)的安全完整性等級(ASIL-D)要求單點故障率必須低于10^-8/小時,這意味著每小時的故障概率需控制在億
    發(fā)表于 05-12 15:59

    Mobileye選用Valens VA7000芯片組集成至自動駕駛自動駕駛項目

    )(以下簡稱“Valens”)今日宣布,其符合MIPI A-PHY標(biāo)準(zhǔn)的VA7000芯片組將為Mobileye EyeQ?6 High系統(tǒng)的自動化和自動駕駛量產(chǎn)定點提供傳感器至計算端的車載連接基礎(chǔ)設(shè)施
    的頭像 發(fā)表于 04-03 11:12 ?787次閱讀

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    自動駕駛汽車的開發(fā)。正確的技術(shù)與框架對確保自動駕駛汽車駕駛員、乘客和行人的安全至關(guān)重要。 因此,NVIDIA 推出了NVIDIA Halos綜合安全系統(tǒng),將 NVIDIA 的汽車硬件、軟件安全解決
    的頭像 發(fā)表于 03-25 14:51 ?1177次閱讀