91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自動駕駛路線之爭:純視覺方案vs多傳感器融合方案

江師大電信小希 ? 來源:江師大電信小希 ? 作者:江師大電信小希 ? 2022-08-27 17:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自1939年通用汽車公司面向全球展示世界上第一輛自動駕駛概念車,此后的八十多年里,全球各大科技公司和車企陸續(xù)將傳感器、攝像頭、計算芯片、存儲芯片等塞進車子里,并不斷在軌道、沙漠等特定場景下去嘗試自動駕駛。時至今日,廠商已經(jīng)在一點點讓自動駕駛滲透到家用車市場,并致力于在這個領域實現(xiàn)更高級別的自動駕駛。

然而,我們也能看到,在技術和方案推進的過程中,自動駕駛的實現(xiàn)方式出來了明顯的“派系之爭”。一派認為應該走視覺與雷達的融合路線;另一派則認為純視覺實現(xiàn)就足夠了。派系之爭的根源是當前每個廠商對自動駕駛都有自己的理解,且都取得了一定的效果。當然,通過貿澤電子網(wǎng)站上在售的、各種應用于自動駕駛的元器件,我們也發(fā)現(xiàn)了兩個派系之間的一些共同點,比如靈活設計和性能冗余等。那么,接下來就讓我們展開聊一聊。

純視覺 VS 多傳感器融合

對于自動駕駛,還有很多其他的叫法,比如無人駕駛、電腦駕駛汽車或者輪式機器人等等。這些名稱的核心要義是通過計算機與人工智能技術的融合,代替人類駕駛員,讓車子自行完成完整、安全、有效的駕駛行為。無疑,這種智能化的駕乘體驗將會成為新時代汽車一個重要的賣點,吸引全球科技巨頭和車企紛紛投資布局。根據(jù)市場調研機構IHS Markit的預測數(shù)據(jù),2022年全球自動駕駛汽車市場規(guī)模將達到1,629億美元,同比增長14%左右,預計2030年全球自動駕駛汽車市場規(guī)模將達到32,197億美元,年復合增長率高達45.21%。

poYBAGMJ3jyAGgVDAAC4MLLpCvw341.jpg

圖1:全球自動駕駛汽車市場規(guī)模

(數(shù)據(jù)源自:IHS Markit)

在自動駕駛的設想下,當選定目的地后,汽車會利用導航系統(tǒng)規(guī)劃最佳路線,到達目的地,期間人類駕乘人員不需要為此分心,可以盡情享受科技帶來的便捷和舒適。然而,當人類駕駛汽車時,我們都會用“眼觀六路耳聽八方”來描述駕駛員的狀態(tài),因此自動駕駛汽車需要具備比這更強的感知性能。環(huán)境感知與精準定位、路徑規(guī)劃、線控執(zhí)行一起并稱自動駕駛四大核心技術。當汽車被置于社會應用場景下時安全可靠的感知是不可或缺的。

在環(huán)境感知上,純視覺方案僅依靠攝像頭搜集環(huán)境信息,然后將圖片傳輸?shù)接嬎阈酒M行分析,比較像人類駕駛車輛,通過眼睛來捕捉周圍的信息,然后傳輸給大腦做決策。當然,純視覺+AI的方案比人眼的視角更廣,通過大量的圖片信息讓汽車內部的計算系統(tǒng)擁有以車子為中心的“上帝視角”。純視覺方案的優(yōu)點主要是,實現(xiàn)成本相對更低,更接近人類駕駛,通過高分辨率、高幀率的成像技術獲取的環(huán)境信息更加豐富;缺點主要是,攝像頭捕捉環(huán)境信息容易受到環(huán)境光的干擾,且純視覺方案對于圖像的處理更依賴訓練,難免出現(xiàn)環(huán)境認知的“死角”。目前,采用純視覺方案實現(xiàn)自動駕駛的企業(yè)主要有特斯拉、百度和極氪等。

“多傳感器融合”方案則是通過攝像頭、毫米波雷達、激光雷達等設備一起收集車輛的周邊信息。激光雷達的加入能夠獲取更深度的空間信息,對于物體的位置、距離和大小感知更準確,且由于激光雷達是自發(fā)光并不受環(huán)境光影響。不過,“多傳感器融合”方案也有自己的局限性,激光雷達容易受到雨雪霧天氣的影響。由于激光雷達本身數(shù)千美元的硬成本,加上“多傳感器融合”往往對計算芯片有更高的算力要求,因此成本沒有優(yōu)勢。目前,采用“多傳感器融合”方案實現(xiàn)自動駕駛的企業(yè)主要有小鵬、蔚來、極狐等。

兩大派系在技術實現(xiàn)上,都是基于硬件來幫助汽車構架自身周圍的3D信息,然后讓計算芯片提取關鍵信息來做出駕駛決定。未來,“純視覺”要解決的是光致盲和認知錯誤等問題,“多傳感器融合”本身的融合就是一大技術挑戰(zhàn),且算法本身還得優(yōu)化,也需要更低成本的激光雷達產(chǎn)品。目前來看,兩大技術路線都還有很多潛能值得挖掘。

當然,高級別自動駕駛尚未打開家用這個大市場,路線之爭不僅是環(huán)境感知層面,還有單車智能和路車協(xié)同之間的爭議。但正如上文所述,元器件廠商對于自動駕駛的支持都選擇了高靈活性和性能冗余等方式,給每一種實現(xiàn)方案都提供盡可能的支持。下面我們就著重為大家介紹幾款貿澤電子網(wǎng)站上在售的可應用于自動駕駛的元器件產(chǎn)品,幫助大家完成各種不同的自動駕駛實現(xiàn)方案。

為下一代ADAS助力的FPGA

無論是傾向于怎樣的技術流派,對于實現(xiàn)自動駕駛而言,攝像頭都是必要的,它們充當著汽車的“眼睛”。那么,我們第一款要推薦的方案就是可應用于下一代ADAS開發(fā)的FPGA評估套件——UltraScale+? MPSoC ZCU102開發(fā)工具,它在視覺處理上非常出色,來自制造商AMD Xilinx,貿澤電子網(wǎng)站上的制造商編號為EK-U1-ZCU102-G-J。

pYYBAGMJ3jyAAjVTAAB554qovxg273.jpg

圖2:MPSoC ZCU102評估套件

(圖源:AMD Xilinx)

MPSoC ZCU102開發(fā)工具采用Zynq UltraScale+ MPSoC器件,作為系統(tǒng)核心,該器件在核心配置、工藝架構、器件尺寸、系統(tǒng)功耗、軟件支持和圖形處理等方面具有行業(yè)領先的產(chǎn)品特性。

poYBAGMJ3j2AX96mAAETlrJGAZg659.jpg

圖3:Zynq UltraScale+ MPSoC器件系統(tǒng)框圖

(圖源:AMD Xilinx)

通過上方的系統(tǒng)框圖能夠看到,Zynq UltraScale+ MPSoC器件基于四核ARM? Cortex-A53和雙核Cortex-R5實時處理器打造,并搭配靈活應變的內存層級。異構處理的產(chǎn)品設計加上器件本身的可編程特性,在提供更好性能的同時,允許工程師朋友多角度優(yōu)化自己的應用。

16nm FinFET配合超小型化封裝讓Zynq UltraScale+ MPSoC器件擁有無與倫比的計算密度,不受應用條件限制,并提供更好的信號完整性。

支持AI/ML的深度學習處理單元以及Mali-400 MP2圖形處理單元的存在,讓Zynq UltraScale+ MPSoC器件可以勝任下一代ADAS系統(tǒng)對于視覺系統(tǒng)和相關算法的高要求,H.264/H.265視頻編解碼器則進一步提升了這方面的性能。同時,豐富的外設接口讓Zynq UltraScale+ MPSoC器件對支持“多傳感器融合”也是毫無壓力。

可以說,異構、高性能、超小型、高算力的Zynq UltraScale+ MPSoC器件是一顆用于打造下一代ADAS應用的理想器件,該器件所提供的64位處理器可擴展性更是為方案設計帶來了無限可能。想要體現(xiàn)該器件非凡的魅力,MPSoC ZCU102評估套件無疑提供了出色的平臺。

pYYBAGMJ3j2AAKAyAAHRVuSbTPo678.png

圖4:MPSoC ZCU102評估套件系統(tǒng)框圖

(圖源:AMD Xilinx)

MPSoC ZCU102評估套件針對采用Zynq Ultrascale+ MPSoC的應用原型設計進行了優(yōu)化,包括下一代ADAS。如上圖所示,該評估套件支持Zynq Ultrascale+ MPSoC的全部主要外設和接口,比如PCIe根端口Gen2x4、USB3、顯示端口和SATA等,支持各種方案的設計實現(xiàn)。

可用于ADAS原型設計的FPGA

在自動駕駛推進的過程中,我們看到,目前基本是廠商在主導技術路線之爭。而更進一步來講,即便是相同的路線下,由于廠商對于各個ECU功能單元的界定不同,系統(tǒng)架構和核心芯片的功能也會有差異。從元器件角度分析,由于每個公司對自動駕駛的理解不同,產(chǎn)品設計理念也有很大差異。那么,如何才能高效找到更有市場競爭力的設計方案呢?接下來這款產(chǎn)品能夠幫到你。

下面我們?yōu)榇蠹医榻B的是來自制造商AMD Xilinx的另一款解決方案——Versal? AI Core系列VCK190評估套件,貿澤電子上,該產(chǎn)品的制造商編號為EK-VCK190-G-ED。

poYBAGMJ3j6AJ3VEAABsF1kR7Yo186.jpg

圖5:Versal? AI Core系列VCK190評估套件

(圖源:AMD Xilinx)

根據(jù)Xilinx Wiki的介紹,VCK190評估套件是第一個 Versal? AI Core系列評估套件,可幫助設計者使用AI和DSP引擎開發(fā)解決方案。相較于服務器級CPU,這款評估套件的系統(tǒng)核心VC1902器件能夠提供超過100倍的計算力。

VCK190評估套件是一個“多面手”,工程師朋友既可以借助其廣泛的連接選項進行快速應用開發(fā),包括數(shù)據(jù)中心計算、5G無線電與波束成形(DFE)、無線測試設備等。同時,也可以應用于ADAS的原型開發(fā)。

針對ADAS的原型開發(fā),AMD Xilinx提供專門的目標參考設計,幫助實現(xiàn)汽車應用的多傳感器視頻分析。在參考設計中,VCK190評估板上的圖像傳感器模塊能夠實時接收信息傳遞并加速和攝像頭掛鉤的圖像傳感器信息,同時該評估板還支持其他汽車應用中常見的AI/ML工作負載。

S32G2處理器幫助打造下一代網(wǎng)關

如上文所述,環(huán)境感知與精準定位、路徑規(guī)劃、線控執(zhí)行并稱自動駕駛四大核心技術。在具體實現(xiàn)時,“純視覺”是多組ECU對應多組攝像頭,提取有用信息之后匯總到計算芯片上做決策;“多傳感器融合”則是不同的傳感器對應不同的ECU模塊單元,最終依然需要將提取之后的信息發(fā)送到計算芯片上進行運算。在車輛外部,車聯(lián)網(wǎng)的概念讓部分信息需要上傳到云端,實現(xiàn)汽車作為邊端的邊云通信。那么,在此過程中,網(wǎng)關配置就顯得尤為重要,用來幫助提高實時性處理和安全性。

接下來,我們要重點介紹的這款元器件便是可用于實現(xiàn)下一代汽車網(wǎng)關和架構的S32G2汽車網(wǎng)絡微處理器,來自制造商NXP Semiconductors,大家可以通過搜索制造商編號S32G274AABK0VUCT在貿澤電子網(wǎng)站上精準找到它。

S32G2微處理器是NXP在汽車網(wǎng)關設備系列中的升級產(chǎn)品,基于四核Arm? Cortex?-A53應用處理器打造,性能和網(wǎng)絡加速能力是該公司此前產(chǎn)品的10倍以上。能夠實現(xiàn)如此大的性能跨越,得益于該器件先進的設計理念。S32G2處理器帶可選的兩兩鎖步功能,用于處理高算力的應用和服務,其中3個Arm Cortex-M7全鎖步內核,用于處理實時應用。以太網(wǎng)數(shù)據(jù)包轉發(fā)引擎(PFE)、低延遲通信引擎(LLCE)以及硬件安全引擎(HSE)三大硬件加速器的存在,讓汽車網(wǎng)絡傳輸更快、更安全。

pYYBAGMJ3j6ACVoTAAEgvpNbWxI933.jpg

圖6:S32G2汽車網(wǎng)絡微處理器系統(tǒng)框圖

(圖源:NXP)

安全是S32G2處理器的一大產(chǎn)品特色,除了所提到的硬件加速器,還提供支持實現(xiàn)ASIL D功能安全的片上硬件模塊和軟件庫。在可選的高級軟件方案中,還提供可用于功能安全實現(xiàn)的S32安全軟件框架和用于Cortex-A53內核的結構內核自測(SCST),帶來更高級的信息安全和功能安全體驗。

總體而言,在域控制器、汽車網(wǎng)絡和安全處理器等方面,多功能的S32G2處理器都是絕佳選擇。

滿足多種汽車應用的圖像傳感器

在技術路線的解讀中我們看到,無論走怎樣的發(fā)展路線,攝像頭都是自動駕駛系統(tǒng)中必須要有的一部分,統(tǒng)稱為視覺系統(tǒng)。接下來,我們?yōu)榇蠹医榻B的這款器件是可用于ADAS、自動(找元器件現(xiàn)貨上唯樣商城)駕駛、環(huán)視、倒車攝像頭、車艙內監(jiān)測等諸多汽車應用的圖像傳感器,來自制造商安森美(onsemi),貿澤電子上的制造商編號為ASX340AT2C00XPED0-DPBR2。

ASX340AT圖像傳感器是安森美圖像傳感器解決方案中的一個系列,主要面向汽車應用市場,適用于后視攝像頭、盲點監(jiān)控和環(huán)視等應用。

ASX340AT系列是VGA格式的單芯片CMOS有源像素數(shù)字圖像傳感器,具有優(yōu)質圖像傳感器的內在優(yōu)點,比如低噪聲、低功耗和集成優(yōu)勢等,提供了多種攝像頭功能,包括自動聚焦、自動白平衡和自動曝光。值得注意的是,ASX340AT系列是一款完整的片上攝像系統(tǒng),在片上集成了復雜的攝像頭功能,讓集成商能夠在無需額外處理芯片的情況下設計后視攝像頭系統(tǒng)。

pYYBAGMJ3j6AHZ1gAACosfxAlY8604.png

圖7:ASX340AT系列內部框圖

(圖源:安森美

除了ASX340AT系列,整個安森美圖像傳感器解決方案是全面的圖像檢測產(chǎn)品組合,支持VGA至超過50MP的分辨率以及CMOS和CCD技術,可覆蓋汽車、工業(yè)、消費領域的各種應用。目前,該組合中新款5個系列圖像傳感器都在貿澤電子分銷,幫助工程師朋友實現(xiàn)前沿應用創(chuàng)新。

路線之爭持續(xù),但目標只有一個

無疑,在未來很長的一段時間內,關于如何實現(xiàn)自動駕駛,依然會存在派系之爭,無論是環(huán)境感知,還是整體方案的實現(xiàn)。不過,純視覺方案在未來將逐漸丟失先發(fā)優(yōu)勢,且由于方案的局限性較為明顯,預計會有越來越多的廠商擁抱“多傳感器融合”方案,尤其是在更高階的自動駕駛領域。當然,無論如何實現(xiàn),最終目標只有一個——讓汽車駕駛更安全。為實現(xiàn)這個目標,廠商需要用更好的硬件方案去適配更智能的軟件算法,而這正是貿澤電子能夠幫到廣大工程師朋友的地方,通過海量的原廠授權器件,讓大家高效、優(yōu)質地實現(xiàn)自動駕駛或輔助駕駛的硬件部分。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 多傳感器
    +關注

    關注

    0

    文章

    83

    瀏覽量

    15892
  • adas
    +關注

    關注

    311

    文章

    2330

    瀏覽量

    211942
  • 自動駕駛
    +關注

    關注

    793

    文章

    14884

    瀏覽量

    179923
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    視覺自動駕駛能識別出高透明玻璃墻嗎?

    [首發(fā)于智駕最前沿微信公眾號]最近在和大家聊視覺自動駕駛能否識別3D圖像時,有小伙伴提問,視覺自動駕
    的頭像 發(fā)表于 02-18 08:49 ?1.1w次閱讀
    <b class='flag-5'>純</b><b class='flag-5'>視覺</b><b class='flag-5'>自動駕駛</b>能識別出高透明玻璃墻嗎?

    視覺自動駕駛的優(yōu)勢和劣勢有哪些?

    激光雷達,也一直飽受爭議。今天智駕最前沿就圍繞視覺自動駕駛,聊聊它的優(yōu)劣。 什么是視覺自動駕駛
    的頭像 發(fā)表于 01-18 09:50 ?2140次閱讀
    <b class='flag-5'>純</b><b class='flag-5'>視覺</b><b class='flag-5'>自動駕駛</b>的優(yōu)勢和劣勢有哪些?

    如何設計自動駕駛傳感器失效檢測與容錯策略?

    對于自動駕駛汽車而言,傳感器是它感知世界的窗口。攝像頭負責采集環(huán)境圖像,毫米波雷達和激光雷達則用于測量周圍物體的位置和速度,而GNSS(全球導航衛(wèi)星系統(tǒng))與慣性測量系統(tǒng)可提供車輛的定位信息。這些數(shù)據(jù)經(jīng)過融合處理之后,
    的頭像 發(fā)表于 01-10 10:33 ?2651次閱讀

    視覺自動駕駛會像人眼一樣“近視”嗎?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛領域,視覺路線逐漸獲得了一部分從業(yè)者和研究者的認可與支持。隨著雙目乃至三目攝像頭方案的應用,通過視
    的頭像 發(fā)表于 12-15 09:23 ?756次閱讀
    <b class='flag-5'>純</b><b class='flag-5'>視覺</b><b class='flag-5'>自動駕駛</b>會像人眼一樣“近視”嗎?

    自動駕駛中提到的“深度相機”是個啥?

    自動駕駛的實現(xiàn)離不開各類傳感器的支持,其中視覺方案成為很多技術方案的選擇,但由于攝像頭無法感知
    的頭像 發(fā)表于 12-13 13:35 ?2440次閱讀

    從單一傳感器技術融合 藍鵬打造工業(yè)測量一站式解決方案

    1X1X0.5mm(長X寬X深)缺陷。 從單一傳感器的精準應用,到技術融合的系統(tǒng)級方案,藍鵬以品類
    發(fā)表于 12-08 14:57

    沒有地圖,視覺自動駕駛就只能摸瞎嗎?

    [首發(fā)于智駕最前沿微信公眾號]最近在一篇討論高精度地圖的文章中,有位小伙伴提到一個非常有趣的觀點“如果人在陌生的目的地,只依托視覺(眼睛)去辨別道路,若沒有導航,就只能摸瞎”。對于視覺
    的頭像 發(fā)表于 11-27 17:22 ?1458次閱讀
    沒有地圖,<b class='flag-5'>純</b><b class='flag-5'>視覺</b><b class='flag-5'>自動駕駛</b>就只能摸瞎嗎?

    L4級自動駕駛數(shù)據(jù)采集系統(tǒng)首選

    級數(shù)據(jù)記錄設備 ,為自動駕駛研發(fā)提供端到端的解決方案,助力企業(yè)突破數(shù)據(jù)采集瓶頸。 一、自動駕駛數(shù)據(jù)采集的三大核心需求 模態(tài)傳感器
    的頭像 發(fā)表于 11-26 09:31 ?419次閱讀

    自動駕駛數(shù)據(jù)采集時間同步指南:方法、挑戰(zhàn)、場景與康謀解決方案

    自動駕駛數(shù)據(jù)采集面臨傳感器協(xié)同與總線協(xié)議割裂的挑戰(zhàn),時間同步精度直接影響系統(tǒng)安全與研發(fā)效率??抵\科技推出"全以太網(wǎng)+gPTP"方案,通過
    的頭像 發(fā)表于 11-21 16:48 ?2099次閱讀

    康謀分享 | 基于傳感器數(shù)據(jù)的自動駕駛仿真確定性驗證

    自動駕駛仿真測試中,游戲引擎的底層架構可能會帶來非確定性的問題,侵蝕測試可信度。如何通過專業(yè)仿真平臺,在傳感器配置與極端天氣場景中實現(xiàn)測試數(shù)據(jù)零差異?確定性驗證方案已成為
    的頭像 發(fā)表于 07-02 13:17 ?4256次閱讀
    康謀分享 | 基于<b class='flag-5'>多</b><b class='flag-5'>傳感器</b>數(shù)據(jù)的<b class='flag-5'>自動駕駛</b>仿真確定性驗證

    自動駕駛汽車是如何準確定位的?

    厘米級的定位精度,并能夠實時響應環(huán)境變化。為此,自動駕駛系統(tǒng)通常采用傳感器融合的方式,將全球導航衛(wèi)星系統(tǒng)(GNSS)、慣性測量單元(IMU)、激光雷達(LiDAR)、攝像頭、超寬帶(
    的頭像 發(fā)表于 06-28 11:42 ?1267次閱讀
    <b class='flag-5'>自動駕駛</b>汽車是如何準確定位的?

    自動駕駛視覺方案到底有哪些弊端?

    [首發(fā)于智駕最前沿微信公眾號]隨著人工智能與傳感器技術的快速發(fā)展,自動駕駛汽車逐步走入公眾視野。其中,關于感知系統(tǒng)的技術路線選擇,始終是大家爭論的焦點。尤其是“
    的頭像 發(fā)表于 06-23 09:27 ?1130次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>純</b><b class='flag-5'>視覺</b><b class='flag-5'>方案</b>到底有哪些弊端?

    視覺自動駕駛會有哪些安全問題?

    強調視覺系統(tǒng)的先進性。視覺自動駕駛是指在車輛自動駕駛系統(tǒng)中僅依賴攝像頭而不使用激光雷達或毫米波雷達等主動
    的頭像 發(fā)表于 06-16 09:56 ?995次閱讀
    <b class='flag-5'>純</b><b class='flag-5'>視覺</b>的<b class='flag-5'>自動駕駛</b>會有哪些安全問題?

    自動駕駛視覺替代不了激光雷達?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術的不斷發(fā)展,視覺和激光雷達(LiDAR)兩種主流環(huán)境感知成為了大家的熱議話題?;跀z像頭的“視覺
    的頭像 發(fā)表于 06-11 09:06 ?930次閱讀

    視覺自動駕駛如何理解路邊畫報上的人?

    行業(yè)來說,其實是一個值得深思的問題。隨著自動駕駛技術下沉到消費市場,基于視覺自動駕駛系統(tǒng)就是依托于車載攝像頭來識別路況,如果遇到了類似海報上的人,尤其是遇到了與真人大小類似的人物海
    的頭像 發(fā)表于 05-19 09:16 ?739次閱讀