91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

佐思汽研發(fā)布《2024年端到端自動駕駛研究報告》

佐思汽車研究 ? 來源:佐思汽車研究 ? 2024-04-20 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發(fā)布《2024年端到端自動駕駛研究報告》。

1

國內(nèi)端到端方案現(xiàn)狀

端到端自動駕駛是直接從傳感器信息輸入(如攝像頭圖像、LiDAR等)到控制命令輸出(如轉(zhuǎn)向、加減速等)映射的一套系統(tǒng),最早出現(xiàn)在1988年的ALVINN項目,通過相機(jī)和激光測距儀進(jìn)行輸入和一個簡單的神經(jīng)網(wǎng)絡(luò)生成的轉(zhuǎn)向進(jìn)行輸出。

2024年初,特斯拉FSD V12.3版本發(fā)布,智駕水平讓人驚艷,端到端自動駕駛方案受到國內(nèi)主機(jī)廠和自動駕駛方案企業(yè)的廣泛關(guān)注。

與傳統(tǒng)的多模塊方案相比,端到端自動駕駛方案將感知、預(yù)測和規(guī)劃整合到單一模型中,簡化了方案結(jié)構(gòu),可模擬人類駕駛員直接從視覺輸入做出駕駛決策,以數(shù)據(jù)和算力為主導(dǎo),能夠有效解決模塊化方案的長尾場景,提升模型的訓(xùn)練效率和性能上限。

傳統(tǒng)多模塊方案與端到端方案的對比(部分)

5f27f580-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

FSD V12.3版本實測圖

5f4f3b68-fec3-11ee-a297-92fbcf53809c.png

來源:公開渠道

部分主機(jī)廠對端到端方案落地量產(chǎn)的規(guī)劃

608716a4-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

理想端到端方案

理想認(rèn)為,完整的端到端需要完成感知、跟蹤、預(yù)測、決策、規(guī)劃整個過程的模型化,是實現(xiàn)L3級別自動駕駛的最佳方案。2023年,理想推送AD Max3.0,其整體框架已經(jīng)具備端到端的理念,但距離完整的端到端尚有一定差距,2024年理想預(yù)計以此為基礎(chǔ),推進(jìn)該系統(tǒng)成為一個徹底的端到端方案。

理想構(gòu)建的自動駕駛框架如下圖,分為兩個系統(tǒng):

快系統(tǒng):System1,感知周圍環(huán)境后直接執(zhí)行,為理想現(xiàn)行的端到端方案。

慢系統(tǒng):System2,多模態(tài)大語言模型,針對未知環(huán)境進(jìn)行邏輯思考與探索,以解決L4未知場景下的問題。

理想自動駕駛框架

60bd65b0-fec3-11ee-a297-92fbcf53809c.png

來源:理想汽車

在端到端方案推進(jìn)的過程中,理想計劃把規(guī)劃/預(yù)測模型與感知模型進(jìn)行統(tǒng)一,并在原基礎(chǔ)上完成Temporal Planner的端到端,實現(xiàn)泊車/行車一體化。

2

數(shù)據(jù)成為端到端落地的關(guān)鍵

端到端方案的落地需要經(jīng)歷構(gòu)建研發(fā)團(tuán)隊、配置硬件設(shè)施、數(shù)據(jù)收集處理、算法訓(xùn)練與策略定制、驗證評估、推廣量產(chǎn)等流程,部分場景痛點(diǎn)如表中所示:

端到端方案的部分場景痛點(diǎn)

60dc4930-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

其中,端到端自動駕駛方案中的一體化訓(xùn)練需要大量的數(shù)據(jù),因此其面臨的難點(diǎn)之一在于數(shù)據(jù)的收集和處理。

首先,數(shù)據(jù)的收集需要大量的時間和渠道,數(shù)據(jù)類型除了駕駛數(shù)據(jù)外還包括各種不同的道路、天氣和交通情況等場景數(shù)據(jù),其中在實際駕駛中駕駛員前方視野的駕駛數(shù)據(jù)相對便于收集,周圍方位的信息收集則難以保證。

再次,數(shù)據(jù)處理時需要設(shè)計數(shù)據(jù)提取維度、從海量的視頻片段中提取有效的特征、統(tǒng)計數(shù)據(jù)分布等,以支持大規(guī)模的數(shù)據(jù)訓(xùn)練。

元戎啟行

截至2024年3月,元戎啟行端到端自動駕駛方案已經(jīng)獲得長城汽車的定點(diǎn)項目,并與英偉達(dá)開展合作,預(yù)計2025年適配英偉達(dá)Thor芯片;在元戎啟行的規(guī)劃中,從傳統(tǒng)方案過渡到“端到端”自動駕駛方案,經(jīng)歷傳感器前融合、去高精度地圖、感知決策控制三個模型一體化等環(huán)節(jié)。

元戎啟行在數(shù)據(jù)環(huán)節(jié)的布局

6105113a-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

極佳科技

極佳科技的自動駕駛世界模型DriveDreamer,具備場景生成、數(shù)據(jù)生成、駕駛動作預(yù)測等功能;在場景/數(shù)據(jù)生成上,分為兩個步驟:

涉及單幀結(jié)構(gòu)化條件,引導(dǎo)DriveDreamer生成駕駛場景圖像,便于其理解結(jié)構(gòu)交通約束。

將其理解擴(kuò)展到視頻生成。利用連續(xù)的交通結(jié)構(gòu)條件,DriveDreamer輸出駕駛場景視頻,進(jìn)一步增強(qiáng)其對運(yùn)動轉(zhuǎn)換的理解。

DriveDreamer的功能包括可連續(xù)駕駛視頻生成、與文本提示和結(jié)構(gòu)化交通限制無縫對齊

6122a984-fec3-11ee-a297-92fbcf53809c.png

來源:極佳科技

3

端到端方案加快具身機(jī)器人落地

除了自動駕駛汽車,具身機(jī)器人是端到端方案另一個主流場景。從端到端自動駕駛到機(jī)器人,需要構(gòu)建更加通用的世界模型,來適應(yīng)更加復(fù)雜、多元的現(xiàn)實使用場景,主流AGI(通用人工智能)發(fā)展的框架分為兩個階段:

階段一:基礎(chǔ)大模型理解和生成實現(xiàn)統(tǒng)一,進(jìn)一步與具身智能結(jié)合,形成統(tǒng)一世界模型;

階段二:世界模型+復(fù)雜任務(wù)的規(guī)控能力和抽象概念的歸納能力,逐步演化進(jìn)入交互AGI 1.0時代。

在世界模型落地的過程中,構(gòu)建端到端的VLA(Vision-Language-Action) 自主系統(tǒng)成為關(guān)鍵一環(huán)。VLA作為具身智能基礎(chǔ)大模型,能夠?qū)?D感知、推理和行動無縫鏈接起來,形成一個生成式世界模型,并建立在基于3D的大型語言模型(LLM)之上,引入一組交互標(biāo)記以與環(huán)境進(jìn)行互動。

3D-VLA解決方案

6142fbe4-fec3-11ee-a297-92fbcf53809c.png

來源:University of Massachusetts Amherst、MIT-IBM Watson AI Lab等機(jī)構(gòu)

截至2024年4月,部分采用端到端方案的具身機(jī)器人廠商如下:

部分具身機(jī)器人如何應(yīng)用端到端方案

615b550e-fec3-11ee-a297-92fbcf53809c.png

來源:佐思汽研《2024年端到端自動駕駛研究報告》

以有鹿機(jī)器人為例,其具身智能大模型LPLM(Large Physical Language Model)為端到端的具身智能解決方案,通過自我標(biāo)注機(jī)制提升模型從未標(biāo)注數(shù)據(jù)中的學(xué)習(xí)效率和質(zhì)量,從而加深對世界的理解,進(jìn)而加強(qiáng)機(jī)器人的泛化能力與跨模態(tài)、跨場景、跨行業(yè)場景下的環(huán)境適應(yīng)性。

LPLM模型架構(gòu)

6185174a-fec3-11ee-a297-92fbcf53809c.png

來源:有鹿機(jī)器人

LPLM 將物理世界抽象化,確保該類信息與 LLM 里特征的抽象等級對齊,將物理世界中每一個所指的實體顯式建模為 token,編碼幾何、語義、運(yùn)動學(xué)與意圖信息。

此外,LPLM 在自然語言指令的編碼中加入了 3D grounding,一定程度上彌補(bǔ)了自然語言不夠精確的缺陷;其解碼器能夠通過不斷預(yù)測未來的方式去學(xué)習(xí),從而加強(qiáng)了模型從海量無標(biāo)簽數(shù)據(jù)中學(xué)習(xí)的能力。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55041

    瀏覽量

    791284
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107756
  • 攝像頭
    +關(guān)注

    關(guān)注

    61

    文章

    5091

    瀏覽量

    103114
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4087

    瀏覽量

    99174
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14882

    瀏覽量

    179811

原文標(biāo)題:端到端智駕研究:E2E自動駕駛發(fā)展現(xiàn)狀

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模
    的頭像 發(fā)表于 02-20 09:25 ?9240次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?

    如何訓(xùn)練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和離線強(qiáng)化學(xué)習(xí)這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1427次閱讀
    如何訓(xùn)練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領(lǐng)域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進(jìn)行訓(xùn)練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1705次閱讀

    西井科技自動駕駛模型獲得國際認(rèn)可

    近日,西井科技AI創(chuàng)研團(tuán)隊在國際權(quán)威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕駛模型,以綜合得分48.759的成績
    的頭像 發(fā)表于 10-15 17:20 ?1283次閱讀

    一文讀懂特斯拉自動駕駛FSD從輔助的演進(jìn)

    、控制等環(huán)節(jié)各自負(fù)責(zé)不同的功能,各模塊用顯式代碼和規(guī)則來完成任務(wù)。隨著數(shù)據(jù)規(guī)模和算力增長,特斯拉開始把更多功能放到機(jī)器學(xué)習(xí)模型里,尤其是從2024推出的V12(標(biāo)注為“Supervised”)開始,特斯拉開始大幅度推進(jìn)“
    的頭像 發(fā)表于 10-11 09:13 ?805次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進(jìn)

    自動駕駛大模型為什么會有不確定性?

    。為了能讓自動駕駛汽車做出正確、安全且符合邏輯的行駛動作,大模型被提了出來。
    的頭像 發(fā)表于 09-28 09:20 ?868次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型為什么會有不確定性?

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨(dú)立承擔(dān),再通過預(yù)定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達(dá)、激光雷達(dá)等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?823次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機(jī)視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團(tuán)隊在自動駕駛方向的最新研究成果《HiP-AD
    的頭像 發(fā)表于 07-05 15:40 ?1803次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新<b class='flag-5'>研究</b>成果入選ICCV 2025

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)
    的頭像 發(fā)表于 07-04 16:50 ?882次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數(shù)據(jù)標(biāo)注方案在自動駕駛領(lǐng)域的應(yīng)用優(yōu)勢

    10-20TB,其中需要標(biāo)注的數(shù)據(jù)占比超過60%。在這樣的背景下,數(shù)據(jù)標(biāo)注方案應(yīng)運(yùn)而生,正在重塑自動駕駛的數(shù)據(jù)生產(chǎn)范式。
    的頭像 發(fā)表于 06-23 17:27 ?1000次閱讀

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)
    的頭像 發(fā)表于 05-08 09:07 ?1029次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    自動駕駛中基于規(guī)則的決策和大模型有何區(qū)別?

    自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的大模型,尤其是在2024
    的頭像 發(fā)表于 04-13 09:38 ?3733次閱讀
    <b class='flag-5'>自動駕駛</b>中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有何區(qū)別?

    東風(fēng)汽車推出自動駕駛開源數(shù)據(jù)集

    近日,智能網(wǎng)聯(lián)汽車智駕數(shù)據(jù)空間構(gòu)建研討會暨中協(xié)會智能網(wǎng)聯(lián)汽車分會、數(shù)據(jù)分會2024度會議在上海舉辦。會上,東風(fēng)汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬組高質(zhì)量數(shù)據(jù)的
    的頭像 發(fā)表于 04-01 14:54 ?1229次閱讀

    動量感知規(guī)劃的自動駕駛框架MomAD解析

    自動駕駛框架實現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預(yù)測,這可能導(dǎo)致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這一問題,我們提出了動量感知
    的頭像 發(fā)表于 03-18 09:31 ?1692次閱讀
    動量感知規(guī)劃的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>框架MomAD解析

    DiffusionDrive首次在自動駕駛中引入擴(kuò)散模型

    ? ? 近年來,自動駕駛成為研究熱點(diǎn),其核心在于從傳感器數(shù)據(jù)直接學(xué)習(xí)駕駛決策。然而,
    的頭像 發(fā)表于 03-08 13:59 ?1794次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>中引入擴(kuò)散模型