91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

端到端自動駕駛多模態(tài)軌跡生成方法GoalFlow解析

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2025-03-18 17:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

? 論文鏈接:

https://arxiv.org/abs/2503.05689

?項目鏈接:

https://github.com/YvanYin/GoalFlow

概述

自動駕駛軌跡規(guī)劃往往采用直接回歸軌跡的方法,這種方式雖在測試中能取得不錯的性能,可直接輸出當前場景下最有可能的軌跡或控制,但它難以對自動駕駛場景中常見的多模態(tài)動作分布進行有效建模。在實際駕駛場景里,往往不存在唯一的最優(yōu)決策,不同的路況、交通標志以及其他道路使用者的行為等,都可能導致車輛存在多種合理的行駛軌跡選擇,而回歸模型在處理這種多模態(tài)特性時顯得力不從心。為了解決這個問題,我們提出了一種基于goal point的生成式方法GoalFlow,通過使用goal point這種強引導信息來引導生成式模型生成安全、高質(zhì)量、多模態(tài)的規(guī)劃軌跡。我們的方法在公開數(shù)據(jù)集Navsim綜合分數(shù)大幅領先其他方法。同時,通過Flow Matching對軌跡分布進行建模僅用一步降噪即可實現(xiàn)優(yōu)秀的推理性能。

GoalFlow解決的問題

當前生成多模態(tài)候選軌跡的方法主要由兩種方式:一種是在回歸軌跡的基礎上添加不同的引導信息,例如左右轉(zhuǎn)等。另一種是通過擴散模型這種連續(xù)建模的方式通過不斷加噪和去噪來生成眾多的軌跡。這兩種方式都很難達到理想的效果。前者容易發(fā)生軌跡的坍縮,引導出的軌跡非常相似。后者容易生成高度發(fā)散的軌跡,這為挑選軌跡增加了難度。為此,GoalFlow主要思考如何探索其他可行道路來實現(xiàn)高質(zhì)量的候選軌跡生成。

如何應對生成式模型軌跡過于發(fā)散的情況

相比生成眾多發(fā)散的候選軌跡,從中挑選出來一條最優(yōu)的作為輸出是更加困難的事情。我們希望通過降低軌跡的發(fā)散程度來減輕軌跡打分器的壓力。而其中,使用什么樣的信息來對軌跡進行約束是最重要的。我們發(fā)現(xiàn),相比于dense的圖像或者BEV特征,擴散模型更喜歡sparse的信息。于是,我們采用一段軌跡中最重要的點end point作為goal point來對軌跡進行約束,使得車輛能行駛到goal point。

2beb13ae-02f6-11f0-9310-92fbcf53809c.png

如何構造goal point

goal point在自動駕駛中并不是個新事物,業(yè)務中往往可以使用車道信息來預測goal point或者使用直接將導航作為goal point。但是車道信息往往需要昂貴的高精地圖,而導航往往并不表示車輛在未來幾秒后的精確信息。其他學術上的方法也有map-free的用網(wǎng)格將空間劃分若干單元來進行預測,這種方式又沒有充分考慮到goal point自身的分布特性。在調(diào)研眾多方法后,我們根據(jù)VADv2的做法,首先將軌跡的末端點進行聚類得到goal point的分布特性后,再從不同角度對goal point進行評估。

2c0e25c4-02f6-11f0-9310-92fbcf53809c.png

如何平衡生成準確軌跡和多模態(tài)軌跡

輸入給生成模型的信息包括兩種,一種是goal point來對軌跡進行約束和引導,一種是場景信息的BEV特征。前者對軌跡的要求是生成指向goal point的軌跡,后者是生成當前情況下最有可能的軌跡。為了平衡這兩種需求,我們主要進行了訓練策略上的不同測試。具體來說,我們會對這兩種信息分別進行類型編碼,在訓練過程中采用Classifier-Free Guidance策略,隨機drop掉這兩種特征。訓練時condition輸入包括三類:無condition,場景信息作為condition以及場景信息和goal point作為condition。

GoalFlow框架

2c1f246e-02f6-11f0-9310-92fbcf53809c.png

核心思路:引入goal point作為引導信息,通過建立dense的goal point詞匯表和新穎評分機制挑選最優(yōu)goal point,再由goal point和場景信息作為condition,交給Flow Matching生成軌跡。

具體流程:

感知方面上采用transfuser,融合圖像和LiDAR信息,得到BEV feature。

通過聚類數(shù)據(jù)集中的軌跡末端點得到dense的goal point詞表,作為goal point的候選集。

將goal point和真實end point的遠近程度以及goal point是否在車輛可行駛區(qū)域內(nèi)作為評價標準,從詞表中挑選出當前最優(yōu)的goal point。

引入flow matching對軌跡進行連續(xù)建模,將場景信息和goal point作為condition生成軌跡。

實驗結果

2c3da93e-02f6-11f0-9310-92fbcf53809c.png

2c5003b8-02f6-11f0-9310-92fbcf53809c.png

在Navsim數(shù)據(jù)集上,軌跡采用碰撞率,是否在可行駛區(qū)域內(nèi),舒適度等綜合指標PDMS來評價。GoalFlow在PDMS上達到90.3分,遠超以regression為代表的Transfuser方法(84.0分)和naive的generative model(85.6分)。模擬真實場景用更精確goal point代替預測goal point時,PDMS達到92.1分,逼近人類駕駛的94.8分。此外,基于flow matching的方法對推理中denoising步數(shù)具有魯棒性,只需1步推理就能達到優(yōu)異性能,大大減輕自動駕駛硬件負擔。

展望與總結

GoalFlow通過聚類方法捕捉目標點 (goal point) 的分布特性,并設計了一套目標點評估機制,為目標點進行打分。基于這些目標點,GoalFlow引導生成式方法Flow Matching生成高質(zhì)量軌跡。實驗表明,GoalFlow能夠生成優(yōu)異的軌跡,并提供多樣化的高質(zhì)量軌跡候選,顯著提升了軌跡生成的性能。

未來,我們將進一步探索如何優(yōu)化引導信息的利用,尤其是設計更高效的網(wǎng)絡結構,以更好地平衡場景信息和目標點引導信息對模型的影響。此外,當前工作主要聚焦于坐標位置作為引導條件,之后可以進一步探索將人類語言指令作為條件輸入,結合GoalFlow實現(xiàn)更智能的指令跟隨能力,拓展其在人機交互和自動駕駛等領域的應用潛力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3751

    瀏覽量

    52091
  • 自動駕駛
    +關注

    關注

    793

    文章

    14878

    瀏覽量

    179752

原文標題:CVPR 2025|GoalFlow:目標點驅(qū)動,解鎖端到端生成式策略新未來

文章出處:【微信號:horizonrobotics,微信公眾號:地平線HorizonRobotics】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    技術分享 |模態(tài)自動駕駛混合渲染HRMAD:將NeRF和3DGS進行感知驗證和AD測試

    模態(tài)自動駕駛混合渲染HRMAD,融合NeRF與3DGS技術,實現(xiàn)超10萬㎡場景重建,傳感器實時輸出,仿真更接近真實數(shù)據(jù)!然而,如何用高保真仿真場景快速驗證
    的頭像 發(fā)表于 03-26 16:05 ?4205次閱讀
    技術分享 |<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>自動駕駛</b>混合渲染HRMAD:將NeRF和3DGS進行感知驗證和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>AD測試

    如何基于深度神經(jīng)網(wǎng)絡設計一個自動駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡設計一個自動駕駛模型?如何設計一個基于增強學習的自動駕駛決策系統(tǒng)?
    的頭像 發(fā)表于 04-29 16:44 ?5912次閱讀
    如何基于深度神經(jīng)網(wǎng)絡設計一個<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b>模型?

    實現(xiàn)自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?2438次閱讀
    實現(xiàn)<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    Mobileye自動駕駛解決方案的深度解析

    自動駕駛技術正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領域占據(jù)一席之地。Mobileye作為全球自動駕駛技術的領軍企業(yè)之一,憑借其獨特的
    的頭像 發(fā)表于 10-17 09:35 ?1485次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度<b class='flag-5'>解析</b>

    Waymo利用谷歌Gemini大模型,研發(fā)端自動駕駛系統(tǒng)

    邁新步,為其機器人出租車業(yè)務引入了一種基于谷歌模態(tài)大語言模型(MLLM)“Gemini”的全新訓練模型——“
    的頭像 發(fā)表于 10-31 16:55 ?2670次閱讀

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復雜罕見的駕駛場景,依然
    的頭像 發(fā)表于 11-07 15:15 ?1305次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    自動駕駛技術研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復:C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進入202
    的頭像 發(fā)表于 12-19 13:07 ?1793次閱讀

    DiffusionDrive首次在自動駕駛中引入擴散模型

    ? ? 近年來,自動駕駛成為研究熱點,其核心在于從傳感器數(shù)據(jù)直接學習駕駛決策。然而,駕駛
    的頭像 發(fā)表于 03-08 13:59 ?1791次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>中引入擴散模型

    動量感知規(guī)劃的自動駕駛框架MomAD解析

    自動駕駛框架實現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預測,這可能導致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這
    的頭像 發(fā)表于 03-18 09:31 ?1689次閱讀
    動量感知規(guī)劃的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>框架MomAD<b class='flag-5'>解析</b>

    一種模態(tài)駕駛場景生成框架UMGen介紹

    自動駕駛技術的快速發(fā)展對閉環(huán)仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術架構。然而,現(xiàn)有的
    的頭像 發(fā)表于 03-24 15:57 ?1680次閱讀
    一種<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>駕駛</b>場景<b class='flag-5'>生成</b>框架UMGen介紹

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統(tǒng)自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?878次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1797次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1695次閱讀

    如何訓練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓練的?是模仿學習、強化學習和離線強化學習這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1421次閱讀
    如何訓練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度學習模型來完成。這和傳統(tǒng)的模
    的頭像 發(fā)表于 02-20 09:25 ?9215次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?