91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Waymo最新發(fā)布的WOD-E2E端到端數(shù)據(jù)集能做些啥?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-11-17 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)的發(fā)展,該技術(shù)已經(jīng)可以在很多高速路況和部分城市路況展現(xiàn)很好的組合輔助駕駛能力。即便如此,自動駕駛技術(shù)依舊未能大范圍使用,之所以會這樣,因為決定自動駕駛是否安全的,不是那99%的正常情況,而是那1%的極少數(shù)會發(fā)送,但危險性極高的瞬間。

想想一下,如果在高速上駕駛車輛時,忽然有一頭野豬忽然從路側(cè)闖入或者前方車輛出現(xiàn)了物體掉落的情況,這些場景雖然發(fā)生的可能性很小,但一旦發(fā)生,自動駕駛系統(tǒng)就必須做出安全且合理的決策。

就在最近,Waymo把這類“長尾”片段挑出來,整理成WOD-E2E(Waymo Open Dataset for End-to-End Driving),目的就是給端到端駕駛研究提供一個專門的、高真實度的測試工具。

數(shù)據(jù)集鏈接:
https://github.com/waymo-research/waymo-open-dataset

WOD-E2E的核心價值在于稀缺性和針對性。它不是簡單將常規(guī)片段湊在一起再發(fā)布,而是從海量行駛數(shù)據(jù)里精挑細選出那些罕見但具有代表性的危險瞬間,從而方便研究者可以把注意力放在系統(tǒng)最脆弱的環(huán)節(jié)上。

與其依賴常規(guī)數(shù)據(jù)評估模型,不如用那些能真正暴露問題的關(guān)鍵片段來檢驗其安全性。在駕駛的臨界時刻,模型能否做出如合理剎車、及時避讓或穩(wěn)定維持車道等安全決策,才是檢驗其安全底線的核心測試。將這類數(shù)據(jù)公開,我們就能在同一套更貼近現(xiàn)實的標(biāo)準(zhǔn)下,比較不同方法的優(yōu)劣、對齊訓(xùn)練目標(biāo),從而推動端到端系統(tǒng)從“能夠運行”向“能夠安全落地”邁進。

wKgZPGkad1eAF_UHAAAQo00DEvw887.jpg

WOD-E2E包含什么?

WOD-E2E數(shù)據(jù)集由4021個20秒長的真實駕駛片段組成,總時長約十二小時,聚焦在需要即時決策的長尾場景的關(guān)鍵瞬間。每個片段配有八個環(huán)繞攝像頭的圖像(前、前左、前右、側(cè)左、側(cè)右、后、后左、后右),覆蓋360度視野,視頻采樣率是10Hz,同時包含自車的歷史軌跡、速度和加速度,以及高層路由指令(如直行、左轉(zhuǎn)、右轉(zhuǎn))。

訓(xùn)練/驗證集里還公開了未來五秒的真實軌跡,便于監(jiān)督學(xué)習(xí)和評估。Waymo把這些片段按場景類型做了劃分,涵蓋施工區(qū)域、復(fù)雜路口、行人或騎行者的異常交互、多車道競爭、路面異物、特殊車輛交互等多類長尾情形,每類都對應(yīng)不同的決策挑戰(zhàn)。

WOD-E2E中提出了與人類偏好對齊的Rater Feedback Score(RFS)。傳統(tǒng)的軌跡誤差指標(biāo)往往只看模型預(yù)測與日志軌跡的距離,但在緊急避險情況下,偏離日志軌跡反而可能更安全。

RFS的思路是先讓模型生成多條候選軌跡,再由人工評估員為幾條代表軌跡在安全性、合法性、反應(yīng)時機、剎車必要性、效率等維度打分,形成參考軌跡集合。模型的預(yù)測如果落在某條參考軌跡的“信任區(qū)域”內(nèi),就獲得對應(yīng)分值;若偏離則按指數(shù)衰減扣分,并設(shè)有最低保底分。

這種評價允許存在多種合理動作,強調(diào)與人類判斷的一致性,比單純的距離誤差更能反映安全性和可接受性。

wKgZO2kad1eAAKloAABAcsbBmmo656.jpg


圖片源自:參考報告

其實現(xiàn)階段端到端研究有幾類主流范式,在長尾場景上處理各有優(yōu)勢。把多傳感器信息投影到鳥瞰圖(BEV)后直接在BEV上完成感知與規(guī)劃的方法,在空間一致性和全局決策上表現(xiàn)較好,適合復(fù)雜路口和多車道規(guī)劃。

因為LLM自帶世界知識和推理能力,把多模態(tài)輸入映射到語言或語義空間,利用大語言模型(MLLM)進行推理的做法,更擅長處理語義復(fù)雜或前所未見的情形。

基于生成式或擴散模型的軌跡器則擅長表達多樣性,能給出多個可行解,利于后端做風(fēng)險比較與選擇。

如果在WOD-E2E上做有針對性的微調(diào)、增加完整環(huán)繞輸入或在推理時進行多樣本采樣,就會明顯提升RFS得分;此外,把RFS作為強化學(xué)習(xí)的獎勵也能推動模型朝更符合人類偏好的方向優(yōu)化。

wKgZPGkad1iAakU9AAAR42n7O-I805.jpg

WOD-E2E對自動駕駛的影響

WOD-E2E為自動駕駛研究提供了一個更貼近現(xiàn)實痛點的基準(zhǔn),可以對長尾問題生成更有針對性的算法。它會促使大家不單純追求與日志軌跡的貼合,而是在訓(xùn)練目標(biāo)、損失設(shè)計和不確定性表達上做出調(diào)整。

對設(shè)計團隊而言,這個數(shù)據(jù)集是補強產(chǎn)品安全性的工具。WOD-E2E可以作為一個“加固集”,可以先用大規(guī)模常規(guī)數(shù)據(jù)訓(xùn)練模型的基礎(chǔ)能力,再用WOD-E2E做微調(diào)和壓力測試,評估時并行使用傳統(tǒng)誤差指標(biāo)和RFS這類人類對齊指標(biāo),這樣不僅可以保證日常表現(xiàn),也能提升關(guān)鍵時刻的安全決策。

當(dāng)然,在把WOD-E2E融入訓(xùn)練/驗證流水線時,一定不能把它當(dāng)成唯一數(shù)據(jù)源;合理的數(shù)據(jù)增強和情境合成可以擴大小樣本的效用,但必須保持動力學(xué)和視覺上的真實性。

若希望提升語義推理能力,可以嘗試把視覺與狀態(tài)信息轉(zhuǎn)成結(jié)構(gòu)化語義或指令,再交給MLLM做高層推理;若更看重實時性和空間一致性,BEV-based的端到端管線仍是穩(wěn)妥選擇;若目標(biāo)是給出多種可行解以便后端做風(fēng)險比選,生成式/擴散模型更值得嘗試。把RFS納入訓(xùn)練目標(biāo)(例如作為RL獎勵或輔助監(jiān)督)會比單純優(yōu)化ADE更能提升在長尾場景下的表現(xiàn)。

wKgZO2kad1iAWpbsAAEKTz1ENK4197.jpg

圖片源自:參考報告

wKgZPGkad1iAcX2WAAASG3BOmsQ510.jpg

最后的話

WOD-E2E的意義不只是那幾小時的數(shù)據(jù),而是把“長尾問題”和“人類偏好對齊”的評測思路帶進了端到端駕駛的主流議程。它能讓研究成果在更真實、更危險的場景下經(jīng)受檢驗,也能幫助工程團隊把實驗室里的模型在部署前做更徹底的加固。把這類問題解決好,自動駕駛才有希望真正從能跑的原型,進化為能在復(fù)雜、不確定的真實道路上持續(xù)、安全運行的產(chǎn)品。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14890

    瀏覽量

    180016
  • waymo
    +關(guān)注

    關(guān)注

    2

    文章

    315

    瀏覽量

    25545
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    解鎖仿真新可能 :全新 aiSim 6 即將發(fā)布

    前言隨著自動駕駛從學(xué)術(shù)探索走向規(guī)?;瘧?yīng)用,無論是特斯拉FSD神經(jīng)模擬器、Waymo基于DeepMindGenie3的世界模型,還是國內(nèi)主流車企的
    的頭像 發(fā)表于 03-06 17:33 ?394次閱讀
    解鎖<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>仿真新可能 :全新 aiSim 6 即將<b class='flag-5'>發(fā)布</b>

    端下半場,如何做好高保真虛擬數(shù)據(jù)的構(gòu)建與感知?

    。然而模型對數(shù)據(jù)分布的廣度與深度均有著高要求,尤其是對缺乏歸納偏置的Transformer架構(gòu)而言,“數(shù)據(jù)規(guī)?!迸c“場景覆蓋度”可謂直
    的頭像 發(fā)表于 12-29 11:39 ?1799次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b>端下半場,如何做好高保真虛擬<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>的構(gòu)建與感知?

    如何訓(xùn)練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強化學(xué)習(xí)和離線強化學(xué)習(xí)這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1445次閱讀
    如何訓(xùn)練好自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    華為發(fā)布通信鋰電安全體系實踐

    2025年11月14日,在中國通信學(xué)會信息通信能源學(xué)術(shù)論壇上,華為數(shù)字能源數(shù)據(jù)中心能源及關(guān)鍵供電產(chǎn)品線營銷運作部部長馬燁發(fā)布
    的頭像 發(fā)表于 11-19 15:41 ?559次閱讀

    智駕模擬軟件推薦——為什么選擇Keymotek的aiSim?

    隨著自動駕駛技術(shù)的快速發(fā)展,車企和科技公司對于模擬測試平臺的需求越來越強。從L2/ADASL4/L5等級的自動駕駛,虛擬模擬已經(jīng)成為其中的關(guān)鍵一環(huán)。特別是對于「」智駕(
    的頭像 發(fā)表于 11-18 11:35 ?826次閱讀

    自動駕駛中“一段式”和“二段式”有什么區(qū)別?

    [首發(fā)于智駕最前沿微信公眾號]最近有小伙伴提問,一段式和二段式有什么區(qū)別。其實說到自
    的頭像 發(fā)表于 10-24 09:03 ?1218次閱讀
    自動駕駛中“一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”和“二段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”有什么區(qū)別?

    自動駕駛中常提的一段式(單段)是個?

    自動駕駛技術(shù)的發(fā)展,催生出技術(shù)的應(yīng)用,一段式(end-to-end single-s
    的頭像 發(fā)表于 10-18 10:16 ?1702次閱讀

    語音交互數(shù)據(jù) 精準(zhǔn)賦能語音大模型進階

    模型在多輪對話、噪聲環(huán)境及語義理解方面表現(xiàn)不佳。 相較于傳統(tǒng)數(shù)據(jù)僅關(guān)注語音-文本的單點轉(zhuǎn)寫,語音交互
    的頭像 發(fā)表于 09-11 17:17 ?748次閱讀

    發(fā)展趨勢下,云算力如何賦能智能駕駛技術(shù)躍遷?

    [首發(fā)于智駕最前沿微信公眾號]隨著智能駕駛輔助系統(tǒng)的發(fā)展,汽車行業(yè)正在從傳統(tǒng)模塊化架構(gòu)向(End-to-End,E2E)模型邁進。
    的頭像 發(fā)表于 09-08 09:16 ?943次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>發(fā)展趨勢下,云算力如何賦能智能駕駛技術(shù)躍遷?

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)自動駕駛系統(tǒng)中的模塊化結(jié)構(gòu),
    的頭像 發(fā)表于 07-04 16:50 ?895次閱讀
    為什么自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數(shù)據(jù)標(biāo)注方案在自動駕駛領(lǐng)域的應(yīng)用優(yōu)勢

    10-20TB,其中需要標(biāo)注的數(shù)據(jù)占比超過60%。在這樣的背景下,數(shù)據(jù)標(biāo)注方案應(yīng)運而生,正在重塑自動駕駛的
    的頭像 發(fā)表于 06-23 17:27 ?1024次閱讀

    Broadcom HEDS-9930 (E2/E2L) 評估板與AEDR_9930E2光學(xué)編碼器數(shù)據(jù)手冊

    Broadcom HEDS-9930 (E2/E2L) 評估板與AEDR_9930E2光學(xué)編碼器數(shù)據(jù)手冊
    的頭像 發(fā)表于 05-21 19:01 ?1078次閱讀
    Broadcom HEDS-9930 (<b class='flag-5'>E2</b>/<b class='flag-5'>E2</b>L) 評估板與AEDR_9930<b class='flag-5'>E2</b>光學(xué)編碼器<b class='flag-5'>數(shù)據(jù)</b>手冊

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)大模型轉(zhuǎn)變。傳統(tǒng)模塊化架構(gòu)將感知、預(yù)測、規(guī)劃和控制等子任務(wù)拆分開,分別由不
    的頭像 發(fā)表于 05-08 09:07 ?1043次閱讀
    一文帶你厘清自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    自動駕駛中基于規(guī)則的決策和大模型有何區(qū)別?

    在自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的大模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的
    的頭像 發(fā)表于 04-13 09:38 ?3747次閱讀
    自動駕駛中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有何區(qū)別?

    東風(fēng)汽車推出自動駕駛開源數(shù)據(jù)

    近日,智能網(wǎng)聯(lián)汽車智駕數(shù)據(jù)空間構(gòu)建研討會暨中汽協(xié)會智能網(wǎng)聯(lián)汽車分會、數(shù)據(jù)分會2024年度會議在上海舉辦。會上,東風(fēng)汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬組高質(zhì)量數(shù)據(jù)
    的頭像 發(fā)表于 04-01 14:54 ?1237次閱讀