91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA DRIVETMPX自動駕駛汽車的端到端學習

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-02 11:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在一個新的汽車應用程序中,我們使用了 卷積神經(jīng)網(wǎng)絡(luò) ( CNNs )來映射從前置攝像頭到自動駕駛汽車的轉(zhuǎn)向命令的原始像素。這種強大的端到端方法意味著,只要從人類那里獲得最少的訓練數(shù)據(jù),系統(tǒng)就可以學會在當?shù)氐缆泛透咚俟飞鲜褂没虿皇褂密嚨罉司€進行轉(zhuǎn)向。該系統(tǒng)還可以在視覺引導不清晰的區(qū)域運行,如停車場或未鋪路面的道路。

我們設(shè)計了一個端到端的學習系統(tǒng),使用 NVIDIA 開發(fā)箱 運行的 Torch 7 進行培訓。安NVIDIA DRIVETMPX自動駕駛汽車電腦,也與 Torch 7,是用來確定在哪里駕駛時,以 30 幀每秒( FPS )。該系統(tǒng)訓練成僅以人的轉(zhuǎn)向角為訓練信號,自動學習必要處理步驟的內(nèi)部表示,例如檢測有用的道路特征。我們從來沒有明確地訓練它去探測,例如,道路的輪廓。與使用顯式分解問題的方法(如車道標記檢測、路徑規(guī)劃和控制)相比,我們的端到端系統(tǒng)同時優(yōu)化所有處理步驟。

我們相信端到端的學習可以帶來更好的性能和更小的系統(tǒng)。更好的性能結(jié)果是因為內(nèi)部組件自我優(yōu)化來實現(xiàn)最大化系統(tǒng)性能,而不是優(yōu)化人為選擇的中間標準,例如車道檢測??梢岳斫獾氖?,選擇這樣的標準是為了便于人理解,而這并不能自動保證最大的系統(tǒng)性能。更小的網(wǎng)絡(luò)是可能的,因為系統(tǒng)學會用最少的處理步驟來解決問題。

用卷積神經(jīng)網(wǎng)絡(luò)處理視覺數(shù)據(jù)

CNNs使計算模式識別過程發(fā)生了革命性的變化 ,在 CNNs 被廣泛采用之前,大多數(shù)模式識別任務都是在最初階段使用手工制作的特征提取和分類器來完成的。 CNNs 的一個重要突破是特征可以從訓練樣本中自動學習。 CNN 方法在應用于圖像識別任務時特別強大,因為卷積運算捕捉圖像的 2D 特性。通過使用卷積核來掃描整個圖像,與操作總數(shù)相比,需要學習的參數(shù)相對較少。

而具有學習特性的 cnn 已經(jīng)在商業(yè)上使用了二十多年近年來,由于兩個重要的發(fā)展,它們的采用呈爆炸式增長。首先,像 ImageNet 大規(guī)模視覺識別挑戰(zhàn)( ILSVRC ) 這樣的大型標記數(shù)據(jù)集現(xiàn)在已經(jīng)廣泛用于培訓和驗證。第二, CNN 學習算法現(xiàn)在在大規(guī)模并行圖形處理單元( GPUs )上實現(xiàn),極大地提高了學習和推理能力。

我們在這里描述的 cnn 超越了基本的模式識別。我們開發(fā)了一個系統(tǒng)來學習駕駛汽車所需的整個處理流程。這個項目的基礎(chǔ)工作實際上是在 10 年前國防高級研究計劃局( DARPA )的苗木項目中完成的,這個項目被稱為 DARPA 自動車輛( DAVE ),在這個項目中,一輛小規(guī)模無線電控制( RC )車開過一條垃圾堆滿的小巷。戴夫接受的訓練是在相似但不完全相同的環(huán)境中駕駛?cè)说臅r間。訓練數(shù)據(jù)包括來自兩臺攝像機的視頻和一名操作員發(fā)出的轉(zhuǎn)向指令。

在很多方面,戴夫受到了波默洛的開創(chuàng)性工作的啟發(fā)他于 1989 年在一個神經(jīng)網(wǎng)絡(luò)( ALVINN )系統(tǒng)中制造了自動陸地車輛。 ALVINN 是 DAVE 的先驅(qū),它提供了一個概念的初步證明,即有一天,一個端到端訓練的神經(jīng)網(wǎng)絡(luò) MIG ht 能夠在公共道路上駕駛汽車。 DAVE 展示了端到端學習的潛力,并確實被用來證明啟動 DARPA 學習應用于地面機器人( LAGR )項目 ,但是戴夫的表現(xiàn)不夠可靠,不足以提供一個完整的替代方案,更模塊化的越野駕駛方法。( DAVE 在復雜環(huán)境中的平均相撞距離約為 20 米。)

大約一年前,我們開始了一項新的工作來改進原來的 DAVE ,并創(chuàng)建了一個在公共道路上行駛的強大系統(tǒng)。這項工作的主要動機是避免需要識別特定的人類指定特征,如車道標記、護欄或其他汽車,并避免創(chuàng)建“如果,那么,“ else ”規(guī)則,基于對這些特征的觀察。我們很高興與大家分享這項新工作的初步成果,這項工作的名稱很恰當: DAVE – 2 。

DAVE-2 系統(tǒng)

圖 2 顯示了 DAVE-2 訓練數(shù)據(jù)采集系統(tǒng)的簡化框圖。三個攝像頭安裝在數(shù)據(jù)采集車的擋風玻璃后面,攝像頭的時間戳視頻與駕駛員施加的轉(zhuǎn)向角同時捕獲。通過接入車輛控制器局域網(wǎng)( CAN )總線獲得轉(zhuǎn)向指令。為了使我們的系統(tǒng)獨立于車輛的幾何結(jié)構(gòu),我們將轉(zhuǎn)向命令表示為 1 / r ,其中 r 是轉(zhuǎn)彎半徑,單位為米。我們使用 1 / r 而不是 r 來防止直線行駛時出現(xiàn)奇點(直線行駛的轉(zhuǎn)彎半徑是無窮大)。 1 / r 從左轉(zhuǎn)彎(負值)平穩(wěn)過渡到右轉(zhuǎn)彎(正值)。

data-collection-system-624x411.png

圖 2 :數(shù)據(jù)收集系統(tǒng)的高級視圖。

訓練數(shù)據(jù)包含從視頻中采樣的單個圖像,與相應的轉(zhuǎn)向指令( 1 / r )配對。僅僅使用人類駕駛員的數(shù)據(jù)進行培訓是不夠的;網(wǎng)絡(luò)還必須學會如何從任何錯誤中恢復,否則汽車將慢慢偏離道路。因此,訓練數(shù)據(jù)被附加的圖像增強,這些圖像顯示了汽車從車道中心的不同位移和從道路方向的旋轉(zhuǎn)。

兩個特定的偏離中心偏移的圖像可以從左右攝像機獲得。通過對來自最近攝像機的圖像進行視點變換,模擬攝像機之間的附加位移和所有旋轉(zhuǎn)。精確的視點變換需要我們沒有的三維場景知識,所以我們假設(shè)地平線以下的所有點都在平地上,地平線以上的所有點都是無限遠的,來近似地進行變換。對于平坦的地形,這很好,但是對于更完整的渲染,它會對粘在地面上的對象(如汽車、電線桿、樹木和建筑物)引入扭曲。幸運的是,這些扭曲并沒有給網(wǎng)絡(luò)培訓帶來重大問題。變換后的圖像的轉(zhuǎn)向標簽會快速調(diào)整為在兩秒鐘內(nèi)將車輛正確地轉(zhuǎn)向到所需的位置和方向。

圖 3 顯示了我們的培訓系統(tǒng)的框圖。圖像被輸入 CNN ,然后由 CNN 計算出建議的轉(zhuǎn)向指令。將提出的命令與該圖像的所需命令進行比較,并調(diào)整 CNN 的權(quán)重以使 CNN 輸出更接近所需的輸出。重量調(diào)整是通過在 Torch 7 機器學習包中實現(xiàn)的反向傳播來完成的。

poYBAGJHxnyAIFb3AADebfYlxGw665.png

圖 3 :訓練神經(jīng)網(wǎng)絡(luò)。

一旦經(jīng)過訓練,網(wǎng)絡(luò)就能夠從單中心攝像機的視頻圖像中生成轉(zhuǎn)向指令。圖 4 顯示了這個配置。

inference-624x132.png

圖 4 :訓練后的網(wǎng)絡(luò)用于從單個前置中心攝像頭生成轉(zhuǎn)向命令。

數(shù)據(jù)收集

培訓數(shù)據(jù)是通過在各種各樣的道路上以及在不同的照明和天氣條件下駕駛來收集的。我們收集了來自新澤西州,伊利諾伊州和新澤西州的數(shù)據(jù)。其他道路類型包括雙車道道路(帶和不帶車道標線)、有停車場的住宅道路、隧道和未鋪面道路。數(shù)據(jù)收集在晴朗,多云,霧,雪和雨的天氣,白天和晚上。在某些情況下,太陽在天空中很低,導致眩光從路面反射并從擋風玻璃上散射。

這些數(shù)據(jù)是通過我們的線控測試車( 2016 款林肯 MKZ )或 2013 款福特??怂梗?Ford Focus )獲得的,該車的攝像頭位置與林肯車相似。我們的系統(tǒng)不依賴于任何特定的車輛品牌或型號。司機們被鼓勵保持全神貫注,但在其他方面,他們通常會這樣開車。截至 2016 年 3 月 28 日,收集了大約 72 小時的駕駛數(shù)據(jù)。

網(wǎng)絡(luò)體系結(jié)構(gòu)

我們訓練網(wǎng)絡(luò)的權(quán)值,以使網(wǎng)絡(luò)輸出的轉(zhuǎn)向命令與人類駕駛員的指令或偏離中心和旋轉(zhuǎn)圖像的調(diào)整后的轉(zhuǎn)向指令之間的均方誤差最小化(見后面的“增強”)。圖 5 顯示了網(wǎng)絡(luò)體系結(jié)構(gòu),它由 9 個層組成,包括一個規(guī)范化層、 5 個卷積層和 3 個完全連接的層。將輸入的圖像分割成 YUV 。

cnn-architecture-624x890.png

圖 5 : CNN 架構(gòu)。這個網(wǎng)絡(luò)有大約 2700 萬個連接和 25 萬個參數(shù)。

網(wǎng)絡(luò)的第一層執(zhí)行圖像標準化。規(guī)范化器是硬編碼的,在學習過程中不會進行調(diào)整。在網(wǎng)絡(luò)中執(zhí)行規(guī)范化允許標準化方案隨網(wǎng)絡(luò)架構(gòu)改變,并通過 GPU 處理加速。

卷積層的設(shè)計是為了進行特征提取,并通過一系列不同層結(jié)構(gòu)的實驗進行經(jīng)驗選擇。然后,我們在前三個卷積層中使用跨步卷積,步長為 2 × 2 ,核為 5 × 5 ,最后兩個卷積層使用核大小為 3 × 3 的非跨步卷積。

我們跟隨五個卷積層和三個完全連接的層,得到最終的輸出控制值,即反向轉(zhuǎn)彎半徑。完全連接的層被設(shè)計成一個控制器來控制方向,但是我們注意到,通過端到端的訓練系統(tǒng),不可能在網(wǎng)絡(luò)的哪些部分主要作為特征提取器,哪些部分作為控制器起作用。

培訓詳情

數(shù)據(jù)選擇

訓練 神經(jīng)網(wǎng)絡(luò) 的第一步是選擇要使用的幀。我們收集的數(shù)據(jù)被標記為道路類型、天氣狀況和駕駛員的活動(停留在車道上、切換車道、轉(zhuǎn)彎等)。為了訓練 CNN 進行車道跟蹤,我們只需選擇駕駛員停留在車道上的數(shù)據(jù),然后丟棄其余數(shù)據(jù)。然后,我們以 10 FPS 的速度對視頻進行采樣,因為更高的采樣率將包含高度相似的圖像,因此不會提供太多額外的有用信息。為了消除對直線行駛的偏見,訓練數(shù)據(jù)中包含了更高比例的表示道路曲線的幀。

增強

在選擇最后一組幀后,我們通過添加人工移動和旋轉(zhuǎn)來增加數(shù)據(jù),以教網(wǎng)絡(luò)如何從不良位置或方向恢復。這些擾動的大小是從正態(tài)分布中隨機選取的。分布的平均值為零,標準差是我們用人類駕駛員測量的標準差的兩倍。隨著震級的增加,人為地增加數(shù)據(jù)確實會增加不需要的偽影(如前所述)。

仿真

在對經(jīng)過訓練的 CNN 進行道路測試之前,我們首先在仿真中評估網(wǎng)絡(luò)的性能。圖 6 顯示了仿真系統(tǒng)的簡化框圖,圖 7 顯示了交互模式下模擬器的屏幕截圖。

simulator-624x218.png

圖 6 :駕駛模擬器框圖。

這個模擬器從一個連接到人類駕駛的數(shù)據(jù)采集車的前向車載攝像頭上獲取預先錄制的視頻,生成的圖像與 CNN 轉(zhuǎn)向車輛時的圖像大致相同。這些測試視頻與人類駕駛員生成的錄制的轉(zhuǎn)向指令時間同步。

由于人類駕駛員不是一直在車道中心行駛,我們必須手動校準車道中心,因為它與模擬器使用的視頻中的每個幀相關(guān)。我們稱這一立場為“基本事實”。

模擬器對原始圖像進行變換,以解釋與地面真實情況的偏差。請注意,這種轉(zhuǎn)換也包括了人類驅(qū)動的路徑和基本真相之間的任何差異。轉(zhuǎn)換是通過與前面描述的相同的方法完成的。

模擬器訪問錄制的測試視頻以及捕獲視頻時發(fā)生的同步轉(zhuǎn)向命令。模擬器將所選測試視頻的第一幀發(fā)送到經(jīng)過訓練的 CNN 的輸入,該視頻根據(jù)地面真相的任何偏離進行調(diào)整,然后返回該幀的轉(zhuǎn)向命令。 CNN 轉(zhuǎn)向命令和記錄的人 – 駕駛員指令被輸入車輛的動態(tài)模型[7],以更新模擬車輛的位置和方向。

simulator-roberts-624x294.png

圖 7 :交互模式下模擬器的屏幕截圖。有關(guān)性能指標的說明,請參閱文本。由于視點變換,左側(cè)的綠色區(qū)域未知。地平線下突出顯示的寬矩形是發(fā)送給 CNN 的區(qū)域。

模擬器然后修改測試視頻中的下一幀,使圖像看起來像是車輛在遵循 CNN 的轉(zhuǎn)向命令而產(chǎn)生的位置。這個新的圖像然后被傳送到 CNN 并且這個過程重復。

模擬器記錄偏離中心的距離(從汽車到車道中心的距離)、偏航和虛擬汽車行駛的距離。當偏離中心距離超過 1 米時,將觸發(fā)虛擬人干預,并重置虛擬車輛的位置和方向,以匹配原始測試視頻對應幀的地面真實情況。

評價

我們通過兩個步驟來評估我們的網(wǎng)絡(luò):首先在模擬中,然后在道路測試中。

在模擬中,我們的網(wǎng)絡(luò)在模擬器中提供了一組預先記錄的測試路線的指導命令,這些線路對應于新澤西州蒙茅斯縣大約 3 小時 100 英里的行駛。測試數(shù)據(jù)是在不同的照明和天氣條件下采集的,包括公路、當?shù)氐缆泛途用窠帧?/p>

我們通過計算模擬車輛偏離中心線超過 1 米時發(fā)生的模擬人類干預,來估計網(wǎng)絡(luò)能夠驅(qū)動汽車的時間百分比(自主)。我們假設(shè),在現(xiàn)實生活中,實際干預總共需要 6 秒:這是人類重新控制車輛、重新居中,然后重新啟動自動轉(zhuǎn)向模式所需的時間。我們通過計算干預次數(shù),乘以 6 秒,除以模擬測試的運行時間,然后從 1 減去結(jié)果來計算自主性百分比:

latex.php?latex=%5Ctext%7Bautonomy%7D+%3D+%281+-+%5Cfrac%7B%5Ctext%7B%5C%23+of+interventions%7D+%5Ccdot+6+%5Ctext%7B%5Bseconds%5D%7D%7D%7B%5Ctext%7Belapsed+time%5Bseconds%5D%7D%7D%29+%5Ccdot+100&bg=ffffff&fg=000&s=0&c=20201002

因此,如果我們在 600 秒內(nèi)進行 10 次干預,我們的自主性值將為

latex.php?latex=%281+-+%5Cfrac%7B10+%5Ccdot+6%7D%7B600%7D%29+%5Ccdot+100+%3D+90%5C%25&bg=ffffff&fg=000&s=0&c=20201002

道路試驗

經(jīng)過訓練的網(wǎng)絡(luò)在模擬器中表現(xiàn)出良好的性能后,網(wǎng)絡(luò)被加載到我們的測試車的驅(qū)動器 PX 上,并被帶出進行道路測試。在這些測試中,我們用汽車自動轉(zhuǎn)向的時間來衡量性能。此時間不包括從一條道路到另一條道路的車道變更和轉(zhuǎn)彎。在新澤西州蒙茅斯縣,從我們在霍爾姆德爾的辦公室到大西洋高地的典型駕車旅行,我們大約 98% 的時間是自治的。我們還在花園州公園大道上行駛了 10 英里(一條有進出口匝道的多車道分車道高速公路),沒有攔截。

以下是我們的測試車在不同條件下駕駛的視頻。

CNN 內(nèi)部狀態(tài)的可視化

pYYBAGJHxqiAMzFeAAJ8Efk1H0E271.png

圖 8 : CNN 如何“看到”一條未鋪砌的道路。頂部:發(fā)送到 CNN 的攝像機圖像的子集。左下:激活第一層要素地圖。右下:激活第二層要素地圖。這表明 CNN 學會了自己檢測有用的道路特征,即僅以人的轉(zhuǎn)向角作為訓練信號。我們從來沒有明確訓練過它去探測道路的輪廓。

圖 8 和圖 9 顯示了兩個不同示例輸入的前兩個要素地圖層的激活,即未鋪砌的道路和森林。對于未鋪筑的道路,特征地圖激活可以清楚地顯示道路的輪廓,而對于森林,特征地圖包含的大部分是噪音,即 CNN 在該圖像中找不到有用的信息。

這表明 CNN 學會了自己檢測有用的道路特征,即僅以人的轉(zhuǎn)向角作為訓練信號。例如,我們從來沒有明確訓練過它來檢測道路的輪廓。

feature-maps-woods.png

圖 9 :沒有道路的示例圖像。前兩個特征地圖的激活似乎主要包含噪音,也就是說, CNN 在這張圖片中沒有識別出任何有用的特征。

結(jié)論

我們已經(jīng)通過經(jīng)驗證明, cnn 能夠?qū)W習車道和道路跟隨的整個任務,而無需手動分解為道路或車道標記檢測、語義抽象、路徑規(guī)劃和控制。從不到一百小時的駕駛中獲得的少量培訓數(shù)據(jù)就足以訓練汽車在不同的條件下運行,在高速公路、當?shù)睾途用竦缆飞?,在晴天、多云和下雨的條件下。 CNN 能夠從非常稀疏的訓練信號(單獨轉(zhuǎn)向)中學習有意義的道路特征。

例如,該系統(tǒng)學習如何檢測道路輪廓,而不需要在訓練過程中使用明確的標簽。

為了提高網(wǎng)絡(luò)的魯棒性,尋找驗證魯棒性的方法,提高網(wǎng)絡(luò)內(nèi)部處理步驟的可視化程度,還需要做更多的工作。

關(guān)于作者

Mariusz Bojarski 博士于 2009 年獲得華沙理工大學電子與計算機工程碩士學位。他在電池管理系統(tǒng)、移動機器人電池充電器、移動自動化和測量以及 ele CTR ic 車輛無線充電系統(tǒng)的開發(fā)方面有著廣泛的職業(yè)生涯。 2015 年 12 月, Mariusz 加入 NVIDIA ,擔任深度學習研發(fā)工程師,致力于自主駕駛技術(shù)。

Ben Firner 博士畢業(yè)于羅格斯大學無線信息網(wǎng)絡(luò)實驗室( WINLAB ),他在那里研究一種無線協(xié)議,允許小型無線傳感器在幣形電池上運行 10 年以上。在加入 NVIDIA 之前,他與一家初創(chuàng)公司合作,利用這些傳感器為實驗動物護理市場創(chuàng)建實時監(jiān)控系統(tǒng)。 Ben 目前正與 NVIDIA 自主駕駛團隊的其他成員合作,創(chuàng)建接近人類水平駕駛能力的神經(jīng)網(wǎng)絡(luò),最終目標是使駕駛更安全、壓力更小。

Beat Flepp 是 NVIDIA 自主駕駛團隊的高級開發(fā)技術(shù)工程師,負責設(shè)計、實施、測試和維護硬件和軟件基礎(chǔ)設(shè)施的許多方面,以便在各種 NVIDIA 嵌入式系統(tǒng)上訓練和運行用于自主駕駛的神經(jīng)網(wǎng)絡(luò)模型。貝特于 1999 年獲得瑞士聯(lián)邦理工學院電氣工程博士學位。

Larry Jackel 是 North-C Technologies 的總裁,在那里他從事專業(yè)咨詢。他曾擔任國防高級研究計劃局( DARPA )項目經(jīng)理,管理網(wǎng)絡(luò)文件存儲項目,并與自主地面機器人導航和移動工作。杰克爾擁有康奈爾大學實驗物理學博士學位,論文主題是超導電子 CTR 。

Urs Muller 是新澤西州 NVIDIA 汽車公司的開發(fā)技術(shù)總監(jiān)和首席軟件架構(gòu)師。他的工作重點是使用 NVIDIA Tegra 平臺開發(fā)自動車輛的端到端解決方案,他在機器人技術(shù)、計算機視覺、機器學習和高性能計算方面擁有 20 多年的經(jīng)驗。他收到了博士 1993 年獲瑞士聯(lián)邦理工學院電子工程與計算機科學專業(yè)。

Karol Zieba 最近在佛蒙特大學完成了計算機科學碩士學位。在 NVIDIA 上,卡羅爾擴展了自動駕駛車輛的學習方式??_爾喜歡舉重、棋盤游戲,并探索機器學習、復雜網(wǎng)絡(luò)和具體認知方面的最新研究。Davide Del Testa 是 NVIDIA 汽車解決方案架構(gòu)師團隊的成員,他支持客戶構(gòu)建基于 NVIDIA 驅(qū)動平臺的自主駕駛架構(gòu)。在此之前,他是 NVIDIA 的深度學習研究實習生,在那里他應用深度學習技術(shù)開發(fā) BB8 , NVIDIA 的研究工具。 Davide 擁有應用于電信的機器學習博士學位,他在網(wǎng)絡(luò)優(yōu)化和信號處理領(lǐng)域采用了學習技術(shù)。他在意大利帕多瓦大學獲得電信工程碩士學位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 控制器
    +關(guān)注

    關(guān)注

    114

    文章

    17805

    瀏覽量

    193771
  • 汽車電子
    +關(guān)注

    關(guān)注

    3045

    文章

    8975

    瀏覽量

    172897
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107891
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么一段式自動駕駛很難落地?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)在過去十年中經(jīng)歷了從基礎(chǔ)輔助駕駛高度自動化系統(tǒng)的快速演進。在這一進程中,技術(shù)架構(gòu)的選擇始終是決定行業(yè)走向的核心命題。傳統(tǒng)的
    的頭像 發(fā)表于 03-08 09:44 ?1659次閱讀
    為什么一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>很難落地?

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度
    的頭像 發(fā)表于 02-20 09:25 ?9336次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?

    如何訓練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓練的?是模仿學習、強化學習和離線強化
    的頭像 發(fā)表于 12-08 16:31 ?1471次閱讀
    如何訓練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領(lǐng)域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1733次閱讀

    自動駕駛中常提的一段式(單段)是個啥?

    自動駕駛技術(shù)的發(fā)展,催生出技術(shù)的應用,一段式
    的頭像 發(fā)表于 10-18 10:16 ?1722次閱讀

    西井科技自動駕駛模型獲得國際認可

    近日,西井科技AI創(chuàng)研團隊在國際權(quán)威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕駛模型,以綜合得分48.759的成績
    的頭像 發(fā)表于 10-15 17:20 ?1298次閱讀

    一文讀懂特斯拉自動駕駛FSD從輔助的演進

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛行業(yè)發(fā)展至今,特斯拉一直被很多企業(yè)對標,其FSD系統(tǒng)的每一次更新,都會獲得非常多人的關(guān)注。早期自動駕駛是一個分層的、由多模塊組成的系統(tǒng),感知、定位、預測、規(guī)劃
    的頭像 發(fā)表于 10-11 09:13 ?835次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進

    自動駕駛大模型為什么會有不確定性?

    。為了能讓自動駕駛汽車做出正確、安全且符合邏輯的行駛動作,大模型被提了出來。
    的頭像 發(fā)表于 09-28 09:20 ?897次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型為什么會有不確定性?

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔,再通過預定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達、激光雷達等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?864次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1837次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應用的熱門方向。相較于傳統(tǒng)自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?903次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數(shù)據(jù)標注方案在自動駕駛領(lǐng)域的應用優(yōu)勢

    10-20TB,其中需要標注的數(shù)據(jù)占比超過60%。在這樣的背景下,數(shù)據(jù)標注方案應運而生,正在重塑自動駕駛的數(shù)據(jù)生產(chǎn)范式。
    的頭像 發(fā)表于 06-23 17:27 ?1043次閱讀

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)
    的頭像 發(fā)表于 05-08 09:07 ?1060次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    東風汽車推出自動駕駛開源數(shù)據(jù)集

    近日,智能網(wǎng)聯(lián)汽車智駕數(shù)據(jù)空間構(gòu)建研討會暨中汽協(xié)會智能網(wǎng)聯(lián)汽車分會、數(shù)據(jù)分會2024年度會議在上海舉辦。會上,東風汽車發(fā)布行業(yè)規(guī)模最大、涵蓋125萬組高質(zhì)量數(shù)據(jù)的
    的頭像 發(fā)表于 04-01 14:54 ?1249次閱讀

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    NVIDIA 整合了從云端的安全自動駕駛開發(fā)技術(shù)套件,涵蓋車輛架構(gòu) AI 模型,包括芯片、軟件、工具和服務。 物理 AI 正在為
    的頭像 發(fā)表于 03-25 14:51 ?1197次閱讀