91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

百度提出了一種基于學習的點云定位技術

ml8z_IV_Technol ? 來源:lq ? 2019-04-24 18:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

百度提出了一種基于學習的點云定位技術,該技術對傳統(tǒng)的定位方法進行拆解,使用深度學習網絡來取代傳統(tǒng)的各個環(huán)節(jié)和步驟。該方案是全球范圍內,業(yè)界首次通過使用直接作用于激光點云的深度學習網絡來解決自動駕駛的自定位問題。

作為人工智能最「硬核」的落地方向之一,自動駕駛在學術界和工業(yè)界引起了廣泛關注。自動駕駛的實現不僅將帶來汽車產品形態(tài)的根本性變化、顛覆傳統(tǒng)汽車技術體系和產業(yè)格局,還將引發(fā)消費者出行和生活方式、信息技術和通信方式、信息和交通基礎設施的變革。然而與高回報成正比的則是實現難度。完整的自動駕駛系統(tǒng)包含了自定位(Localization)、自動駕駛地圖(AD Map)、障礙物感知(Perception)、決策和規(guī)劃(Decision and Planning)、控制(Control)等模塊。

高精度自定位是實現自動駕駛的必要技術之一,目前主流的 L4 及 L5 級別的自動駕駛汽車高度依賴一套高精度、高可靠性、強場景適應能力的自定位系統(tǒng)。這套系統(tǒng)為自動駕駛系統(tǒng)提供了高精度厘米級的定位能力,配合上自動駕駛地圖,無人車就可以根據自身處于環(huán)境中的位置來讀取預存在地圖中的環(huán)境信息,這些預存在地圖里的數據包含了包括紅綠燈、人行橫道、車道線、道路邊界、停車位等各種無人車所需要的環(huán)境信息,借助這些信息,無人車巧妙地規(guī)避了需要實現一個高準確度的在線環(huán)境信息感知系統(tǒng)的難題,大幅降低無人車的技術難度,變不可能為可能。

同時,作為無人車的核心模塊之一,定位系統(tǒng)一旦出現問題,會造成無人車跑偏撞路肩等災難性事故。在此論文中,來自百度的技術專家們提出了一套全新的基于深度學習的激光點云自定位技術方案,實現了厘米級的定位精度,同時有著更好地對環(huán)境變化的適應能力。

鏈接:

https://songshiyu01.github.io/pdf/L3Net_W.Lu_Y.Zhou_S.Song_CVPR2019.pdf

為了驗證算法的有效性,同時百度計劃在 Apollo 平臺開放一組總計約 380km 的數據集,該數據集包含了制圖、訓練、測試三個子集,涵蓋了城市道路,園區(qū)內部道路以及高速等多種場景,地圖和測試集之間的最長時間跨度達一年。在該數據集上,百度驗證了其算法相對于傳統(tǒng)方法的優(yōu)勢。目前,該研究論文已被計算機視覺領域頂會 CVPR 2019 收錄。

引言

眾所周知,深度學習技術近年來在各個人工智能領域都取得了令人矚目的成績,戰(zhàn)勝人類圍棋冠軍棋手的 AlphaGo 更是令普通大眾都深刻感受到了 AI 技術突破帶來的威力。然而,我們同時發(fā)現深度學習目前可以良好解決的問題,主要集中在需要理解、分析、判斷等人類根據經驗定義的問題。

例如,在計算機視覺領域,深度學習在解決圖像分割、圖像分類、物體檢測等問題都取得了非常良好的效果。但是,對于另一大類重要的問題,例如和測量測距、三維重建等相關的幾何問題,雖有個別工作取得了一定進展,但總體來說深度學習尚未在相關領域取得決定性的突破。無人車自定位問題則是這類問題的一個典型代表,目前無論從高校到行業(yè)巨頭,各路玩家的無人車自定位技術也都還沒有成功應用深度學習技術的先例。然而,歷史的經驗告訴我們,一旦基于學習的技術在解決某個人工智能問題領域取得突破性的進展,這種技術演進的洪流通常會以勢不可擋之勢在各個性能指標維度迅速大幅超越傳統(tǒng)人工設計的算法,成為新的行業(yè)技術標準。

定位作為自動駕駛的基礎模塊之一直是研究的熱點問題,現有傳統(tǒng)的激光點云定位技術如圖 1 上半部分所示,其中包含包含了特征提取、特征匹配和時序優(yōu)化等模塊,整個算法的輸入包括實時在線激光點云,定位地圖以及來自慣性傳感器的初始預測的定位位置和姿態(tài),最后的輸出則是定位算法優(yōu)化之后的位姿結果。整體方案的思路和人類認路的方法其實是高度近似的,我們平時也是通過一些典型的地標建筑物等實現對自身位置的判斷。

不同的是,無人車的定位結果需要厘米級的位置精度以及亞角度級的姿態(tài)精度來保證無人車可準確地從自動駕駛地圖中提取必要的信息。盡管上述方案已經取得了當前最佳的定位效果,但是這類人工設計的算法進行特征提取和匹配時,對環(huán)境的變化非常敏感。在不斷動態(tài)變化的環(huán)境中無法最智能地捕捉環(huán)境中不變的信息(例如,地標、路牌等)從而實現對自身位置的高精度高魯棒性的估計,取決于環(huán)境變化的劇烈程度在實際應用中需要經常對定位地圖進行更新,這會帶來成本的上升。

百度提出的方案如圖 1 下半部分所示,通過將傳統(tǒng)方法中的各個流程使用不同類型的網絡結構來進行改造,實現了開創(chuàng)性的基于深度學習技術的無人車激光自定位技術:L3-Net。

圖 1 傳統(tǒng)方法與 L3-Net 技術流程對比,L3-Net 使用 PointNet 網絡實現特征提取,使用 3D CNNs 網絡進行特征匹配和優(yōu)化,最終使用 RNNs 網絡完成時序上的平滑。

根據論文內容,百度提出的技術方案的先進性集中體現在以下幾個方面:

提出了行業(yè)內首個基于深度學習的自動駕駛自定位技術解決方案,可以準確的估計車輛的位置和姿態(tài),取得了厘米級精度的定位效果。

使用不同的網絡結構拆解取代傳統(tǒng)激光點云定位的技術流程并將其串聯起來統(tǒng)一訓練,使網絡能夠以端到端的方式完成在線激光點云定位任務。

即將發(fā)布一組包含城市道路、園區(qū)道路、高速等復雜場景的全長 380km 的通用數據集用于同類算法測試,更進一步充實百度 Apollo 開放平臺的開放內容。

方法

百度提出的基于深度學習的激光定位系統(tǒng)需要一個預先建立的激光點云定位地圖、在線激光點云以及來慣性傳感器的預測位姿作為輸入。其中預建的激光點云定位地圖是通過離線制圖算法對多次采集的同一區(qū)域的點云數據進行融合,并使用點云識別算法剔除動態(tài)地物得到。在線點云是由自動駕駛車輛上安裝的激光雷達設備在行駛過程中采集獲得,而預測位姿則由上一幀定位結果加上慣性傳感器或者車輛運動模型估計的增量運動來進行遞推??偟膩碚f,這個定位框架通過最小化在線點云和地圖的匹配距離,優(yōu)化預測位姿從而獲得定位結果的。

一般來說,無人車需要定位模塊輸出六個自由度位姿,包括三個坐標軸(x, y, z)方向上的平移(?x,?y,?z)以及三個坐標軸上的旋轉(俯仰角,翻滾角和航向角),但是由于慣性傳感器通常可以提供相對準確的俯仰和翻滾角信息,而當(x,y)估計準確時,高程 z 通??梢詮牡貓D中獲取。因此,在目前主流的自定位系統(tǒng)設計中一般只估計 2D 水平平移(?x,?y)和航向角,L3-Net 也采取了類似的設計。

圖 2 百度提出的基于學習的激光自定位網絡架構 L3-Net。該網絡通過兩個階段進行訓練,第一階段訓練只包含了黑色箭頭部分,包括關鍵點選擇、特征提取以及基于 3D CNNs 的特征匹配;第二階段訓練包含了青色箭頭的部分,這一階段訓練包含了用于時序平滑的 RNNs 網絡。

具體來說,百度提出的 L3-Net 算法流程如圖 2 所示。對于每一幀在線點云,需要找到一系列的關鍵點,并以關鍵點為中心的收集局部點云塊從中提取特征描述子。關鍵點的提取需要同時考慮局部和全局的幾何結構關系。L3-Net 首先利用點云的密度找到了一些候選點。接著對每個候選點使用經典點云 3D 結構特征估計其線性和散亂性的概率,最終綜合考慮候選點之間的距離及其結構特性選取出關鍵點。對于每個關鍵點,該方法收集了其局部范圍內的點云信息,再通過 mini-PointNet 網絡結構得到特征描述子。其中 PointNet 是 2017 年 CVPR 收錄的直接作用于無序點云的深度學習網絡結構,L3-Net 這里使用的 mini-PointNet 是其簡化版本,由一個多層感知機(Multi-Layer Perceptron, MLP) 和一個 Max-Pooling 層組成,這也是直接作用于無序點云的網絡結構應用于高精度激光點云定位/匹配任務的首次嘗試。

在獲得了關鍵點的特征描述子后,需要對 2D 水平位置(?x,?y)和航向角結果進行求解,這等價于求解預測位姿和真值在水平位置和航向角上的偏移量。針對這個問題,L3-Net 采用了搜索的方法,對預測位姿為中心的(?x,?y,?yaw)三維狀態(tài)空間進行離散化,取其中一定范圍內的定位狀態(tài)構成集合。對于在線點云中的一個關鍵點,通過計算集合中每種定位狀態(tài)下在線點云與地圖的匹配效果可以獲得的 cost volume。接著使用 3D CNNs 對 cost volume 進行正則化操作,這樣做是為了抑制其中的異常值,提升匹配效果。正則化后,L3-Net 將所有關鍵點的 cost volume 相加并通過 softmax 層得到(?x,?y,?yaw)定位空間的 probability volume,進而估計出(?x,?y,?yaw)的定位結果。

在得到了每幀點云定位結果后,L3-Net 通過 LSTM 網絡對車輛的運動模型進行建模,利用定位的時序關系提升定位結果,實驗表明獲得了更加平滑和精確的定位結果。

圖 3 基于深度學習的 L3-Net 激光點云定位系統(tǒng)與其他系統(tǒng)對比的結果。

圖 4 L3-Net 定位網絡各階段輸出化的可視化效果。Cost Volume 欄中每一列表示一個關鍵點的匹配情況,其中每一行表示一種航向角狀態(tài),每個圖片表示水平位置的 cost 分布。在把所有關鍵點的 cost volume 合并到一起后,可以看到匹配響應顯著增強。最終估計的定位結果(0.538m, 0.993m, 1.001 度)和其對應的來自數據集的定位真值(0.524m, 0.994m, 1.044 度)在最右欄展示。

總結

針對自動駕駛中的自定位問題,百度提出了一套基于深度學習的激光點云自定位算法。百度使用不同類型的網絡結構對傳統(tǒng)方法中的各功能模塊進行替代,并在一個包含多種場景路況和大尺度時間跨度的數據集上驗證了算法效果,實現了厘米級的定位精度。該數據集包含了城市道路、園區(qū)道路和高速等多種富有挑戰(zhàn)的路況場景,數據總里程達 380km,即將在百度 Apollo 平臺開放。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 百度
    +關注

    關注

    9

    文章

    2377

    瀏覽量

    94934
  • 自動駕駛
    +關注

    關注

    794

    文章

    14890

    瀏覽量

    180018
  • 無人車
    +關注

    關注

    1

    文章

    319

    瀏覽量

    37730

原文標題:CVPR 2019 | 百度無人車實現全球首個基于深度學習的激光點云自定位技術

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    有方科技攜手百度智能重塑AI賦能新生態(tài)

    12月30日,由百度智能主辦的“智思享會:大模型重塑消費電子新體驗”行業(yè)研討會在深圳舉辦。本次大會匯聚了芯片、模組、方案商、大模型、品牌商、市場及渠道等全產業(yè)鏈的眾多企業(yè)代表與專家,共同探討大模型
    的頭像 發(fā)表于 01-08 11:00 ?376次閱讀

    百度世界大會亮點 五年五芯 百度宣布打造最硬AI

    自2006年以來,百度世界大會已連續(xù)舉辦近20屆,百度世界大會是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級別盛事,作為百度年度最重要的的戰(zhàn)略、
    的頭像 發(fā)表于 11-13 15:47 ?1639次閱讀

    百度世界2025進行中 百度昆侖芯超節(jié)點亮相 性能巨幅提升

    百度世界大會是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級別盛事,作為百度年度最重要的的戰(zhàn)略、技術、產品發(fā)布會,自2006年以來已連續(xù)舉辦19年,持續(xù)為行業(yè)搭建起交流前沿
    的頭像 發(fā)表于 11-13 11:51 ?1262次閱讀

    光庭信息成為百度智能大模型行業(yè)合伙人

    8月28日-30日,以“智能,生成無限可能”為主題的百度智大會在北京舉辦。數千位行業(yè)領袖、技術專家與企業(yè)代表齊聚堂,共同見證人工智能從技術
    的頭像 發(fā)表于 09-02 16:17 ?842次閱讀

    昆侖芯科技亮相2025百度智大會

    近日,2025百度智大會在北京國家會議中心二期隆重啟幕。本屆大會以“智能,生成無限可能”為主題,聚焦人工智能從技術到產業(yè)的全鏈條落地,深入探討AI賦能千行業(yè)的實踐路徑與未來機遇。
    的頭像 發(fā)表于 09-01 11:00 ?1303次閱讀

    百度智能全面升級舸5.0和千帆4.0

    大會上,百度智能全面升級舸AI計算平臺5.0、千帆企業(yè)級AI開發(fā)平臺4.0兩大AI基礎設施,幫助企業(yè)以更低成本、更高效率部署和開發(fā)AI產品。
    的頭像 發(fā)表于 08-30 09:18 ?1794次閱讀

    百度智能亮相第二十二屆ChinaJoy

    百度智能亮相第二十二屆ChinaJoy 8月1日,第二十二屆中國國際數碼互動娛樂展覽會(ChinaJoy)在上海開幕。大會期間,百度全景展示了百度智能
    的頭像 發(fā)表于 08-05 09:47 ?815次閱讀

    歐洲央行行長行到訪百度Apollo Park

    近日,拉加德行到訪位于北京亦莊(經濟技術開發(fā)區(qū))的百度Apollo Park,與百度Jackson等人交流自動駕駛、AI發(fā)展等話題,并在亦莊東環(huán)南路、宏達南路等公開道路上,試乘了蘿卜
    的頭像 發(fā)表于 06-18 15:44 ?859次閱讀

    65%央企大模型落地首選百度智能

    今天,很榮幸地分享個好消息,百度智能已牽手65%的央企,共同推進大模型產業(yè)落地。得益于全棧的AI能力,百度聯合眾多央國企伙伴,針對各類不同業(yè)務場景,打造了
    的頭像 發(fā)表于 06-11 15:44 ?906次閱讀

    百度地圖重磅發(fā)布地圖AI開放平臺

    近日,在WGDC25全球時空智能大會上,百度地圖重磅發(fā)布地圖AI開放平臺。百度地圖深耕20年的數據能力、引擎能力與AI技術全面開放,向開發(fā)者深度開放四大核心能力和五大場景解決方案。
    的頭像 發(fā)表于 05-26 11:26 ?1776次閱讀

    百度發(fā)布2025年Q1財報 蘿卜快跑季度全球訂單超140萬

    今天5月21日,百度發(fā)布了2025年Q1業(yè)績。?百度在2025年季度總營收達到325億元,百度核心收入255億元,同比增長7%。歸屬百度
    的頭像 發(fā)表于 05-21 18:17 ?2754次閱讀
    <b class='flag-5'>百度</b>發(fā)布2025年Q1財報 蘿卜快跑<b class='flag-5'>一</b>季度全球訂單超140萬

    百度智能兩大基礎設施再升級

    近日,在Create2025百度AI開發(fā)者大會上,沈抖分享了百度智能在智能基礎設施建設方面的最新成果,并在算力、模型及應用等方面發(fā)布系列全新產品。
    的頭像 發(fā)表于 04-30 10:20 ?1088次閱讀

    百度在AI領域的最新進展

    近日,我們在武漢舉辦了Create2025百度AI開發(fā)者大會,與全球各地的5000多名開發(fā)者,分享了百度在AI領域的新進展。
    的頭像 發(fā)表于 04-30 10:14 ?1347次閱讀

    上汽大眾與百度地圖達成戰(zhàn)略合作

    近日,上海國際車展期間,百度地圖與上汽大眾舉行科技X生態(tài)戰(zhàn)略合作伙伴簽約儀式,雙方將基于百度領先的車道級地圖產品,為上汽大眾千萬車主打造更安全、高效的智能化出行體驗。上汽大眾總經理陶海龍、百度副總裁尚國斌等出席簽約儀式。
    的頭像 發(fā)表于 04-29 17:28 ?1246次閱讀

    格靈深瞳與百度智能達成戰(zhàn)略合作,共筑AI算力新基建

    力底座,推動政務、金融、公共安全等領域的智能化升級。 百度智能泛科技業(yè)務部總經理張瑋,格靈深瞳銷售副總裁蘆斌代表雙方簽約,百度集團執(zhí)行副總裁、百度智能
    的頭像 發(fā)表于 04-27 10:20 ?1368次閱讀