91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新的深度學(xué)習(xí)研究打破了自動駕駛汽車圖像識別能力的記錄

倩倩 ? 來源:新經(jīng)網(wǎng) ? 2020-07-07 17:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人,自行車,汽車或道路,天空,草地:圖像的哪些像素代表無人駕駛汽車前的不同前景人物或物體,哪些像素代表背景類別?這項(xiàng)稱為全景分割的任務(wù)是一個基本問題,已在許多領(lǐng)域中應(yīng)用,例如自動駕駛汽車,機(jī)器人技術(shù),增強(qiáng)現(xiàn)實(shí),甚至在生物醫(yī)學(xué)圖像分析中。在弗萊堡大學(xué)計算機(jī)科學(xué)系,Abhinav Valada博士是機(jī)器人學(xué)習(xí)的助理教授,也是BrainLinks-BrainTools的成員,他專注于這個研究問題。Valada和他的團(tuán)隊(duì)開發(fā)了最先進(jìn)的“ EfficientPS”人工智能(AI)模型,該模型可以更快,更有效地對視覺場景進(jìn)行連貫識別。

這項(xiàng)任務(wù)通常使用稱為深度學(xué)習(xí)機(jī)器學(xué)習(xí)技術(shù)來解決,其中人工神經(jīng)網(wǎng)絡(luò)弗賴堡研究人員解釋說,它們是從人腦中汲取靈感,從大量數(shù)據(jù)中學(xué)習(xí)。諸如Cityscapes之類的公共基準(zhǔn)在衡量這些技術(shù)的進(jìn)步方面起著重要作用。Valada團(tuán)隊(duì)的成員Rohit Mohan說:“多年來,來自Google或Uber的研究團(tuán)隊(duì)一直在這些基準(zhǔn)測試中爭奪榜首?!?來自弗萊堡(Freiburg)的計算機(jī)科學(xué)家的方法已被開發(fā)出來,用于理解城市的城市場景,在“城市景觀”(Cityscapes)中排名第一,Cityscapes是最有影響力的自動駕駛場景理解研究的排行榜。EfficientPS還始終在其他標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集(例如KITTI,Mapillary Vistas和IDD)上設(shè)置新的最新技術(shù)。

在項(xiàng)目網(wǎng)站上,Valada展示了團(tuán)隊(duì)如何在各種數(shù)據(jù)集上訓(xùn)練不同AI模型的示例。結(jié)果疊加在相應(yīng)的輸入圖像上,其中顏色顯示模型將像素分配給的對象類別。例如,汽車標(biāo)記為藍(lán)色,人物標(biāo)記為紅色,樹木標(biāo)記為綠色,建筑物標(biāo)記為灰色。此外,AI模型還在每個被視為獨(dú)立實(shí)體的對象周圍繪制邊框。弗萊堡大學(xué)的研究人員成功地訓(xùn)練了該模型,以將所學(xué)的城市場景信息從斯圖加特轉(zhuǎn)移到紐約市。盡管AI模型不知道美國的城市長什么樣,但它能夠準(zhǔn)確識別紐約市的場景。

Valada解釋說,以前解決該問題的大多數(shù)方法都具有較大的模型尺寸,并且在實(shí)際應(yīng)用中(例如受資源嚴(yán)重限制的機(jī)器人技術(shù))在計算上非常昂貴,“我們的EfficientPS不僅可以實(shí)現(xiàn)最新的性能,而且這也是計算效率最高,最快的方法。這進(jìn)一步擴(kuò)展了可以使用EfficientPS的應(yīng)用程序?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動駕駛端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,端到端(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)到車輛實(shí)際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模塊化自動駕駛系統(tǒng)不一樣,模塊化
    的頭像 發(fā)表于 02-20 09:25 ?9338次閱讀
    <b class='flag-5'>自動駕駛</b>端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    如何構(gòu)建適合自動駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號]世界模型經(jīng)歷了系統(tǒng)動力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動駕駛汽車
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動駕駛</b>的世界模型?

    自動駕駛中常提的“深度估計”是個啥?

    ,為了能更好地辨別路況,也需要類似的能力。 什么是深度估計? 自動駕駛汽車必須理解環(huán)境中物體距離它有多遠(yuǎn),需要能快速辨別前面是行人還是車?那個車到底是在十米開外還是一兩百米遠(yuǎn)?
    的頭像 發(fā)表于 02-16 13:18 ?1.7w次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“<b class='flag-5'>深度</b>估計”是個啥?

    自動駕駛汽車如何實(shí)現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛
    的頭像 發(fā)表于 02-10 08:50 ?663次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何實(shí)現(xiàn)<b class='flag-5'>自動駕駛</b>

    自動駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動駕駛模型學(xué)習(xí)時,經(jīng)常會提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動駕駛中的模仿
    的頭像 發(fā)表于 01-16 16:41 ?2013次閱讀

    自動駕駛汽車如何識別紅綠燈?

    ,很多老司機(jī)憑借視覺和經(jīng)驗(yàn),可以快速判斷紅綠燈的情況。 這一簡單的場景對于自動駕駛汽車來說,卻有很多值得討論的地方。雖然只是根據(jù)燈的顏色決定行駛步驟,但紅綠燈識別無疑是自動駕駛系統(tǒng)最基
    的頭像 發(fā)表于 12-23 09:26 ?585次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何<b class='flag-5'>識別</b>紅綠燈?

    汽車自動駕駛的太陽光模擬應(yīng)用研究

    測試裝備,通過提供可控、可重復(fù)的測試環(huán)境,已成為汽車自動駕駛研發(fā)、驗(yàn)證與標(biāo)定過程中不可或缺的核心工具。汽車自動駕駛的光挑戰(zhàn)與測試需求luminbox
    的頭像 發(fā)表于 12-10 18:04 ?439次閱讀
    <b class='flag-5'>汽車</b><b class='flag-5'>自動駕駛</b>的太陽光模擬應(yīng)用<b class='flag-5'>研究</b>

    自動駕駛汽車如何確定自己的位置和所在車道?

    比人類更多的“感官”和更強(qiáng)的計算能力;復(fù)雜則在于,這項(xiàng)工作必須做到精準(zhǔn)(米級甚至分米級)、穩(wěn)定、連續(xù),并且要在各種極端環(huán)境下都要可靠。那自動駕駛汽車是如何確定自己的位置和所在車道的? ? 車輛如何感知世界?
    的頭像 發(fā)表于 11-18 09:03 ?915次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何確定自己的位置和所在車道?

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4220次閱讀
    <b class='flag-5'>自動駕駛</b>中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    自動駕駛汽車如何正確進(jìn)行道路識別

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車在行駛過程中必須準(zhǔn)確識別道路環(huán)境,以便做出安全有效的決策,不同于人類開車,可以思考,自動駕駛汽車
    的頭像 發(fā)表于 06-29 09:40 ?1737次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>汽車</b>如何正確進(jìn)行道路<b class='flag-5'>識別</b>?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報道 自動駕駛ODD(Operational Design Domain)即設(shè)計運(yùn)行域,是指自動駕駛系統(tǒng)被設(shè)計為安全、有效運(yùn)行的具體條件范圍。它定義了自動駕駛汽車在哪些
    的頭像 發(fā)表于 05-19 03:52 ?6496次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達(dá)、攝像頭等傳感器數(shù)據(jù)處理算法的單元測試需覆蓋極端場景。例如,激光雷達(dá)點(diǎn)云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗(yàn)證。某廠商曾在測試中遺漏
    發(fā)表于 05-12 15:59

    自動駕駛大模型中常提的Token是個啥?對自動駕駛有何影響?

    近年來,人工智能技術(shù)迅速發(fā)展,大規(guī)模深度學(xué)習(xí)模型(即大模型)在自然語言處理、計算機(jī)視覺、語音識別以及自動駕駛等多個領(lǐng)域取得了突破性進(jìn)展。自動駕駛
    的頭像 發(fā)表于 03-28 09:16 ?1385次閱讀

    NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布

    自動駕駛汽車的開發(fā)。正確的技術(shù)與框架對確保自動駕駛汽車駕駛員、乘客和行人的安全至關(guān)重要。 因此,NVIDIA 推出了NVIDIA Halos綜合安全系統(tǒng),將 NVIDIA 的
    的頭像 發(fā)表于 03-25 14:51 ?1198次閱讀

    理想汽車推出全新自動駕駛架構(gòu)

    2025年3月18日,理想汽車自動駕駛技術(shù)研發(fā)負(fù)責(zé)人賈鵬在NVIDIA GTC 2025發(fā)表主題演講《VLA:邁向自動駕駛物理智能體的關(guān)鍵一步》,分享了理想汽車對于下一代
    的頭像 發(fā)表于 03-19 14:12 ?1120次閱讀