91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于硬件在環(huán)的無人駕駛仿真平臺

ml8z_IV_Technol ? 來源:未知 ? 作者:胡薇 ? 2018-07-15 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

第29屆IEEE國際智能車大會(IEEE IV 2018)于6月30日在江蘇常熟順利落幕,本屆大會 的Best Student Paper Awards(最佳學(xué)生論文獎)分別頒給了來自西安交通大學(xué)、加州大學(xué)伯克利分校、中山大學(xué)的三篇論文。

本屆IV大會共收到了來自34個國家的603篇論文,其中確認(rèn)接收的論文346篇,在所有接收的論文里,Automated Vehicles, Vision Sensing and Perception, and Autonomous / Intelligent Robotic Vehicles成為本屆論文最熱的關(guān)鍵詞。

IV會議共設(shè)有“BestPaperAwards”、 “BestStudentPaperAwards” 、 “ BestWorkshop / Special Session Paper Awards ” 、 “Best Poster Paper Awards ” 和 “BestApplication Paper Awards”五大獎項。本文主要介紹獲得Best Student PaperAwards(最佳學(xué)生論文獎)的三篇論文,與之前BestPaper Awards論文不同,這三篇論文的第一作者都是在校學(xué)生。

IEEE IV 2018 Best Student Paper Awards

First Prize

在最佳學(xué)生論文中,獲得一等獎的是來自西安交通大學(xué)的論文基于硬件在環(huán)的無人駕駛仿真平臺(Autonomous Vehicle Testing and Validation Platform: Integrated Simulation System with Hardware in the Loop)。該論文的作者為YU Chen,Shitao Chen等都來自鄭南寧院士團(tuán)隊。以下是論文簡述:

隨著自動駕駛的發(fā)展,離線測試和仿真是目前用于多種交通場景中無人駕駛車輛性能驗證的一種低成本,低風(fēng)險且高效率的方法。在我們的工作中因考慮到現(xiàn)今不同仿真平臺的不足,我們提出了一種新型的,基于硬件在環(huán)系統(tǒng)的仿真平臺。該平臺支持車輛動力學(xué)仿真,各種傳感器仿真以及多種復(fù)雜交通場景構(gòu)建。通過硬件在環(huán)的測試與驗證方式我們能夠有效地利用仿真環(huán)境來規(guī)避路測所帶來的潛在風(fēng)險并驗證無人車多模塊算法安全性。同時通過與真車中完全相同的硬件層溝通仿真環(huán)境與現(xiàn)實場景,我們能夠準(zhǔn)確有效地完成已驗證的算法從仿真環(huán)境到真實場景的遷移。

1.仿真平臺開發(fā)的目的

為了保證無人駕駛車輛開發(fā)的安全性,有效性和可持續(xù)性,必須進(jìn)行廣泛的開發(fā)和測試。然而傳統(tǒng)的無人駕駛路測昂貴耗時,具有風(fēng)險性且只能夠在有限交通場景下進(jìn)行試驗。此外,一些特殊場景,如極端天氣,傳感器故障,道路部分路段損毀等也不能夠進(jìn)行反復(fù)的測試和復(fù)現(xiàn)。而無人駕仿真系統(tǒng)則為這個難題提供了一種安全有效的解決途徑。借助仿真環(huán)境中對車輛動力學(xué)控制,多傳感器仿真,多交通場景模擬,我們可以極大地提高開發(fā)效率,驗證無人駕駛環(huán)境感知,車輛定位,路徑規(guī)劃以及決策控制等多模塊算法的有效性。

目前應(yīng)用于無人駕駛仿真領(lǐng)域仿真器多種多樣,被廣泛使用的主要有TORCS, PRESCAN, CarSim, Carla等。然而這些仿真器也并不能真正意義上全面地實現(xiàn)對無人車性能測試的多方面的要求。涉及到的問題有車輛模型和駕駛場景的逼真度,算法測試的準(zhǔn)確度,仿真流程的有效性以及仿真器自身是否對大多數(shù)開發(fā)者們友好開放等。

圖1 多仿真器對比表

實際上現(xiàn)在大多數(shù)的開源仿真器都是特別適用于無人駕駛仿真的單一或者幾個特定的模塊,并不能被應(yīng)用于所用駕駛場景中。一些商業(yè)化的仿真器的功能更為全面但價格也比較昂貴。因而在我們的工作中我們的目的就是構(gòu)建一個全面的,對開發(fā)者友好的仿真平臺。

此外,采用硬件在環(huán)系統(tǒng)進(jìn)行仿真是我們平臺進(jìn)行開發(fā)驗證的核心。在硬件在環(huán)的仿真方法中,我們將待進(jìn)行測試的控制單元硬件連接到虛擬的仿真環(huán)境中來測試核心算法的可行性和控制器的有效性。這樣不僅能夠快速有效地評估算法的性能,同時也能夠極大的提升測試安全性和算法安全性。一方面基于硬件在環(huán)的仿真避免了實際道路測試可能導(dǎo)致的風(fēng)險,另一方面我們能夠在模擬的仿真環(huán)境中進(jìn)行各種特殊駕駛場景的測試從而訓(xùn)練算法,不斷提高其魯棒性,最終保證對仿真車輛安全駕駛的模擬。

圖2 硬件在環(huán)仿真系統(tǒng)示意圖

2.仿真方法介紹

圖3 仿真框架示意圖

仿真平臺包含仿真層和硬件層兩大模塊。其中仿真層包括了仿真車輛模型設(shè)計,多仿真?zhèn)鞲衅髂M以及多虛擬交通場景構(gòu)建。硬件控制層與仿真層相連接構(gòu)成閉環(huán)測試系統(tǒng),用于全面測試和驗證硬件和算法。仿真?zhèn)鞲衅餍畔⒁约败嚿頎顟B(tài)由仿真層輸入到算法進(jìn)行相關(guān)計算后輸出結(jié)果到硬件控制單元生成相應(yīng)的控制指令,如剎車,油門、轉(zhuǎn)向指令等,再傳入到仿真層對車輛進(jìn)行相應(yīng)控制。

首先對于仿真層中車輛動力學(xué)的模型設(shè)計,我們使用3D建模軟件先進(jìn)行車輛建模,設(shè)定相關(guān)的必要參數(shù),如重量、慣性、摩擦系數(shù)、扭矩等;考慮到實際車輛的安全性,仿真車輛的最大速度,前輪最大轉(zhuǎn)角,最大扭矩和最大胎壓等參數(shù)也需要具體設(shè)定;另外為了實現(xiàn)車輛橫向與縱向的平穩(wěn)動力學(xué)控制,我們采用了Ackermann轉(zhuǎn)向幾何模型來保證車輛的安全轉(zhuǎn)向。

圖4 Ackermann模型

其次對于多種無人駕駛所需的傳感器的仿真,我們的平臺支持對雙目/單目相機(jī),多線激光雷達(dá)(16/32/64),超聲波雷達(dá),GPS以及慣性測量單元IMU的仿真模型以及實際功能模擬。傳感器能夠被簡單快速地添加,移動或者移除。我們也可選擇是否連接到傳感器或者隨時更新其配置參數(shù),如探測范圍,信息更新頻率,噪聲程度等。

圖5 多傳感器模擬示意圖

最后對于多種虛擬駕駛環(huán)境的構(gòu)建,主要有兩種方法。第一種是使用模型庫中提供的一些仿真模型,或者自行根據(jù)需求利用3D建模軟件構(gòu)建仿真模型,再對單個的仿真模型進(jìn)行整合從而構(gòu)建出預(yù)期的仿真場景。另一種方法是使用OpenStreetMap來直接通過地圖來導(dǎo)出大場景模型再進(jìn)行后期精細(xì)化操作。OpenStreetMap是一個強(qiáng)大的地圖編輯平臺,某一局部區(qū)域甚至是某一城市的實際地圖都能夠被在線導(dǎo)出成可編輯的文件,從而方便實現(xiàn)對某一固定實際場景仿真,同時也很大程度上節(jié)約了場景構(gòu)建的時間。

圖6 利用OSM獲得場景模型示意圖

3.實驗與驗證

論文中提出的硬件在環(huán)仿真平臺可以被用來驗證無人駕駛車輛環(huán)境感知,路徑規(guī)劃以及運動控制等重要模塊的算法有效性。我們分別對與這些模塊緊密相關(guān)的路徑跟隨算法、自動泊車算法以及基于多智能體(multi-agent)的車輛跟隨算法進(jìn)行了測試與驗證。

圖7 仿真驗證模塊示意圖

首先對于仿真車輛的路徑跟隨算法, 其需要根據(jù)給定的行駛路徑計算出符合車輛動力學(xué)的剎車,油門,轉(zhuǎn)向指令來實現(xiàn)平穩(wěn)的路徑跟隨過程。

然后對于自動泊車算法,我們構(gòu)建了一個虛擬的停車場環(huán)境方便場景模擬。目標(biāo)車輛需要在行進(jìn)過程中依據(jù)傳感器信息找到距離自己最近的可用停車位,并選用合適的停車方式來規(guī)劃出停車路徑并實現(xiàn)平穩(wěn)泊車。

最后對于基于多智能體系統(tǒng)的車輛跟隨算法, 論文中假設(shè)每一輛車為一個智能體,其與周圍車輛以及駕駛環(huán)境進(jìn)行實時交互。這樣的多智能體系統(tǒng)可以用來進(jìn)行V2V以及V2I等方面的開發(fā)。論文中我們進(jìn)行了車輛跟隨算法的驗證。通過基于增強(qiáng)學(xué)習(xí)的訓(xùn)練過程,跟隨車輛能夠始終與前車保持一定安全距離,穩(wěn)定地實現(xiàn)跟車換道等行為。

4.總結(jié)

論文中我們提出了一種新型的基于硬件在環(huán)的無人車仿真與測試平臺。其能夠很好的實現(xiàn)對車輛動力學(xué)模型,多種傳感器以及不同駕駛場景的模擬。同時硬件在環(huán)的仿真方法在降低測試成本和時間的條件下,也保證了測試的安全性和驗證了算法的安全性。

Second Prize

預(yù)測車輛在不同駕駛場景下的插入?yún)^(qū)域(彩色區(qū)域)

獲得最佳學(xué)生論文二等獎的是來自美國加州大學(xué)伯克利分校機(jī)械工程系的Yeping Hu博士,他在論文中分享了他們在車輛語義意圖和運動的概率預(yù)測方面的研究論文。研究涵蓋城市自動駕駛的決策,運動規(guī)劃和運動預(yù)測。目前正在開展一項BDD項目:“基于深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的隨機(jī)政策的城市自主駕駛運動預(yù)測”。目前大多數(shù)研究僅通過考慮特定場景來確定駕駛意圖的數(shù)量。然而,不同的駕駛環(huán)境通常包含各種可能的駕駛操縱。因此,需要一種能夠適應(yīng)不同流量場景的意圖預(yù)測方法。在Yeping Hu博士的論文中提出了一種基于語義的意圖和運動預(yù)測(SIMP)方法,可以通過使用語義定義的車輛行為來適應(yīng)任何駕駛場景。它利用基于深度神經(jīng)網(wǎng)絡(luò)的概率框架來估計周圍車輛的意圖,最終位置和相應(yīng)的時間信息。

Third Prize

最佳學(xué)生論文的三等獎來自中山大學(xué)數(shù)據(jù)與計算機(jī)科學(xué)學(xué)院,該論文研究了計算機(jī)視覺的內(nèi)容,同時還是國家自然科學(xué)基金項目。以下是論文的主要內(nèi)容:

計算機(jī)視覺因為可以有效且通過易獲得的方式獲取周邊環(huán)境的顏色信息而成為了研究廣泛的熱門領(lǐng)域。通過攝像頭來幫助機(jī)器人或無人車?yán)斫馄渌幍耐獠凯h(huán)境也成為至關(guān)重要的一步。通過雙目視覺算法可以獲得圖像中像素點的深度信息從而可以對周圍場景進(jìn)行三維建模。然而,當(dāng)前所存在的三維空間表達(dá)形式存在有明顯的弊端,主要的問題集中在以下兩點:第一大規(guī)模的三維場景數(shù)據(jù)信息量非常大,如何有效的壓縮地圖大小存在一定難度;第二是如何更大程度的保存有效信息并且保障精度。

在本文中,我們關(guān)注這些問題并且提出了一種全新的三維空間表達(dá)形式并且將其命名為Planecell。通過在深度信息的監(jiān)督下的平面轉(zhuǎn)區(qū),我們可以將平面單元投影到三維空間中去。所提出的Planecell表達(dá)方式適用于大規(guī)模的人造場景中,可以在不丟失像素級別精度的情況下明顯的減少存儲圖像大小,并且可以拓展到更多的三維重建應(yīng)用當(dāng)中。通過實驗檢驗,我們的三維空間表達(dá)形式相比于點云地圖大小在同等精度下縮小了200倍,并且我們也和當(dāng)前排名靠前的深度學(xué)習(xí)雙目匹配算法得到的點云地圖進(jìn)行了像素級別的精度比較,同樣達(dá)到了不錯的結(jié)果。

圖1:Planecell方法流程圖

1.方法簡介

如圖一所示,本文所提出方法的輸入是一張色彩圖像和對應(yīng)的深度圖像。我們使用一種深度監(jiān)督的超像素分割算法通過在邊界更新方程中加入深度衡量項對左圖進(jìn)行切割。超像素分割過程使用了爬山法來減少不必要的計算量。同時,我們還在邊界更新方程中加入規(guī)則化項來避免超像素邊界的復(fù)雜化(復(fù)雜的超像素邊界不利于保存和二維-三維轉(zhuǎn)化)。超像素的分層邊界更新只進(jìn)行到固定邊長的網(wǎng)格大小,不再進(jìn)行像素級別的更新。深度圖在本文中使用雙目匹配方法來得到結(jié)果。同樣的,較為稀疏的或者是通過其他傳感器得到的深度圖也可以作為我們算法的輸入,因為我們的算法在擬合平面時使用了隨機(jī)取樣的方式來避免錯誤點對于結(jié)果的負(fù)面影響。超像素的邊界會在平面方程擬合結(jié)果出來后進(jìn)行進(jìn)一步的更新。每一個超像素都是之后進(jìn)行重建的基本元素。

為了更高效的保存每一個超像素。我們提出一種方法來抓取每一個超像素的角點。因為每一個超像素都是多邊形,所以只需它們的角點就能完整的保存他們的邊界信息。將二維超像素投影到三維空間中后,對于已存在的三維平面,我們通過最小化全局能量方程來聚合關(guān)系為共面單元。

2.實驗驗證

我們根據(jù)數(shù)據(jù)集的特性,分別在三個數(shù)據(jù)集上了測試了我們的算法。三個數(shù)據(jù)集分別是KITTI Stereo、KITTI Odometry和 Middlebury Stereo 數(shù)據(jù)集。KITTI Stereo 數(shù)據(jù)集將用于測試的雙目圖片分為測試集和訓(xùn)練集,其中訓(xùn)練集部分包含了通過激光雷達(dá)獲得的視差真值。每一組圖片包含前后兩幀的左右圖共四張圖片。KITTI測試榜單所提供的室外場景是具有挑戰(zhàn)性的,因為每一幅圖片都包含十分明顯的視差變化。我們的算法表現(xiàn)了對于 KITTI 數(shù)據(jù)集處理的優(yōu)越性,尤其是對于包含大量幾何結(jié)構(gòu)人造場景的圖像。為了更好的表現(xiàn)我們所提出的三維空間表達(dá)方式對于大規(guī)模大尺度輸入的處理能力,我們在 KITTI Odometry 上測試了上千張雙目圖片作為輸入的結(jié)果。第三個數(shù)據(jù)集是 Middlebury Stereo 2001 數(shù)據(jù)集,其中包含了9組室內(nèi)場景。

我們從結(jié)果的精度、速度、內(nèi)存需求和傳達(dá)有用信息的能力等方面對我們的算法進(jìn)行了評估。我們在精度上對比了最基本的直接將二維像素點投影到三維空間點云的方法。接下來,我們修改了我們算法的輸入視差圖算法(包括密集、半密集和稀疏)來測量我們算法的適應(yīng)性。我們同樣對比了我們算法與基于體素的三維表達(dá)方式的優(yōu)勢。

表1 測試平臺

圖2:像素級別精度對比(左:KITTI stereo,右:Middlebury)

表2:修改視差圖輸入在KITTI數(shù)據(jù)集上的精度結(jié)果

圖3:單幀地圖重建結(jié)果(自上而下分別為左圖,點云圖,

voxel地圖和Planecell地圖)

圖4:2000幀的重建結(jié)果(89.1MB)

我們在本文中提出了一種新穎的方法,用一種名為 Panecell 的基本平面單元來表示結(jié)構(gòu)三維空間。平面單元以深度感知方式提取,并且如果它們屬于應(yīng)用所提出的CRF模型的相同表面,則可以進(jìn)一步聚合。實驗表明,我們的方法考慮了像素級精度,同時有效地表達(dá)了相似像素的位置。結(jié)果避免了點云映射的冗余,并限制了輸出映射大小以用于進(jìn)一步的應(yīng)用。在我們未來的工作中,我們計劃開發(fā)更復(fù)雜的平面模型,如球體和圓柱體,以適應(yīng)更多條件。我們還相信,給每個平面單元一個語義標(biāo)簽可以更有效地擴(kuò)展對環(huán)境的理解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2577

    文章

    55325

    瀏覽量

    793185
  • 無人駕駛
    +關(guān)注

    關(guān)注

    100

    文章

    4305

    瀏覽量

    127035

原文標(biāo)題:IV 2018 最佳學(xué)生論文獎丨西交大“基于硬件在環(huán)的無人駕駛仿真平臺”論文獲最佳

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    時間同步無人駕駛領(lǐng)域的應(yīng)用

    時間同步無人駕駛領(lǐng)域的應(yīng)用及其重要性。一、時間同步技術(shù)的概念時間同步技術(shù)是指通過某種方法使多個設(shè)備或系統(tǒng)的時間保持一致的過程。無人駕駛領(lǐng)域,時間同步技術(shù)主要應(yīng)用
    的頭像 發(fā)表于 03-19 16:22 ?143次閱讀
    時間同步<b class='flag-5'>在</b><b class='flag-5'>無人駕駛</b>領(lǐng)域的應(yīng)用

    礦卡無人駕駛從理論到落地的全過程記錄(轉(zhuǎn)載)

    、運輸、卸貨,整個流程行云流水。作為星創(chuàng)易聯(lián)的技術(shù)工程師,這次項目讓我對礦卡無人駕駛有了全新的認(rèn)識。 為什么露天礦山需要無人駕駛? 礦山待了一個月,我深刻體會到這個行業(yè)的痛點。 首先是安全問題。露天礦的作業(yè)
    的頭像 發(fā)表于 11-21 14:53 ?1209次閱讀
    礦卡<b class='flag-5'>無人駕駛</b>從理論到落地的全過程記錄(轉(zhuǎn)載)

    小馬智行無人駕駛車參與第十五屆全運會火炬?zhèn)鬟f

    一盞燃著全運會圣火的火種燈,一段6.8公里的無人駕駛行程,同時與小馬智行的無人駕駛車聯(lián)系起來,共同創(chuàng)造了全運會新的歷史——無人駕駛車首次參與火炬?zhèn)鬟f環(huán)節(jié)。
    的頭像 發(fā)表于 11-04 14:01 ?810次閱讀

    2025硬件環(huán)仿真最新選型指南:TOP4廠商全景解析

    環(huán)仿真平臺的反復(fù)演練中完成了高精度、全過程、全環(huán)節(jié)新型儲能黑啟動試驗系統(tǒng)分析,成功實現(xiàn)了全球范圍內(nèi)首次基于純電力電子設(shè)備組網(wǎng)的黑啟動案例。 面對差異化的研發(fā)需求,如何選擇適配的平臺?
    的頭像 發(fā)表于 10-30 19:24 ?555次閱讀

    2025無人駕駛技術(shù)細(xì)節(jié)及發(fā)展趨勢|(星創(chuàng)易聯(lián)細(xì)節(jié)解析)

    ?到了"拐點"? 如果你相信那些科技媒體的頭條,無人駕駛2025年將"迎來爆發(fā)式增長"。這話聽起來耳熟嗎? 沒錯,從2018年開始,每年都是"無人駕駛元年",每年都在"拐點將至"?,F(xiàn)在又輪到
    的頭像 發(fā)表于 09-26 15:17 ?609次閱讀
    2025<b class='flag-5'>無人駕駛</b>技術(shù)細(xì)節(jié)及發(fā)展趨勢|(星創(chuàng)易聯(lián)細(xì)節(jié)解析)

    無人駕駛:智能決策與精準(zhǔn)執(zhí)行的融合

    無人駕駛核心操控技術(shù):智能決策與精準(zhǔn)執(zhí)行的融合 無人駕駛的核心操控系統(tǒng)是車輛實現(xiàn)自主駕駛的“大腦”與“四肢”,其技術(shù)核心在于通過感知、決策、執(zhí)行三大模塊的協(xié)同工作,替代人類駕駛員完成實
    的頭像 發(fā)表于 09-19 14:03 ?834次閱讀

    電源控制器MCU硬件環(huán)(HIL)測試方案

    實時仿真平臺為電源控制器 MCU 提供硬件環(huán)(HIL)測試系統(tǒng),與用戶 MCU 構(gòu)成一整套測試系統(tǒng)。 整體系統(tǒng)中,EasyGo 實時
    發(fā)表于 08-20 18:31

    自動駕駛中常提的硬件環(huán)是個啥?

    (Hardware-in-the-Loop,簡稱HIL),就是一種用于復(fù)雜系統(tǒng)測試與驗證的重要仿真技術(shù)。自動駕駛領(lǐng)域,“硬件
    的頭像 發(fā)表于 08-14 08:54 ?1400次閱讀

    蘿卜快跑與Lyft達(dá)成戰(zhàn)略合作 歐洲部署無人駕駛出行服務(wù)

    以后只需 Lyft 上動動手指;蘿卜快跑就能帶你跑遍歐洲! 8月4日, 蘿卜快跑 與全球領(lǐng)先的出行平臺Lyft達(dá)成戰(zhàn)略合作 ,蘿卜快跑將通過Lyft平臺歐洲提供
    的頭像 發(fā)表于 08-05 09:45 ?1137次閱讀

    翼輝信息飛行仿真平臺DEEP UAV Simulator介紹

    翼輝信息面向無人機(jī)領(lǐng)域推出飛行仿真平臺 DEEP UAV Simulator,旨在為無人機(jī)的研發(fā)、測試和訓(xùn)練過程提供安全、高效且成本可控的虛擬環(huán)境。該平臺通過高精度的環(huán)境
    的頭像 發(fā)表于 07-30 09:22 ?1956次閱讀

    主線科技無人駕駛集卡助力中越智慧口岸建設(shè)

    2025年7月,中越浦寨-新清通道智慧口岸項目進(jìn)入建設(shè)沖刺的關(guān)鍵階段。主線科技作為該項目無人駕駛集卡測試的技術(shù)合作伙伴,目前已完成第一階段無人駕駛驗證與調(diào)試,相關(guān)車輛浦寨貨物監(jiān)管中心至越南寶源貨場
    的頭像 發(fā)表于 07-18 13:51 ?1023次閱讀

    正式上線:MotoSim智能電機(jī)仿真平臺

    MotorSim/智能電機(jī)仿真平臺峰岹科技——全球領(lǐng)先的電機(jī)驅(qū)動控制芯片及控制系統(tǒng)提供商,近日宣布推出智能電機(jī)仿真平臺MotorSim。這款堪稱分鐘級、高精準(zhǔn)的電機(jī)專業(yè)仿真工具,主要面向電機(jī)設(shè)計工
    的頭像 發(fā)表于 07-03 15:15 ?1641次閱讀
    正式上線:MotoSim智能電機(jī)<b class='flag-5'>仿真平臺</b>

    智行者科技無人駕駛小巴落地海南

    。這條串聯(lián)城市地標(biāo)的示范線路,正是智行者以"無人駕駛大腦"重塑日常公共出行的縮影——通過高效、安全、可持續(xù)的無人駕駛小巴,為智能出行注入全新動能。
    的頭像 發(fā)表于 06-11 10:34 ?1688次閱讀

    什么是低速無人駕駛,讓你一分鐘秒懂 #無人駕駛 #5g無人駕駛 #低速無人駕駛

    無人駕駛
    星創(chuàng)易聯(lián)
    發(fā)布于 :2025年06月05日 15:27:49

    無人駕駛技術(shù)未來在哪里?低速才是突破口

    ? 無人駕駛技術(shù)這幾年從實驗室迅速走向現(xiàn)實。大眾印象中,無人駕駛常被等同于城市道路上自由穿梭的智能汽車,但實際率先實現(xiàn)商業(yè)化落地的,是低速無人駕
    的頭像 發(fā)表于 05-23 15:38 ?867次閱讀
    <b class='flag-5'>無人駕駛</b>技術(shù)未來在哪里?低速才是突破口