91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么很多車企都青睞VLA模型?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2026-03-04 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號(hào)]就在最近,小鵬發(fā)布了第二代視覺—語言—?jiǎng)幼鳎╒LA)模型。其實(shí)隨著自動(dòng)駕駛技術(shù)的發(fā)展,行業(yè)正處于從手工規(guī)則體系向物理世界大模型的深層跨越。早期的自動(dòng)駕駛方案高度依賴于模塊化的架構(gòu)設(shè)計(jì),將感知、預(yù)測(cè)與規(guī)劃拆分為獨(dú)立的環(huán)節(jié)。

但隨著行駛場(chǎng)景復(fù)雜度的增加,模塊間信息流失和規(guī)則局限導(dǎo)致的瓶頸日益凸顯。其實(shí)不僅僅是小鵬,理想、吉利等車企也都將VLA模型用于量產(chǎn)車,為何那么多車企都依賴VLA模型?

wKgZO2mnh_yALzWCAAAQo00DEvw357.jpg

相較于模塊化,VLA有何優(yōu)勢(shì)?

傳統(tǒng)的自動(dòng)駕駛架構(gòu)采用級(jí)聯(lián)設(shè)計(jì)。傳感器采集數(shù)據(jù)后,由感知模塊進(jìn)行目標(biāo)檢測(cè)與語義分割,輸出物體標(biāo)簽;隨后,預(yù)測(cè)模塊計(jì)算周圍參與者的可能軌跡;規(guī)劃模塊再根據(jù)預(yù)設(shè)的數(shù)學(xué)模型生成車輛的行駛路線。

在這種模式下,任何前端感知的微小誤差都會(huì)在后續(xù)環(huán)節(jié)中被放大,且由于各模塊之間采用的是預(yù)定義的手工接口,系統(tǒng)很難捕捉到環(huán)境中微妙的非結(jié)構(gòu)化信息。

wKgZPGmnh_yAEtE6AACnjZycGDk952.jpg

模塊化架構(gòu)示意圖,圖片源自:網(wǎng)絡(luò)

VLA模型的引入徹底改變了這一流程。視覺—語言—?jiǎng)幼髂P停╒ision-Language-Action,VLA)本質(zhì)上是一種端到端的智能系統(tǒng),它通過統(tǒng)一的神經(jīng)網(wǎng)絡(luò)將多模態(tài)感知與高層邏輯推理、底層動(dòng)作執(zhí)行融為一體。

其核心價(jià)值是將原本相互獨(dú)立的感知模塊(看)、邏輯模塊(想)與執(zhí)行模塊(做)在同一個(gè)語義空間內(nèi)完成了對(duì)齊。與傳統(tǒng)的自動(dòng)駕駛系統(tǒng)相比,VLA不僅能夠識(shí)別環(huán)境中的像素點(diǎn)或幾何結(jié)構(gòu),更能理解這些信號(hào)背后的語義邏輯。

VLA模型由視覺編碼器、大語言模型(LLM)骨干網(wǎng)絡(luò)以及動(dòng)作解碼器三個(gè)核心組件構(gòu)成。視覺編碼器將攝像頭采集的多視角圖像轉(zhuǎn)化為高維的特征向量,這些向量包含了環(huán)境的空間布局與物體特征;LLM骨干網(wǎng)絡(luò)則作為決策中心,利用預(yù)訓(xùn)練過程中積累的海量世界知識(shí)對(duì)視覺特征進(jìn)行邏輯加工;動(dòng)作解碼器則將這些抽象的推理結(jié)果轉(zhuǎn)化為如轉(zhuǎn)向角度、加減速數(shù)值等具體的物理動(dòng)作。

wKgZO2mnh_2AKLAwAACupHq5c98486.jpg

VLA架構(gòu)示意圖,圖片源自:網(wǎng)絡(luò)

這種一體化的映射方式使得系統(tǒng)能夠以一種更接近人類認(rèn)知的方式來處理駕駛?cè)蝿?wù)。在人類駕駛過程中,大腦并不會(huì)先在意識(shí)里標(biāo)出每一個(gè)行人的精確坐標(biāo)再進(jìn)行計(jì)算,而是基于對(duì)場(chǎng)景的整體理解(如“這個(gè)行人可能要過馬路”)直接產(chǎn)生避讓動(dòng)作。VLA模型通過共享的Transformer架構(gòu),對(duì)語言、視覺和動(dòng)作模態(tài)進(jìn)行協(xié)同編碼,構(gòu)建了統(tǒng)一的語義空間,實(shí)現(xiàn)了從感知理解到動(dòng)作決策的無縫銜接。

wKgZPGmnh_2AabDFAAAR42n7O-I595.jpg

語言轉(zhuǎn)譯重要嗎?

看到諸多文章介紹小鵬第二代VLA模型時(shí),都提及其去掉了“語言轉(zhuǎn)譯”這一環(huán)節(jié),那語言轉(zhuǎn)譯到底有什么作用?對(duì)于自動(dòng)駕駛來說重要嗎?

所謂語言轉(zhuǎn)譯,是指將視覺信號(hào)“翻譯”成自然語言描述(例如“前方路口有交警在指揮”),然后再根據(jù)這段文字描述推導(dǎo)出動(dòng)作指令。這種設(shè)計(jì)在早期是為了借用大語言模型的邏輯推理能力,但隨著技術(shù)向量產(chǎn)端推進(jìn),其弊端也愈發(fā)明顯。

自然語言雖然適合表達(dá)抽象邏輯,但在描述極其復(fù)雜的三維物理世界時(shí),其精度可能不足。將高維的、連續(xù)的視覺流壓縮成離散的文字標(biāo)簽,不可避免地會(huì)丟失大量的空間細(xì)節(jié)和運(yùn)動(dòng)趨勢(shì)。

此外,在VLA的訓(xùn)練中,研發(fā)人員需要為海量的視頻數(shù)據(jù)配上詳盡的人工旁白,告訴模型畫面中發(fā)生了什么,以及為什么要做這個(gè)動(dòng)作。這種“保姆式”的監(jiān)督學(xué)習(xí)不僅成本高昂,且標(biāo)注的速度遠(yuǎn)遠(yuǎn)無法滿足模型進(jìn)化的需求。

wKgZPGmnh_6AQEm-AAadZZ1MXyI191.jpg

圖片源自:網(wǎng)絡(luò)

小鵬第二代VLA模型之所以拆掉語言這根“拐杖”,轉(zhuǎn)向了更極致的自監(jiān)督學(xué)習(xí)模式,是因?yàn)樵谶@種體系下,模型可以直接從原始視頻和真實(shí)的駕駛軌跡中學(xué)習(xí),只要有視頻輸入和對(duì)應(yīng)的物理動(dòng)作輸出,模型就能自主學(xué)習(xí)其中的因果關(guān)系,無需人工中間介入。

去語言化還可以大幅提升系統(tǒng)的實(shí)時(shí)性。在自動(dòng)駕駛中,毫秒級(jí)的延遲決定了安全性。VLA模型因?yàn)榇嬖诙嗖酵评恚ㄒ曈X->語言->動(dòng)作),計(jì)算鏈路長(zhǎng),有時(shí)難以滿足毫秒級(jí)的響應(yīng)要求。若將視覺信號(hào)直接映射為動(dòng)作,則可以消除中間解碼和生成的耗時(shí)。

為了實(shí)現(xiàn)這一目標(biāo),動(dòng)作的表征方式也將發(fā)生變化,將連續(xù)的軌跡預(yù)測(cè)轉(zhuǎn)化為離散的動(dòng)作Token,并整合進(jìn)大模型的詞表,是目前可行的路徑之一。通過這種方式,動(dòng)作生成就像語言預(yù)測(cè)下一個(gè)單詞一樣,能夠充分復(fù)用大模型已有的序列建模能力。

這種從“語言理解”向“物理直覺”的轉(zhuǎn)變,實(shí)際上是自動(dòng)駕駛向更高級(jí)智能形式的演化。它可以讓模型變成一個(gè)擁有多年駕齡、通過肌肉記憶進(jìn)行決策的老司機(jī)。

wKgZO2mnh_6AX4m8AAASG3BOmsQ042.jpg

VLA的優(yōu)勢(shì)在哪里?

自動(dòng)駕駛的技術(shù)發(fā)展,已經(jīng)讓自動(dòng)駕駛系統(tǒng)在高速路或城市路段有了較好的表現(xiàn),現(xiàn)在最難處理的其實(shí)是“長(zhǎng)尾場(chǎng)景”。所謂長(zhǎng)尾,是指那些在正常行駛中極少出現(xiàn)、難以通過窮舉規(guī)則覆蓋的極端情況,像是馬路上突然出現(xiàn)的異形掉落物、復(fù)雜的施工路障、交警不規(guī)范的手勢(shì)指揮等都屬于長(zhǎng)尾場(chǎng)景。

在傳統(tǒng)架構(gòu)中,遇到此類未見過的場(chǎng)景,感知模塊可能會(huì)報(bào)錯(cuò),或者規(guī)控模塊會(huì)因?yàn)闆]有匹配的規(guī)則而采取僵硬的緊急制動(dòng)。

VLA模型的優(yōu)勢(shì)在于它將“理解”引入駕駛決策?;诖笠?guī)模預(yù)訓(xùn)練的大模型擁有強(qiáng)大的知識(shí)庫和情景理解能力。舉個(gè)例子,即便模型沒有在訓(xùn)練集中見過某種特定形狀的施工圍欄,但它通過在互聯(lián)網(wǎng)海量數(shù)據(jù)中學(xué)習(xí)到的通識(shí)知識(shí),能夠理解“紅白相間的物體通常代表障礙物”或者“身穿反光背心的人通常是工作人員”。

這種基于知識(shí)的決策模式,使得VLA能夠處理復(fù)雜的交互邏輯。在潮汐車道或無圖小路等場(chǎng)景下,VLA可以分析周圍車輛的意圖和環(huán)境的細(xì)微變化,做出更擬人化的規(guī)劃。它不會(huì)僅是避讓障礙物,而是能夠理解“此時(shí)前車減速可能是為了禮讓行人”,從而提前做出預(yù)判,避免了傳統(tǒng)系統(tǒng)常見的頻繁急剎或頓挫感。

VLA模型還具備“雙系統(tǒng)思維”的能力。它既能通過快速路徑實(shí)現(xiàn)類似于本能的駕駛反應(yīng)(快思考),也能在遇到極端復(fù)雜情況時(shí),調(diào)動(dòng)增強(qiáng)的推理邏輯進(jìn)行深度分析(慢思考)。這種靈活性確保了系統(tǒng)在保證效率的同時(shí),擁有處理高難度決策的上限。

為了解決長(zhǎng)尾數(shù)據(jù)的稀缺性,有些技術(shù)方案還引入了“世界模型”(World Models)。世界模型可以被看作是自動(dòng)駕駛系統(tǒng)的“模擬大腦”,它能夠預(yù)測(cè)動(dòng)作對(duì)未來的影響,并仿真出大量極端的、在現(xiàn)實(shí)中難以收集的危險(xiǎn)場(chǎng)景進(jìn)行自我訓(xùn)練。VLA與世界模型的結(jié)合,可以讓自動(dòng)駕駛從“在現(xiàn)實(shí)中試錯(cuò)”轉(zhuǎn)向“在想象中進(jìn)化”。

這種能力的提升,意味著自動(dòng)駕駛系統(tǒng)正在從一個(gè)“稱職的司機(jī)”向“智慧的駕駛專家”轉(zhuǎn)變。VLA不僅解決了“怎么開”的問題,更在底層邏輯上解決了“為什么這么開”的理解問題。

wKgZO2mnh_-ASXJEAAASAJELks8645.jpg

VLA落地的難點(diǎn)在哪里?

大模型一般需要擁有數(shù)十億甚至數(shù)百億的參數(shù),要在車載嵌入式平臺(tái)上實(shí)現(xiàn)毫秒級(jí)的推理響應(yīng),需要非常多的工程優(yōu)化。

混合專家架構(gòu)(MoE)可以將模型拆分為多個(gè)專業(yè)領(lǐng)域的小模塊,在每一時(shí)刻僅激活最相關(guān)的部分專家,可以在不犧牲模型容量的前提下,大幅降低推理時(shí)的計(jì)算量。理想就將32B的大模型蒸餾為3.2B的MoE架構(gòu),成功部署在Thor芯片上。

wKgZPGmniACAaAEfANjglQ9o894245.jpg

圖片源自:網(wǎng)絡(luò)

推理步數(shù)的壓縮也很關(guān)鍵,傳統(tǒng)的路徑生成需要多次迭代(如Diffusion模型),而通過引入流匹配(Flow Matching)等算法,可以將原本10步的推理過程壓縮至2步甚至1步,從而在10Hz的幀率下實(shí)現(xiàn)完整的交互響應(yīng)。此外,混合精度推理(如INT8/FP8/FP4)和底層算子魔改,也可以進(jìn)一步利用硬件的有效性能。

雖然VLA模型作為“大腦”負(fù)責(zé)復(fù)雜的認(rèn)知決策,但行業(yè)普遍共識(shí)是需要保留一個(gè)經(jīng)過嚴(yán)格驗(yàn)證的傳統(tǒng)控制系統(tǒng)作為“安全基座”。這種混合架構(gòu)確保了即使大模型在某些罕見情況下出現(xiàn)幻覺或推理錯(cuò)誤,底層的安全網(wǎng)也能守住最后一道防線。

wKgZO2mniASAHpWiAAARwcz1hbg111.jpg

最后的話

VLA的普及標(biāo)志著自動(dòng)駕駛數(shù)據(jù)競(jìng)爭(zhēng)重心的轉(zhuǎn)移。以前,企業(yè)比拼的是人工標(biāo)注的數(shù)據(jù)量;而現(xiàn)在,競(jìng)爭(zhēng)的核心變成了算力儲(chǔ)備、世界模型的仿真效率以及對(duì)大規(guī)模無標(biāo)簽視頻數(shù)據(jù)的利用能力。

VLA從邏輯理解到物理行動(dòng)的閉環(huán),不僅加速了端到端技術(shù)的成熟,也讓自動(dòng)駕駛系統(tǒng)距離真正的“擬人化”更近了一步。隨著算法、算力和數(shù)據(jù)三要素的持續(xù)提升,基于VLA架構(gòu)的物理人工智能將在更廣泛的移動(dòng)場(chǎng)景中展現(xiàn)其價(jià)值,重塑未來出行的安全與效率標(biāo)準(zhǔn)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Vla
    Vla
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    5893
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14878

    瀏覽量

    179751
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    比亞迪反超特斯拉,中國(guó)霸榜2025

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃山明)進(jìn)入到2026年,按照行業(yè)慣例,不少也發(fā)布了自己的2025年市收官戰(zhàn)報(bào)??梢园l(fā)現(xiàn),在2025年,不少
    的頭像 發(fā)表于 01-06 08:40 ?6819次閱讀
    比亞迪反超特斯拉,中國(guó)<b class='flag-5'>車</b><b class='flag-5'>企</b>霸榜2025

    2500 TOPS!特斯拉HW5智駕算力怪獸突擊,國(guó)產(chǎn)VLA火速進(jìn)化

    芯片水平。與此同時(shí),國(guó)內(nèi)如小鵬、理想等也在加速自身技術(shù)進(jìn)化,推出基于VLA的新一代智能駕駛解決方案。 ? 未來,特斯拉能否憑借HW5與FSD技術(shù)“王者歸來”,而國(guó)內(nèi)
    的頭像 發(fā)表于 06-20 09:05 ?8333次閱讀
    2500 TOPS!特斯拉HW5智駕算力怪獸突擊,國(guó)產(chǎn)<b class='flag-5'>VLA</b>火速進(jìn)化

    小米超越比亞迪,首次躋身全球市值前三!

    截至2025年12月31日,小米以約1314.9億美元市值,微弱領(lǐng)先比亞迪的1302.3億美元,躍升至全球市值第三位,成為首個(gè)闖入該梯隊(duì)的中國(guó)新勢(shì)力。目前全球前四名依次為:特斯
    的頭像 發(fā)表于 01-07 17:58 ?791次閱讀

    VLA模型是基于預(yù)置規(guī)則來指導(dǎo)行動(dòng)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]今天繼續(xù)來回答小伙伴的提問,最近有一位小伙伴提問,VLA模型中的理解是不是也基于一些預(yù)置的規(guī)則指導(dǎo)行動(dòng)的?其實(shí)這個(gè)問題非常值得討論,今天智駕最前沿就帶大家詳細(xì)聊一聊
    的頭像 發(fā)表于 12-25 09:22 ?1239次閱讀
    <b class='flag-5'>VLA</b><b class='flag-5'>模型</b>是基于預(yù)置規(guī)則來指導(dǎo)行動(dòng)嗎?

    全球首車搭載元戎啟行VLA模型,魏牌藍(lán)山智能進(jìn)階版重磅上市

    近日,魏牌全新藍(lán)山智能進(jìn)階版正式上市,成為全球首款搭載元戎啟行VLA(Vision-Language-Action)模型的量產(chǎn)車型。這不僅意味著VLA模型完成從技術(shù)研發(fā)到量產(chǎn)上車的閉環(huán)
    發(fā)表于 12-23 16:09 ?2289次閱讀
    全球首車搭載元戎啟行<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>,魏牌藍(lán)山智能進(jìn)階版重磅上市

    VLA與世界模型有什么不同?

    [首發(fā)于智駕最前沿微信公眾號(hào)]當(dāng)前自動(dòng)駕駛行業(yè),各車的技術(shù)路徑普遍選擇了單車智能方向。而在實(shí)際落地過程中,不同企業(yè)選擇了差異化的技術(shù)實(shí)現(xiàn)方式,部分車側(cè)重于視覺—語言—?jiǎng)幼?b class='flag-5'>模型(Vision
    的頭像 發(fā)表于 12-17 09:13 ?606次閱讀
    <b class='flag-5'>VLA</b>與世界<b class='flag-5'>模型</b>有什么不同?

    VLA能解決自動(dòng)駕駛中的哪些問題?

    [首發(fā)于智駕最前沿微信公眾號(hào)]很多從事自動(dòng)駕駛的小伙伴應(yīng)該對(duì)VLA這個(gè)概念已經(jīng)非常熟悉了。VLA即“Visual-Language-Action”(視覺—語言—?jiǎng)幼鳎?b class='flag-5'>模型,它的核心是將
    的頭像 發(fā)表于 11-25 08:53 ?478次閱讀
    <b class='flag-5'>VLA</b>能解決自動(dòng)駕駛中的哪些問題?

    VLA和世界模型,誰才是自動(dòng)駕駛的最優(yōu)解?

    [首發(fā)于智駕最前沿微信公眾號(hào)]隨著自動(dòng)駕駛技術(shù)發(fā)展,其實(shí)現(xiàn)路徑也呈現(xiàn)出兩種趨勢(shì),一邊是以理想、小鵬、小米為代表的VLA(視覺—語言—行動(dòng))模型路線;另一邊則是以華為、蔚來為主導(dǎo)的世界模型(World
    的頭像 發(fā)表于 11-05 08:55 ?773次閱讀
    <b class='flag-5'>VLA</b>和世界<b class='flag-5'>模型</b>,誰才是自動(dòng)駕駛的最優(yōu)解?

    自動(dòng)駕駛上常提的VLA與世界模型有什么區(qū)別?

    自動(dòng)駕駛中常提的VLA,全稱是Vision-Language-Action,直譯就是“視覺-語言-動(dòng)作”。VLA的目標(biāo)是把相機(jī)或傳感器看到的畫面、能理解和處理自然語言的大模型能力,和最終控制車輛
    的頭像 發(fā)表于 10-18 10:15 ?1144次閱讀

    量產(chǎn)交付超10萬輛!元戎啟行攜DeepRoute IO 2.0平臺(tái)及VLA模型亮相德國(guó)IAA

    IO 2.0及其自研的VLA(Vision-Language-Action)模型,并以“安全第一、量產(chǎn)先行”為戰(zhàn)略核心,持續(xù)推動(dòng)海外市場(chǎng)拓展。 ? 德國(guó)IAA元戎啟行現(xiàn)場(chǎng)展位 ? 截至目前,元戎啟行
    發(fā)表于 09-09 10:09 ?3970次閱讀
    量產(chǎn)交付超10萬輛!元戎啟行攜DeepRoute IO 2.0平臺(tái)及<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>亮相德國(guó)IAA

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)有大規(guī)模機(jī)器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得益于近年來VR
    的頭像 發(fā)表于 08-21 09:56 ?1086次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>H-RDT

    VLA,是完全自動(dòng)駕駛的必經(jīng)之路?

    電子發(fā)燒友網(wǎng)報(bào)道 (文/梁浩斌)最近,智駕領(lǐng)域又出現(xiàn)多個(gè)“新名詞”,比如蔚來推出的NWM、多家和智駕供應(yīng)商都在宣傳的VLA。實(shí)際上,從各家的路線來看,隨著更大算力的芯片,比如小鵬、蔚來自研的智駕
    的頭像 發(fā)表于 06-18 00:06 ?9288次閱讀

    元戎啟行周光:VLA模型將于2025年第三季度量產(chǎn)

    元戎啟行的VLA模型將于2025年第三季度推向消費(fèi)者市場(chǎng),并展示了VLA模型的四大功能——空間語義理解、異形障礙物識(shí)別、文字類引導(dǎo)牌理解、語音控
    發(fā)表于 06-12 09:45 ?1322次閱讀
    元戎啟行周光:<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>將于2025年第三季度量產(chǎn)

    新能源軟件單元測(cè)試深度解析:自動(dòng)駕駛系統(tǒng)視角

    方法(如TLA+模型檢查)驗(yàn)證邏輯完備性。某使用TLA+發(fā)現(xiàn)交通燈狀態(tài)機(jī)中存在未處理的黃燈閃爍場(chǎng)景,避免了潛在的功能失效。 ? AI模型單元(如CNN目標(biāo)檢測(cè)層): ? 引入
    發(fā)表于 05-12 15:59

    AR-HUD軟硬協(xié)同創(chuàng)新獲多家頭部青睞,多維技術(shù)創(chuàng)新定義人機(jī)交互新范式

    在汽車智能座艙領(lǐng)域,經(jīng)緯恒潤(rùn)始終是勇于探索的佼佼者,憑借持續(xù)創(chuàng)新的技術(shù)實(shí)力,不斷推動(dòng)行業(yè)邁向新高度。近期,經(jīng)緯恒潤(rùn)超大畫幅AR-HUD產(chǎn)品再次成功獲得國(guó)內(nèi)某頭部3款車型的軟硬件聯(lián)合
    的頭像 發(fā)表于 03-24 08:03 ?1273次閱讀
    AR-HUD軟硬協(xié)同創(chuàng)新獲多家頭部<b class='flag-5'>車</b><b class='flag-5'>企</b><b class='flag-5'>青睞</b>,多維技術(shù)創(chuàng)新定義人機(jī)交互新范式