91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI大模型在汽車應(yīng)用中的推理、降本與可解釋性研究

佐思汽車研究 ? 來源:佐思汽車研究 ? 2025-02-18 15:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報告》。

推理能力成為大模型性能提升的驅(qū)動引擎

2024下半年以來,國內(nèi)外大模型公司紛紛推出推理模型,通過以CoT為代表的推理框架,加強大模型對復(fù)雜任務(wù)處理能力和自主決策能力。

部分大模型公司的推理模型發(fā)布情況

27871978-edbd-11ef-9310-92fbcf53809c.png

來源:佐思汽研《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報告》

推理模型的密集上線,是為了提升大模型在復(fù)雜場景下的應(yīng)對能力,同時也為Agent上線奠定基礎(chǔ);具體到汽車行業(yè),汽車大模型推理能力的提升,能夠切實解決AI應(yīng)用場景下的痛點問題,如加強座艙助手對復(fù)雜語義的意圖識別和提升自動駕駛規(guī)劃決策中的時空預(yù)測場景精度。

部分汽車AI應(yīng)用場景下對大模型推理能力的需求

2799bb6e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

2024年,上車的主流大模型推理技術(shù)仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場景下會融合生成模型(如擴散模型)、知識圖譜、因果推理模型、累積推理、多模態(tài)推理鏈等技術(shù)。

如吉利提出模塊化思維語言模型(MeTHanol),讓大語言模型合成人類思維并用于監(jiān)督 LLM 的隱藏層,通過適應(yīng)日常對話和個性化提示,生成類似人類的思維行為,增強大語言模型的思維和推理能力,并提升可解釋性。

MeTHanol(含中間思維層的雙層微調(diào)和兩階段推理)與標準SFT技術(shù)的對比

27b839e0-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

2025年,推理技術(shù)的重點會向多模態(tài)推理轉(zhuǎn)移,常用的訓(xùn)練技術(shù)包括指令微調(diào)、多模態(tài)上下文學(xué)習(xí)與多模態(tài)思維鏈(M - CoT)等,多通過多模態(tài)融合對齊技術(shù)與LLM的推理技術(shù)結(jié)合而成。

部分多模態(tài)推理技術(shù)

27bc61a0-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

可解釋性成為AI與用戶的信任橋梁

在用戶體會到AI的“好用”之前,首先需要滿足用戶對AI的“信任”,所以,2025年,AI系統(tǒng)運行的可解釋性成為汽車AI用戶基數(shù)增長的關(guān)鍵一環(huán),該痛點也可通過長思維鏈的展示來解決。

AI系統(tǒng)的可解釋性可通過數(shù)據(jù)可解釋性、模型可解釋性和事后可解釋性三個層面分別實現(xiàn):

AI可解釋性的三個層面

27d808c4-edbd-11ef-9310-92fbcf53809c.png

27e7c71e-edbd-11ef-9310-92fbcf53809c.png

來源:IEEE;整理:佐思汽研

以理想為例,理想 L3 智駕通過 “AI 推理可視化技術(shù)”,可直觀呈現(xiàn)端到端 + VLM 模型的思考過程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對智能駕駛系統(tǒng)的信任。

理想L3智駕的可解釋性

28058db2-edbd-11ef-9310-92fbcf53809c.jpg

來源:理想

理想的“AI推理可視化技術(shù)”中:

Attention(注意力系統(tǒng))主要負責(zé)展示車輛感知到的交通和環(huán)境路況信息,能對實時視頻流中的交通參與者進行行為評估,并使用熱力圖展示評估對象。

E2E(端到端模型)用于展示行駛軌跡輸出的思考過程。模型會思考不同的行駛軌跡,展示 10 個候選輸出結(jié)果,最終采用概率最大的輸出結(jié)果作為行駛路徑。

VLM(視覺語言模型)可展示自身的感知、推理和決策過程,其工作過程使用對話形式展示。

同時,理想Agent“理想同學(xué)”也提供可視化的工作流:

“理想同學(xué)”工作流

2809803e-edbd-11ef-9310-92fbcf53809c.png

來源:理想

同樣通過長思維鏈進行推理流程拆解的還有各個推理模型的對話界面,以DeepSeek R1為例,在與用戶的對話中,會先通過思維鏈展示每一個節(jié)點的決策,并通過自然語言進行說明。

DeepSeek R1長思維鏈界面

2823b4a4-edbd-11ef-9310-92fbcf53809c.png

來源:DeepSeek R1對話界面

此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長思維鏈推理流程展示。

DeepSeek降低大模型上車的門檻,性能提升與降本兼得

推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來看,并不是。2025年初,主機廠先后接入DeepSeek,從應(yīng)用詳情來看,基本上是以提升車載大模型的綜合能力為主。

2025年初,部分主機廠與DeepSeek合作情況

283cf73e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

事實上,DeepSeek系列模型推出之前,各大主機廠已經(jīng)按照自己的節(jié)奏有序推進旗下車載AI大模型的開發(fā)與迭代工作。以座艙助手為例,部分主機廠的方案已經(jīng)初步完成構(gòu)建,并已接入云端大模型供應(yīng)商試運行或初步敲定供應(yīng)商,其中不乏阿里云、騰訊云等云服務(wù)廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:

強大的推理性能表現(xiàn),如推理模型R1的性能與OPEN AI 推理模型o1相當,甚至在數(shù)學(xué)邏輯方面更為突出;

更低的成本,在保證性能的同時,訓(xùn)練與推理成本均保持在同行業(yè)較低水平。

DeepSeek R1與OPEN AI o1模型成本的比較

285b919e-edbd-11ef-9310-92fbcf53809c.png

來源:公開信息

以上2點優(yōu)勢均在DeepSeek的技術(shù)創(chuàng)新上有所體現(xiàn):

DeepSeek系列的部分技術(shù)對大模型性能和成本的影響

28669efe-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

通過接入DeepSeek,主機廠在部署智駕和座艙助手時,可以切實地降低大模型性能硬件采購、模型訓(xùn)練與維護成本,同時保證性能不下降:

低計算開銷技術(shù)推動高階智駕、智艙平權(quán),意味著低算力車載芯片(如邊緣計算單元)上也可實現(xiàn)部署高性能模型,降低對高成本GPU的依賴;再結(jié)合DualPipe算法、FP8混合精度訓(xùn)練等技術(shù),優(yōu)化算力利用率,從而實現(xiàn)中低端車型也能部署高階座艙功能、高階智駕系統(tǒng),加速智能座艙的普及。

實時性增強,在汽車行駛環(huán)境下,智駕系統(tǒng)需實時處理大量傳感器數(shù)據(jù),座艙助手需要快速響應(yīng)用戶指令,而車端計算資源有限。DeepSeek 計算開銷的降低使傳感器數(shù)據(jù)的處理速度更快,可更高效的利用智駕芯片算力(服務(wù)器端訓(xùn)練階段,DeepSeek實現(xiàn)了對英偉達A100芯片90%的算力利用率),同時降低延遲(如在高通8650平臺上,芯片算力同為100TOPS時,使用DeepSeek推理響應(yīng)時間從20毫秒降至9 - 10毫秒)。在智駕系統(tǒng)中,可確保駕駛決策及時準確,提升駕駛安全性和用戶體驗。在座艙系統(tǒng)中,支持座艙助手快速響應(yīng)用戶語音指令,實現(xiàn)流暢人機交互。

吉利星睿大模型的系統(tǒng)2接入DeepSeek R1

28862d00-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301359
  • 汽車
    +關(guān)注

    關(guān)注

    15

    文章

    4153

    瀏覽量

    41093
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3648

    瀏覽量

    5179

原文標題:AI大模型及汽車應(yīng)用研究:推理、降本和可解釋性

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成 nRF54LM20B 等高端 SoC 的專用 AI 加速器,對 TensorFlow Lite
    發(fā)表于 01-31 23:16

    谷歌正式發(fā)布Gemma Scope 2模型

    Scope 工具包推動了可解釋性科學(xué)的發(fā)展,該工具旨在幫助研究人員理解我們輕量級開放模型系列 Gemma 2 的內(nèi)部運作機制。
    的頭像 發(fā)表于 01-24 14:01 ?516次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    的仿真工具和數(shù)據(jù)集。 l Alpamayo 1、AlpaSim 和物理 AI 開放數(shù)據(jù)集可為開發(fā)具備感知、推理與類人決策能力的車輛提供支持,使開發(fā)者能夠進行模型調(diào)優(yōu)、蒸餾和測試,從而提升安全
    的頭像 發(fā)表于 01-06 09:40 ?378次閱讀
    NVIDIA 推出 Alpamayo 系列開源 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>與工具,加速安全可靠的<b class='flag-5'>推理</b>型輔助駕駛<b class='flag-5'>汽車</b>開發(fā)

    嵌入式軟件單元測試AI自動化與人工檢查的協(xié)同機制研究:基于專業(yè)工具的實證分析

    提升效率與覆蓋率方面的優(yōu)勢。通過實證案例與工業(yè)實踐數(shù)據(jù),論證即使AI高度介入的測試流程,人工檢查在測試用例設(shè)計、異常語義判斷、邊界條件推理與安全合規(guī)驗證等關(guān)鍵環(huán)節(jié)仍具有不可替代
    發(fā)表于 12-31 11:22

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?1264次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、現(xiàn)階段更智能、更接近AGI的6算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    流體芯片 ⑤AI計算平臺 ⑥基于AI的自主決策系統(tǒng) ⑦基于AI的自主學(xué)習(xí)系統(tǒng) 2、面臨的挑戰(zhàn) ①需要造就一個跨學(xué)科、全面覆蓋的知識庫和科學(xué)基礎(chǔ)模型
    發(fā)表于 09-17 11:45

    利用NVIDIA推理模型構(gòu)建AI智能體

    開放式推理模型能夠更快、更廣泛地進行思考,為客戶服務(wù)、網(wǎng)絡(luò)安全、制造、物流和機器人等領(lǐng)域的 AI 智能體生成更明智的結(jié)果。
    的頭像 發(fā)表于 08-13 14:32 ?1585次閱讀
    利用NVIDIA<b class='flag-5'>推理模型</b>構(gòu)建<b class='flag-5'>AI</b>智能體

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI模型。其核心優(yōu)勢
    發(fā)表于 07-16 15:29

    模型推理顯存和計算量估計方法研究

    ,為實際應(yīng)用提供了有益的參考。 未來,我們將繼續(xù)深入研究模型推理的優(yōu)化方法,以降低顯存和計算資源的需求,提高深度學(xué)習(xí)模型實際應(yīng)用
    發(fā)表于 07-03 19:43

    模型自適應(yīng)控制永磁同步電機轉(zhuǎn)速的仿真研究

    的可行和有效。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無模型自適應(yīng)控制永磁同步電機轉(zhuǎn)速的仿真
    發(fā)表于 06-25 13:01

    中國科學(xué)院西安光機所在計算成像可解釋性深度學(xué)習(xí)重建方法取得進展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國科學(xué)院西安光機所空間光學(xué)技術(shù)研究計算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新進展。相關(guān)
    的頭像 發(fā)表于 06-09 09:27 ?668次閱讀
    中國科學(xué)院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度學(xué)習(xí)重建方法取得進展

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    PIX GP模型的整合,并且針對模型進行全鏈路微秒級分析,以確保最佳的端到端性能表現(xiàn)。雙方的整個合作流程,開發(fā)效率提升了30%。 天璣AI
    發(fā)表于 04-13 19:52

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進展,特別是自DeepSeekR1發(fā)布后興起的推理時間計算擴展相關(guān)內(nèi)容。LLM實施和改進推理簡單來說,基于LLM的
    的頭像 發(fā)表于 04-03 12:09 ?1610次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠AI
    的頭像 發(fā)表于 03-20 15:03 ?1231次閱讀