91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

3DGS 與 OpenMATERIAL:場景表示與材質(zhì)標(biāo)準(zhǔn)的分層協(xié)同

康謀keymotek ? 2026-04-03 17:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

▍文章來源于康謀自動駕駛

01 引言

3DGS(3D Gaussian Splatting)的出現(xiàn)重塑了場景重建工作流,通過采集的相機與 LiDAR 數(shù)據(jù),可直接重建出視覺質(zhì)量接近手工建模的高保真場景,無需美術(shù)師逐資產(chǎn)打磨材質(zhì)貼圖。

康謀世界提取工具鏈在此基礎(chǔ)上更進一步:通過NeRF 教師 + 3DGS 學(xué)生兩階段訓(xùn)練,每個 Gaussian 不僅攜帶顏色,還承載 LiDAR 強度特征和語義標(biāo)簽,可同時驅(qū)動相機仿真(光柵化后端)和 LiDAR 仿真(光線追蹤后端),支持 ≥100,000 m2 的大規(guī)模場景重建。

由此引出核心疑問在已有能攜帶 LiDAR 強度的 3DGS 之后,是否還需要為每個資產(chǎn)單獨維護 3D 資產(chǎn)或 .xoma 文件?

本文核心結(jié)論先行:兩者不在同一層級,并非替代關(guān)系。3DGS 解決的是“如何高效表示和渲染場景”,而 OpenMATERIAL 解決的是“如何標(biāo)準(zhǔn)化描述物理材質(zhì)屬性”。具體分析見下文:

02 OpenMATERIAL 解決什么問題

傳統(tǒng)格式的盲區(qū)

glTF、FBX、USD在視覺渲染方面已經(jīng)成熟,但它們描述的只是視覺材質(zhì):顏色、法線貼圖、粗糙度貼圖。這些參數(shù)對渲染引擎足夠,對傳感器仿真則不夠

具體后果:

LiDAR 仿真:濕瀝青與干混凝土的 LiDAR 回波強度有顯著差異(表面粗糙度、水膜光學(xué)性質(zhì)不同),傳統(tǒng)格式無法描述這種差異;

毫米波雷達仿真:金屬與塑料的雷達截面積(RCS)差別可達 10–20 dB,但 glTF 材質(zhì)的 metallic 參數(shù)針對光學(xué)渲染設(shè)計,無法映射為電磁仿真所需的介電常數(shù)。

這是傳統(tǒng)格式的結(jié)構(gòu)性缺失,不是工程實現(xiàn)問題。

f61e68f8-2f3f-11f1-ab55-92fbcf53809c.png

模型組成

參數(shù)體系

ASAM OpenMATERIAL 3D 1.0.0 標(biāo)準(zhǔn)(2025 年 4 月 3 日發(fā)布,52 名參與者,21 家公司,9 個國家)按傳感器類型組織參數(shù):

相機仿真:波長相關(guān)復(fù)折射率查找表(n'、κ)、BRDF 查找表(.xompt 格式,角度 × 波長二維插值);

LiDAR 仿真:BRDF 查找表、表面粗糙度 RMS(surfaceHeightRms,單位米)、相關(guān)長度(surfaceCorrelationLength);

毫米波雷達仿真:復(fù)相對介電常數(shù) ε?、復(fù)相對磁導(dǎo)率 μ?(均為波長 + 溫度 + 濕度相關(guān)查找表)。

f634d48a-2f3f-11f1-ab55-92fbcf53809c.png

夜晚效果下aiSim渲染效果

其中,電磁參數(shù)是 3DGS 無法提供的。從光學(xué)圖像中無法估計電磁屬性,這是物理上的根本限制,不是算法優(yōu)化問題。

文件層級如下:

f6460642-2f3f-11f1-ab55-92fbcf53809c.png

文件層級

f65f3b76-2f3f-11f1-ab55-92fbcf53809c.png

PBR材質(zhì)

aiSimArcher 實踐案例

f6783c84-2f3f-11f1-ab55-92fbcf53809c.png

aiSimArcher 模型

aiSimArcher是 aiSim 對 OpenMATERIAL 1.0.0 標(biāo)準(zhǔn)的參考實現(xiàn),采用MPL-2.0 許可證,其核心價值在于提供了攜帶完整物理描述的標(biāo)準(zhǔn)化資產(chǎn)

幾何參數(shù):147,586 三角形,101 個網(wǎng)格,188 個節(jié)點;

材質(zhì)體系:11 種 PBR 材質(zhì)(CarPaint、Glass、Rubber 等,含法線貼圖);

.xoma 元數(shù)據(jù):包含車輛動力學(xué)參數(shù)(最高速 70 km/h、加速度 12 m/s2)、前后軸參數(shù)(輪徑 0.759 m、軌距 1.64 m)及包圍盒信息。

該模型的優(yōu)勢在于,同一個 .xoma 文件可同時驅(qū)動相機、LiDAR、雷達三種仿真,無需在不同工具間重新定義材質(zhì)。

認證體系價值

ISO 21448(SOTIF)、UNECE NATM 和 EU AI Act 對仿真可信度有明確要求:虛擬測試場景需要可追溯的物理依據(jù)。OpenMATERIAL 的每個 .xoma 文件包含 UUID、數(shù)據(jù)來源字段和版本控制,支持監(jiān)管機構(gòu)要求的證據(jù)鏈追溯。

這是神經(jīng)網(wǎng)絡(luò)表示方法結(jié)構(gòu)上無法滿足的——隱式權(quán)重?zé)o法向?qū)彶榉教峁?該漆面 IOR=1.52,來源于 2024 年實驗室測量"這樣的可驗證聲明。

03 3DGS 的能力邊界

世界提取工具鏈多模態(tài)重建能力

康謀世界提取工具鏈采用兩階段訓(xùn)練模式:NeRF 教師模型輸入 RGB、LiDAR 深度圖、LiDAR 強度圖和語義分割,經(jīng) L2 損失監(jiān)督后輸出稠密點云;3DGS 學(xué)生模型用該點云初始化,每個 Gaussian 攜帶顏色(3 階球諧函數(shù) SH)、深度/法線、LiDAR 強度(sigmoid 歸一化標(biāo)量)和語義標(biāo)簽。

f690059e-2f3f-11f1-ab55-92fbcf53809c.png

兩階段訓(xùn)練流程圖

工具鏈配備雙渲染后端:光柵化后端用于相機仿真,光線追蹤后端支持 LiDAR 掃描模式仿真,通過 BEV 分塊訓(xùn)練消除大場景邊界偽影,可支持 ≥100,000 m2 的場景規(guī)模。

f6a1a4b6-2f3f-11f1-ab55-92fbcf53809c.png

分塊訓(xùn)練

SH 系數(shù)的本質(zhì)局限

標(biāo)準(zhǔn) 3DGS 使用3 階球諧函數(shù)表示每個 Gaussian 的視角相關(guān)顏色:

f6acd61a-2f3f-11f1-ab55-92fbcf53809c.png

每個 Gaussian 有48 個 SH 系數(shù)(16 系數(shù)/通道 × 3 通道)。3 階 SH 是方向輻射的低通濾波器,各階對應(yīng)從各向同性基礎(chǔ)顏色(0 階)到較高頻高光(3 階)的外觀描述。

需要注意的一個關(guān)鍵是,SH 系數(shù)無法被解碼為 IOR、粗糙度、金屬度等物理參數(shù),它將光照與材質(zhì)混合烘焙(baked),兩者無法分離。這并非工程限制,而是數(shù)學(xué)層面的根本局限:SH 的優(yōu)化目標(biāo)是最小化渲染誤差,而非最大化物理可解釋性。

f6b7d6d2-2f3f-11f1-ab55-92fbcf53809c.png

3DGS與OpenMATERAIL對比

3.3 LiDAR 強度 ≠ 材質(zhì)反射率

目前康謀工具鏈將 LiDAR 掃描強度編碼為 Gaussian 的一個維度特征,為 LiDAR 仿真提供支持,但該強度特征是靜態(tài)、視角無關(guān)的標(biāo)量,無法準(zhǔn)確反映真實 LiDAR 傳感器固有的方向依賴性。

該強度特征本質(zhì)是混合信號的數(shù)據(jù)驅(qū)動近似,其表達式為:

f6c35d04-2f3f-11f1-ab55-92fbcf53809c.png

它并非解耦后的獨立材質(zhì)屬性。一種潛在的優(yōu)化路徑是:將 LiDAR 強度與 RGB 聯(lián)合用于逆渲染,顯式估計 albedo 和 roughness,建立物理 LiDAR 著色模型,實現(xiàn)光照與材質(zhì)的解耦。


真實LiDAR強度值

f6cfea38-2f3f-11f1-ab55-92fbcf53809c.png

LiDAR點云

04 兩者定位差異

理解 3DGS 與 OpenMATERIAL 關(guān)系的核心,是明確兩者在架構(gòu)中的分層定位

f6e2d85a-2f3f-11f1-ab55-92fbcf53809c.png

五層架構(gòu)圖

aiSim當(dāng)前三項核心能力的分層定位如下:

康謀世界提取工具鏈(NeRF2GS):負責(zé)層1→層2,完成從數(shù)據(jù)采集到場景重建的過程;

康謀 aiSimArcher:對應(yīng)層4,是 OpenMATERIAL 標(biāo)準(zhǔn)的完整標(biāo)準(zhǔn)化實現(xiàn);

康謀 UE+GS 插件:負責(zé)層2→層5,可在 3DGS 場景中插入 OpenMATERIAL 定義的合成資產(chǎn),實現(xiàn)統(tǒng)一渲染,直接跨越層3。

f6f08054-2f3f-11f1-ab55-92fbcf53809c.png

插件集成鏈路

其中,UE+GS 插件是當(dāng)前實用主義的融合路徑,它不試圖從 3DGS 中提取材質(zhì),而是直接向場景注入攜帶標(biāo)準(zhǔn)化材質(zhì)的合成資產(chǎn),繞過了層3 的技術(shù)Gap,是目前可落地的工程解決方案。

類比而言,“有了 3DGS 還需要 OpenMATERIAL 嗎”,就如同“有了 JPEG 還需要色彩空間標(biāo)準(zhǔn)嗎”,JPEG 是圖像壓縮編碼方式,色彩空間標(biāo)準(zhǔn)定義顏色的物理含義,兩者層級不同、功能不重疊,缺一不可。

05 兩條融合路徑

目前3DGS 與 OpenMATERIAL融合主要有兩條路徑,具體差異如下表所示:

f6fe3b2c-2f3f-11f1-ab55-92fbcf53809c.png

技術(shù)融合路徑對比

路徑 B 對應(yīng)的三條技術(shù)路線目前均處于研究階段:

InvRGB+L 路線(ICCV 2025):LiDAR 強度 + RGB 聯(lián)合逆渲染,顯式估計 albedo/roughness,建立物理 LiDAR 著色模型;是目前材質(zhì)分解深度最接近實用的方向;

R3DG 路線(ECCV 2024,Relightable 3D Gaussian):為每個 Gaussian 分配 Disney BRDF 參數(shù)(albedo、metallic、roughness)+ 法線,支持任意光照重打光;真正的 PBR 參數(shù)分解,可映射到 .xomp 格式,但計算成本高;

GaussianShader + 格式轉(zhuǎn)換(CVPR 2024,PSNR 提升 +1.57 dB):分離漫反射顏色、鏡面色調(diào)和標(biāo)量粗糙度,通過格式轉(zhuǎn)換映射到 .xomp;參數(shù)不完整,但工程實現(xiàn)路徑最短。

這三條路線均面臨同一個問題:當(dāng)前沒有從 3DGS 場景到 .xomp 文件的完整、可用工具鏈。

本質(zhì)而言,3DGS 及同類 Neural Material Field 方法無法完整替代材質(zhì)與標(biāo)準(zhǔn),核心原因有三點:

精度:雷達仿真需要 ε?,神經(jīng)網(wǎng)絡(luò)無法從光學(xué)圖像估計電磁參數(shù),近紅外波段的 IOR 也無法從可見光訓(xùn)練數(shù)據(jù)可靠外推;

可解釋性:ISO 26262 高 ASIL 等級要求形式化可驗證性,隱式權(quán)重?zé)o法提供可審計的材質(zhì)參數(shù)聲明;

互操作性:神經(jīng)材質(zhì)場是工具私有的隱式表示,無法"導(dǎo)出"為跨工具通用的物理參數(shù)表。

06 結(jié)語

總結(jié)來看,3DGS的SH系數(shù)專注于描述場景外觀OpenMATERIAL 的 .xomp 文件專注于描述材質(zhì)物理參數(shù),兩者優(yōu)化目標(biāo)不同、層級不同,不構(gòu)成替代關(guān)系,反而可形成互補

康謀世界提取工具鏈基于混合信號的數(shù)據(jù)驅(qū)動,實現(xiàn)了 LiDAR 強度特征的編碼,同時支持 Radar 在 GS 環(huán)境下的渲染;未來,將進一步在 3DGS 環(huán)境中實現(xiàn)更為完整的 LiDAR 和 Radar 模擬,推動兩者的深度融合與落地應(yīng)用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2577

    文章

    55320

    瀏覽量

    793161
  • 仿真
    +關(guān)注

    關(guān)注

    55

    文章

    4524

    瀏覽量

    138580
  • 汽車
    +關(guān)注

    關(guān)注

    15

    文章

    4208

    瀏覽量

    41242
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    康謀分享 | 3DGS:革新自動駕駛仿真場景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)為自動駕駛仿真場景重建帶來突破,通過3D高斯點精確表達復(fù)雜場景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量??抵\aiSim平臺結(jié)合3DG
    的頭像 發(fā)表于 03-05 09:45 ?5952次閱讀
    康謀分享 | <b class='flag-5'>3DGS</b>:革新自動駕駛仿真<b class='flag-5'>場景</b>重建的關(guān)鍵技術(shù)

    技術(shù)分享 |多模態(tài)自動駕駛混合渲染HRMAD:將NeRF和3DGS進行感知驗證和端到端AD測試

    多模態(tài)自動駕駛混合渲染HRMAD,融合NeRF與3DGS技術(shù),實現(xiàn)超10萬㎡場景重建,多傳感器實時輸出,仿真更接近真實數(shù)據(jù)!然而,如何用高保真仿真場景快速驗證自動駕駛算法?HRMAD已集成至aiSim平臺,端到端測試即刻開啟!
    的頭像 發(fā)表于 03-26 16:05 ?4324次閱讀
    技術(shù)分享 |多模態(tài)自動駕駛混合渲染HRMAD:將NeRF和<b class='flag-5'>3DGS</b>進行感知驗證和端到端AD測試

    APT攻擊分層表示模型

    針對攻擊鏈模型攻擊階段劃分過細且無法表示攻擊手段的問題,提出了一種高級可持續(xù)性威脅( APT)攻擊分層表示模型( APT-HARM)。通過總結(jié)分析大量公開的APT事件報告和參考APT攻擊鏈模型與
    發(fā)表于 11-28 15:43 ?0次下載
    APT攻擊<b class='flag-5'>分層</b><b class='flag-5'>表示</b>模型

    玻璃基3D集成無源解決方案領(lǐng)先廠商3DGS完成3000萬美元C輪融資

    3DGS將利用這筆資金提高其在美國的制造能力,以大批量生產(chǎn)高性能3D集成無源器件和襯底產(chǎn)品。Walden International董事長、Walden Catalyst Ventures創(chuàng)始管理合伙人Lip Bu Tan將加入3DGS
    的頭像 發(fā)表于 04-28 11:21 ?2041次閱讀
    玻璃基<b class='flag-5'>3</b>D集成無源解決方案領(lǐng)先廠商<b class='flag-5'>3DGS</b>完成3000萬美元C輪融資

    AIRLOOK攜手百度視覺技術(shù)部聯(lián)合發(fā)布國內(nèi)首個大空間高精度3DGS逆渲染成果

    近日,AIRLOOK與百度視覺技術(shù)部聯(lián)合發(fā)布了中國地信領(lǐng)域的第一個大空間高精度3DGS 解決方案,率先實現(xiàn)了測繪級 SfM?與3D Gaussian Splatting(后文簡稱:3DGS)逆渲染
    的頭像 發(fā)表于 02-27 14:18 ?1510次閱讀
    AIRLOOK攜手百度視覺技術(shù)部聯(lián)合發(fā)布國內(nèi)首個大空間高精度<b class='flag-5'>3DGS</b>逆渲染成果

    康謀分享|aiSim5基于生成式AI擴大仿真測試范圍(終)

    場景重建和測試流程閉環(huán)的過程中,難免會面臨3D場景制作重建耗時長、成本高、擴展性低以及交通狀況復(fù)雜程度難以滿足等問題??抵\aiSim中NeRF和3DGS可以自動化生成
    的頭像 發(fā)表于 05-22 13:57 ?2287次閱讀
    康謀分享|aiSim5基于生成式AI擴大仿真測試范圍(終)

    康謀方案 | 高精LiDAR+神經(jīng)渲染3DGS的完美融合實踐

    在自動駕駛仿真測試剛需下,數(shù)字孿生成提升保真度關(guān)鍵。本文介紹傳統(tǒng)與前沿結(jié)合的構(gòu)建流程,先通過數(shù)據(jù)采集、點云聚合等完成高精地圖重建,再以NeRF+3DGS實現(xiàn)神經(jīng)網(wǎng)絡(luò)重建,降本增效,為仿真注入真實感,重塑測試范式。
    的頭像 發(fā)表于 06-11 13:51 ?1865次閱讀
    康謀方案 | 高精LiDAR+神經(jīng)渲染<b class='flag-5'>3DGS</b>的完美融合實踐

    一種適用于動態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    當(dāng)前基于神經(jīng)輻射場(NeRF)或3D高斯?jié)姙R(3DGS)的SLAM方法在重建靜態(tài)3D場景方面表現(xiàn)出色,但在動態(tài)環(huán)境中的跟蹤和重建方面卻面臨著挑戰(zhàn)。
    的頭像 發(fā)表于 06-13 10:10 ?1531次閱讀
    一種適用于動態(tài)環(huán)境的<b class='flag-5'>3DGS</b>-SLAM系統(tǒng)

    直播邀約 | 10月21日15點,從三維重構(gòu)到仿真革新:3DGS技術(shù)解析與實踐應(yīng)用!

    臨:3DGaussianSplatting技術(shù)原理復(fù)雜,難以深入理解核心邏輯?不知如何利用3DGS開源工具鏈搭建實戰(zhàn)Demo?不清楚3DGS在智能駕駛仿真中的具體應(yīng)用場景
    的頭像 發(fā)表于 10-14 17:32 ?877次閱讀
    直播邀約 | 10月21日15點,從三維重構(gòu)到仿真革新:<b class='flag-5'>3DGS</b>技術(shù)解析與實踐應(yīng)用!

    從“重建”到“可用”:aiSim3DGS方案如何閉環(huán)自動駕駛仿真場景?

    3DGaussianSplatting(3DGS)憑借高效渲染與逼真場景還原能力,逐漸成為三維重建與仿真領(lǐng)域的焦點。然而,實際應(yīng)用中,如何將多源異構(gòu)數(shù)據(jù)高效轉(zhuǎn)化為可用的3DGS
    的頭像 發(fā)表于 10-24 17:33 ?28次閱讀
    從“重建”到“可用”:aiSim<b class='flag-5'>3DGS</b>方案如何閉環(huán)自動駕駛仿真<b class='flag-5'>場景</b>?

    摩爾線程在SIGGRAPH Asia 2025斬獲3DGS重建挑戰(zhàn)賽銀獎

    Challenge(3DGS 重建挑戰(zhàn)賽)中憑借自研技術(shù)LiteGS出色的算法實力和軟硬件協(xié)同優(yōu)化能力,斬獲銀獎,再次證明摩爾線程在新一代圖形渲染技術(shù)上的深度積累與全球?qū)W術(shù)界的高度認可。
    的頭像 發(fā)表于 12-22 18:01 ?1910次閱讀
    摩爾線程在SIGGRAPH Asia 2025斬獲<b class='flag-5'>3DGS</b>重建挑戰(zhàn)賽銀獎

    自動駕駛場景生成方法及優(yōu)選方案:康謀aiSim 3DGS方案重塑行業(yè)標(biāo)準(zhǔn)

    生成技術(shù)應(yīng)運而生,其中 康謀aiSim 3DGS方案 憑借技術(shù)突破與工程化落地能力,成為自動駕駛場景生成領(lǐng)域的優(yōu)選方案。 一、自動駕駛場景生成是什么?核心需求與傳統(tǒng)痛點 (一)自動駕駛場景
    的頭像 發(fā)表于 02-02 17:39 ?439次閱讀

    2026年,3DGS和世界模型,在自動駕駛仿真中的組合應(yīng)用

    寫在前面:作為自動駕駛仿真的核心支撐,3DGS與世界模型的技術(shù)落地一直備受關(guān)注。我們看到了車路漫漫的一篇文章,探討了3DGS與世界模型的路線差異,并開箱了aiSim軟件的3DGS功能,從效果對比
    的頭像 發(fā)表于 02-03 17:32 ?3432次閱讀
    2026年,<b class='flag-5'>3DGS</b>和世界模型,在自動駕駛仿真中的組合應(yīng)用

    3DGS技術(shù)詳解(一):3DGS如何融合動態(tài)天氣與光照等環(huán)境因素?

    3DGS與4DGS的核心應(yīng)用實踐與技術(shù)突破!01引言無論是暴雪過后的街道、夜幕下車燈照亮的路面、還是雨霧交織的高速公路——這些對人類駕駛員而言習(xí)以為常的場景,卻構(gòu)成了自動駕駛系統(tǒng)面臨的環(huán)境感知極限挑戰(zhàn)。這是由于傳統(tǒng)
    的頭像 發(fā)表于 02-06 17:35 ?991次閱讀
    <b class='flag-5'>3DGS</b>技術(shù)詳解(一):<b class='flag-5'>3DGS</b>如何融合動態(tài)天氣與光照等環(huán)境因素?

    3DGS技術(shù)詳解(二):視覺重建到物理仿真,3DGS如何走向工程應(yīng)用?

    )如何突破靜態(tài)重建的局限,實現(xiàn)對動態(tài)天氣、移動光源等復(fù)雜環(huán)境因素的建模與仿真。這標(biāo)志著3DGS已不再僅僅是“高保真場景重建工具
    的頭像 發(fā)表于 03-20 17:37 ?810次閱讀
    <b class='flag-5'>3DGS</b>技術(shù)詳解(二):視覺重建到物理仿真,<b class='flag-5'>3DGS</b>如何走向工程應(yīng)用?