91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Block nerf:可縮放的大型場景神經(jīng)視圖合成

3D視覺工坊 ? 來源:泡泡機器人SLAM ? 作者:paopaoslam ? 2022-10-19 15:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

我們提出了 Block-NeRF,一種神經(jīng)輻射場的變體,可以表示大規(guī)模的場景。具體來說,我們發(fā)現(xiàn),當使用 NeRF 渲染跨越多個街區(qū)的城市規(guī)模場景時,將場景分解為單獨訓練的子 NeRF 至關(guān)重要。這種分解將渲染時間與場景大小分離,使渲染能夠擴展到任意大的場景,并允許對環(huán)境進行逐塊更新。我們采用了幾項架構(gòu)更改,以使 NeRF 對在不同環(huán)境條件下數(shù)月捕獲的數(shù)據(jù)具有魯棒性。我們?yōu)槊總€單獨的 NeRF 添加了外觀嵌入、可學習的位姿細化和可控曝光,并引入了校準相鄰 NeRF 之間外觀的程序,以便它們可以無縫組合。我們從 280 萬張圖像中構(gòu)建了一個 Block-NeRF 網(wǎng)格,以創(chuàng)建迄今為止最大的神經(jīng)場景表示,能夠渲染舊金山的整個社區(qū)。

video: (click the picture to view)

cf1514b0-4f63-11ed-a3b6-dac502259ad0.png

主要貢獻

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

為了在大場景中應(yīng)用神經(jīng)輻射場(NeRF)模型,文章提出將大型場景分解為相互重疊的子場景 (block),每一個子場景分別訓練,在推理時動態(tài)結(jié)合相鄰 Block-NeRF 的渲染視圖。

文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入、曝光嵌入和位姿細化,以解決訓練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

為了保證相鄰 Block-NeRF 的無縫合成,文章提出了在推理時迭代優(yōu)化這些 Block-NeRF 的輸入外觀嵌入以校準它們的渲染結(jié)果。

方法概述

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png 神經(jīng)輻射場 (NeRF)是使用神經(jīng)網(wǎng)絡(luò)擬合輻射場,用于視圖渲染的方法。然而,傳統(tǒng)的 NeRF 很難被直接擴展到大場景應(yīng)用。這是因為擬合大場景所需的神經(jīng)網(wǎng)絡(luò)也會很大,這會導(dǎo)致訓練和推理渲染變得很困難。本文提出將大的場景劃分為數(shù)個相互重合的小場景 (block)。如下圖所示的丁字路口被劃分為三個小場景(黃圈),針對每一個小場景單獨訓練一個 Block-NeRF。推理時合并覆蓋目標視圖范圍的 Block-NeRF 渲染生成最終的視圖。

cf5e8866-4f63-11ed-a3b6-dac502259ad0.png

mip-NeRF 拓展

文章基于 mip-NeRF,但是由于訓練視圖在長達數(shù)月的時間內(nèi)采集,不可避免地出現(xiàn)場景光照不同、相機曝光不同、視圖位姿存在誤差等問題。為了解決這些問題,文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入和曝光作為神經(jīng)網(wǎng)絡(luò)的輸入(如下圖所示,其中 fσ 和 fc 分別為預(yù)測密度 σ 和顏色 RGB 的神經(jīng)網(wǎng)絡(luò),x 為場景中的三維坐標點,d 表示視角)。

cfbffd94-4f63-11ed-a3b6-dac502259ad0.png

訓練時使用生成式潛碼優(yōu)化的方法學習外觀嵌入,消除天氣光照等原因的影響。曝光則直接可以讀取采集記錄,只需對其進行正弦位置編碼即可。

與此同時,訓練視圖的采集跨越了多個駕駛段,這些駕駛軌跡之間不可避免地存在位姿誤差。Block-NeRF 訓練時還同時優(yōu)化每一個駕駛段的位姿偏移以降低位姿誤差帶來的影響。

街道視圖中存在汽車、行人等瞬時物體,然而場景渲染通常只關(guān)注建筑、街道等靜態(tài)結(jié)構(gòu)。文章于是使用語義分割網(wǎng)絡(luò)對訓練視圖中的動態(tài)物體進行掩蔽,這樣神經(jīng)輻射場就不會學習這些動態(tài)物體,而是只關(guān)注靜態(tài)場景結(jié)構(gòu)。

有時目標視圖的相鄰 Block-NeRF 可能距離上很近,但并不在目標視圖的視野之內(nèi),文章在傳統(tǒng) NeRF 的兩個神經(jīng)網(wǎng)絡(luò) fσ 和 fc 之外,還增加了一個預(yù)測能見度的網(wǎng)絡(luò) fv。給定三維坐標 x 和視角 d , fv 預(yù)測該點在給定視角下的能見度。合成多個 Block-NeRF 的渲染時,能見度低于閾值的渲染不會被用于最終的合成。訓練時能見度可以由相應(yīng)點的透光率作為監(jiān)督目標。

cfcb833a-4f63-11ed-a3b6-dac502259ad0.png

Block-NeRF 融合

為提高渲染效率,渲染目標視圖時文章僅融合:

中心點在閾值半徑內(nèi)

且平均能見值高于閾值的 Block-NeRFs

滿足這兩個條件的 Block-NeRFs 以反距離加權(quán)的方式融合渲染視圖。這里的距離選擇相機到 Block-NeRFs 的二維空間距離。這樣的融合方法既保證了渲染真實度又能夠滿足時空一致性。

為了保證不同視角下渲染的天氣、光線等外觀的一致性,文章還在推理時引入了外觀嵌入迭代優(yōu)化。給定一個 Block-NeRF 的外觀嵌入,文章在鎖定神經(jīng)網(wǎng)絡(luò)權(quán)重不變的基礎(chǔ)上,優(yōu)化相鄰 Block-NeRFs 的外觀嵌入,最大化其渲染視圖的一致性。

實驗結(jié)果

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

文章采集并開源了兩個數(shù)據(jù)集:San Francisco Alamo Square Dataset 和 San Francisco Mission Bay Dataset,分布包含280萬和1.2萬圖片。Alamo Square Dataset覆蓋大約 0.5km2 ,采集自3個月周期內(nèi),包括不同光線條件和天氣的數(shù)據(jù)。Mission Bay Dataset 涵蓋的地理范圍遠遠小于 Alamo Square Dataset,主要被用來與 NeRF做比較。

Table 2 顯示 Block-NeRF 相較于NeRF 渲染效果更好。并且 block 數(shù)量越多越好。即便是保持神經(jīng)網(wǎng)絡(luò)總參數(shù)量不變,Block-NeRF 仍然優(yōu)于 NeRF 并且推理速度在不考慮并行計算的前提下也大大提高。

cff1ac22-4f63-11ed-a3b6-dac502259ad0.png

Table 1 和 Figure 7 分別定量和定性地顯示外觀嵌入、曝光輸入以及位姿優(yōu)化都對提高渲染效果有幫助。

cffe6ffc-4f63-11ed-a3b6-dac502259ad0.png

d0335f32-4f63-11ed-a3b6-dac502259ad0.png

Figure 6 顯示推理時外觀嵌入優(yōu)化可以將渲染從白天場景轉(zhuǎn)換成黑夜場景,從而更好地與基準 Block-NeRF 匹配,增強渲染地時空一致性。

d0bb5392-4f63-11ed-a3b6-dac502259ad0.png

總結(jié)

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

本文提出了Block-NeRF,采用 divide-and-conquer 的方法使用多個 Block-NeRFs 學習大型場景的不同分塊,最終將這些Block-NeRFs 的渲染合成目標視圖。這樣的方法使得利用 NeRF 模型渲染城市規(guī)模的場景成為了可能。

此外 Block-NeRF 還在 mip-NeRF 的基礎(chǔ)上,引入了外觀嵌入優(yōu)化、曝光輸入和位姿細化等擴展,以解決訓練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107786
  • Block
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    15154
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛仿真測試場景生成方法:從技術(shù)突破到工程落地的全維度解析

    建模與有限真實數(shù)據(jù)采集,不僅耗時耗力,更難以覆蓋極端工況與長尾場景。隨著 3D 高斯?jié)姙R(3DGS)、神經(jīng)輻射場(NeRF)等技術(shù)的崛起,自動駕駛仿真場景生成正迎來從 "手動構(gòu)建" 到
    的頭像 發(fā)表于 02-02 17:52 ?361次閱讀
    自動駕駛仿真測試<b class='flag-5'>場景</b>生成方法:從技術(shù)突破到工程落地的全維度解析

    華秋DFM軟件丨操作教程——菜單欄-視圖功能篇

    列表:一覽所有器件信息 可以 調(diào)整視圖比例 ,選擇查找頂層或底層的元件。 點擊列表中的元件會 定位到元件具體位置 。 五、3D視圖:從立體角度審視PCB 可以拖動鼠標360°自由 旋轉(zhuǎn)、縮放、任意
    發(fā)表于 09-26 11:51

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    : 脈沖驅(qū)動Transformer的獨特特性: 三、超導(dǎo)與非超導(dǎo)低溫類腦芯片 低溫器件是指在低于絕對零度(-273.15℃)的溫度范圍內(nèi)工作的器件。 大型神經(jīng)形態(tài)網(wǎng)絡(luò)功耗的主要來源是神經(jīng)元和突觸之間
    發(fā)表于 09-17 16:43

    TTS文字合成語音芯片的使用場景

    TTS文字合成語音播報芯片的使用場景非常廣泛,可以適用于各行各業(yè),主要應(yīng)用于復(fù)雜的語音播報場景,下面小編帶大家一起來了解一下。 傳統(tǒng)的語音播報芯片,主要是先把語音存入FLASH當中,然后在固定的環(huán)境
    的頭像 發(fā)表于 08-22 17:11 ?1006次閱讀

    生成式 AI 重塑自動駕駛仿真:4D 場景生成技術(shù)的突破與實踐

    生成式AI驅(qū)動的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯?jié)姙R等技術(shù)實現(xiàn)高保真動態(tài)建模?高效生成極端天氣等長尾場景?本文為您系統(tǒng)梳理AI驅(qū)動的4D場景
    的頭像 發(fā)表于 08-06 11:20 ?5152次閱讀
    生成式 AI 重塑自動駕駛仿真:4D <b class='flag-5'>場景</b>生成技術(shù)的突破與實踐

    NVIDIA借助神經(jīng)渲染技術(shù)為物理AI開發(fā)場景注入新活力

    DiffusionRenderer 引入了一種神經(jīng)渲染技術(shù),可用于創(chuàng)意領(lǐng)域的內(nèi)容生成和編輯,也可用于智能汽車和機器人開發(fā)的合成數(shù)據(jù)生成。
    的頭像 發(fā)表于 06-16 14:41 ?965次閱讀

    一種適用于動態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    當前基于神經(jīng)輻射場(NeRF)或3D高斯?jié)姙R(3DGS)的SLAM方法在重建靜態(tài)3D場景方面表現(xiàn)出色,但在動態(tài)環(huán)境中的跟蹤和重建方面卻面臨著挑戰(zhàn)。
    的頭像 發(fā)表于 06-13 10:10 ?1402次閱讀
    一種適用于動態(tài)環(huán)境的3DGS-SLAM系統(tǒng)

    康謀方案 | 高精LiDAR+神經(jīng)渲染3DGS的完美融合實踐

    在自動駕駛仿真測試剛需下,數(shù)字孿生成提升保真度關(guān)鍵。本文介紹傳統(tǒng)與前沿結(jié)合的構(gòu)建流程,先通過數(shù)據(jù)采集、點云聚合等完成高精地圖重建,再以NeRF+3DGS實現(xiàn)神經(jīng)網(wǎng)絡(luò)重建,降本增效,為仿真注入真實感,重塑測試范式。
    的頭像 發(fā)表于 06-11 13:51 ?1772次閱讀
    康謀方案 | 高精LiDAR+<b class='flag-5'>神經(jīng)</b>渲染3DGS的完美融合實踐

    人工合成石墨片與天然石墨片的差別

    程度天然高達98%以上,無需額外高溫處理,保留了自然形成的層狀晶體結(jié)構(gòu),適合對成本敏感的傳統(tǒng)工業(yè)場景。 人工合成石墨則是科技創(chuàng)新的產(chǎn)物。傲琪采用聚酰亞胺膜等含碳化合物,通過炭化、高溫石墨化及精密壓延工藝
    發(fā)表于 05-23 11:22

    技術(shù)分享 | 高逼真合成數(shù)據(jù)助力智駕“看得更準、學得更快”

    自動駕駛研發(fā)如何高效獲取海量訓練數(shù)據(jù)?高逼真合成數(shù)據(jù)技術(shù)正在提供新解法。通過仿真平臺生成多場景、多傳感器的精準標注數(shù)據(jù)。文章詳解如何構(gòu)建符合nuScenes標準的數(shù)據(jù)集,覆蓋復(fù)雜交通場景
    的頭像 發(fā)表于 04-29 10:47 ?3528次閱讀
    技術(shù)分享 | 高逼真<b class='flag-5'>合成</b>數(shù)據(jù)助力智駕“看得更準、學得更快”

    技術(shù)分享 |多模態(tài)自動駕駛混合渲染HRMAD:將NeRF和3DGS進行感知驗證和端到端AD測試

    多模態(tài)自動駕駛混合渲染HRMAD,融合NeRF與3DGS技術(shù),實現(xiàn)超10萬㎡場景重建,多傳感器實時輸出,仿真更接近真實數(shù)據(jù)!然而,如何用高保真仿真場景快速驗證自動駕駛算法?HRMAD已集成至aiSim平臺,端到端測試即刻開啟!
    的頭像 發(fā)表于 03-26 16:05 ?4221次閱讀
    技術(shù)分享 |多模態(tài)自動駕駛混合渲染HRMAD:將<b class='flag-5'>NeRF</b>和3DGS進行感知驗證和端到端AD測試

    圖形顯示控制芯片RA6809適用于哪些應(yīng)用場景

    設(shè)備? ?應(yīng)用場景?:工業(yè)儀表、自動化設(shè)備操作面板、生產(chǎn)線監(jiān)控終端等。 ?功能優(yōu)勢?:MCU端支持SPI串行接口,畫中畫(PIP)、透明度控制等特性,實現(xiàn)復(fù)雜界面設(shè)計及快速內(nèi)容更新?1;低端普通單片機
    發(fā)表于 03-21 11:08

    DS855調(diào)相直接數(shù)字合成器適合哪些場景?

    DS855調(diào)相直接數(shù)字合成器(DDS)是一款基于先進直接數(shù)字合成技術(shù)的高性能頻率合成解決方案,它融合了尖端的數(shù)字信號處理技術(shù),能夠產(chǎn)生高精度且高度穩(wěn)定的頻率信號。DS855調(diào)相直接數(shù)字合成
    發(fā)表于 03-21 09:28

    技術(shù)分享 | AVM合成數(shù)據(jù)仿真驗證方案

    AVM 合成數(shù)據(jù)仿真驗證技術(shù)為自動駕駛環(huán)境感知發(fā)展帶來助力,借助仿真軟件配置傳感器、搭建環(huán)境、處理圖像,生成 AVM 合成數(shù)據(jù),有效加速算法驗證。然而,如何利用仿真軟件優(yōu)化傳感器外參與多場景
    的頭像 發(fā)表于 03-19 09:40 ?3740次閱讀
    技術(shù)分享 | AVM<b class='flag-5'>合成</b>數(shù)據(jù)仿真驗證方案

    VirtualLab Fusion應(yīng)用:創(chuàng)建1D圖

    的用戶可以生成任意設(shè)置的一維繪圖。 窗口尺寸 字體尺寸 坐標范圍 基于選擇的縮放比例I 基于選擇的縮放比例II 軸刻度線數(shù)目 線的粗細和顏色 數(shù)據(jù)點符號 非插值視圖 復(fù)制視圖
    發(fā)表于 03-17 11:20