91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度預(yù)測模型推斷移動中的人的場景深度

電子工程師 ? 來源:YXQ ? 2019-05-27 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預(yù)測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復(fù)雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。

當(dāng)攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設(shè)需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標(biāo)本身是靜止?fàn)顟B(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(biāo)(將移動目標(biāo)的深度固定為“零”),要么直接忽略移動目標(biāo)(會導(dǎo)致深度值發(fā)生錯誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學(xué)習(xí)的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標(biāo)都可以自由移動。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學(xué)習(xí)進行深度預(yù)測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標(biāo)都在運動的狀態(tài)下的基于學(xué)習(xí)的方法。

本研究中的觀察目標(biāo)是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標(biāo)。

我們的模型可以預(yù)測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓(xùn)練數(shù)據(jù)

我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持?jǐn)z像機則在現(xiàn)場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預(yù)測模型的訓(xùn)練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標(biāo)是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進了用于深度預(yù)測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結(jié)果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預(yù)測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負(fù)責(zé)對訓(xùn)練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復(fù)”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡(luò)可以通過觀察多個訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗知識。經(jīng)過訓(xùn)練后,模型就可以處理任意攝像頭和人體同時運動的視頻。

來看一段介紹視頻:

以下是基于視頻的深度預(yù)測模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。

上圖:基于學(xué)習(xí)的單眼深度預(yù)測方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預(yù)測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111391
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398

原文標(biāo)題:Google AI:機器學(xué)習(xí)預(yù)測場景深度圖,模擬人眼更進一步

文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    銀河通用機器人拿下1000 臺機器人訂單,推進具身智能工業(yè)場景深度應(yīng)用

    模型技術(shù)+場景深耕的雙輪驅(qū)動,銀河通用機器人成中國具身第一 北京2025年12月23日 /美通社/ -- 12月22日,銀河通用機器人(以下簡稱"銀河通用")與精密制造的領(lǐng)先工業(yè)企業(yè)百達精工
    的頭像 發(fā)表于 12-23 18:24 ?1485次閱讀
    銀河通用機器人拿下1000 臺機器人訂單,推進具身智能工業(yè)<b class='flag-5'>場景深度</b>應(yīng)用

    模型賦能物資需求精準(zhǔn)預(yù)測與采購系統(tǒng)軟件平臺

    、功能模塊、應(yīng)用場景、優(yōu)勢與挑戰(zhàn)、未來方向五維度精簡解析: ? ?應(yīng)用案例 ? ?目前,已有多個大模型賦能物資需求精準(zhǔn)預(yù)測與采購平臺系統(tǒng)在實際應(yīng)用取得了顯著成效。例如,北京華盛恒輝和
    的頭像 發(fā)表于 12-17 16:37 ?261次閱讀

    模型賦能物資需求精準(zhǔn)預(yù)測與采購系統(tǒng):功能特點與平臺架構(gòu)解析

    ? ? 大模型賦能物資需求預(yù)測與采購智能化:核心功能與價值解析 ? ?大模型賦能物資需求精準(zhǔn)預(yù)測與采購系統(tǒng)通過深度整合多源數(shù)據(jù)、構(gòu)建動態(tài)
    的頭像 發(fā)表于 12-16 11:54 ?302次閱讀

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?220次閱讀

    景深顯微鏡在材料學(xué)的應(yīng)用

    算法融合與三維重建,合成全深度清晰的圖像,徹底解決“局部清晰、整體模糊”的痛點。下文,光子灣科技將詳細介紹超景深顯微鏡在材料科學(xué)的應(yīng)用。#Photonixbay.
    的頭像 發(fā)表于 11-11 18:03 ?1366次閱讀
    超<b class='flag-5'>景深</b>顯微鏡在材料學(xué)<b class='flag-5'>中</b>的應(yīng)用

    FOSAN富捷科技:多元場景深度賦能,釋放半導(dǎo)體器件核心價值

    作為 FOSAN 富捷科技集團旗下專注半導(dǎo)體領(lǐng)域的核心企業(yè),安徽富信半導(dǎo)體科技有限公司憑借豐富的半導(dǎo)體分立器件產(chǎn)品線與場景化解決方案能力,深度滲透 BMS 電池管理、儲能電源、智能裝備、消費
    的頭像 發(fā)表于 09-08 14:45 ?919次閱讀
    FOSAN富捷科技:多元<b class='flag-5'>場景深度</b>賦能,釋放半導(dǎo)體器件核心價值

    自動駕駛Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4184次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大<b class='flag-5'>模型</b>會取代<b class='flag-5'>深度</b>學(xué)習(xí)嗎?

    毫米之間定成?。篜CB背鉆深度設(shè)計與生產(chǎn)如何精準(zhǔn)把控

    。 PCB 背鉆(Back Drilling)的核心目的是去除多層板中導(dǎo)通孔(Via)在深層多余的 “stub”(未連接的孔壁鍍層殘留),以減少高頻信號傳輸的反射、損耗和串?dāng)_。背鉆深度的精準(zhǔn)控制直接影響其
    發(fā)表于 07-28 14:20

    晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預(yù)測控制

    摘要:本文針對超薄晶圓切割過程 TTV 均勻性控制難題,研究晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預(yù)測控制方法。分析影響切割深度
    的頭像 發(fā)表于 07-23 09:54 ?570次閱讀
    晶圓切割<b class='flag-5'>深度</b>動態(tài)補償?shù)闹悄軟Q策<b class='flag-5'>模型</b>與 TTV <b class='flag-5'>預(yù)測</b>控制

    寧暢與與百度文心大模型展開深度技術(shù)合作

    與部署。 憑借覆蓋訓(xùn)練、推理、微調(diào)全流程的AI?服務(wù)器產(chǎn)品矩陣,寧暢幫助企業(yè)在大模型時代一鍵打通算力與應(yīng)用“任督二脈”,顯著縮短模型落地周期。 在已啟動的深度技術(shù)合作,雙方將基于文心
    的頭像 發(fā)表于 07-07 16:26 ?871次閱讀

    模型推理顯存和計算量估計方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學(xué)習(xí)模型進行預(yù)測或分類的過程。然而,大模型的推理過程對顯存和計算資源的需求較
    發(fā)表于 07-03 19:43

    存儲示波器的存儲深度對信號分析有什么影響?

    存儲深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程能夠記錄的采樣點數(shù)量。存儲深度對信號分析的影響貫穿時域細節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定性等多個維度
    發(fā)表于 05-27 14:39

    摩爾線程與當(dāng)虹科技達成深度合作

    近日,摩爾線程與當(dāng)虹科技達成深度合作,基于國產(chǎn)GPU成功完成了與BlackEye多模態(tài)視聽大模型深度融合。雙方聯(lián)手打造專業(yè)級視聽“引擎”,并在超高清GPU算力場景
    的頭像 發(fā)表于 03-20 15:22 ?1503次閱讀

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知
    的頭像 發(fā)表于 03-19 16:33 ?1108次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計

    PTR5415藍牙模組性能與場景應(yīng)用深度解析

    PTR5415是基于Nordic最新nRF54L15芯片,專為物聯(lián)網(wǎng)和工業(yè)場景設(shè)計。 1、核心參數(shù)與硬件優(yōu)勢 芯片與協(xié)議:搭載nRF54L15SoC,支持藍牙6.0、LEAudio、Thread
    發(fā)表于 03-11 16:03