91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)網(wǎng)絡(luò)的DeepFovea圖形渲染系統(tǒng)降低應(yīng)用功耗

牽手一起夢 ? 來源:VR陀螺 ? 作者:佚名 ? 2020-09-01 18:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如何讓AR/VR設(shè)備更易于讓消費者接受一直是各大廠商需要應(yīng)對的問題,除了價格外,設(shè)備的舒適度、功能和效果都是消費者很看重的因素。而當(dāng)前市場上的設(shè)備大部分從外形上來看都較為笨重,也并不適合長時間佩戴。從視覺效果來說,越好的設(shè)備就需要越強的運算能力并消耗更大的電量,這也就意味著設(shè)備在外形設(shè)計上處處受制。那么該如何降低設(shè)備功耗,令設(shè)備可以更加輕便的同時又不影響圖像質(zhì)量?

為此,F(xiàn)acebook的研究部門Facebook Reality Labs基于神經(jīng)網(wǎng)絡(luò)開發(fā)了一款名為DeepFovea的圖形渲染系統(tǒng),以應(yīng)對這個挑戰(zhàn)。以下是Facebook在其博客上發(fā)表的完整文章: 在Facebook Reality Labs,我們正在建立一個未來,讓現(xiàn)實世界和虛擬世界可以自由地混合在一起,使我們的日常生活更輕松,生產(chǎn)力更高,并相互連接在一起。功耗是實現(xiàn)該未來的挑戰(zhàn)之一。為了獲得可以在任意長時間(包括整天)內(nèi)舒適佩戴的增強現(xiàn)實和虛擬現(xiàn)實(AR / VR)設(shè)備,VR頭戴設(shè)備都必須具有更高的能效,而AR眼鏡必須消耗較少的電量。作為構(gòu)建達到更高級別的AR / VR系統(tǒng)的一部分,我們正在開發(fā)可顯著降低功耗而又不影響圖像質(zhì)量的圖形系統(tǒng)。

DeepFovea是我們?yōu)閼?yīng)對這一挑戰(zhàn)而開發(fā)的幾種基于神經(jīng)網(wǎng)絡(luò)的方法之一。DeepFovea是一種渲染系統(tǒng),它應(yīng)用了最近發(fā)明的AI生成對抗網(wǎng)絡(luò)(GAN)概念,以模仿我們的外圍視覺在日常生活中感知世界的方式,并利用可感知匹配的架構(gòu)來提供前所未有的圖形效率。

DeepFovea的神經(jīng)渲染遠遠超出了當(dāng)今Oculus產(chǎn)品中使用的傳統(tǒng)的凹版渲染系統(tǒng),從而可以生成與全分辨率圖像在視覺上無法區(qū)分的圖像,而渲染的像素數(shù)卻不到10%?,F(xiàn)有的集中式渲染方法需要渲染的像素大約是全分辨率圖像的一半,因此DeepFovea降低渲染要求的數(shù)量級代表了感知渲染的新里程碑。 我們首先在2019年11月的SIGGRAPH Asia上展示了DeepFovea。今天,我們將完整的演示發(fā)布到我們的DeepFovea存儲庫中,以幫助圖形研究社區(qū)加深對最新感知渲染的探索。

DeepFovea:以AI為動力的外圍視覺建模

DeepFovea的關(guān)鍵是利用人眼的生理功能。當(dāng)人們的眼睛直接看著物體時,來自該物體的光子會落在視網(wǎng)膜的中央凹區(qū)域,簡稱中央凹。中央凹是視網(wǎng)膜中唯一具有高分辨率的部分,并且它僅占整個視網(wǎng)膜中很小一部分。在人眼超過150度的視野中,最高分辨率的區(qū)域僅跨越3度,在距中央凹中心10度以內(nèi)的分辨率下降了一個數(shù)量級。我們覺得我們擁有更廣闊的高分辨率視野,但這是因為我們的大腦保存了周圍環(huán)境的模型并填充了缺失的細節(jié),同時又將中央凹迅速移至我們?nèi)魏胃信d趣的對象上。實際上,我們只有一個很小的高分辨率視野區(qū)域,而對圍繞它的一切事物的感知卻非常模糊。

但這并不是說外圍視覺并不重要。外圍視覺對于平衡、運動檢測和周圍環(huán)境感知非常重要,并可以提示大腦下一步該去哪里。但是它區(qū)分細節(jié)的能力受到極大限制。 DeepFovea使用最少的必要數(shù)據(jù)量來生成與視網(wǎng)膜分辨率匹配的圖像。給定一個稀疏渲染的圖像,其可變分辨率與在任何給定時刻指向中央凹的位置的每個點處的視網(wǎng)膜分辨率相匹配,DeepFovea會推斷丟失的數(shù)據(jù)。至關(guān)重要的是,在給定視網(wǎng)膜的分辨率和圖像處理特性的情況下,所產(chǎn)生的結(jié)果在感覺上與全分辨率圖像沒有區(qū)別。但這并不意味著結(jié)果是相同的-實際上,如在下例中看到的那樣,當(dāng)人們使用中央凹觀察時,所看到的圖像與全分辨率圖像通常并不接近-但外圍視覺的較低分辨率處理可以讓人察覺不到差異。

DeepFovea通過使用生成對抗網(wǎng)絡(luò)(GAN)推斷丟失的外圍信息。我們通過提供數(shù)百萬個具有人為降低的外圍質(zhì)量的真實視頻來訓(xùn)練DeepFovea的神經(jīng)網(wǎng)絡(luò)。人工降級的視頻模擬了外圍圖像的降級,基于GAN的設(shè)計可幫助網(wǎng)絡(luò)根據(jù)所看到的所有視頻的統(tǒng)計信息來學(xué)習(xí)如何填充缺失的細節(jié)。 結(jié)果,渲染器可以少渲染幾個數(shù)量級的像素,甚至更少——像素密度可以在60×40度視場的外圍減少多達99%的像素,從而節(jié)省了大量的時間功耗。得益于DeepFovea和眼動追蹤技術(shù),觀看者才能以完全相同的質(zhì)量感知完全相同的場景。 DeepFovea還可以確保人眼不會察覺到周圍的閃爍,混疊和其他視頻偽像。

此動圖演示了DeepFovea如何在頭顯設(shè)備佩戴者的注視(由光標表示)下,在場景中的元素之間移動時重建偏心的視覺效果。觀察輸入像素的數(shù)量如何遠離中心視覺區(qū)域減少,從而匹配視網(wǎng)膜的分辨率,然后DeepFovea如何在像素落在視網(wǎng)膜外圍區(qū)域的情況下以與全分辨率呈現(xiàn)的像素不同,但在感知上卻相同的方式重建圖像,且最終效果與理想圖像無法區(qū)分。

未來是光明且高效的

我們的最終目標是使實時集中式渲染在輕便、高能效的AR / VR設(shè)備上運行,該設(shè)備可以讓用戶整天佩戴。DeepFovea建立了新的感知渲染效率標準,這標志著朝向該目標邁出的重要一步,該方法證明了感知的質(zhì)量損失,同時渲染的像素數(shù)不到傳統(tǒng)渲染器的10%。這種方法也與硬件無關(guān),這使DeepFovea能夠與各種AR / VR研究系統(tǒng)兼容。

盡管DeepFovea解鎖了在AR和VR中進行有效渲染的重要方法,但這僅僅是探索超低功耗感知渲染的開始。通過發(fā)布除我們的研究論文外的DeepFovea演示,我們希望為有興趣為感知和神經(jīng)渲染技術(shù)的發(fā)展做出貢獻的圖形和視覺科學(xué)研究人員提供一個有用的框架。

責(zé)任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    107948
  • Ar
    Ar
    +關(guān)注

    關(guān)注

    25

    文章

    5286

    瀏覽量

    176450
  • vr
    vr
    +關(guān)注

    關(guān)注

    34

    文章

    9694

    瀏覽量

    157369
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?365次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標是訓(xùn)練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1358次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1186次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3522次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1340次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    MAX78000采用超低功耗卷積神經(jīng)網(wǎng)絡(luò)加速度計的人工智能微控制器技術(shù)手冊

    人工智能(AI)需要超強的計算能力,而Maxim則大大降低了AI計算所需的功耗。MAX78000是一款新型的AI微控制器,使神經(jīng)網(wǎng)絡(luò)能夠在互聯(lián)網(wǎng)邊緣端以超低功耗運行,將高能效的AI處理
    的頭像 發(fā)表于 05-08 11:42 ?1041次閱讀
    MAX78000采用超低<b class='flag-5'>功耗</b>卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速度計的人工智能微控制器技術(shù)手冊

    MAX78002帶有低功耗卷積神經(jīng)網(wǎng)絡(luò)加速器的人工智能微控制器技術(shù)手冊

    人工智能(AI)需要超強的計算能力,而Maxim則大大降低了AI計算所需的功耗。MAX78002是一款新型的AI微控制器,使神經(jīng)網(wǎng)絡(luò)能夠在互聯(lián)網(wǎng)邊緣端以超低功耗運行,將高能效的AI處理
    的頭像 發(fā)表于 05-08 10:16 ?905次閱讀
    MAX78002帶有低<b class='flag-5'>功耗</b>卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>加速器的人工智能微控制器技術(shù)手冊

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能

    發(fā)者能使用 NVIDIA GeForce RTX GPU 中的 AI Tensor Cores,在游戲的圖形渲染管線內(nèi)加速神經(jīng)網(wǎng)絡(luò)渲染。
    的頭像 發(fā)表于 04-07 11:33 ?1248次閱讀