91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浙大攜手微軟聯(lián)合提出實(shí)時(shí)視頻增強(qiáng)|RT-VENet

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-08 22:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

首發(fā):AIWalker

標(biāo)題&作者團(tuán)隊(duì)

paper: http://www.cad.zju.edu.cn/hom...

該文是浙江大學(xué)&微軟提出的一種實(shí)時(shí)視頻增強(qiáng)方案(ACM Multimedia 2020),它不僅可以達(dá)到SOTA的視頻增強(qiáng)效果,同時(shí)對(duì)于1080P的視頻可以達(dá)到驚人的77fps@Tesla P40GPU或者45fps@CPU端。

Abstract

實(shí)時(shí)視頻增強(qiáng)具有巨大的潛在應(yīng)用場(chǎng)景,但是現(xiàn)有的方案遠(yuǎn)遠(yuǎn)不足以滿足視頻增強(qiáng)的實(shí)時(shí)性與穩(wěn)定性需求。

該文提出一種新穎的AI視頻增強(qiáng)方法,它能夠單CPU以45fps處理1080P視頻,極具產(chǎn)品化應(yīng)用價(jià)值。所提方法基于輕量型MobileNetV2設(shè)計(jì),并在此基礎(chǔ)上引入了時(shí)序特征集(Temporal Feature Aggregation, TFA)成模塊以確保視頻的時(shí)序一致性。不同于已有多數(shù)圖像增強(qiáng)方法采用encoder-decoder架構(gòu)生成通分辨率的輸出,該文所提方法消除了decoder模塊,而僅僅采用了encoder部分與一個(gè)小的head模塊。所提方法直接預(yù)測(cè)顏色映射函數(shù),而非像素值,這就使得所提方法可以更好的處理任意分辨率的視頻。除此之外,該文還引入了TFA以確保生成視頻的時(shí)序一致性

最后,作者通過(guò)實(shí)驗(yàn)證實(shí):所提方法可以適用于不同類型的增強(qiáng)任務(wù),比如relighting, retouching 以及dehazing等。相比已有方法(比如HDRNet、UPE),所提方法不僅可以取得SOTA性能,同時(shí)處理速度快10倍(HD視頻哦)。


image-20201121193610283

該文的主要貢獻(xiàn)包含以下三點(diǎn):

  • 提出一種新穎的實(shí)時(shí)圖像/視頻增強(qiáng)方法,所提方法比現(xiàn)有實(shí)時(shí)方法(HDRNet,UPE)快10倍(處理的對(duì)象是1080P視頻哦);
  • 提出一種廣義的圖像增強(qiáng)表達(dá)方式,它可以有效的集成全局上下文信息與局部信息進(jìn)行像素映射。實(shí)驗(yàn)證實(shí):所提方法可以處理欠曝光、過(guò)曝光、retouching、dehazing等場(chǎng)景圖像;
  • 提出一種TFA用于確保視頻的時(shí)序一致性,甚至可以進(jìn)一步改善訓(xùn)練的穩(wěn)定性。

Method

該文提出了一種end-to-end輕量CNN用于實(shí)時(shí)視頻增強(qiáng),接下來(lái),我們將從問(wèn)題定義、視頻增強(qiáng)網(wǎng)絡(luò)、損失函數(shù)三個(gè)方面展開(kāi)本文所提方法的介紹。

Problem Formulation

現(xiàn)有稠密像素預(yù)測(cè)任務(wù)大多采用encoder-decoder方案,而decoder部分的高計(jì)算量問(wèn)題是難以忽視的。估計(jì)顏色映射函數(shù)是一種極具吸引力的方向,然而它有這樣兩個(gè)挑戰(zhàn):(1) 單一映射函數(shù)難以反映復(fù)雜的局部圖像處理計(jì)算問(wèn)題;(2) 現(xiàn)有的顏色映射函數(shù)往往基于用戶評(píng)價(jià)或參考圖像,而無(wú)參考自動(dòng)校正則會(huì)“模棱兩可”。

受啟發(fā)于“Bilateral Guided Upsampling”與“Fast Guided Filter”(兩種非常經(jīng)典的傳統(tǒng)圖像處理方法),該文構(gòu)建了一種網(wǎng)格狀態(tài)的映射函數(shù),它不僅可以獲得局部區(qū)域的更細(xì)粒度的細(xì)節(jié),同時(shí)可以更好的切合encoder部分的CNN結(jié)構(gòu)。輸入圖像I經(jīng)過(guò)CNN處理后,可以得到一個(gè)大小為的特征。網(wǎng)格中每個(gè)特征點(diǎn)信息與網(wǎng)格中的映射函數(shù)參數(shù)相關(guān),并用于預(yù)測(cè)映射函數(shù),并反過(guò)來(lái)作用于局部區(qū)域。下圖給出了該過(guò)程的示意圖,也就是說(shuō)圖像將被進(jìn)行分塊處理,每個(gè)塊采用不同的映射函數(shù)。

image-20201121195843151

映射函數(shù)在這里定義為分片線性函數(shù),定義如下:

其中,L表示映射函數(shù)的分片數(shù)量,表示每個(gè)線性函數(shù)的斜率。因此,網(wǎng)絡(luò)的目標(biāo)在于預(yù)測(cè)映射函數(shù)的系數(shù)。

看到這里,也許會(huì)有不少同學(xué)不知道這里的系數(shù)與映射函數(shù)該怎么去應(yīng)用。其實(shí)這個(gè)地方?jīng)]想象的那么復(fù)雜。先來(lái)個(gè)最簡(jiǎn)單的情形:,即恒等映射,也就是圖像不做任何操作,此時(shí)有。如果我們希望調(diào)整圖像的亮區(qū)呢,其實(shí)就需要將亮區(qū)對(duì)應(yīng)的斜率調(diào)大,而其他區(qū)域?qū)?yīng)的斜率調(diào)??;類似的,如果我們希望調(diào)整圖像的暗區(qū),就需要調(diào)整其對(duì)應(yīng)的斜率。也就是說(shuō),通過(guò)每一段線性函數(shù)的斜率,它可以輕松的構(gòu)建不同形狀的映射函數(shù),而這個(gè)映射函數(shù)則對(duì)應(yīng)于傳統(tǒng)圖像處理中的累積直方圖

對(duì)此該興趣的同學(xué),非常建議去了解一下直方圖均衡相關(guān)的一些基礎(chǔ)知識(shí),可以參考剛薩雷斯的《圖像處理》第三章的直方圖均衡。其實(shí)這個(gè)地方的映射函數(shù)理解還可以參考PhotoShop中的直方圖類增強(qiáng)方案,通過(guò)調(diào)節(jié)直方圖的形狀達(dá)到不同的編輯目的,Photoshop中的直方圖調(diào)整方法其實(shí)與這里的調(diào)整機(jī)制是相通的。

Video Enhancement Network

image-20201121195529411

上圖給出了該文所提出的視頻增強(qiáng)網(wǎng)絡(luò)架構(gòu)示意圖,它包含一個(gè)輕量型基礎(chǔ)網(wǎng)路與一個(gè)時(shí)序特征集成模塊。

Baseline Image Network 上圖的下半部分給出了基礎(chǔ)網(wǎng)絡(luò)部分,注:下角標(biāo)t表示視頻的時(shí)序標(biāo)簽。輸入圖像I首先下采樣到低分辨率,然后送入到基礎(chǔ)網(wǎng)絡(luò)中回歸映射系數(shù)集。這里的基礎(chǔ)網(wǎng)絡(luò)是在MobileNetV2的基礎(chǔ)上改進(jìn)而來(lái),它用于將圖像映射到高維空間并得到隱狀態(tài)特征。在上述網(wǎng)絡(luò)的后端接一個(gè)head,它包含三個(gè)卷積用于將隱狀態(tài)特征變換為顏色映射系數(shù)。最終輸出的形狀為。最后,目標(biāo)圖像則是由輸入圖像經(jīng)由映射函數(shù)變換得到。

Temporal feature aggregation 視頻增強(qiáng)網(wǎng)絡(luò)是在上述圖像增強(qiáng)網(wǎng)絡(luò)的基礎(chǔ)上插入TFA得到,TFA用于促使時(shí)序一致性。為緩解閃爍偽影問(wèn)題,作者認(rèn)為:靜態(tài)區(qū)域應(yīng)當(dāng)有相鄰兩幀賦予相似的注意力,運(yùn)動(dòng)區(qū)域則主要由當(dāng)前幀決定,而區(qū)域的運(yùn)動(dòng)/靜態(tài)特性則由相鄰幀的相關(guān)性決定。基于該假設(shè),作者設(shè)計(jì)了如下的特征集成方式:

其中,分別表示融合特征,前一幀的影響因子,以及像素級(jí)特征相似性。特征的相似性計(jì)算方式則是采用的cosine相似性(上圖也給出了相鄰幀的相似性圖示),公式如下:

$$M/_g = cos/= //frac{f/_{t-1} //cdot f/_t}{//|f/_{t-1} //| //cdot //|f/_t //|} $$

Loss Function

給定預(yù)測(cè)的映射系數(shù)與高分辨率圖像,我們可以通過(guò)相應(yīng)的變換得到目標(biāo)圖像(假設(shè)表示GT)。為更好的訓(xùn)練上述模型,作者提出了一個(gè)同時(shí)考慮圖像距離關(guān)系和映射函數(shù)約束的損失函數(shù),定義如下:

損失函數(shù)的四部分分別對(duì)應(yīng)重建損失(損失)、感知損失、平滑損失以及時(shí)序一致性損失。更具體的函數(shù)定義建議查看原文,這里不再贅述。

Experiments

在實(shí)現(xiàn)方面,輸入圖像首先被下采樣到大小,映射函數(shù)的分片數(shù),對(duì)應(yīng)的輸出通道數(shù)為48。正如前述,骨干網(wǎng)絡(luò)包含5個(gè)階段,前四個(gè)階段與MobileNetV2相同,最后一個(gè)階段包含三個(gè)卷積,其參數(shù)為:。head部分由三個(gè)卷積構(gòu)成,其輸出通道數(shù)分別為。最終的輸出經(jīng)tanh激活,其對(duì)應(yīng)了映射系數(shù)的對(duì)數(shù)值。假設(shè)表示每個(gè)通道的輸出,那么映射函數(shù)可以表示為 其中用于控制映射函數(shù)的范圍。基于上述表達(dá),曲線的范圍將被限制在.

在超參方面,。作者選用Adam+L2正則進(jìn)行訓(xùn)練,batch=32,學(xué)習(xí)率為0.005,經(jīng)40k迭代后衰減到0.001.

我們先來(lái)看一下所提方法在圖像增強(qiáng)方面的效果,見(jiàn)下圖&下表。從中可以看到:(1) 相比HDRNet,所提方法具有更快的推理速度,更高的PSNR、SSIM等指標(biāo);(2) 相比HDRNet、UPE等方法,所提方法生成結(jié)果具有更好的對(duì)比度和顏色分布。

接下來(lái),我們?cè)賮?lái)看一下所提方法在視頻增強(qiáng)方面的效果,見(jiàn)下圖&下表??梢钥吹剑?strong>所提方法具有更高的PSNR指標(biāo);更快的推理速度;更好的時(shí)序一致性。

image-20201122132832313

image-20201122132857742

最后,我們?cè)賮?lái)看一下所提方法在去霧任務(wù)上的表現(xiàn),見(jiàn)下圖。從中可以看到:所提方法在圖像去霧任務(wù)上同樣取得了SOTA指標(biāo)與視覺(jué)效果

image-20201122133254136

Conclusion

該文從AI+直方圖的角度提出了一種實(shí)時(shí)圖像/視頻增強(qiáng)方法,它采用encoder網(wǎng)絡(luò)預(yù)測(cè)映射函數(shù)系數(shù),然后將得到的映射函數(shù)作用于輸入圖像得到期望的輸出圖像。這種處理方式將輸入分辨率與方法進(jìn)行了解耦,進(jìn)而使得Image-to-Image類方法的的產(chǎn)品化應(yīng)用提供了一個(gè)非常有參考價(jià)值的方向。盡管所提方法在圖像/視頻增強(qiáng)方面取得了非常好的效果和推理速度,但該方法對(duì)于低光/帶噪圖像的效果并不太好,甚至?xí)M(jìn)一步造成噪聲放大,當(dāng)然,這也是直方圖增強(qiáng)類方案的缺陷所在。

image-20201122134143102

推薦閱讀

本文章著作權(quán)歸作者所有,任何形式的轉(zhuǎn)載都請(qǐng)注明出處。更多動(dòng)態(tài)濾波,圖像質(zhì)量,超分辨相關(guān)請(qǐng)關(guān)注我的專欄深度學(xué)習(xí)從入門到精通。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    2006

    瀏覽量

    75017
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40319

    瀏覽量

    301891
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124487
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    新思科技攜手微軟、英偉達(dá)發(fā)布可實(shí)時(shí)優(yōu)化動(dòng)態(tài)制造流程框架

    新思科技(納斯達(dá)克代碼:SNPS)近日攜手技術(shù)合作伙伴在微軟 Ignite 大會(huì)上發(fā)布了一套仿真技術(shù)驅(qū)動(dòng)的可實(shí)時(shí)優(yōu)化動(dòng)態(tài)制造流程框架。該框架已經(jīng)被全球領(lǐng)先的灌裝包裝系統(tǒng)集成商 Krones 率先采用,構(gòu)建了物理精確的虛擬裝配線,
    的頭像 發(fā)表于 11-30 09:53 ?570次閱讀

    RK3588核心板/開(kāi)發(fā)板RT-Linux系統(tǒng)實(shí)時(shí)性及硬件中斷延遲測(cè)試

    本文介紹瑞芯微RK3588芯片平臺(tái)RT-Linux系統(tǒng)實(shí)時(shí)性及硬件中斷延遲測(cè)試,基于觸覺(jué)智能RK3588核心板/開(kāi)發(fā)板演示。Linux-RT實(shí)時(shí)性測(cè)試測(cè)試環(huán)境說(shuō)明本次測(cè)試是使用Cycl
    的頭像 發(fā)表于 11-28 18:57 ?763次閱讀
    RK3588核心板/開(kāi)發(fā)板<b class='flag-5'>RT</b>-Linux系統(tǒng)<b class='flag-5'>實(shí)時(shí)</b>性及硬件中斷延遲測(cè)試

    兆芯攜手合作伙伴打造高效智能視頻管理解決方案

    視頻數(shù)據(jù)呈爆炸式增長(zhǎng)的當(dāng)下,兆芯攜手凌川科技及深圳可數(shù)智能公司,聯(lián)合打造了一套高效智能的視頻管理解決方案。依托異構(gòu)架構(gòu)與垂直領(lǐng)域軟件的深度融合,該方案在性能表現(xiàn)、成本控制及安全自主三
    的頭像 發(fā)表于 11-18 14:58 ?688次閱讀

    請(qǐng)問(wèn)RT-Thread與stm32cubemx聯(lián)合開(kāi)發(fā)的原理是什么?

    在使用RT-Thread與stm32cubemx聯(lián)合開(kāi)發(fā)的原理是什么,cubemx在其中主要起到了哪些功能呢?
    發(fā)表于 10-11 15:49

    RK3576核心板/開(kāi)發(fā)板RT-Linux系統(tǒng)實(shí)時(shí)性及硬件中斷延遲測(cè)試

    本文介紹瑞芯微RK3576芯片平臺(tái)RT-Linux系統(tǒng)實(shí)時(shí)性及硬件中斷延遲測(cè)試,基于觸覺(jué)智能RK3576開(kāi)發(fā)板PurplePiOH2演示。Linux-RT實(shí)時(shí)性測(cè)試測(cè)試環(huán)境說(shuō)明本次測(cè)試
    的頭像 發(fā)表于 09-30 16:52 ?2050次閱讀
    RK3576核心板/開(kāi)發(fā)板<b class='flag-5'>RT</b>-Linux系統(tǒng)<b class='flag-5'>實(shí)時(shí)</b>性及硬件中斷延遲測(cè)試

    瑞芯微RK35XX系列Linux實(shí)時(shí)性詳細(xì)測(cè)試對(duì)比( PREEMPT_RT和Xenomai )

    工業(yè)控制、工業(yè)網(wǎng)關(guān)、軌道交通、能源電力等場(chǎng)景,都需要一個(gè)運(yùn)行穩(wěn)定、可靠的“實(shí)時(shí)操作系統(tǒng)”。RT-Linux作為一款開(kāi)源實(shí)時(shí)性操作系統(tǒng),擁有實(shí)時(shí)性內(nèi)核、開(kāi)源、免費(fèi)、功能完善等特性,完美滿
    的頭像 發(fā)表于 09-30 16:37 ?2008次閱讀
    瑞芯微RK35XX系列Linux<b class='flag-5'>實(shí)時(shí)</b>性詳細(xì)測(cè)試對(duì)比( PREEMPT_<b class='flag-5'>RT</b>和Xenomai )

    rt-studio支持仿真的時(shí)候變量實(shí)時(shí)刷新嗎?

    rt-studio支持仿真的時(shí)候變量實(shí)時(shí)刷新么?像keil那樣。目前看到的好像不能實(shí)時(shí)刷新變量,只有下斷點(diǎn)了變量才會(huì)刷新出來(lái)。
    發(fā)表于 09-28 09:44

    請(qǐng)問(wèn)rt_kprintf會(huì)影響RT-Threat系統(tǒng)的實(shí)時(shí)性嗎?

    有人說(shuō)頻繁調(diào)用rt_kprintf可能阻塞實(shí)時(shí)任務(wù),影響系統(tǒng)響應(yīng),是這樣嗎?
    發(fā)表于 09-23 07:06

    日本航空攜手微軟率先將AI應(yīng)用引入客艙管理

    日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過(guò)基于微軟Phi-4小型語(yǔ)言模型(SLM)開(kāi)發(fā)的JAL-AI報(bào)告系統(tǒng),空乘人員報(bào)告航班事件的效率提升高達(dá)2/3,即使離線也能流暢運(yùn)行。不僅
    的頭像 發(fā)表于 07-18 11:12 ?1464次閱讀

    RT-Thread攜手玄鐵,全面展示 RISC-V 生態(tài)最新成果,期待蒞臨!

    2025年7月16日-19日,第五屆RISC-V中國(guó)峰會(huì)將在上海張江科學(xué)會(huì)堂舉行。作為全球領(lǐng)先的開(kāi)源實(shí)時(shí)操作系統(tǒng)(RTOS)提供商,RT-Thread將攜手玄鐵,在大會(huì)現(xiàn)場(chǎng)打造專屬展位,帶來(lái)精彩演講
    的頭像 發(fā)表于 07-15 11:13 ?1066次閱讀
    <b class='flag-5'>RT</b>-Thread<b class='flag-5'>攜手</b>玄鐵,全面展示 RISC-V 生態(tài)最新成果,期待蒞臨!

    新思科技攜手微軟借助AI技術(shù)加速芯片設(shè)計(jì)

    近日,微軟Build大會(huì)在西雅圖盛大開(kāi)幕,聚焦AI在加速各行業(yè)(包括芯片設(shè)計(jì)行業(yè))科學(xué)突破方面的變革潛力。作為Microsoft Discovery平臺(tái)發(fā)布的啟動(dòng)合作伙伴,新思科技亮相本次大會(huì),并攜手微軟將AI融入芯片設(shè)計(jì),開(kāi)發(fā)
    的頭像 發(fā)表于 06-27 10:23 ?1141次閱讀

    RT-Thread睿賽德開(kāi)源無(wú)人機(jī)領(lǐng)域硬核飛控上線!| 產(chǎn)品動(dòng)態(tài)

    SIEON-S1飛控視頻介紹隨著無(wú)人機(jī)、無(wú)人車、無(wú)人船和機(jī)器人等行業(yè)的快速發(fā)展,智能設(shè)備對(duì)操作系統(tǒng)高性能、可靠性和靈活性的需求日益增長(zhǎng)。RT-Thread睿賽德攜手釋云科技,打造了一款專業(yè)級(jí)、高性能
    的頭像 發(fā)表于 05-28 20:33 ?1352次閱讀
    <b class='flag-5'>RT</b>-Thread睿賽德開(kāi)源無(wú)人機(jī)領(lǐng)域硬核飛控上線!| 產(chǎn)品動(dòng)態(tài)

    Arm攜手微軟共筑云計(jì)算和PC未來(lái)

    Arm 和微軟攜手共筑未來(lái),從而使創(chuàng)新不受設(shè)備功耗或不同部署環(huán)境的限制。在上周舉行的微軟 Build 大會(huì)上,Arm 的愿景實(shí)現(xiàn)再次得到體現(xiàn) —— 致力于確保微軟的整個(gè)軟件生態(tài)系統(tǒng)都
    的頭像 發(fā)表于 05-28 14:08 ?988次閱讀

    2025 RT-Thread全球技術(shù)大會(huì)議程正式發(fā)布!

    。2024RT-Thread全球技術(shù)大會(huì),由開(kāi)源操作系統(tǒng)RT-Thread發(fā)起,并聯(lián)合國(guó)內(nèi)外領(lǐng)先企業(yè)的重磅嘉賓,攜手國(guó)內(nèi)外頂尖企業(yè)專家與超3萬(wàn)名線上參與者,共議邊緣計(jì)算、嵌入式
    的頭像 發(fā)表于 05-27 19:28 ?1431次閱讀
    2025 <b class='flag-5'>RT</b>-Thread全球技術(shù)大會(huì)議程正式發(fā)布!

    【直播預(yù)告】《實(shí)時(shí)操作系統(tǒng)應(yīng)用技術(shù)—基于RT-Thread與ARM的編程實(shí)踐》教學(xué)脈絡(luò)及資源簡(jiǎn)介

    直播預(yù)告直播主題:《實(shí)時(shí)操作系統(tǒng)應(yīng)用技術(shù)—基于RT-Thread與ARM的編程實(shí)踐》教學(xué)脈絡(luò)及資源簡(jiǎn)介開(kāi)放時(shí)間:2025年5月29日(周四)20:00主講老師:王宜懷課程類型:視頻直播觀看平臺(tái)
    的頭像 發(fā)表于 05-26 17:50 ?1314次閱讀
    【直播預(yù)告】《<b class='flag-5'>實(shí)時(shí)</b>操作系統(tǒng)應(yīng)用技術(shù)—基于<b class='flag-5'>RT</b>-Thread與ARM的編程實(shí)踐》教學(xué)脈絡(luò)及資源簡(jiǎn)介