91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個通用的時空預測學習框架

CVer ? 來源:CVer ? 2023-06-19 10:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹CVPR2023的中稿論文:Temporal Attention Unit: Towards Efficient Spatiotemporal Predictive Learning。這篇論文介紹了一種用于高效時空預測的時間注意力單元(Temporal Attention Unit,TAU)。該方法改進了現(xiàn)有框架,對時間和空間上的依賴關系分別學習,提出了時間維度上的可并行化時序注意力單元,實現(xiàn)了高效的視頻預測。

引言

時空預測學習是一種通過學習歷史幀來預測未來幀的自監(jiān)督學習范式,可以利用海量的無標注視頻數(shù)據(jù)學習豐富的視覺信息,在氣象預測、交通流量預測、人體姿勢變化估計等領域有著廣泛的應用場景。時空預測學習需要考慮視頻中的空間相關性和時間演變規(guī)律,這是一項具有挑戰(zhàn)性的任務。傳統(tǒng)的方法主要基于循環(huán)神經(jīng)網(wǎng)絡來建模時間依賴關系,但是RNN有著計算效率低、難以捕捉長期依賴、容易出現(xiàn)梯度消失或爆炸等缺點。因此,如何設計一個高效、準確、穩(wěn)定的時空預測學習模型,是一個亟待解決的問題。為了解決這個問題,我們首先研究現(xiàn)有的方法,并提出時空預測學習的通用框架,如下圖所示。

2d2d77a2-0df2-11ee-962d-dac502259ad0.png

TAU

如下圖所示,TAU模型不使用循環(huán)神經(jīng)網(wǎng)絡,而是使用注意力機制來并行化地處理時間演變。TAU模型將時空注意力分解為兩個部分:幀內(nèi)靜態(tài)注意力和幀間動態(tài)注意力。幀內(nèi)靜態(tài)注意力使用小核心深度卷積和擴張卷積來實現(xiàn)大感受野,從而捕捉幀內(nèi)的長距離依賴關系。幀間動態(tài)注意力使用通道間注意力的方式來學習不同幀之間的通道權(quán)重,從而捕捉幀間的變化趨勢。

2d380db6-0df2-11ee-962d-dac502259ad0.png

TAU模塊將時間注意力分為兩部分:幀內(nèi)靜態(tài)注意力和幀間動態(tài)注意力。前者通過獲得的大感受野捕捉幀內(nèi)的長期依賴關系;而后者以擠壓和激發(fā)的方式學習通道的注意力權(quán)重,以捕捉時間線上的時序演變。最后的注意力是動態(tài)注意力和靜態(tài)注意力結(jié)合的產(chǎn)物。受ViTs和大核卷積的啟發(fā),研究者使用了深度卷積(DW Conv)、深度擴張卷積(DW-D Conv)和1x1通道卷積來建模大核卷積。

2d430680-0df2-11ee-962d-dac502259ad0.png 此外,我們還提出了一種新穎的差分散度正則化方法,用于優(yōu)化時空預測學習的損失函數(shù)。該方法同時考慮了幀內(nèi)誤差和幀間變化量。通過將預測幀和真實幀之間的差分轉(zhuǎn)換為概率分布,并計算它們之間的KL散度,來強制模型學習到視頻中固有的變化規(guī)律。差分散度正則化(differential divergence regularization)是預測幀與其對應的真實幀之間的Kullback-Leibler(KL)散度。具體而言,它是預測幀差分和真實幀差分之間的KL散度。 2d5d6afc-0df2-11ee-962d-dac502259ad0.png

τ 代表溫度參數(shù),經(jīng)驗性地將其設置為0.1以增強概率分布的差異。直觀來說,均方誤差損失(MSE)僅考慮幀內(nèi)誤差,而差分散度正則化克服了這一缺點,迫使模型學習連續(xù)幀之間的差異并意識到固有的變化,以改善模型的預測。

因此目標損失函數(shù):

2d7bb44e-0df2-11ee-962d-dac502259ad0.png

實驗

Moving MNIST

下圖是在Moving MNIST上測試的兩個實例,對于隨機運動的數(shù)字,預測與目標的絕對差異很細微,說明TAU能很好地處理時空預測:

2d87e066-0df2-11ee-962d-dac502259ad0.jpg

相對于SOTA的循環(huán)模型,TAU的性能增益是較大的,在三個度量指標下,TAU的表現(xiàn)都超越了其他方法:

2d8d0ed8-0df2-11ee-962d-dac502259ad0.jpg

TaxiBJ

在真實復雜環(huán)境的交通流量數(shù)據(jù)集上,TAU具有良好的表現(xiàn):

2d9b603c-0df2-11ee-962d-dac502259ad0.png

不同數(shù)據(jù)的泛化

為了檢驗模型的泛化能力,我們先在KITTI原始數(shù)據(jù)上進行訓練,接著使用Caltech dataset進行評估,評估時輸入前十幀預測下一幀。

2daaf4f2-0df2-11ee-962d-dac502259ad0.png

靈活長度的預測

我們的模型可以通過模仿RNN,將預測的幀作為輸入并遞歸產(chǎn)生預測來處理靈活長度的預測。對于KTH數(shù)據(jù)集,人體運動預測任務的難點不僅在于預測幀的靈活長度,還在于涉及人類意識隨機性的復雜動力學,這增加了任務的困難程度。TAU可以從給定的10幀中預測接下來的20或40幀,也有出色的表現(xiàn)。

2dba6c16-0df2-11ee-962d-dac502259ad0.jpg

運行效率

此外,我們的模型不僅可以提高視頻生成質(zhì)量,還可以提高計算效率和訓練速度。如下圖所示,收斂速度極快,50輪訓練即可達到MSE 35.0的水準。在相同實驗環(huán)境下,TAU模型在基準數(shù)據(jù)集上每個周期只需要2.5分鐘,而此前的SOTA方法需要7到30分鐘不等。

2dd42110-0df2-11ee-962d-dac502259ad0.jpg

總結(jié)

本文提出了一個通用的時空預測學習框架,使用基于靜態(tài)和動態(tài)結(jié)合的時間注意力模塊替代循環(huán)單元,還引入了差分散度正則化方法來解決僅考慮幀內(nèi)誤差的MSE損失的問題,為高效的時空預測學習提供了新的范式。
責任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    開源深度學習框架對比研究的三主要維度學習

    本節(jié)對5開源深度學習框架進行對比研究,主要側(cè)重于3維度研究:硬件支持率、速度和準確率、社區(qū)活躍性。他們分別是:TensorFlow、Caffe、Keras、Torch、DL4j 。
    發(fā)表于 11-15 12:04 ?4801次閱讀
    開源深度<b class='flag-5'>學習</b><b class='flag-5'>框架</b>對比研究的三<b class='flag-5'>個</b>主要維度<b class='flag-5'>學習</b>

    深度學習發(fā)展的5主力框架

    在這篇文章中,我想向大家介紹推動深度學習發(fā)展的5主力框架。這些框架使數(shù)據(jù)科學家和工程師更容易為復雜問題構(gòu)建深度學習解決方案,并執(zhí)行更復雜的
    發(fā)表于 05-04 10:30 ?4421次閱讀
    深度<b class='flag-5'>學習</b>發(fā)展的5<b class='flag-5'>個</b>主力<b class='flag-5'>框架</b>

    PLASTER:與深度學習性能有關的框架

    PLASTER 是與深度學習有關的框架,為致力于開發(fā)和部署基于 AI 的服務的人士提供了全方位指導。本文介紹了每個框架元素的測量方式,以
    的頭像 發(fā)表于 06-22 15:07 ?4329次閱讀

    谷歌發(fā)布機器學習框架名叫NSL的神經(jīng)結(jié)構(gòu)學習框架

    神經(jīng)結(jié)構(gòu)學習框架(NSL)的作用很大,它可以制作計算機視覺模型、執(zhí)行自然語言處理(NLP)、從醫(yī)療記錄或知識圖等圖形數(shù)據(jù)集中運行預測,還可以與 TensorFlow 機器學習平臺配合使
    的頭像 發(fā)表于 09-20 14:30 ?4045次閱讀

    跳出人類思維框架的人工智能抗生素預測平臺

    他們開發(fā)了跳出人類思維框架的人工智能抗生素預測平臺,這個平臺不需要知道藥物的作用機制,甚至不需要科學家標注化學基團,它能
    的頭像 發(fā)表于 03-10 11:51 ?2459次閱讀

    全新的深度學習框架——計圖

    清華大學計算機系胡事民教授研究團隊提出了全新的深度學習框架——計圖(Jittor)。Jittor是
    的頭像 發(fā)表于 03-26 15:50 ?7622次閱讀

    種用于交通流預測的深度學習框架

    交通流預測作為智能交通系統(tǒng)的關鍵問題,是國內(nèi)外交通領域的硏究熱點。交通流預測的主要挑戰(zhàn)在于交通流數(shù)據(jù)本身具有復雜的時空關聯(lián),且易受各種社
    發(fā)表于 04-14 15:54 ?3次下載
    <b class='flag-5'>一</b>種用于交通流<b class='flag-5'>預測</b>的深度<b class='flag-5'>學習</b><b class='flag-5'>框架</b>

    基于預測分析的時空眾包在線任務分配算法

    基于預測分析的時空眾包在線任務分配算法
    發(fā)表于 06-27 16:12 ?6次下載

    基于參數(shù)更新的遷移學習的統(tǒng)框架

    它提出基于參數(shù)更新的遷移學習的統(tǒng)框架,建立多種參數(shù)優(yōu)化方法之間的聯(lián)系,從而方便理解不同方法背后的關鍵設計,進而設計出只更新更少參數(shù)同時
    的頭像 發(fā)表于 09-26 10:29 ?2158次閱讀

    時空圖神經(jīng)網(wǎng)絡預測學習應用解析

    在第四節(jié)中,我們介紹了STGNN的基本神經(jīng)架構(gòu),增強了對STGNN中時空學習泛化范式的理解。然而,近年來出現(xiàn)了許多前沿方法來改進時空依賴關系的學習。
    發(fā)表于 05-11 15:00 ?4726次閱讀
    <b class='flag-5'>時空</b>圖神經(jīng)網(wǎng)絡<b class='flag-5'>預測學習</b>應用解析

    通用時空預測學習框架實現(xiàn)高效視頻預測案例

    TAU模型將時空注意力分解為兩部分:幀內(nèi)靜態(tài)注意力和幀間動態(tài)注意力。幀內(nèi)靜態(tài)注意力使用小核心深度卷積和擴張卷積來實現(xiàn)大感受野,從而捕捉幀內(nèi)的長距離依賴關系。
    發(fā)表于 06-19 10:25 ?1372次閱讀
    <b class='flag-5'>通用</b>的<b class='flag-5'>時空</b><b class='flag-5'>預測學習</b><b class='flag-5'>框架</b>實現(xiàn)高效視頻<b class='flag-5'>預測</b>案例

    深度學習框架是什么?深度學習框架有哪些?

    深度學習框架是什么?深度學習框架有哪些?? 深度學習框架
    的頭像 發(fā)表于 08-17 16:03 ?4022次閱讀

    深度學習框架區(qū)分訓練還是推理嗎

    深度學習框架區(qū)分訓練還是推理嗎 深度學習框架非常重要的技術(shù),它們能夠加速深度
    的頭像 發(fā)表于 08-17 16:03 ?2325次閱讀

    深度學習框架連接技術(shù)

    深度學習框架連接技術(shù) 深度學習框架能夠幫助機器學習
    的頭像 發(fā)表于 08-17 16:11 ?1483次閱讀

    深度學習框架和深度學習算法教程

    深度學習框架和深度學習算法教程 深度學習是機器學習領域中的
    的頭像 發(fā)表于 08-17 16:11 ?1958次閱讀