91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于人類視覺理解機(jī)理

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-07-04 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期,上海交通大學(xué)盧策吾團(tuán)隊在《自然 - 機(jī)器智能》子刊上發(fā)表了關(guān)于高維度視覺序列理解的研究成果《Complex sequential understanding through the awareness of spatial and temporal concepts》。

與此同時,該團(tuán)隊將論文代碼與近兩年在視頻理解領(lǐng)域的先進(jìn)成果開源為視頻理解工具箱 AlphaVideo。

AlphaVideo 在物體跟蹤任務(wù)(MOT)和行為理解(AVA 單模型)上都達(dá)到最高準(zhǔn)確率,相比 SlowFast (AVA 單模型)有 12.6% 的性能提升。

動作理解任務(wù)的時空信息特征圖。左:輸入序列;右:空間特征更關(guān)注物體形狀,時間特征更關(guān)注物體運動趨勢。

AlphaVideo 中的行為理解(Alphaction)

時空概念提取展示

人類視覺理解機(jī)理

在人類的視覺認(rèn)知過程中,時間和空間概念是解耦的。神經(jīng)科學(xué)領(lǐng)域的研究發(fā)現(xiàn)在人類的記憶形成過程中,時間信息與空間上下文信息通過兩個相對獨立的信息通路到達(dá)海馬體,進(jìn)而形成完整的記憶。

新技能:自主學(xué)習(xí)時空概念

通過模仿人類的認(rèn)知機(jī)制,盧策吾團(tuán)隊提出了應(yīng)用于高維度信息的半耦合結(jié)構(gòu)模型(SCS)。

SCS 自主發(fā)掘(awareness)時間 - 空間概念,并讓他們耦合協(xié)作以理解序列信息。這種能力代表著機(jī)器學(xué)習(xí)模型自主掌握了時空的概念,這是一種更高層的智能。更進(jìn)一步,時空信息概念的分離也讓「概念編輯」成為可能。

半耦合結(jié)構(gòu)模型(SCS)

半耦合結(jié)構(gòu)首先解耦時空信息(模仿人腦中的兩條信息通路),并在分別處理時間和空間信息之后將二者耦合(模仿海馬體):

該研究通過堆疊這種半耦合的元結(jié)構(gòu)來構(gòu)建深度模型,其中時空信息始終以先解耦再融合的模式向后流動。

為了讓 h_s 和 h_t 各司其職,研究者將 h_s 和 h_t 設(shè)計為不對稱的結(jié)構(gòu),同時,使用兩個特殊的監(jiān)督目標(biāo) r_s、r_t 來進(jìn)一步約束二者關(guān)注各自的工作。

該研究進(jìn)一步提出了一種訓(xùn)練注意力機(jī)制。這種注意力機(jī)制控制模型在優(yōu)化過程中學(xué)習(xí)哪種信息。例如在視頻信息中,模型可以優(yōu)先將注意力集中在空間信息上,待空間信息有效且穩(wěn)定時,再逐步將模型訓(xùn)練的注意力轉(zhuǎn)換到時間信息上。

SCS 的表現(xiàn)如何?

該研究展示了 SCS 在多項任務(wù)中與傳統(tǒng) LSTM 的性能對比結(jié)果:

SCS 在視頻動作分類、自動駕駛、天氣預(yù)報等 4 個任務(wù)上的性能均超越傳統(tǒng)的序列模型。

概念編輯

有了時空分離的能力,SCS 就可以初步做到「概念編輯」。比如,通過編輯空間概念且保留時間概念,我們可以讓一個原本用于預(yù)測狗運動軌跡的模型來預(yù)測貓的軌跡。這樣就能以較小的代價實現(xiàn)模型的泛化,同時也拓寬了模型的使用場景,降低了部署難度。

概念編輯 demo

研究者讓計算機(jī)看 Flappy Bird 的視頻,然后看一張靜態(tài)的 Mario 圖片(外觀形象)。在這個過程中,模型并沒有接觸到任何 Mario 在管道中穿梭的運動信息。但通過「概念編輯」,在測試時 SCS 可以準(zhǔn)確地預(yù)測 Mario 的運動軌跡。

視頻理解工具箱 AlphaVideo

在視頻理解工具箱 AlphaVideo 中,除了上述 SCS 時空概念分解,研究者還提供了單階段端對端訓(xùn)練的多目標(biāo)跟蹤模型 TubeTK 和視頻動作檢測模型 AlphAction。使用一行代碼,即可調(diào)用預(yù)訓(xùn)好的各類模型。

AlphAction

AlphAction 是面向行為理解的開源系統(tǒng),基于 MVIG 提出的交互理解與異步訓(xùn)練策略 在 AVA 數(shù)據(jù)集上達(dá)到最優(yōu)準(zhǔn)確率,速度達(dá)到 10 幀每秒。其中包含的 15 個開源常見行為基本模型的 mAP 達(dá)到約 70%,接近可以商用的水平。

TubeTK

TubeTK 是上海交大 MVIG 組提出的基于 Bounding-Tube 的單階段訓(xùn)練模型(CVPR2020-oral),是首個單階段端對端訓(xùn)練的多目標(biāo)跟蹤模型。它在 MOT-16 數(shù)據(jù)集上達(dá)到了 66.9 MOTA 的精度,是目前 online 模型僅在 MOT 訓(xùn)練數(shù)據(jù)下達(dá)到的最高精度 。

TubeTK 可視化結(jié)果

Bounding-Tube 示意圖。使用 bounding-tube 可以輕松跟蹤到 bounding-box 無法檢測到的被遮擋目標(biāo)(圖中黃色框)。
責(zé)任編輯:pj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解耦
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    12217
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14884

    瀏覽量

    179912
  • 機(jī)器智能
    +關(guān)注

    關(guān)注

    0

    文章

    55

    瀏覽量

    8931
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機(jī)器視覺系統(tǒng)之工業(yè)相機(jī)解讀

    機(jī)器視覺系統(tǒng)是一種模擬人類視覺功能,通過光學(xué)裝置和非接觸式傳感器獲取圖像數(shù)據(jù),并進(jìn)行分析和處理,以實現(xiàn)對目標(biāo)物體的識別、測量、檢測和定位等功能的智能化系統(tǒng)。其目的是讓機(jī)器能夠理解和解釋
    的頭像 發(fā)表于 02-11 17:02 ?558次閱讀
    機(jī)器<b class='flag-5'>視覺</b>系統(tǒng)之工業(yè)相機(jī)解讀

    迷人的相似之處:人類內(nèi)耳與村田MEMS傳感器

    信息。而人體內(nèi)恰好存在與這兩種設(shè)備功能相近的感知結(jié)構(gòu)。在實現(xiàn)人類任務(wù)自動化(如自動駕駛)時,理解自身傳感器的運作原理至關(guān)重要。在探討自動駕駛技術(shù)與計算機(jī)視覺之前,我
    的頭像 發(fā)表于 12-01 12:02 ?817次閱讀
    迷人的相似之處:<b class='flag-5'>人類</b>內(nèi)耳與村田MEMS傳感器

    安防監(jiān)控系統(tǒng)如何成為城市的“智慧視覺中樞”

    安防監(jiān)控系統(tǒng),曾經(jīng)只是記錄事件的“電子眼”,如今已演進(jìn)為能夠理解、分析和預(yù)測的“智慧視覺中樞”。它不再僅僅回答“發(fā)生了什么”,更開始回答“正在發(fā)生什么”以及“可能發(fā)生什么”,這背后是一場從純視覺感知
    的頭像 發(fā)表于 09-30 11:18 ?409次閱讀

    集成電路制造中封裝失效的機(jī)理和分類

    隨著封裝技術(shù)向小型化、薄型化、輕量化演進(jìn),封裝缺陷對可靠性的影響愈發(fā)凸顯,為提升封裝質(zhì)量需深入探究失效機(jī)理與分析方法。
    的頭像 發(fā)表于 09-22 10:52 ?1055次閱讀
    集成電路制造中封裝失效的<b class='flag-5'>機(jī)理</b>和分類

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    視覺傳感器對于機(jī)器信息獲取至關(guān)重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類視覺能力,從而推動創(chuàng)新應(yīng)用。3D 視覺解決方案大致分為立體
    發(fā)表于 09-05 07:24

    機(jī)器視覺系統(tǒng)工業(yè)相機(jī)的成像原理及如何選型

    機(jī)器視覺系統(tǒng)是一種模擬人類視覺功能,通過光學(xué)裝置和非接觸式傳感器獲取圖像數(shù)據(jù),并進(jìn)行分析和處理,以實現(xiàn)對目標(biāo)物體的識別、測量、檢測和定位等功能的智能化系統(tǒng)。其目的是讓機(jī)器能夠理解和解釋
    的頭像 發(fā)表于 08-07 14:14 ?1466次閱讀
    機(jī)器<b class='flag-5'>視覺</b>系統(tǒng)工業(yè)相機(jī)的成像原理及如何選型

    勵展博覽集團(tuán)與機(jī)器視覺產(chǎn)業(yè)聯(lián)盟(CMVU)關(guān)于VisionChina(深圳)達(dá)成戰(zhàn)略合作

    在全球制造業(yè)加速智能化、自動化轉(zhuǎn)型的浪潮中,機(jī)器視覺技術(shù)作為智能制造領(lǐng)域的關(guān)鍵技術(shù)之一,正成為推動產(chǎn)業(yè)升級的關(guān)鍵力量。勵展博覽集團(tuán)(以下簡稱“勵展”)與機(jī)器視覺產(chǎn)業(yè)聯(lián)盟(以下簡稱“CMVU
    的頭像 發(fā)表于 07-17 16:47 ?1496次閱讀
    勵展博覽集團(tuán)與機(jī)器<b class='flag-5'>視覺</b>產(chǎn)業(yè)聯(lián)盟(CMVU)<b class='flag-5'>關(guān)于</b>VisionChina(深圳)達(dá)成戰(zhàn)略合作

    一文帶你了解什么是機(jī)器視覺網(wǎng)卡

    機(jī)器視覺網(wǎng)卡通常指的是在機(jī)器視覺系統(tǒng)中用于連接工業(yè)相機(jī)到計算機(jī)的以太網(wǎng)卡。它的核心作用是實現(xiàn)高速、穩(wěn)定、低延遲的圖像數(shù)據(jù)傳輸。以下是關(guān)于機(jī)器視覺網(wǎng)卡的關(guān)鍵信息:1.核心功能:高速圖像傳
    的頭像 發(fā)表于 07-09 16:18 ?671次閱讀
    一文帶你了解什么是機(jī)器<b class='flag-5'>視覺</b>網(wǎng)卡

    自動駕駛純視覺方案到底有哪些弊端?

    [首發(fā)于智駕最前沿微信公眾號]隨著人工智能與傳感器技術(shù)的快速發(fā)展,自動駕駛汽車逐步走入公眾視野。其中,關(guān)于感知系統(tǒng)的技術(shù)路線選擇,始終是大家爭論的焦點。尤其是“純視覺方案”,也就是主要依賴攝像頭進(jìn)行
    的頭像 發(fā)表于 06-23 09:27 ?1130次閱讀
    自動駕駛純<b class='flag-5'>視覺</b>方案到底有哪些弊端?

    車用鋰離子電池機(jī)理建模與并聯(lián)模組不一致性研究

    車用鋰離子電池機(jī)理建模與并聯(lián)模組不一致性研究
    發(fā)表于 05-16 21:02

    基于LockAI視覺識別模塊:C++圖像的基本運算

    在圖像處理中,理解圖像的基本操作是掌握計算機(jī)視覺技術(shù)的關(guān)鍵。本文章將介紹基于LockAI視覺識別模塊下OpenCV中圖像的基本運算方法,包括像素操作、邏輯運算和差值運算,并通過一個綜合示例展示其實際應(yīng)用。
    的頭像 發(fā)表于 05-06 16:20 ?714次閱讀
    基于LockAI<b class='flag-5'>視覺</b>識別模塊:C++圖像的基本運算

    【「# ROS 2智能機(jī)器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    閱讀心得體會:ROS2機(jī)器人視覺與地圖構(gòu)建技術(shù) 通過對本書第7章(ROS2視覺應(yīng)用)和第8章(ROS2地圖構(gòu)建)的學(xué)習(xí),我對機(jī)器人視覺感知和自主導(dǎo)航的核心技術(shù)有了更深入的理解。以下是我
    發(fā)表于 05-03 19:41

    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)理解模型

    多模態(tài)理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數(shù)據(jù)背后的語義、情感、邏輯或場景,從而完成推理、決策等任務(wù)。
    的頭像 發(fā)表于 04-18 09:30 ?3027次閱讀
    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)<b class='flag-5'>理解</b>模型

    詳解半導(dǎo)體集成電路的失效機(jī)理

    半導(dǎo)體集成電路失效機(jī)理中除了與封裝有關(guān)的失效機(jī)理以外,還有與應(yīng)用有關(guān)的失效機(jī)理。
    的頭像 發(fā)表于 03-25 15:41 ?2206次閱讀
    詳解半導(dǎo)體集成電路的失效<b class='flag-5'>機(jī)理</b>

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然語言。以下
    的頭像 發(fā)表于 03-17 15:32 ?8858次閱讀
    ?VLM(<b class='flag-5'>視覺</b>語言模型)?詳細(xì)解析