91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于ST-GCN的人體動(dòng)作識(shí)別與生成

電子工程師 ? 來(lái)源:DeepBlue深蘭科技 ? 作者:DeepBlue深蘭科技 ? 2021-03-15 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ST-GCN: Spatial Temporal Graph Convolutional Networks時(shí)空?qǐng)D卷積網(wǎng)絡(luò),這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)源于2018年發(fā)表的一篇文章《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》,也就是基于時(shí)空?qǐng)D卷積網(wǎng)絡(luò)來(lái)做人體動(dòng)作識(shí)別。 今天,我們就來(lái)了解下,如何基于ST-GCN來(lái)實(shí)現(xiàn)人體動(dòng)作的識(shí)別與生成。

Why:為什么要使用ST-GCN?

ST-GCN網(wǎng)絡(luò)訓(xùn)練好之后要達(dá)到的效果就是:用戶提供一段視頻,網(wǎng)絡(luò)會(huì)輸出視頻中人的動(dòng)作分類。

類似于上圖中的視頻,如何來(lái)識(shí)別視頻中的人在做什么動(dòng)作呢? 視頻其實(shí)就是一幀一幀的圖片拼接而成的,而傳統(tǒng)處理圖像識(shí)別的網(wǎng)絡(luò)最常用的就是CNN(卷積神經(jīng)網(wǎng)絡(luò)),那ST-GCN是否跟CNN有關(guān)系呢?為什么要使用這個(gè)網(wǎng)絡(luò)呢?

可以從以下三點(diǎn)來(lái)理解:

(1) 輸入數(shù)據(jù)有量級(jí)的差別。舉個(gè)例子,數(shù)據(jù)為一段10秒左右的視頻,大概300幀,像素1920*1080,分別輸入兩個(gè)網(wǎng)絡(luò)中。傳統(tǒng)CNN是將所有視頻拆分為一幀一幀的圖片輸入網(wǎng)絡(luò),而ST-GCN則直接輸入人體的骨架關(guān)節(jié)數(shù)據(jù),CNN的輸入數(shù)據(jù)量約為ST-GCN的83000倍。

(2) 輸入數(shù)據(jù)純凈度高,噪聲少。CNN是將視頻數(shù)據(jù)直接輸入網(wǎng)絡(luò),包括了視頻的背景以及圖片中的各種噪音,而ST-GCN是僅僅將人體骨架關(guān)節(jié)點(diǎn)的信息輸入網(wǎng)絡(luò),只保留了主要的有效信息,噪聲低。

(3) 考慮了空間和時(shí)間上的相鄰關(guān)節(jié),效果更好。ST-GCN不僅考慮了空間上的相鄰節(jié)點(diǎn),也考慮了時(shí)間上的相鄰節(jié)點(diǎn),將鄰域的概念擴(kuò)展到了時(shí)間上,實(shí)驗(yàn)效果表明精度也更高。

What:ST-GCN到底是什么?

ST-GCN是TCN與GCN的結(jié)合。TCN,對(duì)時(shí)間維度的數(shù)據(jù)進(jìn)行卷積操作;GCN,則對(duì)空間維度的數(shù)據(jù)進(jìn)行卷積操作。GCN屬于GNN,而GNN的基礎(chǔ)是圖論。神經(jīng)網(wǎng)絡(luò)處理的傳統(tǒng)數(shù)據(jù)都是歐式距離結(jié)構(gòu)的數(shù)據(jù),比如二維的圖像、一維的聲音等等。而對(duì)于非歐式距離結(jié)構(gòu)的數(shù)據(jù),比如社交網(wǎng)絡(luò)、交通運(yùn)輸網(wǎng)等等,傳統(tǒng)的網(wǎng)絡(luò)結(jié)構(gòu)無(wú)法直接處理,而GNN就是用來(lái)處理這類型數(shù)據(jù)的。所以要了解ST-GCN,就要先從圖論的一些基本理論入手,然后再延伸到GNN、GCN、ST-GCN。

2.1 圖論

這里的圖并不是指我們?nèi)粘K?jiàn)的圖片,圖的廣泛概念包含具體的事物,以及事物之間的聯(lián)系。圖論中的圖由兩部分構(gòu)成,即點(diǎn)和邊。

點(diǎn):圖上具體的節(jié)點(diǎn)。

邊:連接圖上點(diǎn)和點(diǎn)之間的東西,邊分為有向邊和無(wú)向邊。

圖:節(jié)點(diǎn)V(G)和邊E(G)構(gòu)成的集合就是圖,可以表示為:G = {V(G), E(G)}。圖可以簡(jiǎn)單分為有向圖和無(wú)向圖(如下圖所示)。

2.2 GNN

GNN: Group Neural Network 圖神經(jīng)網(wǎng)絡(luò),即結(jié)合圖論與深度學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)。目前主要包含:Graph Convolutional Networks (GCN)、Graph Attention Networks、Graph Auto-encoder、Graph Generative Networks、Graph Spatial-Temporal Networks。最初的GNN網(wǎng)絡(luò),就是將點(diǎn)和邊的特征一起傳入網(wǎng)絡(luò)中學(xué)習(xí)。

2.3 GCN

GCN:Graph Convolutional Networks 圖卷積神經(jīng)網(wǎng)絡(luò),顧名思義,是將圖與卷積結(jié)合起來(lái)。根據(jù)卷積核的不同,主要分為spectral method(頻譜方法)和spatial method(空間方法)。二者的區(qū)別在于:頻譜方法基于拉普拉斯矩陣,與圖的關(guān)系緊密聯(lián)系,可泛化能力弱;空間方法則直接在圖上定義卷積,對(duì)有緊密關(guān)系的節(jié)點(diǎn)進(jìn)行操作,分為點(diǎn)分類和圖分類。ST-GCN中的GCN屬于圖分類,且采用的是空間方法。

2.4 ST-GCN

ST-GCN:Spatial Temporal Graph Convolutional Networks時(shí)空?qǐng)D卷積網(wǎng)絡(luò),是在GCN的基礎(chǔ)上提出的。核心觀點(diǎn)是將TCN與GCN相結(jié)合,用來(lái)處理有時(shí)序關(guān)系的圖結(jié)構(gòu)數(shù)據(jù)。網(wǎng)絡(luò)分為2個(gè)部分:GCN_Net與TCN_Net。

GCN_Net對(duì)輸入數(shù)據(jù)進(jìn)行空間卷積,即不考慮時(shí)間的因素,卷積作用于同一時(shí)序的不同點(diǎn)的數(shù)據(jù)。TCN_Net對(duì)數(shù)據(jù)進(jìn)行時(shí)序卷積,考慮不同時(shí)序同一特征點(diǎn)的關(guān)系,卷積作用于不同時(shí)序同一點(diǎn)的數(shù)據(jù)。

How:ST-GCN具體如何使用?

前部分講了ST-GCN是什么,那我們回歸到ST-GCN的具體應(yīng)用上,首次提出ST-GCN是用來(lái)做人體動(dòng)作識(shí)別,即通過(guò)一段視頻來(lái)判斷其中人的動(dòng)作,也就是人體動(dòng)作識(shí)別。

數(shù)據(jù)集:論文中使用的數(shù)據(jù)集為NTU-RGB+D,包含60種動(dòng)作,共56880個(gè)樣本,其中有40類為日常行為動(dòng)作,9類為與健康相關(guān)的動(dòng)作,11類為雙人相互動(dòng)作。數(shù)據(jù)集已經(jīng)將視頻中的人體動(dòng)作轉(zhuǎn)換為了骨架關(guān)節(jié)的數(shù)據(jù),其中人體的骨架標(biāo)注了25個(gè)節(jié)點(diǎn),就是一種圖結(jié)構(gòu)的數(shù)據(jù)。

NTU-RGB+D數(shù)據(jù)集的分類

亮點(diǎn):

(1) 鄰接矩陣不采用傳統(tǒng)的方式,采用一種新的方式,將鄰接矩陣分為3個(gè)子集:根節(jié)點(diǎn)本身、向心力群,離心群。這一策略的靈感來(lái)自于身體部位的運(yùn)動(dòng)可以被廣泛地歸類為同心運(yùn)動(dòng)和偏心運(yùn)動(dòng),通常距離重心越近,運(yùn)動(dòng)幅度越小,同時(shí)能更好地區(qū)分向心運(yùn)動(dòng)和離心運(yùn)動(dòng)。即下圖中的(d)。

(2) 網(wǎng)絡(luò)中加入可學(xué)習(xí)的邊的權(quán)重,即加入attention機(jī)制。每層網(wǎng)絡(luò)中鄰接矩陣A都與可學(xué)習(xí)的權(quán)重相乘,這些權(quán)重在反向傳播中更新。添加的原因是考慮到人體做不同的動(dòng)作所側(cè)重的關(guān)節(jié)點(diǎn)不同,而且添加了注意力機(jī)制更有利于提高網(wǎng)絡(luò)的泛化能力。

整體效果:

使用ST-GCN的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行人體動(dòng)作識(shí)別,論文中在NTU-RGB+D數(shù)據(jù)集的x_sub模式下識(shí)別精度達(dá)到81.5%,NTU-RGB+D數(shù)據(jù)集的x-view模式下識(shí)別精度達(dá)到88.3%,優(yōu)于傳統(tǒng)的人體動(dòng)作識(shí)別網(wǎng)絡(luò)。

團(tuán)隊(duì)工作亮點(diǎn)

ST-GCN的技術(shù)延展-動(dòng)作生成

基于對(duì)ST-GCN在人體動(dòng)作識(shí)別上的效果,我們將ST-GCN網(wǎng)絡(luò)與VAE網(wǎng)絡(luò)結(jié)合。目的在于獲取人體動(dòng)作的語(yǔ)義,進(jìn)而生成人體的動(dòng)作,最終可以應(yīng)用于機(jī)器人動(dòng)作模仿或者其他強(qiáng)化學(xué)習(xí)項(xiàng)目中。

目前項(xiàng)目已在進(jìn)行中,下圖展示的是真實(shí)的人體骨架節(jié)點(diǎn)3D圖與網(wǎng)絡(luò)生成的人體骨架節(jié)點(diǎn)3D圖。具體的研究結(jié)果,之后再跟大家分享,敬請(qǐng)期待。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:探究 | 一文了解基于ST-GCN的人體動(dòng)作識(shí)別與生成

文章出處:【微信號(hào):kmdian,微信公眾號(hào):深蘭科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32N647開(kāi)發(fā)板試用】--人體檢測(cè)模型體驗(yàn)

    STM32N647芯片具有npu的,有0.6tops的算例,可以部署簡(jiǎn)單模型, 本次實(shí)驗(yàn)我們體驗(yàn)的是人體識(shí)別模型,該模型來(lái)源于:STM32 Model Zoo 工程文件分三部分,我們?cè)诰€debug其中的FSBL部分才行, 提示,這個(gè)
    發(fā)表于 02-21 19:44

    瑞芯微(EASY EAI)RV1126B 人體關(guān)鍵點(diǎn)識(shí)別

    1.人體關(guān)鍵點(diǎn)識(shí)別簡(jiǎn)介人體關(guān)鍵點(diǎn)識(shí)別是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位與姿勢(shì)估計(jì)的模型,廣泛應(yīng)用于體育分析、動(dòng)物行為監(jiān)測(cè)和機(jī)器人等領(lǐng)域,幫助機(jī)器實(shí)時(shí)解讀物理
    的頭像 發(fā)表于 01-23 10:13 ?2250次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人體</b>關(guān)鍵點(diǎn)<b class='flag-5'>識(shí)別</b>

    LAT1204+使用 NANOEDGE.AI 工具完成人體姿態(tài)識(shí)別應(yīng)用

    NanoEdge? AI 庫(kù)是 Cartesiam 推出的人工智能靜態(tài)庫(kù),它可以幫助客戶直接生成可以運(yùn)行在嵌入式 Arm Cortex 處理器上的.a 靜態(tài)庫(kù)文件。2021 年 ST 收購(gòu)
    發(fā)表于 01-11 17:21 ?0次下載

    基于AIK-RA8D1的人識(shí)別的應(yīng)用演示

    與Aizip人臉識(shí)別技術(shù)結(jié)合,實(shí)現(xiàn)高效且低功耗的人識(shí)別應(yīng)用。人臉識(shí)別的優(yōu)勢(shì)傳統(tǒng)的密碼驗(yàn)證方式存在很多缺點(diǎn)。首先,密碼容易泄露或被共享,可能導(dǎo)致未
    的頭像 發(fā)表于 12-02 14:29 ?5519次閱讀
    基于AIK-RA8D1<b class='flag-5'>的人</b>臉<b class='flag-5'>識(shí)別</b>的應(yīng)用演示

    華中科技大學(xué):研究面向水陸兩棲人體運(yùn)動(dòng)識(shí)別的柔性多維肌肉形變磁傳感陣列

    準(zhǔn)確的人體運(yùn)動(dòng)識(shí)別對(duì)于控制可穿戴機(jī)器人及虛擬/增強(qiáng)現(xiàn)實(shí)等人機(jī)交互系統(tǒng)至關(guān)重要,而捕獲人體運(yùn)動(dòng)特征的可穿戴傳感設(shè)備是實(shí)現(xiàn)運(yùn)動(dòng)識(shí)別的基礎(chǔ)(作為運(yùn)動(dòng)識(shí)別
    的頭像 發(fā)表于 11-24 11:39 ?812次閱讀
    華中科技大學(xué):研究面向水陸兩棲<b class='flag-5'>人體</b>運(yùn)動(dòng)<b class='flag-5'>識(shí)別</b>的柔性多維肌肉形變磁傳感陣列

    新品預(yù)告|能“看懂”靜止人體的雷達(dá)模組

    讀懂空間中的人。一、四大核心1.靜態(tài)檢測(cè),人在即感知不僅能捕捉運(yùn)動(dòng),更能識(shí)別微動(dòng)、靜止、甚至睡眠中的人體;采用FMCW調(diào)頻連續(xù)波技術(shù),更高的帶寬支持更高的分辨率,
    的頭像 發(fā)表于 10-20 17:11 ?1493次閱讀
    新品預(yù)告|能“看懂”靜止<b class='flag-5'>人體</b>的雷達(dá)模組

    ANSA人體模型姿態(tài)調(diào)整工具的使用案例

    中國(guó)體征人體數(shù)字模型(AC-HUMs)是中國(guó)汽研主持研發(fā)的人體有限元模型。BETA CAE Systems與中國(guó)汽研保持緊密合作,前、后處理軟件(ANSA/META)會(huì)全面支持AC-HUMs系列模型。在軟件中提供對(duì)應(yīng)工具用于人體
    的頭像 發(fā)表于 09-28 15:44 ?1208次閱讀
    ANSA<b class='flag-5'>人體</b>模型姿態(tài)調(diào)整工具的使用案例

    ANSA人體模型姿態(tài)調(diào)整工具介紹

    ANSA的人體模型姿態(tài)調(diào)整工具(HBM Articulation Tool)通過(guò)網(wǎng)格變形技術(shù)實(shí)現(xiàn)基于人體不同部位進(jìn)行調(diào)節(jié),定位人體模型最終的姿態(tài)。
    的頭像 發(fā)表于 09-28 15:40 ?1268次閱讀
    ANSA<b class='flag-5'>人體</b>模型姿態(tài)調(diào)整工具介紹

    9米遠(yuǎn)距離高精準(zhǔn)度24G人體存在感知雷達(dá)模塊

    處理、精確人體感應(yīng)算法,實(shí)現(xiàn)高靈敏度的人體存在狀態(tài)感應(yīng),可識(shí)別運(yùn)動(dòng)和靜止?fàn)顟B(tài)下的人體,并可計(jì)算出目標(biāo)的距離等輔助信息。02模塊優(yōu)勢(shì)人體存在感
    的頭像 發(fā)表于 09-22 12:04 ?1075次閱讀
    9米遠(yuǎn)距離高精準(zhǔn)度24G<b class='flag-5'>人體</b>存在感知雷達(dá)模塊

    XenG202G | 揮手手勢(shì)識(shí)別參考設(shè)計(jì)(三維)

    WEMAKERFSMART-賦予萬(wàn)物感知的靈魂-矽典微ICLEGENDMICROXenG202G揮手手勢(shì)識(shí)別(三維)毫米波傳感器特征手勢(shì)識(shí)別:非接觸式控制,高精度手勢(shì)動(dòng)作識(shí)別,支持方向
    的頭像 發(fā)表于 08-29 08:25 ?650次閱讀
    XenG202G | 揮手手勢(shì)<b class='flag-5'>識(shí)別</b>參考設(shè)計(jì)(三維)

    瑞芯微RK3576人體關(guān)鍵點(diǎn)識(shí)別算法(骨骼點(diǎn))

    人體關(guān)鍵點(diǎn)識(shí)別是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位與姿勢(shì)估計(jì)的模型,廣泛應(yīng)用于體育分析、動(dòng)物行為監(jiān)測(cè)和機(jī)器人等領(lǐng)域,幫助機(jī)器實(shí)時(shí)解讀物理動(dòng)作。本算法具有運(yùn)行效率高、實(shí)時(shí)性強(qiáng)的特點(diǎn)。
    的頭像 發(fā)表于 08-27 10:07 ?1013次閱讀
    瑞芯微RK3576<b class='flag-5'>人體</b>關(guān)鍵點(diǎn)<b class='flag-5'>識(shí)別</b>算法(骨骼點(diǎn))

    【開(kāi)發(fā)實(shí)例】基于BPI-CanMV-K230D-Zero開(kāi)發(fā)板實(shí)現(xiàn)人體關(guān)鍵點(diǎn)的實(shí)時(shí)動(dòng)態(tài)識(shí)別

    本文介紹了香蕉派CanMVK230DZero開(kāi)發(fā)板通過(guò)攝像頭實(shí)現(xiàn)人體關(guān)鍵點(diǎn)的實(shí)時(shí)動(dòng)態(tài)檢測(cè)識(shí)別的項(xiàng)目設(shè)計(jì)。https://bbs.elecfans.com/jishu_2493481_1_1.html
    的頭像 發(fā)表于 07-08 08:04 ?1353次閱讀
    【開(kāi)發(fā)實(shí)例】基于BPI-CanMV-K230D-Zero開(kāi)發(fā)板實(shí)現(xiàn)<b class='flag-5'>人體</b>關(guān)鍵點(diǎn)的實(shí)時(shí)動(dòng)態(tài)<b class='flag-5'>識(shí)別</b>

    選擇戶外場(chǎng)景的人識(shí)別門禁一體機(jī),需要具備哪些條件?

    我們常用于企業(yè)打卡或單位校園門禁的人識(shí)別身份核驗(yàn)終端、刷臉核驗(yàn)一體機(jī)、人臉識(shí)別門禁考勤機(jī)或人臉識(shí)別門禁一體機(jī)通常都是用于室內(nèi)。但其實(shí)用于戶外場(chǎng)景的身份證人臉
    的頭像 發(fā)表于 06-09 10:26 ?1011次閱讀
    選擇戶外場(chǎng)景<b class='flag-5'>的人</b>臉<b class='flag-5'>識(shí)別</b>門禁一體機(jī),需要具備哪些條件?

    ?Diffusion生成動(dòng)作引擎技術(shù)解析

    Diffusion生成動(dòng)作引擎 Diffusion生成動(dòng)作引擎是一種基于擴(kuò)散模型(Diffusion Models)的生成式人工智能技術(shù)
    的頭像 發(fā)表于 03-17 15:14 ?3058次閱讀

    怎樣才能使用NUCLEO-H563ZI 識(shí)別ST-LINK ?

    NUCLEO-H563ZI開(kāi)發(fā)板在接上USB后,ST-LINK 在設(shè)備管理器里面沒(méi)有顯示,需要對(duì)STLKRST,就是跳線JP3 后拔掉,這是可以識(shí)別ST-LINK,然而,用MDK 時(shí),提示
    發(fā)表于 03-14 13:59