91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google又放大招,高效實(shí)時(shí)實(shí)現(xiàn)視頻目標(biāo)檢測

ml8z_IV_Technol ? 來源:YXQ ? 2019-04-08 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像目標(biāo)檢測是圖像處理領(lǐng)域的基礎(chǔ)。自從2012年CNN的崛起,深度學(xué)習(xí)在Detection的持續(xù)發(fā)力,為這個(gè)領(lǐng)域帶來了變革式的發(fā)展:一個(gè)是基于RPN的two-stage,RCNN/Fast RCNN/Faster RCNN、RetinaNet、Mask RCNN等,致力于檢測精度的提高。一類是基于SSD和YOLOv1/v2/3的one-stage,致力于提高檢測速度。

視頻目標(biāo)檢測要解決的問題是對于視頻中每一幀目標(biāo)的正確識別和定位。相對于圖像目標(biāo)檢測,視頻是高度冗余的,包含了大量時(shí)間局部性(temporal locality,即在不同的時(shí)間是相似的)和空間局部性(spatial locality,即在不同場景中看起來是相似的),既Temporal Context(時(shí)間上下文)的信息。充分利用好時(shí)序上下文關(guān)系,可以解決視頻中連續(xù)幀之間的大量冗余的情況,提高檢測速度;還可以提高檢測質(zhì)量,解決視頻相對于圖像存在的運(yùn)動模糊、視頻失焦、部分遮擋以及形變等問題。

視頻目標(biāo)檢測和視頻跟蹤不同。兩個(gè)領(lǐng)域解決相同點(diǎn)在于都需要對每幀圖像中的目標(biāo)精準(zhǔn)定位,不同點(diǎn)在于視頻目標(biāo)檢測不考慮目標(biāo)的識別問題,而跟蹤需要對初始幀的目標(biāo)精確定位和識別。

圖1 高德地圖車載AR導(dǎo)航可識別前方車輛并提醒

視頻目標(biāo)檢測應(yīng)用廣泛,如自動駕駛,無人值守監(jiān)控,安防等領(lǐng)域。如圖1所示,高德地圖車載AR導(dǎo)航利用視頻目標(biāo)檢測,能夠?qū)^往車輛、行人、車道線、紅綠燈位置以及顏色、限速牌等周邊環(huán)境,進(jìn)行智能的圖像識別,從而為駕駛員提供跟車距離預(yù)警、壓線預(yù)警、紅綠燈監(jiān)測與提醒、前車啟動提醒、提前變道提醒等一系列駕駛安全輔助。

視頻目標(biāo)檢測算法一般包括單幀目標(biāo)檢測、多幀圖像處理、光流算法、自適應(yīng)關(guān)鍵幀選擇。Google提出基于Slownetwork 和Fast network分別提取不同特征,基于ConvLSTM特征融合后生成檢測框,實(shí)現(xiàn)實(shí)時(shí)性的state-of-art。

論文地址:https://arxiv.org/abs/1903.10172

1 Motivation

物體在快速運(yùn)動時(shí),當(dāng)人眼所看到的影像消失后,人眼仍能繼續(xù)保留其影像,約0.1-0.4秒左右的圖像,這種現(xiàn)象被稱為視覺暫留現(xiàn)象。人類在觀看視頻時(shí),利用視覺暫留機(jī)制和記憶能力,可以快速處理視頻流。借助于存儲功能,CNN同樣可以實(shí)現(xiàn)減少視頻目標(biāo)檢測的計(jì)算量。

視頻幀具有較高的時(shí)序冗余。如圖2所示,模型[1]提出使用兩個(gè)特征提取子網(wǎng)絡(luò):Slow network 和Fast network。Slow network負(fù)責(zé)提取視頻幀的精確特征,速度較慢,F(xiàn)ast network負(fù)責(zé)快速提取視頻幀的特征提取,準(zhǔn)確率較差,兩者交替處理視頻幀圖像。Fast network和Slow network特征經(jīng)過ConvLSTM層融合并保存特征。檢測器在當(dāng)前幀特征和上下文特征融合基礎(chǔ)上生成檢測框。論文提取基于強(qiáng)化學(xué)習(xí)策略的特征提取調(diào)度機(jī)制和需要保存特征的更新機(jī)制。

論文提出的算法模型在Pixel 3達(dá)到72.3 FPS,在VID 2015數(shù)據(jù)集state-of-art性能。

論文創(chuàng)新點(diǎn):

1、提出基于存儲引導(dǎo)的交替模型框架,使用兩個(gè)特征提取網(wǎng)絡(luò)分別提取不同幀特征,減少計(jì)算冗余。

2、提出基于Q-learning學(xué)習(xí)自適應(yīng)交替策略,取得速度和準(zhǔn)確率的平衡。

3、在手機(jī)設(shè)備實(shí)現(xiàn)迄今為止已知視頻目標(biāo)檢測的最高速度。

圖2 存儲引導(dǎo)的交錯(cuò)模型

2網(wǎng)絡(luò)架構(gòu)

2.1交錯(cuò)模型

圖3交錯(cuò)模型

如圖3所示論文提出的交錯(cuò)模型(τ = 2),Slow network(Large featureextractor)和Fastnetwork(Small feature extractor)均由MobileNetV2構(gòu)成(兩個(gè)模型的depth multiplier不同,前者為1.4,后者為0.35),anchors比率限制為{1.0,0.5,2.0}。

2.2存儲模型

LSTM可以高效處理時(shí)序信息,但是卷積運(yùn)算量較大,并且需要處理所有視頻幀特征。論文提出改進(jìn)的ConvLSTM模型加速視頻幀序列的特征處理。

ConvLSTM是一種將CNN與LSTM在模型底層結(jié)合,專門為時(shí)空序列設(shè)計(jì)的深度學(xué)習(xí)模塊。ConvLSTM核心本質(zhì)還是和LSTM一樣,將上一層的輸出作下一層的輸入。不同的地方在于加上卷積操作之后,為不僅能夠得到時(shí)序關(guān)系,還能夠像卷積層一樣提取特征,提取空間特征。這樣就能夠得到時(shí)空特征。并且將狀態(tài)與狀態(tài)之間的切換也換成了卷積計(jì)算。

圖4 存儲模型LSTM單元

如所示,論文的ConvLSTM有一下改進(jìn):

1、增加Bottleneck Gate和output跳躍連接。

2、LSTM單元分組卷積。特征圖HxWxN分為G組,每個(gè)LSTM僅處理HxWxN/G的特征,加速ConvLSTM計(jì)算。論文中G = 4。

3、LSTM有一固有弱點(diǎn),sigmoid激活輸入和忘記門很少完全飽和,導(dǎo)致緩慢的狀態(tài)衰減,長期依賴逐漸喪失,更新中無法保留完整的前期狀態(tài)。導(dǎo)致Fast network運(yùn)行中,Slownetwork特征緩慢消失。論文使用簡單的跳躍連接,既第一個(gè)Fast network輸出特征重復(fù)使用。

2.3推斷優(yōu)化

論文提出基于異步模式和量化模型,提高系統(tǒng)的計(jì)算效率。

1、異步模式。交錯(cuò)模型的短板來自于Slow network。論文采用Fastnetwork提取每幀圖像特征,τ = 2幀采用Slow network計(jì)算特征和更新存儲特征。Slownetwork和Fast network異步進(jìn)行,提高計(jì)算效率。

2、在有限資源的硬件設(shè)備上布置性能良好的網(wǎng)絡(luò),就需要對網(wǎng)絡(luò)模型進(jìn)行壓縮和加速,其中量化模型是一種高效手段?;赱2]算法,論文的ConvLSTM單元在數(shù)學(xué)運(yùn)算(addition,multiplication, sigmoid and ReLU6)后插入量化計(jì)算,確保拼接操作的輸入范圍相同,消除重新縮放的需求。

3 實(shí)驗(yàn)

模型在Imagenet DET 和COCO訓(xùn)練,在Imagenet VID 2015測試結(jié)果如圖5所示。

從測試結(jié)果看,系統(tǒng)只有Slow network模塊時(shí)準(zhǔn)確率最高, 只有Fast network模塊時(shí)準(zhǔn)確率最低,但是速度沒有交錯(cuò)模型快,比較詫異。另外基于強(qiáng)化學(xué)習(xí)的adaptive對精度和速度幾乎沒有影響,而異步模式和模型量化提高系統(tǒng)的實(shí)時(shí)性。

圖5 Imagenet VID 2015測試結(jié)果

4 優(yōu)缺點(diǎn)分析

視頻處理策略

1、基于強(qiáng)化學(xué)習(xí)的交錯(cuò)模型調(diào)度是偽命題。論文的Slow network提取強(qiáng)特征,F(xiàn)astnetwork提取弱特征,交錯(cuò)模型的τ越大,模型性能越差。理論上τ=2時(shí)模型的準(zhǔn)確率越高。綜合考慮準(zhǔn)確率和實(shí)時(shí)性,論文中τ=9。

2、視頻具有很強(qiáng)的上下文相關(guān)性。視頻理解領(lǐng)域的目標(biāo)檢測、分割、識別,跟蹤,等領(lǐng)域,都需要提取前后幀的運(yùn)動信息,而傳統(tǒng)采用光流方式,無法保證實(shí)時(shí)性。本文提出的分組ConvLSTM,可加速計(jì)算,量化模型保持準(zhǔn)確率,具有借鑒意義。

以上僅為個(gè)人閱讀論文后的理解、總結(jié)和思考。觀點(diǎn)難免偏差,望讀者以懷疑批判態(tài)度閱讀,歡迎交流指正。

參考文獻(xiàn)

[1] MasonLiu, Menglong Zhu, Marie White, Yinxiao Li, Dmitry Kalenichenko.Looking Fastand Slow: Memory-Guided Mobile Video Object Detection.arXivpreprint arXiv:1903.10172,2019.

[2] B.Jacob, S. Kligys, B. Chen, M. Zhu, M. Tang, A. Howard,H. Adam, and D.Kalenichenko. Quantization and training of neural networks for efficientinteger-arithmetic-only inference. In CVPR, 2018.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1807

    瀏覽量

    60522
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    233

    瀏覽量

    16495

原文標(biāo)題:Google又發(fā)大招:高效實(shí)時(shí)實(shí)現(xiàn)視頻目標(biāo)檢測

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    YOLO5目標(biāo)檢測方案-基于米爾RK3576開發(fā)板

    實(shí)時(shí)性:完成從攝像頭采集→NPU推理→屏幕顯示的完整流程,耗時(shí)不超過攝像頭一幀的時(shí)間。 輸入/輸出:盡可能提高攝像頭采集幀率,并在顯示端支持更高的輸出分辨率。 功能:實(shí)現(xiàn)YOLO5s目標(biāo)檢測
    發(fā)表于 01-22 19:21

    基于iTOP-3568核心板的YOLO目標(biāo)檢測全棧解決方案

    在智能制造、智慧安防、智能交通等領(lǐng)域,實(shí)時(shí)、精準(zhǔn)的目標(biāo)檢測技術(shù)正成為行業(yè)智能化轉(zhuǎn)型的核心需求。然而,傳統(tǒng)方案面臨云端延遲高、網(wǎng)絡(luò)依賴強(qiáng)、成本居高不下等挑戰(zhàn)?,F(xiàn)在,基于瑞芯微RK3568處理器的iTOP-3568開發(fā)板,為您帶來
    的頭像 發(fā)表于 01-21 16:44 ?983次閱讀
    基于iTOP-3568核心板的YOLO<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>全棧解決方案

    探索HMC913LC4B:高速、高效的連續(xù)檢測對數(shù)視頻放大

    探索HMC913LC4B:高速、高效的連續(xù)檢測對數(shù)視頻放大器 在電子工程領(lǐng)域,對于高性能、寬頻帶的放大器需求始終居高不下。今天我們聚焦于一款備受關(guān)注的產(chǎn)品——HMC913LC4B,它是
    的頭像 發(fā)表于 01-15 14:00 ?312次閱讀

    探秘HMC913:0.6 - 20 GHz連續(xù)檢測對數(shù)視頻放大

    探秘HMC913:0.6 - 20 GHz連續(xù)檢測對數(shù)視頻放大器 在電子工程領(lǐng)域,對于高性能放大器的追求從未停止。今天,我們就來深入了解一款具有獨(dú)特性能的放大器——HMC913,它是一
    的頭像 發(fā)表于 01-15 14:00 ?223次閱讀

    低成本高效能:ADM4073電流檢測放大器的全方位解析

    低成本高效能:ADM4073電流檢測放大器的全方位解析 在電子設(shè)計(jì)領(lǐng)域,電流檢測是一項(xiàng)基礎(chǔ)而關(guān)鍵的任務(wù)。對于眾多小型便攜式應(yīng)用來說,選擇一款合適的電流
    的頭像 發(fā)表于 01-13 16:25 ?192次閱讀

    基于FD-SST 的無人機(jī)目標(biāo)跟蹤系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)|技術(shù)集結(jié)

    應(yīng)用實(shí)現(xiàn)功能1.本應(yīng)用基于睿擎派,實(shí)現(xiàn)了對無人機(jī)目標(biāo)實(shí)時(shí)跟蹤,并將跟蹤結(jié)果用于驅(qū)動兩軸轉(zhuǎn)臺完成自動指向。主要功能包括:使用FD-SST算法在視頻
    的頭像 發(fā)表于 12-10 19:32 ?8868次閱讀
    基于FD-SST 的無人機(jī)<b class='flag-5'>目標(biāo)</b>跟蹤系統(tǒng)的設(shè)計(jì)與<b class='flag-5'>實(shí)現(xiàn)</b>|技術(shù)集結(jié)

    基于米爾MYC-LR3576開發(fā)板的實(shí)時(shí)視頻識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)

    實(shí)時(shí)視頻識別系統(tǒng)。重點(diǎn)解決了多路視頻流處理、NPU加速模型部署、低延遲推理等關(guān)鍵問題,在工業(yè)安防、智能零售等場景中實(shí)現(xiàn)精準(zhǔn)目標(biāo)
    發(fā)表于 12-01 21:23

    目標(biāo)追蹤的簡易實(shí)現(xiàn):模板匹配

    往往是先在一個(gè)靜態(tài)的圖象中尋找到某一片像素區(qū)域(比如從背景畫面中框選出人臉或文字),然后再對這片像素區(qū)域作分析(比如提取人臉關(guān)鍵點(diǎn)信息等等);而目標(biāo)追蹤則是在一段視頻流中進(jìn)行,它根據(jù)指定的追蹤目標(biāo)
    發(fā)表于 10-28 07:21

    借助NVIDIA技術(shù)構(gòu)建實(shí)時(shí)視覺檢測工作流

    構(gòu)建一套可靠的視覺檢測流程來實(shí)現(xiàn)缺陷檢測和質(zhì)量控制面臨諸多挑戰(zhàn),例如針對特定領(lǐng)域定制通用視覺 AI 模型、在算力受限的邊緣設(shè)備上優(yōu)化模型規(guī)模,以及高效
    的頭像 發(fā)表于 10-21 11:01 ?952次閱讀
    借助NVIDIA技術(shù)構(gòu)建<b class='flag-5'>實(shí)時(shí)</b>視覺<b class='flag-5'>檢測</b>工作流

    【機(jī)器視覺】睿擎平臺支持NCNN AI 推理框架,輕松實(shí)現(xiàn)實(shí)時(shí)目標(biāo)檢測( 睿擎線下 Workshop 報(bào)名已開啟)|產(chǎn)品動

    RT-Thread系統(tǒng)上深度集成NCNN推理框架,通過其輕量化架構(gòu)與硬件級優(yōu)化能力,結(jié)合YOLO系列算法的高效單階段檢測特性,實(shí)現(xiàn)了工業(yè)場景下的目標(biāo)
    的頭像 發(fā)表于 08-20 17:40 ?5261次閱讀
    【機(jī)器視覺】睿擎平臺支持NCNN AI 推理框架,輕松<b class='flag-5'>實(shí)現(xiàn)實(shí)時(shí)</b><b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>( 睿擎線下 Workshop 報(bào)名已開啟)|產(chǎn)品動

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試?ppyoloe目標(biāo)檢測

    迅為八核高算力RK3576開發(fā)板攝像頭實(shí)時(shí)推理測試 ppyoloe目標(biāo)檢測
    的頭像 發(fā)表于 07-14 15:18 ?1275次閱讀
    迅為八核高算力RK3576開發(fā)板攝像頭<b class='flag-5'>實(shí)時(shí)</b>推理測試?ppyoloe<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    【嘉楠堪智K230開發(fā)板試用體驗(yàn)】01 Studio K230開發(fā)板Test2——手掌,手勢檢測,字符檢測

    架構(gòu),這是一種高效的模式識別方法,特別擅長從復(fù)雜圖像數(shù)據(jù)中提取特征和識別目標(biāo)。 高能效比與低延遲: 在執(zhí)行高強(qiáng)度計(jì)算時(shí),KPU 能保持高能效比(低功耗)和低延遲(高速度),支持實(shí)時(shí)圖像分析。 高級視覺
    發(fā)表于 07-10 09:45

    Google Fast Pair服務(wù)簡介

    Google Fast Pair 是一項(xiàng)利用低功耗藍(lán)牙(Bluetooth LE)技術(shù),實(shí)現(xiàn)設(shè)備間快速安全配對及提供多種服務(wù)的協(xié)議。其主要功能包括: 設(shè)備處于配對模式時(shí),顯示半頁通知,便于用戶進(jìn)行
    發(fā)表于 06-29 19:28

    基于LockAI視覺識別模塊:C++目標(biāo)檢測

    的基本概念,并提供了詳細(xì)的API文檔說明,幫助開發(fā)者理解和實(shí)現(xiàn)目標(biāo)檢測與可視化功能。通過上述流程,可以構(gòu)建高效實(shí)時(shí)目標(biāo)
    發(fā)表于 06-06 14:43

    明遠(yuǎn)智睿SSD2351開發(fā)板:視頻監(jiān)控領(lǐng)域的卓越之選

    開發(fā)板的四核1.4GHz處理器在視頻監(jiān)控?cái)?shù)據(jù)處理方面表現(xiàn)優(yōu)異。視頻監(jiān)控系統(tǒng)會產(chǎn)生大量的視頻數(shù)據(jù),需要進(jìn)行實(shí)時(shí)編碼、解碼和分析。該處理器能夠高效
    發(fā)表于 05-30 10:24