91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用光流 + CNN的方法來預(yù)測車輛的速度

新機器視覺 ? 來源:新機器視覺 ? 作者:Sharif Elfouly ? 2020-11-27 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

使用光流 + CNN的方法來預(yù)測車輛的速度,用PyTorch實現(xiàn),有代碼。

代碼:https://github.com/SharifElfouly/vehicle-speed-estimation

我想要解決的問題是:在一輛車里有一個攝像頭,我想知道車開得有多快。你顯然不能看速度表,只能看視頻片段本身。深度學(xué)習(xí)魔法應(yīng)該能幫助我們。

數(shù)據(jù)

我有兩個不同的視頻。一個用于訓(xùn)練,另一個用于測試。訓(xùn)練視頻有20399幀,測試視頻有10797幀。視頻下載地址:https://github.com/commaai/speedchallenge。下面是一些例子:

視頻中的樣本圖像

訓(xùn)練視頻的標簽是a .txt文件,其中每一行對應(yīng)于特定幀的速度。

方法

這個問題最有趣的地方是你的神經(jīng)網(wǎng)絡(luò)輸入會是什么樣子。僅從一個靜態(tài)圖像計算速度是不可能的。一種有效的方法是將兩個或更多的圖像堆疊在一起,或者像LSTM或Transformer那樣連續(xù)地堆疊。另一個是計算光流,我決定用它。

什么是光流?它基本上是一種為每個像素計算矢量的方法,告訴你兩幅圖像之間的相對運動。有一個很棒的computerphile視頻:https://www.youtube.com/watch?v=4v_keMNROv4,你可以了解更多細節(jié)。有一些“經(jīng)典”的計算機視覺算法可以用來計算光流,但深度學(xué)習(xí)已經(jīng)變得更好了(這一點也不奇怪)。那么什么是SOTA方法,讓我們看看paperswithcode:

RAFT 看起來不錯,它還有PyTorch的實現(xiàn)。我forked原始存儲庫,并使其更簡單一些。我不需要訓(xùn)練,評估等等。我只會用它來推理。

計算光流

為了進行推斷,網(wǎng)絡(luò)將兩幅圖像拼接起來,并預(yù)測了一個維度為*(2, image_height, image_width)*的張量。如前所述,圖像中的每個像素對應(yīng)一個二維向量。我們將在實際訓(xùn)練中使用這些文件,因此我們將它們保存為.npy文件。如果你想象光流圖像它會是這樣的:

訓(xùn)練

記住我們訓(xùn)練的目的:

光流→模型→車速估計

我選擇的模型是EfficientNet。我非常喜歡它,因為它的可擴展性。它有8個不同的版本供你選擇,最大的一個,EfficientNet-B7仍然非常非常好。你可以從一個像B0這樣的小變體開始,然后如果一切工作正常,你有一個足夠好的GPU,你可以選擇一個更大的。還有一個PyTorch庫,我會使用它來非常容易地加載預(yù)先訓(xùn)練好的網(wǎng)絡(luò)模型,地址:https://github.com/lukemelas/effecentnet-PyTorch。如果你打開[train.ipynb](https://github.com/sharifelfouly/vehicle-speed - estimate),你就可以看到訓(xùn)練是如何運作的。

我總是從B0開始,然后放大到B3,因為我的GPU只有6 GB內(nèi)存。經(jīng)過訓(xùn)練,我得到如下結(jié)果(loss為均方誤差):

訓(xùn)練損失

驗證損失

很好,看起來一切都很正常!訓(xùn)練和驗證損失都在降低,網(wǎng)絡(luò)沒有過擬合。

結(jié)果如下:

雖然不完美,但它確實有一些用

總結(jié)

我通常不太喜歡特征工程,但我認為在這種情況下它做得很好。下一步是嘗試一些序列化的東西,比如Transformer或LSTM。

英文原文:https://medium.com/@selfouly/vehicle-speed-estimation-from-video-using-deep-learning-18b41babda4c

責任編輯:xj

原文標題:使用深度學(xué)習(xí)從視頻中估計車輛的速度

文章出處:【微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136984
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124414
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23430

原文標題:使用深度學(xué)習(xí)從視頻中估計車輛的速度

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    微電網(wǎng)的功率計算:基礎(chǔ)方法與影響因素

    。與傳統(tǒng)大電網(wǎng)相比,微電網(wǎng)因含大量分布式電源(DG)、運行模式靈活(并網(wǎng)/離網(wǎng)切換)、負荷隨機性強等特性,其功率計算面臨節(jié)點類型復(fù)雜、潮流方向多變、收斂性要求更高等挑戰(zhàn)。本文將系統(tǒng)拆解微電網(wǎng)功率計算的基礎(chǔ)方法,深入分析影響計
    的頭像 發(fā)表于 01-31 14:58 ?641次閱讀
    微電網(wǎng)的功率<b class='flag-5'>流</b>計算:基礎(chǔ)<b class='flag-5'>方法</b>與影響因素

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征?!安蝗?/div>
    發(fā)表于 10-29 07:49

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會在構(gòu)建高準確率輕量級CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級別的紋理
    發(fā)表于 10-28 08:02

    蜂鳥E203簡單分支預(yù)測的改進

    于32位指令pc值加4,16位指令,pc值加2;當預(yù)測為跳轉(zhuǎn)時,則需要根據(jù)不同分支跳轉(zhuǎn)指令的目標地址計算方法進行計算。例如,JALR指令的跳轉(zhuǎn)目標地址為指令中的16位立即數(shù)與指令中指定的寄存器中的值
    發(fā)表于 10-24 07:45

    提高條件分支指令預(yù)測正確率的方法

    的所有組合過于浪費,因此將指令地址的中部與全局歷史記錄進行異或運算,而當指令地址的中部相同時,指令地址下部對應(yīng)的指令共用幾個PHT項,這樣兼顧了長全局歷史表與PHT大小,改良了傳統(tǒng)分支歷史分支預(yù)測方法
    發(fā)表于 10-22 08:22

    基于全局預(yù)測歷史的gshare分支預(yù)測器的實現(xiàn)細節(jié)

    GShare預(yù)測機制簡介 GShare預(yù)測機制作為一種常用的分支預(yù)測機制,通過基于分支歷史和分支地址預(yù)測分支指令的執(zhí)行路徑。分支歷史是指
    發(fā)表于 10-22 06:50

    提高RISC-V在Drystone測試中得分的方法

    處理器設(shè)計:可以通過優(yōu)化處理器核心設(shè)計提高性能,例如通過增加更高效的分支預(yù)測機制、提升亂序執(zhí)行的能力、增大或優(yōu)化緩存等。 提高時鐘頻率:在保證穩(wěn)定性和功耗可接受的前提下,提高時鐘頻率可以提高處理器的執(zhí)行速度
    發(fā)表于 10-21 13:58

    一種新的無刷直流電機反電動勢檢測方法

    無位置傳感器無刷直流電機的控制算法是近年來研究的熱點之一,有霍爾位置信號直流電機根據(jù)霍爾狀態(tài)確定通斷功率器件。利用無刷直流電機的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測方法來
    發(fā)表于 08-04 14:59

    電池熱管理:使用數(shù)字孿生和多尺度方法來設(shè)計和優(yōu)化能源效率

    理系統(tǒng)(BTMS),但同時也會增加額外的能源需求。本文介紹了一種多方面方法,不僅可用于開發(fā)和優(yōu)化BTMS,同時還能平衡電池壽命、快速充電能力、車輛續(xù)航里程和安全性。S
    的頭像 發(fā)表于 07-23 10:50 ?789次閱讀
    電池熱管理:使用數(shù)字孿生和多尺度<b class='flag-5'>方法來</b>設(shè)計和優(yōu)化能源效率

    【高云GW5AT-LV60 開發(fā)套件試用體驗】基于開發(fā)板進行深度學(xué)習(xí)實踐,并盡量實現(xiàn)皮膚病理圖片的識別,第三階段

    的RGB格式的圖像數(shù)據(jù)。 階段三:DDR3幀緩存 (Frame Buffering) 視頻數(shù)據(jù)速度和顯示刷新的速度往往不匹配,或者后續(xù)處理需要訪問整幀圖像,因此需要一個大容量的
    發(fā)表于 07-06 15:18

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    想在rtsmart中使用uart2,是不是只能通過修改設(shè)備樹方法來實現(xiàn)uart2的復(fù)用呀?

    我想在rtsmart中使用uart2,是不是只能通過修改設(shè)備樹方法來實現(xiàn)uart2的復(fù)用呀? 修改設(shè)備樹后如何只編譯設(shè)備樹文件? 編譯生成的文件可以直接替換到廬山派里嗎,具體替換路徑在哪里呀?
    發(fā)表于 06-24 07:04

    如何用AI實現(xiàn)電池壽命的精準預(yù)測?飛凌RK3588+融合算法給你答案

    飛凌嵌入式將AI算法(CNN+LSTM融合)和RK3588核心板相結(jié)合,成功突破這些限制,帶來高效、精準的鋰電池壽命預(yù)測。
    的頭像 發(fā)表于 06-20 10:07 ?3545次閱讀
    如何用AI實現(xiàn)電池壽命的精準<b class='flag-5'>預(yù)測</b>?飛凌RK3588+融合算法給你答案

    虹科波形實驗室 | 用串行譯碼診斷車輛漏電問題的方法探究

    檢測通常使用高精度電流鉗,配合拔插保險絲、斷開線束分段檢查的方法,排查不同回路中是否存在靜態(tài)電流異常問題?;蚴褂脽岢上駜x,尋找休眠后仍在工作的部件。但一條供電回路上
    的頭像 發(fā)表于 06-12 11:33 ?581次閱讀
    虹科波形實驗室 | 用串行譯碼診斷<b class='flag-5'>車輛</b>漏電問題的<b class='flag-5'>方法</b>探究

    使用ad9467-250采集低頻信號,請問有什么方法來提高sfdr嗎?

    你好,我現(xiàn)在在使用ad9467-250采集低頻信號,在測試3Mhz部分時sfdr只有86,采樣頻率是102.4Mhz,請問有什么方法來提高sfdr嗎
    發(fā)表于 04-24 06:05