91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Deep SORT和YOLO v4

新機(jī)器視覺(jué) ? 來(lái)源:AI公園 ? 作者:AI公園 ? 2021-03-20 09:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

本文來(lái)自github,很實(shí)用的一個(gè)應(yīng)用。

git倉(cāng)庫(kù)地址:https://github.com/LeonLok/Multi-Camera-Live-Object-Tracking

這個(gè)存儲(chǔ)庫(kù)包含了我的目標(biāo)檢測(cè)和跟蹤項(xiàng)目。所有這些都可以托管在云服務(wù)器上。

由于有ImageZMQ,你還可以使用自己的異步處理IP相機(jī)。

Deep SORT 和 YOLO v4

Check out我的Deep SORT repository:https://github.com/LeonLok/Deep-SORT-YOLOv4,查看我使用的跟蹤算法,其中包括Tensorflow 2.0、異步視頻處理和低置信度跟蹤過(guò)濾。

交通流量計(jì)數(shù)

這個(gè)項(xiàng)目是目標(biāo)計(jì)數(shù)應(yīng)用的一個(gè)擴(kuò)展。

功能

使用DETRAC數(shù)據(jù)集生成的244,617幅圖像進(jìn)行訓(xùn)練??梢栽谶@里找到我創(chuàng)建的轉(zhuǎn)換代碼。

我把這篇論文:https://ieeexplore.ieee.org/document/8909903作為數(shù)據(jù)準(zhǔn)備和訓(xùn)練的指南。

每個(gè)跟蹤id只計(jì)數(shù)一次。

通過(guò)查看被跟蹤目標(biāo)的路徑與計(jì)數(shù)線的交叉點(diǎn)對(duì)目標(biāo)進(jìn)行計(jì)數(shù)。

因此,那些跟丟了但用相同的ID重新跟蹤的仍然會(huì)被計(jì)數(shù)。

使用低置信度濾波進(jìn)行跟蹤,來(lái)自上面同樣的論文。

提供更低的假陽(yáng)性率。

跟蹤目標(biāo)顯示平均檢測(cè)置信度。

跟蹤的類別由最常見(jiàn)的檢測(cè)類別確定。

顯示檢測(cè)結(jié)果是可選的(但是隱藏了平均檢測(cè)置信度)。

可以使用多個(gè)IP攝像頭。

方向計(jì)數(shù)可以配置為基于角度。

每一小時(shí)的間隔記錄計(jì)數(shù)。

總的計(jì)數(shù)

基于類別的計(jì)數(shù)

記錄每個(gè)計(jì)數(shù)目標(biāo)的交叉詳細(xì)信息。

交叉時(shí)間

交叉點(diǎn)坐標(biāo)

交叉角度

可以托管在云服務(wù)器上。

注意,由于DETRAC不包含任何摩托車,它們是唯一被忽略的車輛。此外,DETRAC數(shù)據(jù)集只包含中國(guó)的交通圖像,因此由于缺乏訓(xùn)練數(shù)據(jù),它很難正確地檢測(cè)出其他國(guó)家的某些車輛。例如,它經(jīng)常會(huì)將掀背車誤歸為suv,或者由于不同的顏色方案而無(wú)法識(shí)別出租車。

目標(biāo)計(jì)數(shù)

這個(gè)項(xiàng)目最初打算成為一個(gè)應(yīng)用程序,用于使用我自己的智能手機(jī)計(jì)算當(dāng)前在多個(gè)房間的人數(shù),服務(wù)器被遠(yuǎn)程托管。下面展示了對(duì)人和汽車的檢測(cè)、跟蹤和計(jì)數(shù)。

功能

對(duì)當(dāng)前視場(chǎng)中的物體進(jìn)行計(jì)數(shù)

跟蹤可選

支持多個(gè)IP相機(jī)

每間隔一個(gè)小時(shí)記錄一次當(dāng)前的計(jì)數(shù)

當(dāng)前的總數(shù)

當(dāng)前每個(gè)類別的計(jì)數(shù)

可以托管在云服務(wù)器上

使用我自己的智能手機(jī)作為IP相機(jī)

訓(xùn)練你自己的機(jī)動(dòng)車跟蹤模型

我使用DETRAC訓(xùn)練帶有v3標(biāo)注的數(shù)據(jù)集訓(xùn)練了YOLOv4和Deep SORT模型。我提供了將DETRAC訓(xùn)練圖像和v3標(biāo)注轉(zhuǎn)換為正確格式的腳本,用于訓(xùn)練YOLOv4模型和Deep SORT跟蹤模型。

Deep SORT 轉(zhuǎn)換參數(shù)

DETRAC圖像轉(zhuǎn)換為Market 1501訓(xùn)練格式。

遮擋閾值 - 忽略遮擋比率過(guò)高的車輛序列。

截?cái)嚅撝?- 忽略截?cái)嗦蔬^(guò)高的車輛序列。

出現(xiàn)的次數(shù) - 車輛序列太短(即沒(méi)有足夠的圖像)被丟棄后,考慮遮擋和截?cái)啾嚷省?/p>

YOLO 轉(zhuǎn)換參數(shù)

DETRAC圖像被轉(zhuǎn)換成Darknet YOLO訓(xùn)練格式。

遮擋閾值 - 忽略遮擋比率過(guò)高的車輛序列。

截?cái)嚅撝?- 忽略截?cái)嗦蔬^(guò)高的車輛序列。

兩種模型都在DETRAC訓(xùn)練集上進(jìn)行了訓(xùn)練和評(píng)估,但由于缺少v3標(biāo)注,測(cè)試集還沒(méi)有評(píng)估,我也沒(méi)有MATLAB用于Deep SORT的評(píng)估軟件。到目前為止,對(duì)于我的用例來(lái)說(shuō),它已經(jīng)足夠好了。

使用的硬件

Nvidia GTX 1070 GPU

i7-8700K CPU

為了讓大家了解我們的期望,我可以運(yùn)行兩個(gè)流量計(jì)數(shù)流,每個(gè)流大約10fps(正如你在流量計(jì)數(shù)gif中看到的)。當(dāng)然,這在很大程度上取決于流分辨率以及用于檢測(cè)和跟蹤的幀數(shù)。

YOLO v3 vs. YOLO v4

當(dāng)我第一次開(kāi)始目標(biāo)計(jì)數(shù)項(xiàng)目時(shí),我使用YOLOv3,跟蹤幀率大約是10FPS,很難一次運(yùn)行多個(gè)流。使用YOLOv4可以更容易地運(yùn)行具有更高分辨率的兩個(gè)流,并提供更好的檢測(cè)精度。

依賴

Tensorflow-GPU 1.14

Keras 2.3.1

opencv-python 4.2.0

ImageZMQ

numpy 1.18.2

Flask 1.1.1

pillow

這個(gè)項(xiàng)目是在Python 3.6上構(gòu)建和測(cè)試的。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 攝像頭
    +關(guān)注

    關(guān)注

    61

    文章

    5092

    瀏覽量

    103145
  • 應(yīng)用程序
    +關(guān)注

    關(guān)注

    38

    文章

    3344

    瀏覽量

    60269
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26202

原文標(biāo)題:多攝像頭實(shí)時(shí)目標(biāo)跟蹤和計(jì)數(shù),使用YOLOv4,Deep SORT和Flask

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    部署輕量化YOLO模型

    YOLO物聯(lián)網(wǎng)聆思CSK6
    的頭像 發(fā)表于 12-14 07:47 ?1493次閱讀

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?2859次閱讀

    愛(ài)芯元智攜手合作伙伴M5Stack亮相YOLO Vision 2025

    近日,全球計(jì)算機(jī)視覺(jué)領(lǐng)域的權(quán)威盛會(huì)——YOLO Vision 2025,亞洲首秀在深圳舉行。愛(ài)芯元智攜手合作伙伴M5Stack,以AX8850賦能M.2 2242標(biāo)準(zhǔn)接口算力卡為核心,搭配樹(shù)莓派5
    的頭像 發(fā)表于 11-02 09:20 ?1050次閱讀
    愛(ài)芯元智攜手合作伙伴M5Stack亮相<b class='flag-5'>YOLO</b> Vision 2025

    機(jī)器視覺(jué)雙雄YOLO 和 OpenCV 到底有啥區(qū)別?別再傻傻分不清!

    很多人一聽(tīng)到 “YOLO”和“OpenCV” ,總以為它們是同一種東西。其實(shí), 一個(gè)是AI算法,一個(gè)是視覺(jué)工具庫(kù);一個(gè)會(huì)“識(shí)別”,一個(gè)會(huì)“處理” 。本文帶你深入了解兩者的核心區(qū)別與協(xié)同關(guān)系,以及它們
    的頭像 發(fā)表于 10-14 16:00 ?1283次閱讀
    機(jī)器視覺(jué)雙雄<b class='flag-5'>YOLO</b> 和 OpenCV 到底有啥區(qū)別?別再傻傻分不清!

    【飛凌OK-MX9596-C開(kāi)發(fā)板試用】①開(kāi)箱圖賞、跑分測(cè)試、yolo大模型三箭齊發(fā)

    個(gè)大模型yolo v11,進(jìn)行物體識(shí)別。 什么是 YOLO?YOLO(You Only Look Once) 是一種流行的單階段目標(biāo)檢測(cè)算法系列,通過(guò)一次前向傳播即可完成圖像中多個(gè)目標(biāo)
    發(fā)表于 10-07 18:53

    如何進(jìn)行YOLO模型轉(zhuǎn)換?

    我目前使用的轉(zhuǎn)模型代碼如下 from ultralytics import YOLOimport cv2import timeimport nncaseimport# 加載預(yù)訓(xùn)練的YOLO模型
    發(fā)表于 08-14 06:03

    這個(gè)套件讓樹(shù)莓派5運(yùn)行幾乎所有YOLO模型!Conda 與 Ultralytics!

    如何在樹(shù)莓派上設(shè)置YOLO計(jì)算機(jī)視覺(jué)?Conda與Ultralytics在本指南中,我們將學(xué)習(xí)如何使用Conda在樹(shù)莓派上安裝UltralyticsYOLO視覺(jué)套件。該套件將允許你運(yùn)行Ultralytics支持的幾乎所有YOLO模型,我們還將為你提供一些在樹(shù)莓派上運(yùn)行的演
    的頭像 發(fā)表于 07-31 11:51 ?5264次閱讀
    這個(gè)套件讓樹(shù)莓派5運(yùn)行幾乎所有<b class='flag-5'>YOLO</b>模型!Conda 與 Ultralytics!

    RK3576 yolo11-seg訓(xùn)練部署教程

    1.yolov11-seg簡(jiǎn)介yolov11-seg是YOLO(YouOnlyLookOnce)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過(guò)創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 07-25 15:21 ?1817次閱讀
    RK3576 <b class='flag-5'>yolo</b>11-seg訓(xùn)練部署教程

    如何在樹(shù)莓派 AI HAT+上進(jìn)行YOLO姿態(tài)估計(jì)?

    大家好,接下來(lái)會(huì)為大家開(kāi)一個(gè)樹(shù)莓派5和YOLO的連載專題。內(nèi)容包括四個(gè)部分:在樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南在樹(shù)莓派5上開(kāi)啟YOLO姿態(tài)估計(jì)識(shí)別之旅!如何在樹(shù)莓派AIHAT+上進(jìn)
    的頭像 發(fā)表于 07-20 20:34 ?1021次閱讀
    如何在樹(shù)莓派 AI HAT+上進(jìn)行<b class='flag-5'>YOLO</b>姿態(tài)估計(jì)?

    如何在樹(shù)莓派 AI HAT+上進(jìn)行YOLO目標(biāo)檢測(cè)?

    大家好,接下來(lái)會(huì)為大家開(kāi)一個(gè)樹(shù)莓派5和YOLO的連載專題。內(nèi)容包括四個(gè)部分:在樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南在樹(shù)莓派5上開(kāi)啟YOLO姿態(tài)估計(jì)識(shí)別之旅!如何在樹(shù)莓派AIHAT+上進(jìn)
    的頭像 發(fā)表于 07-19 08:34 ?1732次閱讀
    如何在樹(shù)莓派 AI HAT+上進(jìn)行<b class='flag-5'>YOLO</b>目標(biāo)檢測(cè)?

    在樹(shù)莓派5上開(kāi)啟YOLO姿態(tài)估計(jì)識(shí)別之旅!

    大家好,接下來(lái)會(huì)為大家開(kāi)一個(gè)樹(shù)莓派5和YOLO的連載文章。內(nèi)容包括四個(gè)部分:在樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南在樹(shù)莓派5上開(kāi)啟YOLO人體姿態(tài)估計(jì)識(shí)別之旅YOLO物體
    的頭像 發(fā)表于 07-18 15:31 ?2504次閱讀
    在樹(shù)莓派5上開(kāi)啟<b class='flag-5'>YOLO</b>姿態(tài)估計(jì)識(shí)別之旅!

    在樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南

    大家好,接下來(lái)會(huì)為大家開(kāi)一個(gè)樹(shù)莓派5和YOLO的專題。內(nèi)容包括四個(gè)部分:在樹(shù)莓派5上使用YOLO進(jìn)行物體和動(dòng)物識(shí)別-入門指南在樹(shù)莓派5上開(kāi)啟YOLO人體姿態(tài)估計(jì)識(shí)別之旅YOLO物體檢測(cè)
    的頭像 發(fā)表于 07-17 17:16 ?2073次閱讀
    在樹(shù)莓派5上使用<b class='flag-5'>YOLO</b>進(jìn)行物體和動(dòng)物識(shí)別-入門指南

    K230在同時(shí)使用H265編碼與yolo進(jìn)行檢測(cè)時(shí)出現(xiàn)錯(cuò)誤怎么解決?

    1、單獨(dú)使用H265編碼時(shí)或者yolo檢測(cè)沒(méi)有問(wèn)題 2.一旦將二者結(jié)合,因?yàn)镠265編碼時(shí)YUV格式,所以我另外開(kāi)了一個(gè)RGB平面格式來(lái)運(yùn)行yolo推理 3.報(bào)錯(cuò)信息顯示:兩者的空間會(huì)沖突然后導(dǎo)致
    發(fā)表于 07-11 08:15

    k210在線訓(xùn)練的算法是yolo5嗎?

    k210在線訓(xùn)練的算法是yolo5嗎
    發(fā)表于 06-16 08:25

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28