91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于DPU-PYNQ來實現(xiàn)石頭剪刀布的手勢識別

454398 ? 來源: PYNQ開源社區(qū)微信公眾號 ? 作者: PYNQ開源社區(qū)微信 ? 2020-09-29 11:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡介

本案例主要基于DPU-PYNQ來實現(xiàn)一個常見的手勢識別--石頭剪刀布,目的是讓大家了解如何使用DPU開發(fā)深度學(xué)習(xí)應(yīng)用的整個流程。本案例分為三個部分:分別是PC模型訓(xùn)練、VitisAI模型編譯、Edge模型部署三個部分。PC模型訓(xùn)練是通過tensorflow對數(shù)據(jù)集進行分析訓(xùn)練,得到需要的tf模型;VitisAI模型編譯是通過vitis ai工具鏈,對tf模型進行量化、編譯,轉(zhuǎn)換成dpu可以運行的模型;Edge模型部署是在U96上調(diào)度使用編譯好的模型。

Git倉庫:https://github.com/linxiaobo110/rps_u96.git

在PC上訓(xùn)練NN模型

數(shù)據(jù)集

數(shù)據(jù)集使用的是谷歌發(fā)布的開源數(shù)據(jù)集:

https://www.tensorflow.org/datasets/catalog/rock_paper_scissors

訓(xùn)練環(huán)境說明

議在有顯卡的環(huán)境下訓(xùn)練,本教程使用的python環(huán)境所需的庫如下所示:

python 3.7

tensorflow 2.0

numpy

opencv

matplotlib

sklearn

在安裝好的python環(huán)境下,使用spyder或者命令行運行train.py:

python train.py

正常運行時會有以下輸出:

1、打印部分?jǐn)?shù)據(jù)集圖片(注意觀察圖片是否正常),以及各種標(biāo)簽的樣本數(shù)量:

2、打印訓(xùn)練過程以及訓(xùn)練精度的變化

在Vitis AI里編譯NN模型

把訓(xùn)練好的模型通過vitis AI編譯后才可以在U96上運行。

1、把訓(xùn)練好的模型拷貝到DpuCarU96的vitisAI目錄,同時需要把vitisAI/dataset_valid下的驗證集換成用戶自己的數(shù)據(jù),至少50張圖片。

2、啟動vitis AI的docker,并把工程里的vitisAI目錄拷貝到docker虛擬機里。

./docker_run.sh xilinx/vitis-ai

3、在vitisAI的dockder里,激活tensorflow的環(huán)境:

conda activate vitis-ai-tensorflow

4、在vitisAI的dockder里,運行權(quán)值固化、權(quán)值量化、模型編譯等腳本可以得到以下輸出:

編譯完完的模型在./vitisAI/compile_results目錄下,里面的.elf文件是下一階段的教程所需要的。

在Utral96上調(diào)用NN模型

1、把倉庫拷貝到U96的jupyter_notebook目錄下,如果要使用用戶的模型,請把里面的.elf文件換成vitisAI教程里生成的elf文件。

2、在U96的終端上,把elf模型編譯程序共享庫:

sudo ./1.compile.sh

3、在U96的終端上,查看IP地址:

sudo ifconfig

4、在用戶PC上,打開瀏覽器,輸入IP地址,即可進入jupyter Notebook。

5、在用戶PC上,按照jupyterNotebook的提示逐步地運行程序,即可看到效果。

6、在用戶PC上,使用USB攝像頭的實時識別實驗。USB攝像頭需要連接在Ultral96上。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 手勢識別
    +關(guān)注

    關(guān)注

    8

    文章

    232

    瀏覽量

    49128
  • DPU
    DPU
    +關(guān)注

    關(guān)注

    0

    文章

    414

    瀏覽量

    26976
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于DPU的智能盤框方案,華為如何大幅提升AI推理的效率?

    DPU
    腦極體
    發(fā)布于 :2026年01月20日 12:53:10

    STM32驅(qū)動PAJ7620手勢識別傳感器

    原文鏈接:[https://www.yourcee.com/newsinfo/2925937.html] 傳感器簡介 PAJ-7620U2是由原相科技公司開發(fā)的一款手勢識別芯片, 內(nèi)集成了光學(xué)數(shù)組式
    的頭像 發(fā)表于 01-06 09:16 ?802次閱讀
    STM32驅(qū)動PAJ7620<b class='flag-5'>手勢</b><b class='flag-5'>識別</b>傳感器

    零知IDE——基于STM32F103RBT6的PAJ7620U2手勢控制WS2812 RGB燈帶系統(tǒng)

    基于STM32F103RBT6的手勢控制LED系統(tǒng),通過PAJ7620U2傳感器識別手勢動作,驅(qū)動WS2812B燈帶實現(xiàn)交互式燈光效果。系統(tǒng)采用軟件I2C通信和SPI+DMA驅(qū)動方案,
    的頭像 發(fā)表于 12-29 17:48 ?1866次閱讀
    零知IDE——基于STM32F103RBT6的PAJ7620U2<b class='flag-5'>手勢</b>控制WS2812 RGB燈帶系統(tǒng)

    ALINX教程分享_Zynq UltraScale+ MPSoC PYNQ3.1.2移植

    本教程在 Ubuntu22.04.1 虛擬機中安裝了 Xilinx 2024.1 的開發(fā)環(huán)境,基于該環(huán)境從源碼編譯 PYNQ 3.1.2 工程,生成能夠在 ALINX AXU15EGB 開發(fā)板上運行的 PYNQ 系統(tǒng)鏡像。
    的頭像 發(fā)表于 11-30 16:06 ?5988次閱讀
    ALINX教程分享_Zynq UltraScale+ MPSoC <b class='flag-5'>PYNQ</b>3.1.2移植

    基于K1的的人工智能終端及應(yīng)用開發(fā)-手勢-語音-人臉--第一階段

    ;) TTS_AVAILABLE = False class GestureRecognizer: \"\"\"手勢識別器\"\"\"
    發(fā)表于 10-28 15:28

    【技術(shù)討論】智能戒指手勢交互:如何優(yōu)化PCBA成本與實現(xiàn)<20ms低延遲?

    元件的小批量貼片,如何有效控制加工損耗與成本? 低延遲手勢識別:目標(biāo)是將傳感器數(shù)據(jù)采集、姿態(tài)解算到藍(lán)牙指令發(fā)出的端到端延遲控制在10ms以內(nèi)。在軟件層面,除優(yōu)化傳感器FIFO與中斷服務(wù)程序(ISR)外
    發(fā)表于 10-18 13:04

    無需手持更靈活!納祥科技智能帽夾燈方案(紅外感應(yīng)+手勢控制)

    控制技術(shù),有效解決了傳統(tǒng)手持電筒笨重、依賴手持操作的局限性。方案概述本方案以低功耗單片機為中樞,支持感應(yīng)和常規(guī)2種工作模式:感應(yīng)模式可通過紅外對管實現(xiàn)手勢識別
    的頭像 發(fā)表于 10-10 15:09 ?514次閱讀
    無需手持更靈活!納祥科技智能帽夾燈方案(紅外感應(yīng)+<b class='flag-5'>手勢</b>控制)

    拳力以赴!基于 RT-Thread 與瑞薩 VisionBoard 的 AIoT 猜拳系統(tǒng)實戰(zhàn) | 技術(shù)集結(jié)

    本項目的題目為:石頭剪刀猜拳識別。本項目實現(xiàn)了基本猜拳識別、根據(jù)
    的頭像 發(fā)表于 09-06 10:04 ?3476次閱讀
    拳力以赴!基于 RT-Thread 與瑞薩 VisionBoard 的 AIoT 猜拳系統(tǒng)實戰(zhàn) | 技術(shù)集結(jié)

    XenG202G | 揮手手勢識別參考設(shè)計(三維)

    WEMAKERFSMART-賦予萬物感知的靈魂-矽典微ICLEGENDMICROXenG202G揮手手勢識別(三維)毫米波傳感器特征手勢識別:非接觸式控制,高精度
    的頭像 發(fā)表于 08-29 08:25 ?650次閱讀
    XenG202G | 揮手<b class='flag-5'>手勢</b><b class='flag-5'>識別</b>參考設(shè)計(三維)

    零成本鋼鐵俠手套!樹莓派+OpenCV 秒變手勢遙控器!

    大家好,這是一個樹莓派和OpenCV的連載專題。使用樹莓派與OpenCV實現(xiàn)姿態(tài)估計和面部特征點追蹤使用樹莓派與OpenCV實現(xiàn)面部和運動追蹤的云臺系統(tǒng)使用樹莓派和OpenCV實現(xiàn)手部識別
    的頭像 發(fā)表于 08-16 16:16 ?1275次閱讀
    零成本鋼鐵俠手套!樹莓派+OpenCV 秒變<b class='flag-5'>手勢</b>遙控器!

    如何打造一個屬于自己的手勢識別應(yīng)用

    上一期小編給大家介紹了和MediaPipe的相遇之路,本期小編將帶著大家一起動手,如何打造一個屬于自己的手勢識別應(yīng)用。
    的頭像 發(fā)表于 07-29 10:12 ?1153次閱讀
    如何打造一個屬于自己的<b class='flag-5'>手勢</b><b class='flag-5'>識別</b>應(yīng)用

    基于恩智浦Mi.MX RT700 MCU實現(xiàn)手勢識別開發(fā)

    小編最近接了活,要在我們最新的MCU產(chǎn)品RT700上做手勢識別的開發(fā),可能小伙伴們才聽過RT700,小編先來簡單介紹一下。
    的頭像 發(fā)表于 07-22 11:17 ?1991次閱讀
    基于恩智浦Mi.MX RT700 MCU<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>手勢</b><b class='flag-5'>識別</b>開發(fā)

    【嘉楠堪智K230開發(fā)板試用體驗】手勢識別

    本次將測評嘉楠科技的k230開發(fā)板識別手掌形狀分類的功能 一、系統(tǒng)概述 本測評報告詳細(xì)分析了一個基于K230開發(fā)板的手勢識別系統(tǒng)。該系統(tǒng)通過深度學(xué)習(xí)模型實現(xiàn)了手掌檢測和
    發(fā)表于 07-12 23:22

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】人臉檢測、手勢識別、車牌識別

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】人臉檢測、手勢識別、車牌識別 本文介紹了香蕉派 CanMV K230D Zero 開發(fā)板結(jié)合 MIPI 攝像頭實現(xiàn)人臉檢測、人臉關(guān)
    發(fā)表于 06-30 20:44

    攻克園林電動剪刀難題的策略與方法--【其利天下技術(shù)】

    結(jié)果進行分析目前電動剪刀存在的難點,并結(jié)合其利天下研發(fā)的無刷電剪刀驅(qū)動方案學(xué)習(xí)如何解決以下問題。一、現(xiàn)有驅(qū)動方案的難點安全性問題:部分電動剪刀存在使用者拉動觸發(fā)器
    的頭像 發(fā)表于 06-04 18:28 ?855次閱讀
    攻克園林電動<b class='flag-5'>剪刀</b>難題的策略與方法--【其利天下技術(shù)】