91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于TensorFlow Lite的幾項(xiàng)技術(shù)更新

Tensorflowers ? 來源:TensorFlow ? 作者:Yu-hui Chen ? 2021-09-23 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自年初在 Google I/O 大會(huì)上宣布推出 MoveNet 以來,我們已經(jīng)收到了眾多積極反饋和功能請求。今天,我們很高興能與大家分享以下幾項(xiàng)技術(shù)更新:

MoveNet 的 TensorFlow Lite 版本現(xiàn)已在 TensorFlow Hub 上推出。我們對(duì)該版本進(jìn)行了一些可提升準(zhǔn)確率的更新,并使其與硬件加速器兼容,其中包括 GPU 和獲得 Android NN API 支持的其他加速器。

TensorFlow Hub

http://hub.tensorflow.google.cn/s?deployment-format=lite&q=movenet

我們發(fā)布了可在 Android 環(huán)境下使用 Raspberry Pi 的全新姿態(tài)預(yù)測示例,可讓您在移動(dòng)設(shè)備和 IoT 設(shè)備上試用 MoveNet。(即將支持 iOS 系統(tǒng))

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi

同時(shí),我們還發(fā)布了 Colab notebook,旨在教會(huì)您如何利用 MoveNet 對(duì)自定義姿勢進(jìn)行分類(例如,識(shí)別不同的瑜伽姿勢)。您可以在上文提到的 Android、iOS 和 Raspberry Pi 應(yīng)用中試用姿態(tài)分類。

notebook

https://tensorflow.google.cn/lite/tutorials/pose_classification

什么是姿態(tài)預(yù)測?

姿態(tài)預(yù)測是一項(xiàng)機(jī)器學(xué)習(xí)任務(wù),即通過預(yù)測圖像或視頻中特定身體部位(關(guān)鍵點(diǎn))的空間位置來預(yù)測人物姿態(tài)。MoveNet 是目前最先進(jìn)的姿態(tài)預(yù)測模型,能夠檢測以下 17 個(gè)關(guān)鍵點(diǎn):

鼻子

左眼和右眼

左耳和右耳

左肩和右肩

左肘和右肘

左腕和右腕

左臀和右臀

左膝和右膝

左腳踝和右腳踝

我們發(fā)布了以下兩個(gè) MoveNet 版本:

MoveNet.Lightning 模型體積更小、速度更快,但在準(zhǔn)確性方面不如 Thunder 模型。該模型能在現(xiàn)代智能手機(jī)上實(shí)時(shí)運(yùn)行。

MoveNet.Lightning

http://hub.tensorflow.google.cn/google/movenet/singlepose/lightning/

MoveNet.Thunder 模型準(zhǔn)確性更高,但體積較 Lightning 模型而言更大,速度也相對(duì)較慢。

MoveNet.Thunder

http://hub.tensorflow.google.cn/google/movenet/singlepose/thunder/

各種基準(zhǔn)數(shù)據(jù)集(參見下文表中的評(píng)估/基準(zhǔn)結(jié)果)中的數(shù)據(jù)表明,MoveNet 模型的表現(xiàn)優(yōu)于我們先前的 TensorFlow Lite 姿態(tài)預(yù)測模型 Posenet(論文、文章和模型)。

論文

https://arxiv.org/abs/1803.08225

文章

https://medium.com/tensorflow/track-human-poses-in-real-time-on-android-with-tensorflow-lite-e66d0f3e6f9e

模型

https://storage.googleapis.com/download.tensorflow.org/models/tflite/posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite

以上 MoveNet 模型支持 TensorFlow Lite FP16 和 INT8 量化格式,可最大限度與硬件加速器兼容。

此次 MoveNet 版本可識(shí)別輸入圖像中的單一姿態(tài)。如果圖像中的人數(shù)超過一個(gè),該模型會(huì)通過剪裁算法將盡可能地聚焦在離圖像中心最近的人物身上。同時(shí),我們還采用了智能剪裁算法,來提高視頻檢測的準(zhǔn)確率。簡而言之,該模型將放大前一幀中檢測到姿態(tài)的區(qū)域,繼而查看更細(xì)節(jié)的部分,然后根據(jù)當(dāng)前幀做出更準(zhǔn)確的預(yù)測。

如果您想深入了解 MoveNet 的實(shí)現(xiàn)過程,請查看之前發(fā)布的文章,其中包括 MoveNet 模型架構(gòu)和其訓(xùn)練時(shí)用到的數(shù)據(jù)集。

Android 與 Raspberry Pi

的示例應(yīng)用

我們發(fā)布了全新的姿態(tài)預(yù)測示例應(yīng)用,便于您在所選平臺(tái)上快速試用不同的姿態(tài)預(yù)測模型(MoveNet Lightning、MoveNet Thunder 和 Posenet)。

Android 示例

iOS 示例

Raspberry Pi 示例

在 Android 和 iOS 示例中,您也可以選擇使用加速器(GPU、NNAPI 或 CoreML)來運(yùn)行姿態(tài)預(yù)測模型。

Android 示例應(yīng)用屏幕截圖。圖像來自 Pixabay

MoveNet 性能

我們已對(duì) MoveNet 進(jìn)行優(yōu)化,使其能在由 TensorFlow Lite 提供支持的硬件加速器(包括 GPU 和獲得 Android NN API 支持的加速器)上更好地運(yùn)行。MoveNet 的性能基準(zhǔn)結(jié)果可助您選擇最適合您用例的運(yùn)行時(shí)配置。

模型大小 (MB)mAP*延遲時(shí)間 (ms) **

Pixel 5 -

CPU 4 線程Pixel 5 - GPURaspberry Pi 4 -

CPU 4 線程

MoveNet.

Thunder

(FP16 量化)12.6MB72.0155ms45ms594ms

MoveNet.

Thunder

(INT8 量化)7.1MB68.9100ms52ms251ms

MoveNet.

Lightning

(FP16 量化)4.8MB63.060ms25ms186ms

MoveNet.

Lightning

(INT8 量化)2.9MB57.452ms28ms95ms

PoseNet(MobileNetV1

主干,F(xiàn)P32)13.3MB45.680ms40ms338ms

* 我們在 COCO 關(guān)鍵點(diǎn)數(shù)據(jù)集的子集上測量 mAP,并在其中篩選并裁剪每張圖像,使其只包含一個(gè)人像。

** 在持續(xù)負(fù)載下,我們使用帶有 TensorFlow 2.5 的 Android 和 Raspberry Pi 示例應(yīng)用測量端到端的延遲時(shí)間。

選擇 Lightning 或 Thunder 模型。首先,您應(yīng)該了解 Lightning 模型的準(zhǔn)確率能否滿足您的用例。

對(duì)于您的用例而言,如果 Lightning INT8 模型的準(zhǔn)確率足夠高,則可以選擇該模型,因?yàn)樗窍盗心P椭畜w積最小、速度最快的模型。模型的越快則意味著其能耗越少。

如果準(zhǔn)確率對(duì)于您的用例而言至關(guān)重要,Thunder FP16 模型則是理想之選。

選擇加速器。加速器的性能會(huì)因不同的制造商制造的 Android 設(shè)備而異。

CPU 是最為安全便捷的選擇,因?yàn)榭梢钥隙ǖ氖?,CPU 幾乎可以在任何能運(yùn)行 TensorFlow Lite 的 Android 設(shè)備上正常工作。但在通常情況下,相較于在加速器上運(yùn)行模型,在 CPU 運(yùn)行模型時(shí)速度更慢,且耗能更高。所有 MoveNet 模型都能在 CPU 上運(yùn)行良好,因此您應(yīng)該根據(jù)自身的準(zhǔn)確率需求選擇模型。

GPU 是應(yīng)用最廣泛的加速器,能夠提供出色的性能提升。如果您想使用 GPU,F(xiàn)P16 量化模型則是理想之選。

Android NNAPI 是一種能在 Android 設(shè)備上支持其他 ML 加速器的便捷方式。如果您已經(jīng)將 CPU 或 GPU 用于其他工作負(fù)載,并且用戶設(shè)備運(yùn)行版本為 Android 10 或更高版本,則您可以選擇滿足您準(zhǔn)確率需求的模型,并讓 NNAPI 選擇最適合您模型的路徑。

如果您是 IoT 開發(fā)者,不妨使用 Coral 來提升推理速度。請?jiān)诖颂幉榭?Coral 基準(zhǔn)數(shù)據(jù)。

此處

https://coral.ai/models/pose-estimation/

對(duì)模型進(jìn)行無線部署,而非將其捆綁在應(yīng)用的二進(jìn)制文件中。

由于 Android 生態(tài)系統(tǒng)的多元化,我們無法提供適用于所有用戶的統(tǒng)一模型。對(duì)于使用低端設(shè)備的用戶而言,Lightning INT8 模型是最佳選擇,因?yàn)樵撃P退俣茸羁欤夷芎淖钌?。然而?duì)于使用高端設(shè)備的用戶而言,不妨憑借 Thunder FP16 模型提供更為出色的性能。如果您想根據(jù)用戶設(shè)備更改模型,則可以考慮使用免費(fèi)版Firebase ML 托管您的模型,而非將所有打算使用的模型捆綁到應(yīng)用中。如果用戶開始使用需要 TFLite 模型的應(yīng)用功能,則您可以編寫邏輯,為每個(gè)用戶設(shè)備下載最佳模型。

Firebase ML

https://firebase.google.com/docs/ml/manage-hosted-models

姿態(tài)分類

TensorBoard 是 TensorFlow 的可視化工具包。通過將 TensorFlow Quantum 模型與 TensorBoard 進(jìn)行集成,您將獲得許多開箱可用的模型可視化數(shù)據(jù),例如訓(xùn)練損失和準(zhǔn)確性、可視化模型圖和程序分析。

為簡化姿態(tài)分類流程,我們還發(fā)布了 Colab notebook,該工具能夠教您如何通過結(jié)合 MoveNet 和 TensorFlow Lite,并根據(jù)自定義姿態(tài)數(shù)據(jù)集來訓(xùn)練自定義姿態(tài)分類模型。這表示如果您想要識(shí)別瑜伽姿勢,您需要做的就是收集您想識(shí)別的姿態(tài)圖像并為其添加標(biāo)簽,然后按照教程進(jìn)行訓(xùn)練,接著將瑜伽姿勢分類器部署到您的應(yīng)用中。

姿態(tài)分類器由兩個(gè)階段構(gòu)成:

1. 利用 MoveNet 檢測輸入圖像中的關(guān)鍵點(diǎn)。

2. 利用小型 TensorFlow Lite 模型,對(duì)已檢測到的關(guān)鍵點(diǎn)進(jìn)行姿態(tài)分類。

利用 MoveNet 進(jìn)行姿態(tài)分類的示例。輸入圖像來自 Pixabay

為訓(xùn)練自定義姿態(tài)分類器,您需要準(zhǔn)備姿態(tài)圖像,并將它們放入下圖所示的文件夾結(jié)構(gòu)中。您可以根據(jù)想要識(shí)別的類別為每個(gè)子文件夾命名。然后運(yùn)行 notebook 來訓(xùn)練自定義姿態(tài)分類器,并將其轉(zhuǎn)換為 TensorFlow Lite 格式。

yoga_poses

|__ downdog

|______ 00000128.jpg

|______ 00000181.bmp

|______ 。..

|__ goddess

|______ 00000243.jpg

|______ 00000306.jpg

|______ 。..

。..

TensorFlow Lite 姿態(tài)分類模型非常小,其大小只有 30KB 左右。該模型從 MoveNet 中獲取標(biāo)記點(diǎn)輸出,使姿態(tài)坐標(biāo)標(biāo)準(zhǔn)化,并將坐標(biāo)傳遞至幾個(gè)完全連接的層中。模型的輸出是一個(gè)概率列表,即姿態(tài)為每個(gè)已知的姿態(tài)類別。

TensorFlow Lite 姿態(tài)分類模型概覽

您可以在任何已發(fā)布的 Android 或 Raspberry Pi 姿態(tài)預(yù)測示例應(yīng)用中試用姿態(tài)分類模型。

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi#run-the-pose-classification-sample

未來計(jì)劃

我們的目標(biāo)是提供核心的姿態(tài)預(yù)測技術(shù)以及動(dòng)作識(shí)別引擎,讓開發(fā)者在此基礎(chǔ)上構(gòu)建創(chuàng)新性應(yīng)用。以下是我們目前正在積極研究的一些方向:

對(duì) MoveNet 當(dāng)前版本做出改進(jìn),使其能在同一轉(zhuǎn)接路徑中檢測多種姿態(tài)。

研發(fā)新型動(dòng)作識(shí)別技術(shù),使其能在多個(gè)幀上檢測姿態(tài)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52093
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62166
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    828

原文標(biāo)題:MoveNet 技術(shù)更新|基于 TensorFlow Lite 的姿態(tài)模型預(yù)測及分類

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存占用可小 10
    發(fā)表于 01-31 23:16

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式端的AI應(yīng)用時(shí),一定使用過TensorFlow Lite Micro,以下簡稱TFLm。TFLm 是專為微控制器和嵌入式設(shè)備設(shè)計(jì)的輕量級(jí)機(jī)器學(xué)習(xí)推理框架,它通過模塊化的操作符系統(tǒng)
    的頭像 發(fā)表于 12-26 10:34 ?5285次閱讀

    基于RT-Thread的RPMsg-Lite異構(gòu)多核通信原理分析 | 技術(shù)集結(jié)

    目錄說明初識(shí)rpmsg-literpmsg-lite組件優(yōu)勢rpmsg-lite工程架構(gòu)rpmsg-lite通信流程(RTOS)rpmsg-lite通信流程(MCMGR)1說明本文檔旨
    的頭像 發(fā)表于 12-19 17:16 ?8106次閱讀
    基于RT-Thread的RPMsg-<b class='flag-5'>Lite</b>異構(gòu)多核通信原理分析 | <b class='flag-5'>技術(shù)</b>集結(jié)

    Molex 5G/LTE Lite天線技術(shù)解析與應(yīng)用指南

    Molex 5G和LTE天線Lite配有SMA公頭連接器,長度為120.70mm。Molex天線的凈重量為12.920g。該天線具有 線性極化和全向輻射模式。
    的頭像 發(fā)表于 11-20 11:36 ?849次閱讀

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】將TensorFlow-Lite物體歸類(classify)的輸出圖片移植到LVGL9.3界面中

    既然調(diào)通了TensorFlow-Lite物體歸類(classify)和LVGL9.3代碼,那么把這兩個(gè)東西結(jié)合起來也是沒問題的,需要注意的是,TensorFlow-Lite是C++代碼,而
    發(fā)表于 09-21 00:39

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發(fā)板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫進(jìn)行物體歸類,使用CPU運(yùn)行代碼,因此占用的是CPU的算力。在
    發(fā)表于 09-12 22:43

    技術(shù)洞見:THEIA S1 &amp; S1 LITE 直播機(jī)實(shí)操效果真的棒!

    LITE 面市,將推動(dòng)專業(yè)直播設(shè)備市場格局的重構(gòu): 挑戰(zhàn)傳統(tǒng): 傳統(tǒng)設(shè)備廠商的繁復(fù)直播方案將直面其強(qiáng)大挑戰(zhàn)。 技術(shù)平權(quán): 自媒體和內(nèi)容創(chuàng)作者首次能夠真正獲得集輕便與專業(yè)于一身的制作工具,專業(yè)直播的門檻被
    發(fā)表于 08-25 15:39

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】開箱、介紹、系統(tǒng)更新

    地為張量處理單元核心提供高帶寬數(shù)據(jù)流。 為用戶提供了強(qiáng)大的深度學(xué)習(xí)模型編譯器和軟件 SDK 開發(fā)套件。 Caffe、Pytorch、ONNX、MXNet、TensorFlowLite)等主流深度學(xué)習(xí)
    發(fā)表于 06-28 09:18

    無法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    客戶說 為什么我們淘汰了某某某網(wǎng)關(guān)選擇深控技術(shù)? ——某跨國食品集團(tuán)數(shù)字化轉(zhuǎn)型負(fù)責(zé)人訪談實(shí)錄

    深控技術(shù)憑借其成熟的維護(hù)成本直降68%的奧秘成本對(duì)比數(shù)據(jù)表和無限可能的協(xié)議兼容性實(shí)測,解決某乳品產(chǎn)線的“七年之癢”,讓企業(yè)從束手束腳到“無限可能”。此外,深控技術(shù)的邊緣處理能力也遠(yuǎn)超某某品牌,支持TensorFlow
    的頭像 發(fā)表于 04-21 14:39 ?409次閱讀
    客戶說 為什么我們淘汰了某某某網(wǎng)關(guān)選擇深控<b class='flag-5'>技術(shù)</b>? ——某跨國食品集團(tuán)數(shù)字化轉(zhuǎn)型負(fù)責(zé)人訪談實(shí)錄

    FlexBuild構(gòu)建Debian 12,在“tflite_ethosu_delegate”上構(gòu)建失敗了怎么解決?

    /workspace/tn_debian_FlexBuild 構(gòu)建/components_lsdk2412/apps/ml/tflite/tensorflow/lite/tools/cmake
    發(fā)表于 04-01 06:53

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1198次閱讀
    用樹莓派搞深度學(xué)習(xí)?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    可以使用OpenVINO?工具包將中間表示 (IR) 模型轉(zhuǎn)換為TensorFlow格式嗎?

    無法將中間表示 (IR) 模型轉(zhuǎn)換為 TensorFlow* 格式
    發(fā)表于 03-06 06:51

    使用各種TensorFlow模型運(yùn)行模型優(yōu)化器時(shí)遇到錯(cuò)誤非法指令怎么解決?

    使用各種 TensorFlow 模型運(yùn)行模型優(yōu)化器時(shí)遇到 [i]錯(cuò)誤非法指令
    發(fā)表于 03-05 09:56

    OpenVINO?是否與TensorFlow集成支持Raspberry Pi?

    無法確定OpenVINO?是否與 TensorFlow* 集成支持 Raspberry Pi。
    發(fā)表于 03-05 08:26