91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

瑞芯微RK3576人體關(guān)鍵點(diǎn)識(shí)別算法(骨骼點(diǎn))

廣州靈眸科技有限公司 ? 2025-08-27 10:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.人體關(guān)鍵點(diǎn)識(shí)別簡(jiǎn)介

人體關(guān)鍵點(diǎn)識(shí)別是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位與姿勢(shì)估計(jì)的模型,廣泛應(yīng)用于體育分析、動(dòng)物行為監(jiān)測(cè)和機(jī)器人等領(lǐng)域,幫助機(jī)器實(shí)時(shí)解讀物理動(dòng)作。本算法具有運(yùn)行效率高、實(shí)時(shí)性強(qiáng)的特點(diǎn)。

本人員檢測(cè)算法在數(shù)據(jù)集表現(xiàn)如下所示:

人體關(guān)鍵點(diǎn)識(shí)別算法mAP pose@0.5
Person Pose-S86.3
Person Pose-M89.3

基于EASY-EAI-Orin-Nano(RK3576)硬件主板的運(yùn)行效率:

算法種類運(yùn)行效率
Person Pose-S53ms
Person Pose-M93ms

17個(gè)人體關(guān)鍵點(diǎn)索引定義:

索引定義
0鼻子
1左眼
2右眼
3左耳
4右耳
5左肩
6右肩
7左肘
8右肘
9左腕
10右腕
11左髖關(guān)節(jié)
12右髖關(guān)節(jié)
13左膝
14右膝
15左腳踝
16右腳踝

2.快速上手

如果您初次閱讀此文檔,請(qǐng)閱讀:《入門指南/源碼管理及編程介紹/源碼工程管理》,按需管理自己工程源碼(注:此文檔必看,并建議采用【遠(yuǎn)程掛載管理】方式,否則有代碼丟失風(fēng)險(xiǎn)?。。。?/span>。

2.1開源碼工程下載

先在PC虛擬機(jī)定位到nfs服務(wù)目錄,再在目錄中創(chuàng)建存放源碼倉(cāng)庫(kù)的管理目錄:

cd ~/nfsroot mkdir GitHub cd GitHub

再通過git工具,在管理目錄內(nèi)克隆遠(yuǎn)程倉(cāng)庫(kù)(需要設(shè)備能對(duì)外網(wǎng)進(jìn)行訪問)

git clone https://github.com/EASY-EAI/EASY-EAI-Toolkit-3576.git

wKgZO2ie21qAX1F1AAThXkdBXf4444.png

注:

* 此處可能會(huì)因網(wǎng)絡(luò)原因造成卡頓,請(qǐng)耐心等待。

* 如果實(shí)在要在gitHub網(wǎng)頁(yè)上下載,也要把整個(gè)倉(cāng)庫(kù)下載下來,不能單獨(dú)下載本實(shí)例對(duì)應(yīng)的目錄。

2.2開發(fā)環(huán)境搭建

通過adb shell進(jìn)入板卡開發(fā)環(huán)境,如下圖所示。

wKgZPGie23iAAjukAASksyxe3Mo794.png

通過以下命令,把nfs目錄掛載上nfs服務(wù)器。

mount -t nfs -o nolock : /home/orin-nano/Desktop/nfs/

wKgZPGie26OAe4rXAANSYXB8WZg622.png

2.3例程編譯

然后定位到板卡的nfs的掛載目錄(按照實(shí)際掛載目錄),進(jìn)入到對(duì)應(yīng)的例程目錄執(zhí)行編譯操作,具體命令如下所示:

cd EASY-EAI-Toolkit-3576/Demos/algorithm-person_pose/ ./build.sh

wKgZO2iuZa-ATRTEAAdJRnzdM6w083.png

2.4模型部署

要完成算法Demo的執(zhí)行,需要先下載人體關(guān)鍵點(diǎn)識(shí)別算法模型。

百度網(wǎng)盤鏈接為:https://pan.baidu.com/s/1ln9kclhgl6JqXtOzS3y5PQ?pwd=1234(提取碼:1234)。

wKgZPGiuZcGAPKKcAASks-zU0ZI206.png

同時(shí)需要把下載的人體關(guān)鍵點(diǎn)識(shí)別算法模型復(fù)制粘貼到Release/目錄:

wKgZO2iuZdGAO5NpAAkMUY4UCJ0255.png

2.5例程運(yùn)行及效果

進(jìn)入開發(fā)板Release目錄,執(zhí)行下方命令,運(yùn)行示例程序:

cd Release/ ./test-person_pose person_pose_m.model test.jpg

運(yùn)行例程命令如下所示:

wKgZO2iuZfeAM7CFAAHVjsivpAs751.png

結(jié)果圖片如下所示:

wKgZO2iuZgaANmrVAApEnAIcuFo367.png

API的詳細(xì)說明,以及API的調(diào)用(本例程源碼),詳細(xì)信息見下方說明。

3.人體關(guān)鍵點(diǎn)檢測(cè)API說明

  1. 引用方式

為方便客戶在本地工程中直接調(diào)用我們的EASY EAIapi庫(kù),此處列出工程中需要鏈接的庫(kù)以及頭文件等,方便用戶直接添加。

選項(xiàng)

描述

頭文件目錄easyeai-api/algorithm/person_pose
庫(kù)文件目錄easyeai-api/algorithm/person_pose
庫(kù)鏈接參數(shù)-lperson_pose

3.1人體關(guān)鍵點(diǎn)識(shí)別初始化函數(shù)

人體關(guān)鍵點(diǎn)識(shí)別初始化函數(shù)原型如下所示。

int person_pose_init(const char *c, person_pose_context_t *p_person_pose, int cls_num)

具體介紹如下所示。

函數(shù)名:person_pose_init()
頭文件person_pose.h
輸入?yún)?shù)p_model_path:算法模型的路
輸入?yún)?shù)p_person_pose:算法的句柄
輸入?yún)?shù)cls_num:類別數(shù)
返回值成功返回:0
失敗返回:-1
注意事項(xiàng)

3.2人體關(guān)鍵點(diǎn)識(shí)別運(yùn)行函數(shù)

人體關(guān)鍵點(diǎn)識(shí)別運(yùn)行函數(shù)person_pose_run原型如下所示。

std::vector person_pose_run(cv::Mat image, person_pose_context_t *p_person_pose, float nms_threshold, float conf_threshold);

具體介紹如下所示。

函數(shù)名:person_pose_run()
頭文件person_pose.h
輸入?yún)?shù)image:圖像數(shù)據(jù)輸入(cv::Mat是Opencv的類型)
輸入?yún)?shù)p_person_pose:算法的句柄
輸入?yún)?shù)nms_threshold:NMS閾值
輸入?yún)?shù)conf_threshold:置信度閾值
返回值std::vector:person pose檢測(cè)結(jié)果
注意事項(xiàng)

3.3人體關(guān)鍵點(diǎn)識(shí)別釋放函數(shù)

人體關(guān)鍵點(diǎn)識(shí)別釋放函數(shù)原型如下所示。

int person_pose_release(person_pose_context_t* p_person_pose)

具體介紹如下所示。

函數(shù)名:person_pose_release()
頭文件person_pose.h
輸入?yún)?shù)p_person_pose:算法句柄
返回值成功返回:0
失敗返回:-1
注意事項(xiàng)

4.人體關(guān)鍵識(shí)別算法例程

例程目錄為Demos/algorithm-person_pose/test-person_pose.cpp,操作流程如下。

wKgZPGiuZn-AU1JfAATXhWo__pE989.png

參考例程如下所示。

#include #include #include #include #include "person_pose.h" #include // 畫線 cv::Mat draw_line(cv::Mat image, float *key1, float *key2, cv::Scalar color) { if (key1[2] > 0.1 && key2[2] > 0.1) { cv::Point pt1(key1[0], key1[1]); cv::Point pt2(key2[0], key2[1]); cv::circle(image, pt1, 2, color, 2); cv::circle(image, pt2, 2, color, 2); cv::line(image, pt1, pt2, color, 2); } return image; } // 繪制結(jié)果: // 0鼻子, 1左眼, 2右眼,3左耳,4右耳,5左肩,6右肩,7左肘,8右肘,9左腕,10右腕,11左髖關(guān)節(jié),12右髖關(guān)節(jié),13左膝,14右膝,15左腳踝,16右腳踝 cv::Mat draw_image(cv::Mat image, std::vector results) { long unsigned int i =0; for (i = 0; i < results.size(); i++) { // 繪制臉部 image = draw_line(image, results[i].keypoints[0], results[i].keypoints[1], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[0], results[i].keypoints[2], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[1], results[i].keypoints[3], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[2], results[i].keypoints[4], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[3], results[i].keypoints[5], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[4], results[i].keypoints[6], CV_RGB(0, 255, 0)); // 繪制上半身 image = draw_line(image, results[i].keypoints[5], results[i].keypoints[6], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[5], results[i].keypoints[7], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[7], results[i].keypoints[9], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[6], results[i].keypoints[8], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[8], results[i].keypoints[10], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[5], results[i].keypoints[11], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[6], results[i].keypoints[12], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[11], results[i].keypoints[12], CV_RGB(0, 0, 255)); // 繪制下半身 image = draw_line(image, results[i].keypoints[11], results[i].keypoints[13], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[13], results[i].keypoints[15], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[12], results[i].keypoints[14], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[14], results[i].keypoints[16], CV_RGB(255, 255, 0)); cv::Rect rect(results[i].left, results[i].top, (results[i].right - results[i].left), (results[i].bottom - results[i].top)); cv::rectangle(image, rect, CV_RGB(255, 0, 0), 2); } return image; } /// 主函數(shù) int main(int argc, char **argv) { if (argc != 3) { printf("%s \n", argv[0]); return -1; } const char *p_model_path = argv[1]; const char *p_img_path = argv[2]; printf("Model path = %s, image path = %s\n\n", p_model_path, p_img_path); cv::Mat image = cv::imread(p_img_path); printf("Image size = (%d, %d)\n", image.rows, image.cols); int ret; person_pose_context_t yolo11_pose; memset(&yolo11_pose, 0, sizeof(yolo11_pose)); person_pose_init(p_model_path, &yolo11_pose, 1); double start_time = static_cast(cv::getTickCount()); std::vector results = person_pose_run(image, &yolo11_pose, 0.35, 0.35); double end_time = static_cast(cv::getTickCount()); double time_elapsed = (end_time - start_time) / cv::getTickFrequency() * 1000; std::cout << "person pose run time: " << time_elapsed << " ms" << std::endl; // 繪制結(jié)果 image = draw_image(image, results); cv::imwrite("result.jpg", image); printf("Detect size = %ld\n", results.size()); ret = person_pose_release(&yolo11_pose); return ret; }

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4784

    瀏覽量

    98024
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50091

    瀏覽量

    265205
  • rk3576
    +關(guān)注

    關(guān)注

    1

    文章

    265

    瀏覽量

    1542
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RK3576開發(fā)板的人臉識(shí)別算法

    RK3576開發(fā)板展示人臉識(shí)別算法例程和API說明
    的頭像 發(fā)表于 05-07 16:48 ?2723次閱讀
    基于<b class='flag-5'>RK3576</b>開發(fā)板的人臉<b class='flag-5'>識(shí)別</b><b class='flag-5'>算法</b>

    RK3588與RK3576技術(shù)參數(shù)詳解

    保持高速增長(zhǎng),特別在汽車電子、工業(yè)應(yīng)用、機(jī)器視覺及各類機(jī)器等重點(diǎn)領(lǐng)域持續(xù)擴(kuò)張。RK3588和RK3576
    的頭像 發(fā)表于 09-23 08:20 ?8636次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK</b>3588與<b class='flag-5'>RK3576</b>技術(shù)參數(shù)詳解

    米爾RK3576實(shí)測(cè)輕松搞定三屏八攝像頭

    RK3576參數(shù)強(qiáng)勁RK3576推出的一款高性能AIoT處理器,這款芯片以其卓越的計(jì)算能力、多屏幕支持、強(qiáng)大的視頻編解碼能力和高效的
    發(fā)表于 01-17 11:33

    國(guó)產(chǎn)開發(fā)板的端側(cè)AI測(cè)評(píng)-基于米爾RK3576

    ,國(guó)產(chǎn)自主可控必須搞起來。那與非網(wǎng)本期內(nèi)容就跟自主可控強(qiáng)關(guān)聯(lián)——評(píng)測(cè)一款基于國(guó)產(chǎn)SoC的板卡,由米爾電子推出的RK3576開發(fā)板(MYD-LR
    發(fā)表于 02-14 16:29

    適配多種系統(tǒng),米爾RK3576核心板解鎖多樣化應(yīng)用

    米爾電子發(fā)布的基于 RK3576 核心板和開發(fā)板,具備高性能數(shù)據(jù)處理能力、領(lǐng)先的AI智能分析功能、多樣化的顯示與操作體驗(yàn)以及強(qiáng)大的擴(kuò)展性與兼容性,適用于多種應(yīng)用場(chǎng)景。目前米爾電子
    發(fā)表于 05-23 16:07

    Onenet云網(wǎng)關(guān)方案應(yīng)用--基于米爾RK3576開發(fā)板

    -------------------------------------------------------------------------------------------------- 板卡說明: MYC-LR3576 核心板是基于
    發(fā)表于 06-06 16:54

    單板挑戰(zhàn)4路YOLOv8!米爾RK3576開發(fā)板性能實(shí)測(cè)

    道路和車輛形狀。 -posePose關(guān)鍵點(diǎn)檢測(cè)邊界框+人體關(guān)鍵點(diǎn)(17個(gè)點(diǎn))檢測(cè)人體
    發(fā)表于 09-12 17:52

    RK3576機(jī)器核心:三屏異顯+八路攝像頭,重塑機(jī)器交互與感知

    RK3576 AIoT處理器處理器憑借其卓越的多屏異顯與8路攝像頭接入能力,為機(jī)器領(lǐng)域帶來革新。米爾電子MYD-LR
    發(fā)表于 10-29 16:41

    如何精準(zhǔn)驅(qū)動(dòng)菜品識(shí)別模型--基于米爾RK3576邊緣計(jì)算盒

    置的強(qiáng)勁RK3576芯片,為視覺識(shí)別模型提供了充沛的本地AI算力,成功將“智慧識(shí)菜”的能力濃縮于方寸之間,充分證明了其作為邊緣AI應(yīng)用
    發(fā)表于 10-31 21:19

    怎樣使用Rock-X SDK對(duì)人體骨骼點(diǎn)關(guān)鍵點(diǎn)進(jìn)行開發(fā)獲取呢

    主要功能本篇是使用Rock-X SDK進(jìn)行獲取人體骨骼點(diǎn)關(guān)鍵點(diǎn)快速開發(fā)的過程,使用自定義或其它的模型的請(qǐng)使用rknn-toolkit和rk
    發(fā)表于 06-29 15:19

    RK3576|觸覺智能:開啟科技新篇章

    ,創(chuàng)新不止步!”——全新芯片RK3576即將震撼登場(chǎng)。指引科技風(fēng)潮,創(chuàng)造未來無限可能!這款芯片在
    的頭像 發(fā)表于 03-21 08:31 ?2208次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>|觸覺智能:開啟科技新篇章

    有獎(jiǎng)丨米爾 RK3576開發(fā)板免費(fèi)試用

    米爾與合作發(fā)布的新品基于RK3576應(yīng)用
    的頭像 發(fā)表于 11-12 01:00 ?1427次閱讀
    有獎(jiǎng)丨米爾 <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發(fā)板免費(fèi)試用

    追加名額丨米爾RK3576開發(fā)板有獎(jiǎng)試用

    米爾與合作發(fā)布的新品基于RK3576應(yīng)用
    的頭像 發(fā)表于 11-22 01:00 ?1227次閱讀
    追加名額丨米爾<b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發(fā)板有獎(jiǎng)試用

    RK3576主板YNH-536-規(guī)格書

    RK3576主板YNH-536-V1
    發(fā)表于 05-19 09:51 ?5次下載

    RK3576RK3576S有什么區(qū)別,性能參數(shù)配置與型號(hào)差異解析

    第二代8nm高性能AIOT平臺(tái)RK3576家族再添新成員-RK3576S,先說結(jié)論:相較主型號(hào)的R
    的頭像 發(fā)表于 08-14 23:57 ?2362次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>與<b class='flag-5'>RK3576</b>S有什么區(qū)別,性能參數(shù)配置與型號(hào)差異解析