91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Flexus X 實(shí)例 ultralytics 模型 yolov10 深度學(xué)習(xí) AI 部署與應(yīng)用

jf_81200783 ? 來源:jf_81200783 ? 作者:jf_81200783 ? 2024-12-24 12:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言:

???深度學(xué)習(xí)新紀(jì)元,828 B2B 企業(yè)節(jié) Flexus X 實(shí)例特惠!想要高效訓(xùn)練 YOLOv10 模型,實(shí)現(xiàn)精準(zhǔn)圖像識別?Flexus X 以卓越算力,助您輕松駕馭大規(guī)模數(shù)據(jù)集,加速模型迭代,讓 AI 智能觸手可及。把握此刻,讓創(chuàng)新不再受限!

???本實(shí)驗(yàn)演示從 0 到 1 部署 YOLOv10 深度學(xué)習(xí) AI 大模型的環(huán)境搭建、模型訓(xùn)練、權(quán)重使用,以及各項(xiàng)指標(biāo)解讀。實(shí)驗(yàn)環(huán)境為 Flexus 云服務(wù)器 X 實(shí)例 服務(wù)器,配置:4vCPUs | 12GiB

環(huán)境準(zhǔn)備

購買服務(wù)器配置

本次實(shí)驗(yàn)使用的是 Flexus 云服務(wù)器 X 實(shí)例 服務(wù)器。

wKgZPGdqN4aACF0MAACgmpc9Lao686.png

在性能設(shè)置中我選擇了自定義模式,使用了 4vCPUs | 12GiB,因?yàn)楸敬我獙?shí)驗(yàn)的是 yolov10 的部署與應(yīng)用,Windows 操作系統(tǒng)具有更加直觀的用戶界面和強(qiáng)大的圖形支持,我選擇了公共鏡像 Windows Server 2022 數(shù)據(jù)中心版。以上配置僅供參考,并非硬性要求!

wKgZO2dqN4eAeh8cAAFEfS3HPcg100.png

連接服務(wù)器

在華為云服務(wù)器控制臺(tái)中找到我們剛剛購買的服務(wù)器,將彈性公網(wǎng) IP 地址復(fù)制下來。

wKgZPGdqN4eASFNLAAEaWj5iWQA053.png

快捷鍵 Windows + R 打開運(yùn)行窗口,輸入 mstsc,回車!

wKgZO2dqN4iABtq5AABAG-DoOEI269.png

輸入計(jì)算機(jī):彈性公網(wǎng) IP 地址;用戶名:MicrosoftAccountAdministrator,單擊“確定”。

wKgZPGdqN4iAGuIrAACY8p1tkG8604.png

然后輸入密碼,就成功的連接到我們的服務(wù)器了。

wKgZO2dqN4mAFcdKAAfPU8Dqy_0433.png

如果忘記密碼了,可以在操作列中點(diǎn)擊重置密碼,重新設(shè)置我們的服務(wù)器密碼。

wKgZPGdqN4qAZJwIAAAW4Ctw3IU649.png

安裝 Python

我們先來安裝 python3,打開官網(wǎng)地址

Download Python | Python.org

在官網(wǎng)下一個(gè)大于大于 3.8 的 python 安裝包(官方建議使用 3.9 的版本),選擇 amd64 的 exe 版本

wKgZO2dqN4qADbHWAAIeXdZedFo051.png

安裝的時(shí)候勾選最底下的幫我們添加環(huán)境變量

wKgZPGdqN4uAe-kqAAFfrbGswxw814.png

等待片刻,出現(xiàn)下面這個(gè)界面就是安裝成功了。

wKgZO2dqN4yATKlXAAE_WiG4l2Y805.png

CMD 打開控制臺(tái)小黑窗,執(zhí)行 python -V 和 pip -V 查看 python 版本與 pip 版本,看看我們的環(huán)境變量是否設(shè)置成功。

wKgZPGdqN4yAK5N1AAAXuY5QzQw023.png

安裝 Pytorch

到官網(wǎng)安裝 Pytorch

Start Locally | PyTorch

在安裝之前看看自己買的服務(wù)器是否有 GPU,可以使用命令來查看

查看 CPU 型號:cat /proc/cpuinfo | grep "model name"

查看 GPU 型號(Nvidia GPU):nvidia-smi --query-gpu=gpu_name --format=csv

查看 GPU 型號(AMD Radeon GPU):sudo lshw -C display

因?yàn)槲疫@臺(tái)是只有 CPU 的,因此在官網(wǎng)中選擇 Stable(穩(wěn)定版),系統(tǒng) Linux,用 pip 來安裝吧,然后 Compute Platform 選擇 CPU,然后把 Run this Command:中的命令???cmd 打開黑窗口執(zhí)行。

wKgZO2dqN42AUeKdAAEeyL9T6fg279.png

我這里執(zhí)行的是

pip3 install torch torchvision torchaudio 直接執(zhí)行可能會(huì)很慢,我在后面加上指定鏡像源,切換為國內(nèi)鏡像 pip3 install torch torchvision torchaudio -i https://pypi.mirrors.ustc.edu.cn/simple/

出現(xiàn)如下畫面即是成功下載完成。

wKgZPGdqN42AeP1KAACGwYj4YG8854.png

部署 YOLOv10

YOLOv10 是 YOLO(You Only Look Once)系列的最新版本,由清華大學(xué)的研究人員開發(fā),旨在進(jìn)一步提高實(shí)時(shí)目標(biāo)檢測的效率和準(zhǔn)確性。以下是對 YOLOv10 的詳細(xì)介紹:

wKgZO2dqN46AaEEBAAEpnY14SCE251.png

之前的 YOLO 版本在后處理和模型架構(gòu)方面仍存在不足,特別是依賴于非最大抑制(NMS)進(jìn)行后處理,這限制了模型的端到端部署并增加了推理延遲。YOLOv10 通過消除 NMS 和優(yōu)化模型組件,旨在解決這些問題,實(shí)現(xiàn)更高的性能和效率。

拉取 YOLOv10 代碼并安裝相關(guān)依賴

打開 YOLOV0 的 GItHub 代碼庫,將源碼下載到本地,解壓。

GitHub - THU-MIG/yolov10: YOLOv10: Real-Time End-to-End Object Detection

wKgZPGdqN4-AJl9xAAFCyhOrfQg941.png

解壓完成后,打開命令行窗口,cd 到源碼的工作目錄,執(zhí)行下面兩個(gè)命令。

wKgZO2dqN4-AFFu5AAGMePeumaU870.png

wKgZPGdqN5CAGK7_AAASXmVrBiI066.png

當(dāng)以上相關(guān)依賴都安裝完畢后,執(zhí)行以下訓(xùn)練命令測試我們的環(huán)境(此步驟可跳過)。

yolo detect train data=coco.yaml model=yolov10s.yaml epochs=5 batch=256 imgsz=640

第一次執(zhí)行會(huì)自動(dòng)下載官方提供的訓(xùn)練案例文件,需要等待較長時(shí)間。

wKgZO2dqN5CAQ2smAABWyEBmroI501.png

數(shù)據(jù)集準(zhǔn)備

YOLOv10 作為實(shí)時(shí)目標(biāo)檢測模型,理論上支持多種類型的數(shù)據(jù)集,只要這些數(shù)據(jù)集符合 YOLOv10 的輸入格式和標(biāo)注要求。具體來說,YOLOv10 可以支持的數(shù)據(jù)集包括但不限于以下幾種類型:

1.通用目標(biāo)檢測數(shù)據(jù)集:如 COCO(Common Objects in Context)數(shù)據(jù)集,這是一個(gè)大型、豐富的圖像數(shù)據(jù)集,用于目標(biāo)檢測、分割、關(guān)鍵點(diǎn)檢測等多種任務(wù)。YOLOv10 在 COCO 數(shù)據(jù)集上取得了顯著的性能提升,展現(xiàn)出優(yōu)異的精度-效率平衡能力。

2.特定領(lǐng)域數(shù)據(jù)集:YOLOv10 也可以應(yīng)用于特定領(lǐng)域的數(shù)據(jù)集,如交通標(biāo)志檢測數(shù)據(jù)集、人臉檢測數(shù)據(jù)集、車輛檢測數(shù)據(jù)集等。這些數(shù)據(jù)集通常針對特定場景或任務(wù)進(jìn)行收集和標(biāo)注,以滿足特定領(lǐng)域的需求。

3.自定義數(shù)據(jù)集:用戶還可以根據(jù)自己的需求創(chuàng)建自定義數(shù)據(jù)集,并使用 YOLOv10 進(jìn)行訓(xùn)練和測試。自定義數(shù)據(jù)集需要按照 YOLOv10 的輸入格式進(jìn)行標(biāo)注和組織,包括圖像文件、標(biāo)簽文件以及可能的數(shù)據(jù)集配置文件等。

通常來說,我們需要將標(biāo)注結(jié)果與原圖按比例分配到三個(gè)文件夾中

如你有 100 張標(biāo)注了的圖片,大約 80 張圖片用于訓(xùn)練數(shù)據(jù),約 10 張圖片用于驗(yàn)證數(shù)據(jù),約 10 張圖片用于測試數(shù)據(jù)

train 路徑用于訓(xùn)練模型,val 路徑用于驗(yàn)證模型,test 路徑用于測試模型。在訓(xùn)練和驗(yàn)證期間,模型將在不同的數(shù)據(jù)集上進(jìn)行訓(xùn)練和驗(yàn)證,以便評估模型的性能。在測試期間,模型將使用整個(gè)數(shù)據(jù)集進(jìn)行測試,以確定其性能指標(biāo)

需要注意的是:訓(xùn)練過的圖片通常不能用于驗(yàn)證數(shù)據(jù)。這是因?yàn)樵谟?xùn)練期間,模型已經(jīng)對這些圖片進(jìn)行了訓(xùn)練,并學(xué)會(huì)了識別這些圖片中的對象和場景類別。

因?yàn)閿?shù)據(jù)標(biāo)注要花費(fèi)大量的時(shí)間,這里直接拿出我最愛的皮卡丘標(biāo)注數(shù)據(jù)

400多張“皮卡丘”原圖與標(biāo)注結(jié)果以及yolov8的訓(xùn)練結(jié)果best.pt權(quán)重和ONNX格式文件_yolov8權(quán)重轉(zhuǎn)onnx資源-CSDN文庫

wKgZPGdqN5GAfqwTAAAkjqH8InY414.png

在這個(gè)壓縮包中有皮卡丘圖片與標(biāo)注信息,還有 yolov8 的訓(xùn)練好的權(quán)重文件,我們只留下 images 和 labels 用來訓(xùn)練 yolov10 版本的權(quán)重。

因?yàn)槲冶容^懶,能用代碼解決的事就用代碼,下面我們使用 python 對數(shù)據(jù)集進(jìn)行隨機(jī)分配。

修改下面代碼中 66-67 行中的

src_data_folder = '數(shù)據(jù)集路徑' target_data_folder = '處理后的數(shù)據(jù)集'

wKgZO2dqN5GABQ-eAACl7fgmBxs861.png

wKgZPGdqN5KAUtX2AAEIzQAISiU383.png

wKgZO2dqN5KABjR4AAD1vuoQw_o245.png

wKgZPGdqN5OAIvepAAD7w-nQkc8642.png

wKgZO2dqN5SAUgRWAABBgU0pWOQ603.png

wKgZPGdqN5SAED-rAACHXTIwWwo154.png

因?yàn)樵?yolo 訓(xùn)練中,我們并不需要將圖片和標(biāo)注結(jié)果分開存放,因此我們將 train 和 val 中的 images 和 labels 里的文件都全部移出來,然后將這兩個(gè)文件夾刪掉即可。

wKgZO2dqN5WAeQEPAACfI5Sw9_s513.png

要注意的是,不管是 train 還是 val 都需要檢查是否包含這么一個(gè) classes.txt 文件,如果沒有的話需要自己手動(dòng)補(bǔ)上,因?yàn)槲疫@里的素材只有一個(gè)皮卡丘目標(biāo),并且標(biāo)注為 1 了,所以只寫了一個(gè) 1。

wKgZPGdqN5WALLcaAADBgAKzLO4591.png

訓(xùn)練數(shù)據(jù)集的配置文件

參考路徑 C:yolov10-mainultralyticscfgdatasets 找到 voc.yaml,復(fù)制一份,自定義一個(gè)名字

執(zhí)行完識別命令后,可在輸出信息中看到識別結(jié)果文件所在位置,detectpredict(數(shù)字會(huì)自動(dòng)疊加)

wKgZO2dqN5aAe8vCAABICgs81wM184.png

wKgZPGdqN5aAdlUjAAD2FbyAv8g426.png

任意打開一張圖片,找出識別前的圖片對比一下,皮卡丘已經(jīng)被框出來了,并打上我們設(shè)置的 pkq 標(biāo)簽。

至此~我們就完成了 YOLOv10 目標(biāo)檢測模型的訓(xùn)練與識別工作了!整個(gè)實(shí)驗(yàn)操作下來,F(xiàn)lexus 云服務(wù)器 X 實(shí)例的表現(xiàn)都是非常出色的!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301441
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
  • 華為云
    +關(guān)注

    關(guān)注

    3

    文章

    2832

    瀏覽量

    19253
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度
    發(fā)表于 12-03 13:50

    使用ROCm?優(yōu)化并部署YOLOv8模型

    作者:AVNET 李鑫杰 一,YOLOv8介紹? YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日發(fā)布,在準(zhǔn)確性和速度方面提供了前沿的性能。
    的頭像 發(fā)表于 09-24 18:32 ?869次閱讀
    使用ROCm?優(yōu)化并<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>8<b class='flag-5'>模型</b>

    基于瑞芯微RK3576的 yolov5訓(xùn)練部署教程

    1.Yolov5簡介 YOLOv5 模型Ultralytics 公司于 2020 年 6 月 9 日公開發(fā)布的。YOLOv5
    的頭像 發(fā)表于 09-11 16:43 ?2956次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov</b>5訓(xùn)練<b class='flag-5'>部署</b>教程

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標(biāo)檢測模型?

    在K230的AI開發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉庫里可以看到源碼 我想請問各位大佬,如何使用這個(gè)程序?如何更改程序,替換為我自己的
    發(fā)表于 08-07 06:48

    這個(gè)套件讓樹莓派5運(yùn)行幾乎所有YOLO模型!Conda 與 Ultralytics!

    如何在樹莓派上設(shè)置YOLO計(jì)算機(jī)視覺?Conda與Ultralytics在本指南中,我們將學(xué)習(xí)如何使用Conda在樹莓派上安裝UltralyticsYOLO視覺套件。該套件將允許你運(yùn)行Ultralytics支持的幾乎所有YOLO
    的頭像 發(fā)表于 07-31 11:51 ?5249次閱讀
    這個(gè)套件讓樹莓派5運(yùn)行幾乎所有YOLO<b class='flag-5'>模型</b>!Conda 與 <b class='flag-5'>Ultralytics</b>!

    YOLOv8轉(zhuǎn)換到kmodel時(shí)出現(xiàn)undefined symbol錯(cuò)誤怎么解決?

    使用yolo v8訓(xùn)練視覺檢測模型,使用yolov8版本為8.3.159,訓(xùn)練完后在windows使用ultralytics中的函數(shù)導(dǎo)出.pt文件為.onnx文件,然后在WSL
    發(fā)表于 07-28 06:20

    yolov5訓(xùn)練部署全鏈路教程

    1.Yolov5簡介YOLOv5模型Ultralytics公司于2020年6月9日公開發(fā)布的。YOLOv5
    的頭像 發(fā)表于 07-25 15:22 ?1766次閱讀
    <b class='flag-5'>yolov</b>5訓(xùn)練<b class='flag-5'>部署</b>全鏈路教程

    RK3576 Yolov11訓(xùn)練部署教程

    1.Yolo11簡介YOLO11系列是YOLO家族中最先進(jìn)的(SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由Ultralytics創(chuàng)建,該組織發(fā)布了YOLOv8,這是迄今為止最穩(wěn)定
    的頭像 發(fā)表于 07-25 15:22 ?1082次閱讀
    RK3576 <b class='flag-5'>Yolov</b>11訓(xùn)練<b class='flag-5'>部署</b>教程

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】幸狐Omni3576開發(fā)板移植YOLOV10和推理測試

    、量化精度分析以及模型加密。RKNN 軟件棧可以幫助用戶快速的將 AI 模型部署到 Rockchip 芯片。整體的框架如下: 為了使用 RKNPU,首先需要在計(jì)算機(jī)(最新的Kit支持
    發(fā)表于 05-24 12:27

    RV1126 yolov8訓(xùn)練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號開源的基于YOLOV5進(jìn)行更新的 下一個(gè)重大更新版本,目前支持圖像分類、物體檢測和
    的頭像 發(fā)表于 04-16 14:53 ?1459次閱讀
    RV1126 <b class='flag-5'>yolov</b>8訓(xùn)練<b class='flag-5'>部署</b>教程

    OrinNano yolov11訓(xùn)練部署教程

    ORinNano yolov11訓(xùn)練部署教程
    的頭像 發(fā)表于 04-10 15:26 ?2587次閱讀
    OrinNano  <b class='flag-5'>yolov</b>11訓(xùn)練<b class='flag-5'>部署</b>教程

    RK3576 Yolov11訓(xùn)練部署教程

    YOLO11 系列是 YOLO 家族中最先進(jìn)的 (SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由 Ultralytics 創(chuàng)建,該組織發(fā)布了 YOLOv8,這是迄今為止最穩(wěn)定、使用最廣泛的 YOLO 變體。YOLO1
    的頭像 發(fā)表于 04-03 09:35 ?2023次閱讀
    RK3576 <b class='flag-5'>Yolov</b>11訓(xùn)練<b class='flag-5'>部署</b>教程

    RK3576 yolov8訓(xùn)練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發(fā)表于 04-02 16:04 ?1872次閱讀
    RK3576 <b class='flag-5'>yolov</b>8訓(xùn)練<b class='flag-5'>部署</b>教程

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】RKNN 推理測試與圖像識別

    chmod a+x download_model.sh ./download_model.sh 3.執(zhí)行 rknn_model_zoo/examples/yolov10/python 目錄下的模型轉(zhuǎn)換
    發(fā)表于 03-20 16:14