引言
OpenVINO2022版本發(fā)布之后,對之前舊版本的功能做明確的劃分,其中仍然通過exe方式安裝程序的是runtime推理包,支持ONNX、IR、PADDLE等模型讀取與推理。但是模型優(yōu)化轉換、模型庫下載功能等其他功能被分在一個叫Dev Tool的部分。該部分可以通過pip方式直接安裝,然后通過命令行直接直線,完成模型的轉換,下載等操作,跟之前版本易用性有較大提升!做個對比如下:

Dev Tools安裝與使用
Dev Tools安裝非常方便,直接通過官方腳本命令行選擇安裝即可,唯一需要注意的是選擇模型框架支持,我選擇了ONNX/Pytorch格式轉換支持,安裝的命令行如下:
pip install openvino-dev[onnx,pytorch]==2022.1.0
執(zhí)行完這條命令行就算是安裝好了,只要網(wǎng)絡不掛就可以安裝成功!
安裝完成,轉換一個ONNX格式的模型為IR格式(xml/bin)文件,以Pytorch的ResNet18為例,先轉換為ONNX,代碼如下:model = models.resnet18(pretrained=True)model.eval()model.cpu()dummy_input1 = torch.randn(1, 3, 224, 224)torch.onnx.export(model, (dummy_input1), "resnet_model.onnx", verbose=True)
然后直接運行命令行就可以轉換IR格式文件,截圖如下:


模型下載
安裝完成Dev Tools之后,下載模型,只要執(zhí)行命令行即可:舉例如下:
omz_downloader --name person-detection-0200
表示下載模型person-detection-0200是一個輕量化的人臉檢測模型。omz_downloader支持的參數(shù):--all表示下載全部模型,建議別這么干!--name 下載一個或者多個指定名稱的模型,推薦這么干!--precisions 表示下載的模型精度參數(shù),支持FP32/FP18/INT8

對比之前Python版本的SDK,好用了不少,最明顯的感受就是不用讀輸入輸出,然后一堆設置了,對單個輸入輸出的網(wǎng)絡,調(diào)用就特別的簡潔更方便!開發(fā)者更加容易上手!上面我已經(jīng)成功轉換一個pytorch圖像分類模型為IR格式,現(xiàn)在就可以使用它,基于OpenVINO2022版本最新Python SDK部署調(diào)用,實現(xiàn)代碼如下:
#加載標簽數(shù)據(jù)
withopen('imagenet_classes.txt')asf:
labels=[line.strip()forlineinf.readlines()]
defresnet_demo():
ie=Core()
#model=ie.read_model(model="resnet_model.onnx")
model=ie.read_model(model="resnet_model.xml")
compiled_model=ie.compile_model(model=model,device_name="CPU")
output_layer=compiled_model.output(0)
means=np.zeros((224,224,3),dtype=np.float32)
means[:,:]=(0.485,0.456,0.406)
dev=np.zeros((224,224,3),dtype=np.float32)
dev[:,:]=(0.229,0.224,0.225)
image=cv.imread("D:/images/space_shuttle.jpg")
rgb=cv.cvtColor(image,code=cv.COLOR_BGR2RGB)
#resizetoMobileNetimageshape
input_image=cv.resize(src=rgb,dsize=(224,224))
blob_img=np.float32(input_image)/255.0
input_x=(blob_img-means)/dev
input_x=input_x.transpose((2,0,1))
input_x=np.expand_dims(input_x,0)
print(input_x.shape)
result_infer=compiled_model([input_x])[output_layer]
result_index=np.argmax(result_infer)
cv.putText(image,labels[result_index],(20,50),cv.FONT_HERSHEY_SIMPLEX,1.0,(0,0,255),2)
cv.imshow("OpenVINO2022+PythorchResNet18",image)
cv.waitKey(0)
cv.destroyAllWindows()
if__name__=="__main__":
resnet_demo()
審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
模型
+關注
關注
1文章
3755瀏覽量
52124 -
腳本
+關注
關注
1文章
409瀏覽量
29202
原文標題:OpenVINO2022 Dev Tools安裝與使用
文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
熱點推薦
RISC-V工具鏈搭建
/bin
4) 工具鏈編譯
$ cd ~/rocket-tools
安裝依附包:sudo apt-get install autoconf automake autotools-dev curl
發(fā)表于 10-29 08:02
搭建自己的ubuntu系統(tǒng)之VMware Tools安裝
接下來安裝VMware Tools,如果不安裝該工具,在Windows主機和虛擬機之間無法使用復制粘貼、文件拖拽。首先右擊VMware導航欄上的“虛擬機”,然后在下拉框中點擊“安裝VM
發(fā)表于 09-25 09:45
無法在NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?
在 NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。
遇到的錯誤:
get_shape was called on a descriptor::Tensor with dynamic shape
發(fā)表于 07-11 06:58
無法將Tensorflow Lite模型轉換為OpenVINO?格式怎么處理?
將 Tensorflow Lite 模型轉換為 OpenVINO? 格式。
遇到的錯誤:
FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostProcess node.
發(fā)表于 06-25 08:27
無法運行Whisper Asr GenAI OpenVINO? Notebook怎么解決?
冉小 聲說-asr-genai OpenVINO?筆記本。
遇到的錯誤: Port for tensor name cache_position was not found.
發(fā)表于 06-25 07:41
請問Openvino是否支持 Risc-V (riscv64) 架構?
在spacemit k1型板(bpi-f3)上編譯OpenVINO?,但失敗。
使用 riscv64 構建OpenVINO?并崩潰。
發(fā)表于 06-24 07:26
使用Openvino? GenAI運行Sdxl Turbo模型時遇到錯誤怎么解決?
使用 OpenVINO? GenAI 運行 SDXL Turbo 模型。
遇到的錯誤: RuntimeError :- Check ov_tokenizer || ov_detokenizer
Neither tokenizer nor detokenizer models were provided
發(fā)表于 06-24 06:38
無法將Openvino? 2025.0與onnx運行時Openvino? 執(zhí)行提供程序 1.16.2 結合使用,怎么處理?
使用OpenVINO?與英特爾 i5-8500 CPU 和超核處理器 630 iGPU 一起部署模型。
使用了 Microsoft.ML.OnnxRuntime.OpenVino
發(fā)表于 06-24 06:31
為什么無法通過“pip install openvino-dev==2025.0.0”安裝 2025.0 OpenVINO??
通過“pip install openvino-dev==2025.0.0OpenVINO? 2025.0 安裝。
收到的錯誤:
ERROR: No matching distribution found for
發(fā)表于 06-23 08:13
Intel OpenVINO? Day0 實現(xiàn)阿里通義 Qwen3 快速部署
本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(GPU, NPU)Qwen3 系列模型。
如何在Ollama中使用OpenVINO后端
Ollama 和 OpenVINO 的結合為大型語言模型(LLM)的管理和推理提供了強大的雙引擎驅動。Ollama 提供了極簡的模型管理工具鏈,而 OpenVINO 則通過 Intel 硬件(CPU
OpenVINO2022 Dev Tools安裝與使用
評論