91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用OpenVINO?部署PP-StructureV3到Intel GPU上

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2025-12-01 13:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一,RapidDoc系統(tǒng)概述

RapidDoc是一個輕量級、專注于文檔解析的開源框架,支持OCR、版面分析、公式識別、表格識別和閱讀順序恢復(fù)等多種功能??蚣芑?Mineru 二次開發(fā),移除 VLM,專注于 Pipeline 產(chǎn)線下的高效文檔解析,在 CPU 上也能保持不錯的解析速度。本文章所使用的核心模型主要來源于 PaddleOCR 的 PP-StructureV3 系列(OCR、版面分析、公式識別、閱讀順序恢復(fù),以及部分表格識別模型),并已全部轉(zhuǎn)換為 ONNX 格式,支持在 CPU/GPU 上高效推理。

?

?

二,開始部署

首先,在命令提示行執(zhí)行命令下載源文件。

git clone https://github.com/chrisma-2025/RapidDoc-OpenVINO

?

然后再執(zhí)行命令,安裝python依賴包

pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
pip install loguru pypdfium2 requests boto3 pydantic pypdf reportlab magika opencv-python tqdm omegaconf colorlog tokenizers rapidocr fast_langdetect scikit-image bs4 pdfminer pdfminer.six pdftext matplotlib
pip install onnxruntime-openvino onnxruntime
pip install --pre openvino --extra-index-url https://storage.openvinotoolkit.org/simple/wheels/nightly

?

下載OCR模型并使用指令將模型轉(zhuǎn)換為OpenVINO?支持的IR文件

cd RapidDoc-OpenVINO/models
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/det/ch_PP-OCRv5_server_det.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/rec/ch_PP-OCRv5_rec_server_infer.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv4/cls/ch_ppocr_mobile_v2.0_cls_infer.onnx -P ocr

下載完成后運行:python ir_converter.py

?

三,運行Demo

執(zhí)行命令返回文件根目

cd ..

Python demo.py

?

?視頻鏈接:https://blog.csdn.net/2401_83179994/article/details/154793207?spm=1011.2415.3001.10575&sharefrom=mp_manage_link

四,總結(jié)

本文完整演示了基于RapidDoc 框架的文檔解析工具落地流程:先克隆源碼、安裝 PyTorch/OpenVINO 等依賴,再下載 PP-OCRv5 系列 ONNX 模型并嘗試轉(zhuǎn)換為 IR 文件,最后通過demo.py驗證部署效果。

實際運行中,Intel GPU(Arc A770、Iris Xe Graphics)可正常調(diào)用,穩(wěn)定完成多頁面文檔的 OCR、版面分析等任務(wù),此次部署既驗證了 RapidDoc 框架在輕量化工單解析場景的實用性,也證實了 OpenVINO? 對 Inte GPU 的適配性,為后續(xù)工業(yè)、金融等領(lǐng)域的文檔智能解析需求提供了可復(fù)用的技術(shù)方案。

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內(nèi)容請關(guān)注“算力魔方?”!

?審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • intel
    +關(guān)注

    關(guān)注

    19

    文章

    3508

    瀏覽量

    191254
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    767
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Intel OpenVINO? Day0 實現(xiàn)阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(GPU, NPU)Qwen3 系列模型。
    的頭像 發(fā)表于 05-11 11:36 ?1708次閱讀
    <b class='flag-5'>Intel</b> <b class='flag-5'>OpenVINO</b>? Day0 實現(xiàn)阿里通義 Qwen<b class='flag-5'>3</b> 快速<b class='flag-5'>部署</b>

    基于C#和OpenVINO?在英特爾獨立顯卡上部署PP-TinyPose模型

    OpenVINO,將 PP-TinyPose 模型部署在英特爾獨立顯卡。 1.1 PP-TinyPose 模型簡介
    的頭像 發(fā)表于 11-18 18:27 ?3682次閱讀

    如何使用OpenVINO C++ API部署FastSAM模型

    FastSAM 模型 | 開發(fā)者實戰(zhàn)》,在該文章中我們向大家展示了基于 OpenVINO Python API 的基本部署流程。在實際部署過程中會考慮由效率問題,使得我們可能更傾向
    的頭像 發(fā)表于 11-17 09:53 ?1833次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> C++ API<b class='flag-5'>部署</b>FastSAM模型

    使用OpenVINO C# API輕松部署飛槳PP-OCRv4模型

    ?本文從零開始詳細(xì)介紹整個過程。 一,什么是PP-OCRv4模型? ? PP-OCRv4是 PaddleOCR工具庫 的PP-OCR系列模型中,當(dāng)前性能最優(yōu)的一個。它在前代模型(PP-OCRv
    的頭像 發(fā)表于 02-12 10:42 ?2307次閱讀
    使用<b class='flag-5'>OpenVINO</b> C# API輕松<b class='flag-5'>部署</b>飛槳<b class='flag-5'>PP</b>-OCRv4模型

    用ROCm部署PP-StructureV3AMD GPU

    作者:AVNET 李鑫杰 我們在上一篇文章中介紹了ROCm+PP-OCRv5,為實現(xiàn)在AMD計算平臺上完成復(fù)雜文檔的端端智能解析,本文基于ROCm軟件棧,提供一套完整的PP-StructureV3
    的頭像 發(fā)表于 11-13 16:56 ?5531次閱讀
    用ROCm<b class='flag-5'>部署</b><b class='flag-5'>PP-StructureV3</b><b class='flag-5'>到</b>AMD <b class='flag-5'>GPU</b><b class='flag-5'>上</b>

    OpenVINO?檢測到GPU,但網(wǎng)絡(luò)無法加載到GPU插件,為什么?

    OpenVINO?安裝在舊的 Windows 10 版本 Windows? 10 (RS1) 。 已安裝 GPU 驅(qū)動程序版本 25.20.100.6373,檢測到 GPU,但網(wǎng)絡(luò)
    發(fā)表于 03-05 06:01

    是否可以使用OpenVINO?部署管理器在部署機器運行Python應(yīng)用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運行時軟件包。 將運行時包轉(zhuǎn)移到部署機器中。 無法確定是否可以在部署機器運行 Python 應(yīng)用程
    發(fā)表于 03-05 08:16

    如何部署OpenVINO?工具套件應(yīng)用程序?

    編寫代碼并測試 OpenVINO? 工具套件應(yīng)用程序后,必須將應(yīng)用程序安裝或部署生產(chǎn)環(huán)境中的目標(biāo)設(shè)備。 OpenVINO?部署管理器指南包
    發(fā)表于 03-06 08:23

    無法在GPU運行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 運行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 推理成功,但在
    發(fā)表于 03-06 08:02

    為什么無法在GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU
    發(fā)表于 06-23 07:11

    無法使用OpenVINO?在 GPU 設(shè)備運行穩(wěn)定擴(kuò)散文本圖像的原因?

    OpenVINO? GPU 設(shè)備使用圖像大小 (1024X576) 運行穩(wěn)定擴(kuò)散文本圖像,并收到錯誤消息: RuntimeError: Exception from
    發(fā)表于 06-25 06:36

    【大聯(lián)大世平Intel?神經(jīng)計算棒NCS2試用申請】在樹莓派上聯(lián)合調(diào)試Intel?神經(jīng)計算棒NCS2部署OpenVINO

    項目名稱:在樹莓派上聯(lián)合調(diào)試Intel?神經(jīng)計算棒NCS2部署OpenVINO試用計劃:1, 我是樹莓派資深開發(fā)者,有好幾個樹莓派,2,精通Ubuntu 16.04.3 LTS(64位
    發(fā)表于 06-30 16:06

    GPUOpenVINO基準(zhǔn)測試的推斷模型的默認(rèn)參數(shù)與CPU的參數(shù)不同是為什么?

    在 CPU 和 GPU 推斷出具有 OpenVINO? 基準(zhǔn)的相同模型: benchmark_app.exe -m model.xml -d CPU benchmark_app.exe -m
    發(fā)表于 08-15 06:43

    使用OpenVINO? 部署PaddleSeg模型庫中的DeepLabV3+模型

    下的DeepLabV3+路面語義分割模型轉(zhuǎn)換為OpenVINO ? 工具套件的IR模型并且部署CPU。 ? 為了使本文擁有更廣的受眾面,
    的頭像 發(fā)表于 11-22 14:58 ?1.1w次閱讀
    使用<b class='flag-5'>OpenVINO</b>? <b class='flag-5'>部署</b>PaddleSeg模型庫中的DeepLabV<b class='flag-5'>3</b>+模型

    使用OpenVINO Model Server在哪吒開發(fā)板上部署模型

    OpenVINO Model Server(OVMS)是一個高性能的模型部署系統(tǒng),使用C++實現(xiàn),并在Intel架構(gòu)部署進(jìn)行了優(yōu)化,使用
    的頭像 發(fā)表于 11-01 14:19 ?1272次閱讀
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒開發(fā)板上<b class='flag-5'>部署</b>模型