一,RapidDoc系統(tǒng)概述
RapidDoc是一個輕量級、專注于文檔解析的開源框架,支持OCR、版面分析、公式識別、表格識別和閱讀順序恢復(fù)等多種功能??蚣芑?Mineru 二次開發(fā),移除 VLM,專注于 Pipeline 產(chǎn)線下的高效文檔解析,在 CPU 上也能保持不錯的解析速度。本文章所使用的核心模型主要來源于 PaddleOCR 的 PP-StructureV3 系列(OCR、版面分析、公式識別、閱讀順序恢復(fù),以及部分表格識別模型),并已全部轉(zhuǎn)換為 ONNX 格式,支持在 CPU/GPU 上高效推理。

?

?
二,開始部署
首先,在命令提示行執(zhí)行命令下載源文件。
git clone https://github.com/chrisma-2025/RapidDoc-OpenVINO

?
然后再執(zhí)行命令,安裝python依賴包
pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
pip install loguru pypdfium2 requests boto3 pydantic pypdf reportlab magika opencv-python tqdm omegaconf colorlog tokenizers rapidocr fast_langdetect scikit-image bs4 pdfminer pdfminer.six pdftext matplotlib
pip install onnxruntime-openvino onnxruntime
pip install --pre openvino --extra-index-url https://storage.openvinotoolkit.org/simple/wheels/nightly

?
下載OCR模型并使用指令將模型轉(zhuǎn)換為OpenVINO?支持的IR文件
cd RapidDoc-OpenVINO/models
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/det/ch_PP-OCRv5_server_det.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/rec/ch_PP-OCRv5_rec_server_infer.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv4/cls/ch_ppocr_mobile_v2.0_cls_infer.onnx -P ocr
下載完成后運行:python ir_converter.py

?
三,運行Demo
執(zhí)行命令返回文件根目
cd ..
Python demo.py

?

四,總結(jié)
本文完整演示了基于RapidDoc 框架的文檔解析工具落地流程:先克隆源碼、安裝 PyTorch/OpenVINO 等依賴,再下載 PP-OCRv5 系列 ONNX 模型并嘗試轉(zhuǎn)換為 IR 文件,最后通過demo.py驗證部署效果。
實際運行中,Intel GPU(Arc A770、Iris Xe Graphics)可正常調(diào)用,穩(wěn)定完成多頁面文檔的 OCR、版面分析等任務(wù),此次部署既驗證了 RapidDoc 框架在輕量化工單解析場景的實用性,也證實了 OpenVINO? 對 Inte GPU 的適配性,為后續(xù)工業(yè)、金融等領(lǐng)域的文檔智能解析需求提供了可復(fù)用的技術(shù)方案。
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內(nèi)容請關(guān)注“算力魔方?”!
?審核編輯 黃宇
-
intel
+關(guān)注
關(guān)注
19文章
3508瀏覽量
191254 -
OpenVINO
+關(guān)注
關(guān)注
0文章
118瀏覽量
767
發(fā)布評論請先 登錄
Intel OpenVINO? Day0 實現(xiàn)阿里通義 Qwen3 快速部署
基于C#和OpenVINO?在英特爾獨立顯卡上部署PP-TinyPose模型
如何使用OpenVINO C++ API部署FastSAM模型
使用OpenVINO C# API輕松部署飛槳PP-OCRv4模型
用ROCm部署PP-StructureV3到AMD GPU上
OpenVINO?檢測到GPU,但網(wǎng)絡(luò)無法加載到GPU插件,為什么?
是否可以使用OpenVINO?部署管理器在部署機器上運行Python應(yīng)用程序?
如何部署OpenVINO?工具套件應(yīng)用程序?
無法在GPU上運行ONNX模型的Benchmark_app怎么解決?
為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?
無法使用OpenVINO?在 GPU 設(shè)備上運行穩(wěn)定擴(kuò)散文本到圖像的原因?
【大聯(lián)大世平Intel?神經(jīng)計算棒NCS2試用申請】在樹莓派上聯(lián)合調(diào)試Intel?神經(jīng)計算棒NCS2部署OpenVINO
GPU上OpenVINO基準(zhǔn)測試的推斷模型的默認(rèn)參數(shù)與CPU上的參數(shù)不同是為什么?
使用OpenVINO? 部署PaddleSeg模型庫中的DeepLabV3+模型
使用OpenVINO Model Server在哪吒開發(fā)板上部署模型
如何用OpenVINO?部署PP-StructureV3到Intel GPU上
評論