91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT的命令行程序

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Ken He ? 2022-05-20 14:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

A.3.1. trtexec

示例目錄中包含一個(gè)名為trtexec的命令行包裝工具。 trtexec是一種無需開發(fā)自己的應(yīng)用程序即可快速使用 TensorRT 的工具。

trtexec工具有三個(gè)主要用途:

它對(duì)于在隨機(jī)或用戶提供的輸入數(shù)據(jù)上對(duì)網(wǎng)絡(luò)進(jìn)行基準(zhǔn)測(cè)試很有用。

它對(duì)于從模型生成序列化引擎很有用。

它對(duì)于從構(gòu)建器生成序列化時(shí)序緩存很有用。

A.3.1.1. Benchmarking Network

如果您將模型保存為 ONNX 文件、UFF 文件,或者如果您有 Caffe prototxt 格式的網(wǎng)絡(luò)描述,則可以使用trtexec工具測(cè)試使用 TensorRT 在網(wǎng)絡(luò)上運(yùn)行推理的性能。 trtexec工具有許多選項(xiàng)用于指定輸入和輸出、性能計(jì)時(shí)的迭代、允許的精度和其他選項(xiàng)。

為了最大限度地提高 GPU 利用率, trtexec會(huì)提前將一個(gè)batch放入隊(duì)列。換句話說,它執(zhí)行以下操作:

enqueue batch 0

-》 enqueue batch 1

-》 wait until batch 0 is done

-》 enqueue batch 2

-》 wait until batch 1 is done

-》 enqueue batch 3

-》 wait until batch 2 is done

-》 enqueue batch 4

-》 。..

如果使用多流( --streams=N標(biāo)志),則trtexec在每個(gè)流上分別遵循此模式。

trtexec工具打印以下性能指標(biāo)。下圖顯示了trtexec運(yùn)行的示例 Nsight 系統(tǒng)配置文件,其中標(biāo)記顯示了每個(gè)性能指標(biāo)的含義。

Throughput

觀察到的吞吐量是通過將執(zhí)行數(shù)除以 Total Host Walltime 來計(jì)算的。如果這顯著低于 GPU 計(jì)算時(shí)間的倒數(shù),則 GPU 可能由于主機(jī)端開銷或數(shù)據(jù)傳輸而未被充分利用。使用 CUDA 圖(使用--useCudaGraph )或禁用 H2D/D2H 傳輸(使用--noDataTransfer )可以提高 GPU 利用率。當(dāng)trtexec檢測(cè)到 GPU 未充分利用時(shí),輸出日志提供了有關(guān)使用哪個(gè)標(biāo)志的指導(dǎo)。

Host Latency

H2D 延遲、GPU 計(jì)算時(shí)間和 D2H 延遲的總和。這是推斷單個(gè)執(zhí)行的延遲。

Enqueue Time

將執(zhí)行排入隊(duì)列的主機(jī)延遲,包括調(diào)用 H2D/D2H CUDA API、運(yùn)行主機(jī)端方法和啟動(dòng) CUDA 內(nèi)核。如果這比 GPU 計(jì)算時(shí)間長(zhǎng),則 GPU 可能未被充分利用,并且吞吐量可能由主機(jī)端開銷支配。使用 CUDA 圖(帶有--useCudaGraph )可以減少排隊(duì)時(shí)間。

H2D Latency

單個(gè)執(zhí)行的輸入張量的主機(jī)到設(shè)備數(shù)據(jù)傳輸?shù)难舆t。添加--noDataTransfer以禁用 H2D/D2H 數(shù)據(jù)傳輸。

D2H Latency

單個(gè)執(zhí)行的輸出張量的設(shè)備到主機(jī)數(shù)據(jù)傳輸?shù)难舆t。添加--noDataTransfer以禁用 H2D/D2H 數(shù)據(jù)傳輸。

GPU Compute Time

為執(zhí)行 CUDA 內(nèi)核的 GPU 延遲。

Total Host Walltime

從第一個(gè)執(zhí)行(預(yù)熱后)入隊(duì)到最后一個(gè)執(zhí)行完成的主機(jī)時(shí)間。

Total GPU Compute Time

所有執(zhí)行的 GPU 計(jì)算時(shí)間的總和。如果這明顯短于 Total Host Walltime,則 GPU 可能由于主機(jī)端開銷或數(shù)據(jù)傳輸而未得到充分利用。

圖 1. 在 Nsight 系統(tǒng)下運(yùn)行的正常trtexec的性能指標(biāo)(ShuffleNet,BS=16,best,TitanRTX@1200MHz)

pYYBAGKHO4qAREEbAAGiRSxfZKk173.png

將--dumpProfile標(biāo)志添加到trtexec以顯示每層性能配置文件,這使用戶可以了解網(wǎng)絡(luò)中的哪些層在 GPU 執(zhí)行中花費(fèi)的時(shí)間最多。每層性能分析也適用于作為 CUDA 圖啟動(dòng)推理(需要 CUDA 11.1 及更高版本)。此外,使用--profilingVerbosity=detailed標(biāo)志構(gòu)建引擎并添加--dumpLayerInfo標(biāo)志以顯示詳細(xì)的引擎信息,包括每層詳細(xì)信息和綁定信息。這可以讓你了解引擎中每一層對(duì)應(yīng)的操作及其參數(shù)。

A.3.1.2. Serialized Engine Generation

如果您生成保存的序列化引擎文件,您可以將其拉入另一個(gè)運(yùn)行推理的應(yīng)用程序中。例如,您可以使用TensorRT 實(shí)驗(yàn)室以完全流水線異步方式運(yùn)行具有來自多個(gè)線程的多個(gè)執(zhí)行上下文的引擎,以測(cè)試并行推理性能。有一些警告;例如,如果您使用 Caffe prototxt 文件并且未提供模型,則會(huì)生成隨機(jī)權(quán)重。此外,在 INT8 模式下,使用隨機(jī)權(quán)重,這意味著 trtexec 不提供校準(zhǔn)功能。

A.3.1.3. trtexec

如果您向--timingCacheFile選項(xiàng)提供時(shí)序緩存文件,則構(gòu)建器可以從中加載現(xiàn)有的分析數(shù)據(jù)并在層分析期間添加新的分析數(shù)據(jù)條目。計(jì)時(shí)緩存文件可以在其他構(gòu)建器實(shí)例中重用,以提高構(gòu)建器執(zhí)行時(shí)間。建議僅在相同的硬件/軟件配置(例如,CUDA/cuDNN/TensorRT 版本、設(shè)備型號(hào)和時(shí)鐘頻率)中重復(fù)使用此緩存;否則,可能會(huì)出現(xiàn)功能或性能問題。

A.3.1.4. 常用的命令行標(biāo)志

該部分列出了常用的trtexec命令行標(biāo)志。

構(gòu)建階段的標(biāo)志

--onnx=《model》 :指定輸入 ONNX 模型。

--deploy=《caffe_prototxt》 :指定輸入的 Caffe prototxt 模型。

--uff=《model》 :指定輸入 UFF 模型。

--output=《tensor》 :指定輸出張量名稱。僅當(dāng)輸入模型為 UFF 或 Caffe 格式時(shí)才需要。

--maxBatch=《BS》 :指定構(gòu)建引擎的最大批量大小。僅當(dāng)輸入模型為 UFF 或 Caffe 格式時(shí)才需要。如果輸入模型是 ONNX 格式,請(qǐng)使用--minShapes 、 --optShapes 、 --maxShapes標(biāo)志來控制輸入形狀的范圍,包括批量大小。

--minShapes=《shapes》 , --optShapes=《shapes》 , --maxShapes=《shapes》 :指定用于構(gòu)建引擎的輸入形狀的范圍。僅當(dāng)輸入模型為 ONNX 格式時(shí)才需要。

--workspace=《size in MB》 :指定策略允許使用的最大工作空間大小。該標(biāo)志已被棄用。您可以改用--memPoolSize=《pool_spec》標(biāo)志。

--memPoolSize=《pool_spec》 :指定策略允許使用的工作空間的最大大小,以及 DLA 將分配的每個(gè)可加載的內(nèi)存池的大小。

--saveEngine=《file》 :指定保存引擎的路徑。

--fp16 、 --int8 、 --noTF32 、 --best :指定網(wǎng)絡(luò)級(jí)精度。

--sparsity=[disable|enable|force] :指定是否使用支持結(jié)構(gòu)化稀疏的策略。

disable :使用結(jié)構(gòu)化稀疏禁用所有策略。這是默認(rèn)設(shè)置。

enable :使用結(jié)構(gòu)化稀疏啟用策略。只有當(dāng) ONNX 文件中的權(quán)重滿足結(jié)構(gòu)化稀疏性的要求時(shí),才會(huì)使用策略。

force :使用結(jié)構(gòu)化稀疏啟用策略,并允許 trtexec 覆蓋 ONNX 文件中的權(quán)重,以強(qiáng)制它們具有結(jié)構(gòu)化稀疏模式。請(qǐng)注意,不會(huì)保留準(zhǔn)確性,因此這只是為了獲得推理性能。

--timingCacheFile=《file》 :指定要從中加載和保存的時(shí)序緩存。

--verbose :打開詳細(xì)日志記錄。

--buildOnly :在不運(yùn)行推理的情況下構(gòu)建并保存引擎。

--profilingVerbosity=[layer_names_only|detailed|none] :指定用于構(gòu)建引擎的分析詳細(xì)程度。

--dumpLayerInfo , --exportLayerInfo=《file》 :打印/保存引擎的層信息。

--precisionConstraints=spec :控制精度約束設(shè)置。

none :沒有限制。

prefer :如果可能,滿足--layerPrecisions / --layerOutputTypes設(shè)置的精度約束。

obey:滿足由--layerPrecisions / --layerOutputTypes設(shè)置的精度約束,否則失敗。

--layerPrecisions=spec :控制每層精度約束。僅當(dāng)PrecisionConstraints設(shè)置為服從或首選時(shí)才有效。規(guī)范是從左到右閱讀的,后面的會(huì)覆蓋前面的。 “ * ”可以用作layerName來指定所有未指定層的默認(rèn)精度。

例如: --layerPrecisions=*:fp16,layer_1:fp32將所有層的精度設(shè)置為FP16 ,除了 layer_1 將設(shè)置為 FP32。

--layerOutputTypes=spec :控制每層輸出類型約束。僅當(dāng)PrecisionConstraints設(shè)置為服從或首選時(shí)才有效。規(guī)范是從左到右閱讀的,后面的會(huì)覆蓋前面的。 “ * ”可以用作layerName來指定所有未指定層的默認(rèn)精度。如果一個(gè)層有多個(gè)輸出,則可以為該層提供用“ + ”分隔的多種類型。

例如: --layerOutputTypes=*:fp16,layer_1:fp32+fp16將所有層輸出的精度設(shè)置為FP16 ,但 layer_1 除外,其第一個(gè)輸出將設(shè)置為 FP32,其第二個(gè)輸出將設(shè)置為 FP16。

推理階段的標(biāo)志

--loadEngine=《file》 :從序列化計(jì)劃文件加載引擎,而不是從輸入 ONNX、UFF 或 Caffe 模型構(gòu)建引擎。

--batch=《N》 :指定運(yùn)行推理的批次大小。僅當(dāng)輸入模型為 UFF 或 Caffe 格式時(shí)才需要。如果輸入模型是 ONNX 格式,或者引擎是使用顯式批量維度構(gòu)建的,請(qǐng)改用--shapes 。

--shapes=《shapes》 :指定要運(yùn)行推理的輸入形狀。

--warmUp=《duration in ms》 , --duration=《duration in seconds》 , --iterations=《N》 : 指定預(yù)熱運(yùn)行的最短持續(xù)時(shí)間、推理運(yùn)行的最短持續(xù)時(shí)間和推理運(yùn)行的迭代。例如,設(shè)置--warmUp=0 --duration=0 --iterations允許用戶準(zhǔn)確控制運(yùn)行推理的迭代次數(shù)。

--useCudaGraph :將推理捕獲到 CUDA 圖并通過啟動(dòng)圖來運(yùn)行推理。當(dāng)構(gòu)建的 TensorRT 引擎包含 CUDA 圖捕獲模式下不允許的操作時(shí),可以忽略此參數(shù)。

--noDataTransfers :關(guān)閉主機(jī)到設(shè)備和設(shè)備到主機(jī)的數(shù)據(jù)傳輸。

--streams=《N》 :并行運(yùn)行多個(gè)流的推理。

--verbose :打開詳細(xì)日志記錄。

--dumpProfile, --exportProfile=《file》 :打印/保存每層性能配置文件。

關(guān)于作者

Ken He 是 NVIDIA 企業(yè)級(jí)開發(fā)者社區(qū)經(jīng)理 & 高級(jí)講師,擁有多年的 GPU 和人工智能開發(fā)經(jīng)驗(yàn)。自 2017 年加入 NVIDIA 開發(fā)者社區(qū)以來,完成過上百場(chǎng)培訓(xùn),幫助上萬個(gè)開發(fā)者了解人工智能和 GPU 編程開發(fā)。在計(jì)算機(jī)視覺,高性能計(jì)算領(lǐng)域完成過多個(gè)獨(dú)立項(xiàng)目。并且,在機(jī)器人無人機(jī)領(lǐng)域,有過豐富的研發(fā)經(jīng)驗(yàn)。對(duì)于圖像識(shí)別,目標(biāo)的檢測(cè)與跟蹤完成過多種解決方案。曾經(jīng)參與 GPU 版氣象模式GRAPES,是其主要研發(fā)者。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5627

    瀏覽量

    109874
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5213

    瀏覽量

    135615
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50138

    瀏覽量

    265790
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Kubernetes kubectl命令行工具詳解

    kubectl是Kubernetes官方提供的命令行工具,作為與Kubernetes集群交互的主要接口,它通過調(diào)用Kubernetes API Server實(shí)現(xiàn)對(duì)集群資源的全面管理。在生產(chǎn)環(huán)境中,運(yùn)維工程師需要熟練掌握kubectl命令來完成日常的集群運(yùn)維、應(yīng)用部署、故障
    的頭像 發(fā)表于 02-02 16:40 ?479次閱讀

    命令行阿里千問搭建過程

    克隆千問倉(cāng)庫(kù),安裝依賴; 下載模型權(quán)重; 命令行執(zhí)行啟動(dòng)腳本,配置參數(shù)后運(yùn)行推理。
    發(fā)表于 12-24 10:35

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實(shí)現(xiàn)路徑:一方面,針對(duì)需
    的頭像 發(fā)表于 10-21 11:04 ?1217次閱讀

    使用AT組件命令行可以發(fā)送成功,但是在程序里發(fā)送總是超時(shí),怎么解決?

    自己的問題自己解決,最后發(fā)現(xiàn)AT命令是在URC的回調(diào)函數(shù)中發(fā)送的,就是因?yàn)檫@個(gè)導(dǎo)致的問題。應(yīng)該使用at_client_send()發(fā)送命令。 /* * 程序清單:AT Client 發(fā)送
    發(fā)表于 09-23 07:14

    所見即所得——Luban-Lite VS Code插件讓開發(fā)實(shí)現(xiàn)“命令行自由”

    NEWS所見即所得!Luban-LiteVSCode插件指南親愛的開發(fā)者朋友們,你是否還在為嵌入式開發(fā)中頻繁切換命令行而抓狂?配置環(huán)境參數(shù)如“走迷宮”,編譯燒錄還需切換AiBurn?今天,匠芯創(chuàng)為您
    的頭像 發(fā)表于 08-07 15:38 ?1125次閱讀
    所見即所得——Luban-Lite VS Code插件讓開發(fā)實(shí)現(xiàn)“<b class='flag-5'>命令行</b>自由”

    解析K8S實(shí)用命令

    前言: 作為運(yùn)維工程師,掌握 Kubernetes 命令行工具是日常工作的核心技能。本文將深入解析 K8S 最實(shí)用的命令,從基礎(chǔ)操作到高級(jí)技巧,助你成為容器化集群管理專家。
    的頭像 發(fā)表于 07-24 14:07 ?909次閱讀

    USB串行配置實(shí)用程序是否有可用的命令行版本?

    USB串行配置實(shí)用程序是否有可用的命令行版本?
    發(fā)表于 07-22 08:09

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫(kù),可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2239次閱讀

    labview通過JKL.net發(fā)送cmd命令行問題

    請(qǐng)問通過電腦直接發(fā)ssh命令,能正常輸出,但通過JKL.net發(fā)送,提示\'\'ssh\'\'不是內(nèi)部命令,如何解決?
    發(fā)表于 07-02 21:11

    淺談wsl --update` 命令行選項(xiàng)無效的解決方案

    PS C:\Users\Administrator> wsl --update >> 命令行選項(xiàng)無效: --update
    的頭像 發(fā)表于 06-27 10:28 ?1.2w次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1935次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應(yīng)用的最佳實(shí)踐

    飛凌嵌入式ElfBoard ELF 1板卡-Uboot常用命令之查看命令

    上電后,在uboot倒計(jì)時(shí)結(jié)束前按下空格,輸入9進(jìn)入uboot命令行:進(jìn)入uboot命令行之后,可以通過輸入“?”或者h(yuǎn)elp可以查看uboot全部命令。如圖(圖未截全):每一個(gè)命令
    發(fā)表于 05-22 11:26

    aurix development studio無法用命令行編譯工程的原因?

    aurix development studio無法用命令行編譯工程
    發(fā)表于 04-18 06:50

    請(qǐng)問如何通過S32K312命令行構(gòu)建代碼?

    現(xiàn)在我們已經(jīng)通過 S32DS3.5 IDE 開發(fā)了固件,它也可以工作了。 最近,我們收到了通過命令行構(gòu)建代碼的要求,并且 我從 S32DS 幫助內(nèi)容中讀取了相關(guān)文檔,但這種情況會(huì)發(fā)生 有關(guān) JAVA
    發(fā)表于 04-09 07:48

    樹莓派新手必看!在樹莓派上編寫和運(yùn)行 Shell 腳本!

    在本教程中,我將討論Shell腳本的基礎(chǔ)知識(shí)、它們的用途以及如何在RaspberryPi上編寫和運(yùn)行Shell腳本。什么是Shell腳本?Shell腳本可以讓你自動(dòng)化幾乎所有在Linux命令行上可以
    的頭像 發(fā)表于 03-25 09:28 ?1192次閱讀
    樹莓派新手必看!在樹莓派上編寫和運(yùn)行 Shell 腳本!