91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton 系列文章(13):模型與調(diào)度器-3

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2023-02-03 04:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前面兩篇文章,已經(jīng)將 Triton 的“無狀態(tài)模型”、“有狀態(tài)模型”與標(biāo)準(zhǔn)調(diào)度器的動態(tài)批量處理器與序列批量處理器的使用方式,做了較完整的說明。 大部分的實際應(yīng)用都不是單純的推理模型就能完成服務(wù)的需求,需要形成前后關(guān)系的工作流水線。例如一個二維碼掃描的應(yīng)用,除了需要第一關(guān)的二維碼識別模型之外,后面可能還得將識別出來的字符傳遞給語句識別的推理模型、關(guān)鍵字搜索引擎等功能,最后找到用戶所需要的信息,反饋給提出需求的用戶端。 本文的內(nèi)容要說明 Triton 服務(wù)器形成工作流水線的“集成推理”功能,里面包括“集成模型(ensemble model)”“集成調(diào)度器(ensemble scheduler)”兩個部分。下面是個簡單的推理流水線示意圖,目的是對請求的輸入圖像最終反饋“圖像分類”與“語義分割”兩個推理結(jié)果: 6bce43b4-a33b-11ed-bfe3-dac502259ad0.png 當(dāng)接收到集成模型的推斷請求時,集成調(diào)度器將:
  1. 確認(rèn)請求中的“IMAGE”張量映射到預(yù)處理模型中的輸入“RAW_IMAGE”。
  2. 檢查集合中的模型,并向預(yù)處理模型發(fā)送內(nèi)部請求,因為所需的所有輸入張量都已就緒。
  3. 識別內(nèi)部請求的完成,收集輸出張量并將內(nèi)容映射到“預(yù)處理圖像”,這是集成中已知的唯一名稱。
  4. 將新收集的張量映射到集合中模型的輸入。在這種情況下,“classification_model”和“segmentation_model”的輸入將被映射并標(biāo)記為就緒。
  5. 檢查需要新收集的張量的模型,并向輸入就緒的模型發(fā)送內(nèi)部請求,在本例中是分類模型和分割模型。請注意,響應(yīng)將根據(jù)各個模型的負(fù)載和計算時間以任意順序排列。
  6. 重復(fù)步驟 3-5,直到不再發(fā)送內(nèi)部請求,然后用集成輸出名稱的張量去響應(yīng)推理請求。
整個流水線使用 3 個模型,并進(jìn)行以下三個處理步驟:
  1. 使用 image_prepoecess_model 模型,將原始圖像處理成preprocessed_image 數(shù)據(jù);
  2. 將 preprocessed_image 數(shù)據(jù)傳遞給 classification_model 模型,執(zhí)行圖像分類推理,最終返回“CLASSIFICATION”結(jié)果;
  3. 將 preprocessed_image 數(shù)據(jù)傳遞給 segmentation_model 模型,執(zhí)行語義分割推理計算,最終返回“SEGMENTATION”結(jié)果;
在執(zhí)行過程中,推理服務(wù)器必須支持以下的功能,才能將多種推理模型集成一個或多個工作流水線,去執(zhí)行完整的工作流程:
  • 支持一個或多個模型的流水線以及這些模型之間輸入和輸出張量的連接;
  • 處理多個模型的模型拼接或數(shù)據(jù)流,例如“數(shù)據(jù)處理->推理->數(shù)據(jù)后處理”等;
  • 收集每個步驟中的輸出張量,并根據(jù)規(guī)范將其作為其他步驟的輸入張量;
  • 所集成的模型能繼承所涉及模型的特征,在請求方的元數(shù)據(jù)必須符合集成中的模型;
為了實現(xiàn)的推理流水線功能,Triton 服務(wù)器使用集成模型與集成調(diào)度器的配合,來完成這類工作流水線的搭建管理。接著就執(zhí)行以下步驟來創(chuàng)建一個流水線所需要的配套內(nèi)容:
  1. 在模型倉里為流水線創(chuàng)建一個新的“組合模型”文件夾,例如為“ensemble_model”;
  2. 在目路下創(chuàng)建新的 config.pbtxt,并且使用“platform: "ensemble"”來定義這個模型要執(zhí)行集成功能;
  3. 定義集成模型:
無論工作流水線中調(diào)用多少個模型,Triton 服務(wù)器都將這樣的組合視為一個模型,與其他模型配置一樣,需要定義輸入與輸出節(jié)點的張量類型與尺度。 以上面示例圖中的要求,這個集成模型有一個名為“IMAGE”的輸入節(jié),與兩個名為“CLASSIFICATION”“SEGMENTATION”的輸出節(jié)點,至于數(shù)據(jù)類型與張量維度內(nèi)容,就得根據(jù)實際使用的模型去匹配。這部分配置的參考內(nèi)容如下:
name:"ensemble_model"
platform: "ensemble"
max_batch_size: 1
input [
  {
    name: "IMAGE"
    data_type: TYPE_STRING
    dims: [ 1 ]
  }
]
output [
  {
    name: "CLASSIFICATION"
    data_type: TYPE_FP32
    dims: [ 1000 ]
  },
  {
    name: "SEGMENTATION"
    data_type: TYPE_FP32
    dims: [ 3, 224, 224 ]
  }
]
從這個內(nèi)容中可以看出,Triton 服務(wù)器將這個集成模型視為一個獨立模型。 4. 定義模型的集成調(diào)度器:這部分使用“ensemble_scheduling”來調(diào)動集成調(diào)度器,將使用到模型與數(shù)據(jù)形成完整的交互關(guān)系。 在上面示例圖中,灰色區(qū)塊所形成的工作流水線中,使用到 image_prepoecess_modelclassification_model、segmentation_model 三個模型,以及 preprocessed_image 數(shù)據(jù)在模型中進(jìn)行傳遞。 下面提供這部分的范例配置內(nèi)容,一開始使用“ensemble_scheduling”來調(diào)用集成調(diào)度器,里面再用“step”來定義模組之間的執(zhí)行關(guān)系,透過模型的“input_map”“output_map”“key:value”對的方式,串聯(lián)起模型之間的交互動作:
ensemble_scheduling{
  step [
    {
      model_name: "image_preprocess_model"
      model_version: -1
      input_map {
        key: "RAW_IMAGE"
        value: "IMAGE"
      }
      output_map {
        key: "PREPROCESSED_OUTPUT"
        value: "preprocessed_image"
      }
    },
    {
      model_name: "classification_model"
      model_version: -1
      input_map {
        key: "FORMATTED_IMAGE"
        value: "preprocessed_image"
      }
      output_map {
        key: "CLASSIFICATION_OUTPUT"
        value: "CLASSIFICATION"
      }
    },
    {
      model_name: "segmentation_model"
      model_version: -1
      input_map {
        key: "FORMATTED_IMAGE"
        value: "preprocessed_image"
      }
      output_map {
        key: "SEGMENTATION_OUTPUT"
        value: "SEGMENTATION"
      }
    }
  ]
}
這里簡單說明一下工作流程: (1) 模型 image_preprocess_model 接收外部輸入的 IMAGE 數(shù)據(jù),進(jìn)行圖像預(yù)處理任務(wù),輸出 preprocessed_image 數(shù)據(jù);(2) 模型 classification_model 的輸入為 preprocessed_image,表示這個模型的工作是在 image_preprocess_model 之后的任務(wù),執(zhí)行的推理輸出為 CLASSIFICATION;(3) 模型 segmentation_model 的輸入為 preprocessed_image,表示這個模型的工作是在 image_preprocess_model 之后的任務(wù),執(zhí)行的退輸出為 SEGMENTATION;(4) 上面兩步驟可以看出 classification_model 與 segmentation_model 屬于分支的同級模型,與上面工作流圖中的要求一致。 完成以上的步驟,就能用集成模型與集成調(diào)度器的搭配,來創(chuàng)建一個完整的推理工作流任務(wù),相當(dāng)簡單。 不過這類集成模型中,還有以下幾個需要注意的重點:
  • 這是 Triton 服務(wù)器用來執(zhí)行用戶定義模型流水線的抽象形式,由于沒有與集成模型關(guān)聯(lián)的物理實例,因此不能為其指定 instance_group 字段;
  • 不過集成模型內(nèi)容所組成的個別模型(例如image_preprocess_model),可以在其配置文件中指定 instance_group,并在集成接收到多個請求時單獨支持并行執(zhí)行。
  • 由于集成模型將繼承所涉及模型的特性,因此在請求起點的元數(shù)據(jù)(本例為“IMAGE”)必須符合集成中的模型,如果其中一個模型是有狀態(tài)模型,那么集成模型的推理請求應(yīng)該包含有狀態(tài)模型中提到的信息,這些信息將由調(diào)度器提供給有狀態(tài)模型。
總的來說,Triton 服務(wù)器提供的集成功能還是相對容易理解與操作的,只要大家留意模型之間所傳遞的數(shù)據(jù)張量格式與尺度,就能輕松搭建起這樣的推理工作流,去面對實際環(huán)境中更多變的使用需求。


原文標(biāo)題:NVIDIA Triton 系列文章(13):模型與調(diào)度器-3

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4110

    瀏覽量

    99557

原文標(biāo)題:NVIDIA Triton 系列文章(13):模型與調(diào)度器-3

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA 擴(kuò)展開放模型系列,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    新聞?wù)?●NVIDIA Nemotron 3 全模態(tài)理解模型 (Omni-understanding Models) 為 AI 智能體提供動力 ,使其能夠?qū)崿F(xiàn)自然對話、復(fù)雜推理和高級視覺能力
    的頭像 發(fā)表于 03-17 09:18 ?438次閱讀
    <b class='flag-5'>NVIDIA</b> 擴(kuò)展開放<b class='flag-5'>模型</b><b class='flag-5'>系列</b>,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開始深入到現(xiàn)實世界的各種機(jī)器中。從 Orin 到 Thor,NVIDIA Jetson 系列正在成為運行 NVIDIA Nemotron、
    的頭像 發(fā)表于 03-16 16:27 ?511次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能AI在邊緣端落地

    借助NVIDIA CUDA Tile IR后端推進(jìn)OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設(shè)計目標(biāo)是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。CUDA Tile 的一大優(yōu)勢是允許開發(fā)者基于其構(gòu)建自定義的 DS
    的頭像 發(fā)表于 02-10 10:31 ?458次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞?wù)?● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開發(fā)。 ● Nemotron 3
    的頭像 發(fā)表于 12-16 09:27 ?761次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Nemotron <b class='flag-5'>3</b> <b class='flag-5'>系列</b>開放<b class='flag-5'>模型</b>

    NVIDIA攜手Mistral AI發(fā)布全新開源大語言模型系列

    全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進(jìn)行了優(yōu)化,助力 Mistral AI 實現(xiàn)云到邊緣分布式智能愿景。
    的頭像 發(fā)表于 12-13 09:58 ?1386次閱讀

    NVIDIA推動面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動出行領(lǐng)域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1479次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助 NVID
    的頭像 發(fā)表于 12-01 09:25 ?1320次閱讀

    面向科學(xué)仿真的開放模型系列NVIDIA Apollo正式發(fā)布

    用于加速工業(yè)和計算工程的開放模型系列 NVIDIA Apollo 于近日舉行的 SC25 大會上正式發(fā)布。
    的頭像 發(fā)表于 11-25 11:15 ?7.4w次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1372次閱讀

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開發(fā)者都可以構(gòu)建并部署帶有先進(jìn)動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓(xùn)練框
    的頭像 發(fā)表于 10-21 11:11 ?963次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face<b class='flag-5'>模型</b>及SDK

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1958次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2推理<b class='flag-5'>模型</b>發(fā)布

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進(jìn)的多模態(tài)大
    的頭像 發(fā)表于 07-09 10:17 ?963次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?2026次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團(tuán)隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
    的頭像 發(fā)表于 05-09 15:05 ?4589次閱讀
    <b class='flag-5'>NVIDIA</b> RTX 5880 Ada與Qwen<b class='flag-5'>3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>實測報告

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發(fā)表于 05-08 11:45 ?3170次閱讀
    <b class='flag-5'>NVIDIA</b>使用Qwen<b class='flag-5'>3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>的最佳實踐