91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA Grove簡化Kubernetes上的復雜AI推理

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2025-11-14 10:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

過去幾年,AI 推理的部署已經(jīng)從單一模型、單一 Pod 演變?yōu)閺碗s的多組件系統(tǒng)。如今,一個模型部署可能包含多個不同的組件——預填充 (prefill)、解碼 (decode)、視覺編碼器 (vision encoders)、鍵值 (KV) 路由器等。此外,完整的代理式管道正在興起,其中多個模型實例協(xié)同工作,執(zhí)行推理、檢索或多模態(tài)任務。

這種轉(zhuǎn)變將實例擴展和編排的問題從“運行 N 個 Pod 副本”轉(zhuǎn)變?yōu)椤皩⒁徽麄€組件協(xié)調(diào)為一個邏輯系統(tǒng)”。管理此類系統(tǒng)需要同步擴展和調(diào)度合適的 Pod,了解每個組件不同的配置和資源需求,按特定的順序啟動,并根據(jù)網(wǎng)絡拓撲結構將它們部署在集群中。最終目標是編排整個系統(tǒng),并基于組件在整個系統(tǒng)的依賴關系進行擴展,而不是一次擴展一個 Pod。

為了應對這些挑戰(zhàn),我們宣布推出NVIDIA Grove,一個在 Kubernetes 集群上運行現(xiàn)代機器學習推理工作負載的 Kubernetes API。Grove 現(xiàn)已作為模塊化組件集成至NVIDIA Dynamo,它完全開源,可在ai-dynamo/groveGitHub 庫使用。

NVIDIA Grove如何整體性編排推理負載

Grove 能夠?qū)⒍喙?jié)點推理部署從單個副本擴展到數(shù)據(jù)中心規(guī)模,支持數(shù)萬個 GPU。Grove 可將 Kubernetes 中的整個推理服務系統(tǒng)(例如預填充、解碼、路由或任何其他組件)描述為單個自定義資源 (Custom Resource, CR)。

根據(jù)該單一配置文件,平臺可協(xié)調(diào)層級化調(diào)度、拓撲感知的放置、多級自動擴縮容以及明確的啟動順序。您可以精準控制系統(tǒng)的行為方式,而無需將腳本、YAML 文件或自定義控制器拼接在一起。

Grove 最初是為了解決多節(jié)點 PD 分離推理系統(tǒng)的編排問題而開發(fā)的,它具有足夠的靈活性,可以自然地映射到任何現(xiàn)實世界的推理架構,從傳統(tǒng)的單節(jié)點聚合推理到具有多個模型的代理式管道。Grove 使開發(fā)者能夠以簡潔、聲明式且與框架無關的方式定義復雜的 AI 堆棧。

多節(jié)點PD分離服務的前提條件詳情如下。

多級自動擴縮容以應對相互依賴的組件

現(xiàn)代推理系統(tǒng)需要在多個層面上進行自動擴縮容:單個組件(應對流量高峰的預填充工作節(jié)點)、相關組件組(預填充主節(jié)點及其工作節(jié)點)以及用于擴展整體容量的整體服務副本。這些層級相互依賴:擴展預填充工作節(jié)點可能需要更多的解碼能力,而新的服務副本需要合理的組件比例。傳統(tǒng)的 Pod 級自動擴縮容無法處理這些相互依賴關系。

覆蓋恢復與滾動更新的系統(tǒng)級生命周期管理

恢復和更新必須以完整的服務實例為操作對象,而非單個Kubernetes Pod。當預填充工作節(jié)點發(fā)生故障并重啟后,需要正確地重新連接到其主節(jié)點,而滾動更新必須保持網(wǎng)絡拓撲來維持低延遲。平臺必須將多組件系統(tǒng)視為單一操作單元,同時優(yōu)化其性能和可用性。

靈活的層級化組調(diào)度

AI 工作負載調(diào)度器應支持靈活的組調(diào)度機制,突破傳統(tǒng)的全有或全無的放置方式。PD 分離服務帶來了新的挑戰(zhàn):推理系統(tǒng)需要保證關鍵組件組合(例如至少一個預填充和一個解碼工作節(jié)點),同時允許每種組件類型獨立擴展。挑戰(zhàn)在于,預填充和解碼組件應根據(jù)工作負載模式按照不同的比例進行擴展。傳統(tǒng)的組調(diào)度將所有組件強制綁定到必須同步擴展的組中,阻礙了這種獨立擴展。系統(tǒng)需要制定策略,確保強制執(zhí)行最小可行組件組合的同時,實現(xiàn)靈活的擴展。

拓撲感知調(diào)度

組件的布局會影響性能。在如NVIDIA 高性能計算平臺這樣的系統(tǒng)上,將相關的預填充 Pod 和解碼 Pod 調(diào)度至同一NVIDIA NVLink域內(nèi),可優(yōu)化 KV 緩存的傳輸延遲。調(diào)度器需要理解物理網(wǎng)絡拓撲,在將相關組件就近放置的同時,通過分散副本以提高系統(tǒng)的可用性。

角色感知的編排和明確的啟動順序

組件具有不同的職責、配置和啟動要求。例如,預填充和解碼主節(jié)點需要執(zhí)行獨立的啟動邏輯,且工作節(jié)點在主節(jié)點準備就緒之前無法啟動。為實現(xiàn)可靠的系統(tǒng)初始化,平臺需要針對角色進行特定配置和依賴關系管理。

綜上所述,整體情況可概括為:推理團隊需要一種簡單且聲明式的方法,來描述系統(tǒng)的實際運行狀態(tài)(多角色、多節(jié)點、明確的多級依賴關系),并使系統(tǒng)能夠根據(jù)該描述進行調(diào)度、擴展、恢復和更新。

Grove原語

高性能推理框架使用 Grove 層級化 API 來表達角色特定的邏輯和多級擴展,從而在跨多種集群環(huán)境中實現(xiàn)一致且優(yōu)化的部署。Grove 通過在其 Workload API 中使用三種層次化的自定義資源編排多組件 AI 工作負載,來實現(xiàn)這一點。

在圖 1 中,PodClique A 代表前端組件,B 和 C 代表預填充主節(jié)點和預填充工作節(jié)點,D 和 E 代表解碼主節(jié)點和解碼工作節(jié)點。

wKgZPGkWk4yAK-diAADk8DHhnPg926.png

圖 1. NVIDIA Grove 的關鍵組件包括PodClique、 ScalingGroup和 PodCliqueSet,以及它們?nèi)绾螀f(xié)同工作

PodCliques代表具有特定角色的Kubernetes Pod組,例如預填充主節(jié)點或工作節(jié)點、解碼主節(jié)點或工作節(jié)點,以及前端服務,每個組都有獨立的配置和擴展邏輯。

PodCliqueScalingGroups將必須協(xié)同擴展的緊密耦合的 PodCliques 進行打包,例如,預填充主節(jié)點和預填充工作節(jié)點一起代表一個模型實例。

PodCliqueSets定義完整的多組件工作負載,指定啟動順序、擴展策略及組調(diào)度約束,以確保所有組件或者一起啟動,或者共同失敗。當需要擴展以增加容量時,Grove 會創(chuàng)建整個 PodGangSet 的完整副本,并定義分布約束,將這些副本分布在集群中以實現(xiàn)高可用性,同時保持每個副本的組件在網(wǎng)絡拓撲上緊密封裝,以優(yōu)化性能。

wKgZO2kWk36AKHQJAAGnjC7G2xA669.png

圖 2. Grove 工作流

支持 Grove 的 Kubernetes 集群將整合兩個關鍵組件:Grove 操作器和能夠識別 PodGang 資源的調(diào)度器,例如KAI Scheduler,這是NVIDIA Run:ai 平臺的一個開源子組件。

當創(chuàng)建 PodCliqueSet 資源時,Grove operator 會驗證配置清單,并自動生成實現(xiàn)所需的底層 Kubernetes 對象。這包括組成的 PodCliques、PodCliqueScalingGroups,以及相關的 Pod、服務 (Services)、密鑰 (Secrets) 和自動擴縮容策略。在此過程中,Grove 還會創(chuàng)建 PodGang 資源,這是 Scheduler API 的一部分,將工作負載定義轉(zhuǎn)換為集群調(diào)度器的具體調(diào)度約束。

每個 PodGang 封裝了其工作負載的詳細要求,包括最低副本保證、優(yōu)化組件間帶寬的網(wǎng)絡拓撲偏好,以及保持可用性的擴散約束。這些共同確保了拓撲感知的放置和集群中資源的高效利用。

Scheduler 持續(xù)監(jiān)測 PodGang 資源,并應用組調(diào)度邏輯,確保所有必要組件在資源可用前共同調(diào)度或暫緩調(diào)度。調(diào)度決策基于GPU 拓撲感知和集群局部性優(yōu)化生成。

最終結果是多組件 AI 系統(tǒng)的協(xié)調(diào)部署,其中預填充服務、解碼工作節(jié)點和路由組件按正確順序啟動,緊密放置在網(wǎng)絡拓撲上以提高性能,并作為一個整體共同自愈。這防止了資源碎片化,避免了部分部署,并能夠大規(guī)模穩(wěn)定高效地運行復雜的模型服務管道。

如何使用Dynamo快速上手Grove

本節(jié)將分享如何使用 Dynamo 和 Grove 通過 KV 路由部署組件部署 PD 分離服務架構。該設置使用Qwen3 0.6B模型,并演示了 Grove 通過獨立的預填充和解碼工作節(jié)點管理分布式推理工作負載的能力。

注意:這是一個基礎示例,旨在幫助您理解核心概念。有關更復雜的部署,請參考ai-dynamo/groveGitHub 庫。

先決條件

首先,確保您的 Kubernetes 集群中準備好以下組件:

支持 GPU 的 Kubernetes 集群

已配置 kubectl 以訪問您的集群

安裝 Helm CLI

Hugging Face token密鑰(稱為hf-token-secret),可以使用以下命令創(chuàng)建:

kubectl create secret generic hf-token-secret \
--from-literal=HF_TOKEN=

注意:在代碼中,將 替換為您實際的 Hugging Face token。確保此 token 安全,切勿將其提交給源代碼管理。

步驟1:創(chuàng)建命名空間

kubectl create namespace vllm-v1-disagg-router

步驟2:使用Grove安裝Dynamo CRD和Dynamo Operator

# 1. Set environment

export NAMESPACE=vllm-v1-disagg-router
export RELEASE_VERSION=0.5.1

# 2. Install CRDs

helm fetchhttps://helm.ngc.nvidia.com/nvidia/ai-dynamo/charts/dynamo-crds-${RELEASE_VERSION}.tgz
helm install dynamo-crds dynamo-crds-${RELEASE_VERSION}.tgz --namespace default
# 3. Install Dynamo Operator + Grove
helm fetchhttps://helm.ngc.nvidia.com/nvidia/ai-dynamo/charts/dynamo-platform-${RELEASE_VERSION}.tgz
helm install dynamo-platform dynamo-platform-${RELEASE_VERSION}.tgz --namespace ${NAMESPACE} --create-namespace --set "grove.enabled=true"

步驟3:驗證Grove安裝

kubectl get crd | grep grove

預期輸出:

podcliques.grove.io
podcliquescalinggroups.grove.io
podcliquesets.grove.io
podgangs.scheduler.grove.io
podgangsets.grove.io


步驟4:創(chuàng)建DynamoGraphDeployment配置

創(chuàng)建一個DynamoGraphDeployment清單,定義PD分離服務架構,包含一個前端、兩個解碼工作節(jié)點和一個預填充工作節(jié)點:

apiVersion: nvidia.com/v1alpha1
kind: DynamoGraphDeployment
metadata:
name: dynamo-grove
spec:
services:
Frontend:
dynamoNamespace: vllm-v1-disagg-router
componentType: frontend
replicas: 1
extraPodSpec:
mainContainer:
image: nvcr.io/nvidia/ai-dynamo/vllm-runtime:0.5.1
envs:
- name: DYN_ROUTER_MODE
value: kv
VllmDecodeWorker:
dynamoNamespace: vllm-v1-disagg-router
envFromSecret: hf-token-secret
componentType: worker
replicas: 2
resources:
limits:
gpu: "1"
extraPodSpec:
mainContainer:
image: nvcr.io/nvidia/ai-dynamo/vllm-runtime:0.5.1
workingDir: /workspace/components/backends/vllm
command:
- python3
- -m
- dynamo.vllm
args:
- --model
- Qwen/Qwen3-0.6B
VllmPrefillWorker:
dynamoNamespace: vllm-v1-disagg-router
envFromSecret: hf-token-secret
componentType: worker
replicas: 1
resources:
limits:
gpu: "1"
extraPodSpec:
mainContainer:
image: nvcr.io/nvidia/ai-dynamo/vllm-runtime:0.5.1
workingDir: /workspace/components/backends/vllm
command:
- python3
- -m
- dynamo.vllm
args:
- --model
- Qwen/Qwen3-0.6B
- --is-prefill-worker

步驟5:部署配置

kubectl apply -f dynamo-grove.yaml

步驟6:驗證部署

驗證operator和Grove Pod已創(chuàng)建:

kubectl get pods -n ${NAMESPACE}

預期輸出:

NAME READY STATUS RESTARTS AGE
dynamo-grove-0-frontend-w2xxl 1/1 Running 0 10m
dynamo-grove-0-vllmdecodeworker-57ghl 1/1 Running 0 10m
dynamo-grove-0-vllmdecodeworker-drgv4 1/1 Running 0 10m
dynamo-grove-0-vllmprefillworker-27hhn 1/1 Running 0 10m
dynamo-platform-dynamo-operator-controller-manager-7774744kckrr 2/2 Running 0 10m
dynamo-platform-etcd-0 1/1 Running 0 10m
dynamo-platform-nats-0 2/2 Running 0 10m

步驟7:測試部署

首先,端口轉(zhuǎn)發(fā)前端:

kubectl port-forward svc/dynamo-grove-frontend 8000:8000 -n ${NAMESPACE}

然后測試端點:

curlhttp://localhost:8000/v1/models

或者可以檢查PodClique資源,以查看Grove如何將Pod分組在一起,包括副本計數(shù):

kubectl get podclique dynamo-grove-0-vllmdecodeworker -n vllm-v1-disagg-router -o yaml

準備好了解更多了嗎?

NVIDIA Grove完全開源,可在ai-dynamo/groveGitHub 庫中獲取。我們邀請您在自己的 Kubernetes 環(huán)境中使用Dynamo的獨立組件 Grove,或與高性能 AI 推理引擎一起使用。

探索Grove 部署指南并在GitHub或Discord中提問。要了解 Grove 的實際應用,請訪問亞特蘭大KubeCon 2025 上的 NVIDIA 展位。我們歡迎社區(qū)提供貢獻、拉取請求并反饋意見。

致謝

感謝所有參與NVIDIA Grove項目開發(fā)的開源開發(fā)者、測試人員和社區(qū)成員的寶貴貢獻,特別感謝SAP (Madhav Bhargava、Saketh Kalaga、Frank Heine)的杰出貢獻和支持。開源因協(xié)作而蓬勃發(fā)展——感謝您成為Grove的一員。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5592

    瀏覽量

    109704
  • AI
    AI
    +關注

    關注

    91

    文章

    39707

    瀏覽量

    301304
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136916
  • kubernetes
    +關注

    關注

    0

    文章

    263

    瀏覽量

    9492

原文標題:使用 NVIDIA Grove 簡化 Kubernetes 上的復雜 AI 推理

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Kubernetes的Device Plugin設計解讀

    設計解讀最近在調(diào)研Kubernetes的GPU調(diào)度和運行機制,發(fā)現(xiàn)傳統(tǒng)的alpha.kubernetes.io/nvidia-gpu即將在1.11版本中下線,和GPU相關的調(diào)度和部署的代碼將徹底從主干代碼中
    發(fā)表于 03-12 16:23

    NVIDIA 在首個AI推理基準測試中大放異彩

    。NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛在去年GTC大會的主題演講中就曾將這種復雜性概括為一個詞:PLASTER。他表示,現(xiàn)代AI推理對可編程性(Programmability)、延遲性
    發(fā)表于 11-08 19:44

    NVIDIA在最新AI推理基準測試中大獲成功

    MLPerf Inference 0.5是業(yè)內(nèi)首個獨立AI推理基準套件,其測試結果證明了NVIDIA Turing數(shù)據(jù)中心GPU以及 NVIDIA Xavier 邊緣計算芯片系統(tǒng)的性能
    的頭像 發(fā)表于 11-29 14:45 ?3502次閱讀

    NVIDIA宣布其AI推理平臺的重大更新

    軟件的新功能,該軟件為所有AI模型和框架提供跨平臺推理;同時也包含對NVIDIA TensorRT的更新,該軟件優(yōu)化AI模型并為NVIDIA
    的頭像 發(fā)表于 11-12 14:42 ?2799次閱讀

    使用NVIDIA GPU和SmartNIC的邊緣AI

    NVIDIA 加速器有助于在傳感器數(shù)據(jù)呈指數(shù)級增長的情況下,對未來的邊緣 AI 投資進行驗證。 NVIDIA 運營商是云本地軟件,可簡化 Kuber
    的頭像 發(fā)表于 04-15 09:20 ?1991次閱讀

    使用NVIDIA Triton推理服務器簡化邊緣AI模型部署

      NVIDIA Triton 有助于在每個數(shù)據(jù)中心、云和嵌入式設備中實現(xiàn)標準化的可擴展生產(chǎn) AI 。它支持多個框架,在 GPU 和 DLA 等多個計算引擎運行模型,處理不同類型的推理
    的頭像 發(fā)表于 04-18 15:40 ?3591次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton<b class='flag-5'>推理</b>服務器<b class='flag-5'>簡化</b>邊緣<b class='flag-5'>AI</b>模型部署

    螞蟻鏈AIoT團隊與NVIDIA合作加速AI推理

    螞蟻鏈 AIoT 團隊與 NVIDIA 合作,將量化感知訓練(QAT)技術應用于深度學習模型性能優(yōu)化中,并通過 NVIDIA TensorRT 高性能推理 SDK 進行高效率部署, 通過 INT8
    的頭像 發(fā)表于 09-09 09:53 ?1951次閱讀

    TinyAnimal:Grove Vision AI的動物識別實踐

    電子發(fā)燒友網(wǎng)站提供《TinyAnimal:Grove Vision AI的動物識別實踐.zip》資料免費下載
    發(fā)表于 06-13 16:20 ?0次下載
    TinyAnimal:<b class='flag-5'>Grove</b> Vision <b class='flag-5'>AI</b><b class='flag-5'>上</b>的動物識別實踐

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發(fā)表于 02-29 14:04 ?1624次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?1403次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?1456次閱讀

    NVIDIA助力麗蟾科技打造AI訓練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構提供了一套高效、靈活的 AI 訓練與推理加速解決方案。無論是在
    的頭像 發(fā)表于 10-27 10:03 ?1908次閱讀
    <b class='flag-5'>NVIDIA</b>助力麗蟾科技打造<b class='flag-5'>AI</b>訓練與<b class='flag-5'>推理</b>加速解決方案

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1688次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發(fā)者和企業(yè)提供業(yè)務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成復雜任務的高級
    發(fā)表于 03-19 09:31 ?390次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> <b class='flag-5'>AI</b> 模型系列,助力開發(fā)者和企業(yè)構建代理式 <b class='flag-5'>AI</b> 平臺

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展
    的頭像 發(fā)表于 03-20 15:03 ?1230次閱讀