NVIDIAJetson AGX Thor專為物理 AI 打造,與上一代產(chǎn)品 NVIDIAJetson AGX Orin 相比,生成式 AI 性能最高提升至 5 倍。通過發(fā)布后的軟件更新優(yōu)化,Jetson Thor 的生成式 AI 吞吐量提升至 7 倍。
上一期我們介紹了NVIDIA Jetson AGX Thor 的硬件配置和系統(tǒng)安裝教程,本期將深入講解開發(fā)環(huán)境配置,包括:
系統(tǒng)環(huán)境確認
Docker 安裝與配置
JetPack SDK 組件安裝
CUDA 環(huán)境設(shè)置
一、系統(tǒng)環(huán)境確認
系統(tǒng)安裝完成進入桌面后,默認即可通過賬號密碼 SSH 登錄,下圖可以查看當(dāng)前的系統(tǒng)以及內(nèi)核版本。

- 運行nvidia-smi可以查看 GPU 驅(qū)動版本以及支持的 CUDA 最高版本信息。

- 運行l(wèi)scpu,查看 CPU 信息:

- 運行free -h,查看內(nèi)存容量:

- 運行l(wèi)sblk,查看硬盤容量:

二、Docker 安裝與配置
Docker 能夠為 Jetson 帶來可復(fù)現(xiàn)的容器化工作流程,無需犧牲速度或靈活性即可無縫訪問 GPU。
1Docker 安裝
下圖展示了 Docker 安裝過程的流程。

上一期教程采用的是“Jetson ISO Installation USB”系統(tǒng)安裝方式,已默認預(yù)裝 Docker。僅需將普通用戶添加到組,即可直接使用 Docker。



然后設(shè)置 NVIDIA Container Toolkit 即可。


2Docker 測試
下載并運行一個 PyTorch 的容器。
dockerrun --rm -it -v"$PWD":/workspace -w /workspace nvcr.io/nvidia/pytorch:25.08-py3

進入容器后,您可以測試 PyTorch 的 GPU 功能。此外,該容器內(nèi)也預(yù)配置了 CUDA 環(huán)境,可運行相關(guān) CUDA 應(yīng)用。


注:如果顯示 CUDA available:False,可嘗試重啟系統(tǒng)加載配置。
三、JetPack SDK 組件安裝
nvidia-jetpack 是一個元包,包含以下組件:

安裝 JetPack 組件:
要在 Jetson 上安裝完整的 JetPack 組件軟件 / SDK,可以使用以下命令:
sudoapt update sudoapt install nvidia-jetpack
等待命令運行完成即可。

四、CUDA 環(huán)境配置
1使用 JetPack 內(nèi)置的 CUDA
CUDA 工具包已內(nèi)置于 JetPack 組件中,將隨其自動安裝。安裝完成后,僅需配置環(huán)境變量即可使用。

設(shè)置并應(yīng)用環(huán)境變量。

注:運行sudo vim ~/.bashrc之后,需在文本下方加入以下內(nèi)容:
exportPATH=/usr/local/cuda-13.0/bin:$PATH exportLD_LIBRARY_PATH=/usr/local/cuda-13.0/lib64:$LD_LIBRARY_PATH

2通過 Docker 容器的方式使用 CUDA
本文第二部分 Docker 測試時所下載的nvcr.io/nvidia/pytorch:25.08-py3鏡像內(nèi)已內(nèi)置 CUDA。

3使用 NGC 下載運行 CUDA 鏡像
NGC(全稱:NVIDIA GPU Cloud)是適用于 AI、機器學(xué)習(xí)的 GPU 優(yōu)化的軟件中心,也是 NVIDIA 提供的容器注冊表。

在“標(biāo)簽”部分,您可以看到托管容器的標(biāo)簽列表。

請注意,它顯示“2 個架構(gòu)”。這意味著該容器鏡像可同時適用于 x86_64 和 arm64 架構(gòu)。
您可以單擊標(biāo)簽右側(cè)復(fù)制圖標(biāo),將帶有該標(biāo)簽的容器圖像路徑復(fù)制到剪貼板,然后使用docker run運行:
dockerrun -it --rm nvcr.io/nvidia/cuda:13.0.0-devel-ubuntu24.04
jetson@jat02-iso0817:~/$ docker run -it --rm nvcr.io/nvidia/cuda:13.0.0-devel-ubuntu24.04 ========== == CUDA == ========== CUDA Version13.0.0 Container image Copyright (c)2016-2023, NVIDIA CORPORATION & AFFILIATES. All rights reserved. This container image and its contents are governedbythe NVIDIA Deep Learning Container License. By pulling and using the container, you accept the terms and conditions ofthislicense: https://developer.nvidia.com/ngc/nvidia-deep-learning-container-license A copy ofthislicenseismade availableinthiscontainer at /NGC-DL-CONTAINER-LICENSEforyour convenience. WARNING: The NVIDIA Driver was not detected. GPU functionality will not be available. Use the NVIDIA Container Toolkit to startthiscontainer with GPU support; see https://docs.nvidia.com/datacenter/cloud-native/ . root@99042c33f4b2:/#
至此,CUDA 環(huán)境配置完成!
現(xiàn)在 Jetson AGX Thor Developer Kit 已經(jīng)準(zhǔn)備就緒,您隨時可以進行 AI 和邊緣計算開發(fā):
使用 Docker 容器化工作流程
基于 JetPack SDK 構(gòu)建完整應(yīng)用
利用 CUDA 加速計算任務(wù)
*與 NVIDIA 產(chǎn)品相關(guān)的圖片或視頻(完整或部分)的版權(quán)均歸 NVIDIA Corporation 所有。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5588瀏覽量
109702 -
開發(fā)環(huán)境
+關(guān)注
關(guān)注
1文章
270瀏覽量
17635 -
Developer
+關(guān)注
關(guān)注
0文章
28瀏覽量
6680
原文標(biāo)題:快速上手!NVIDIA Jetson AGX Thor Developer Kit 開發(fā)環(huán)境配置指南
文章出處:【微信號:Leadtek,微信公眾號:麗臺科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務(wù)
京東和美團已選用NVIDIA Jetson AGX Xavier 平臺
如何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)大模型
關(guān)于NVIDIA JETSON TK1板子的話題
JETSON AGX Xavier的相關(guān)資料下載
怎么做才能通過Jetson Xavier AGX構(gòu)建android圖像呢?
NVIDIA Jetson AGX Orin提升邊緣AI標(biāo)桿
開發(fā)者們好評如潮,NVIDIA Jetson AGX Orin 是怎么做到的?
NVIDIA 推出 Jetson AGX Orin 工業(yè)級模塊助力邊緣 AI
NVIDIA Jetson AGX Thor開發(fā)者套件概述
基于 NVIDIA Blackwell 的 Jetson Thor 現(xiàn)已發(fā)售,加速通用機器人時代的到來
NVIDIA Jetson AGX Thor Developer Kit開發(fā)環(huán)境配置指南
評論