91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用Jetson Xavier NX 開發(fā)者工具包部署AI應(yīng)用程序

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Ankita Sharma ? 2022-04-28 14:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現(xiàn)代對(duì)敏捷能力和零停機(jī)時(shí)間持續(xù)創(chuàng)新的期望要求改變嵌入式和邊緣設(shè)備軟件的開發(fā)和部署方式。在邊緣采用諸如微服務(wù)、容器化和容器編排之類的云原生范式是前進(jìn)的方向,但是部署、管理和安全問(wèn)題的復(fù)雜性阻礙了擴(kuò)展。

NVIDIA EGX 平臺(tái)是一個(gè)基于云的 Kubernetes 和基于容器的軟件平臺(tái),使您能夠快速、輕松地為基于 NVIDIA Jetson 的微服務(wù)器或邊緣物聯(lián)網(wǎng)系統(tǒng)提供資源。通過(guò)為 Jetson Xavier NX 邊緣設(shè)備帶來(lái) EGX 云本地敏捷性,企業(yè)可以使用與云革命相同的技術(shù)和工作流來(lái)大規(guī)模構(gòu)建、部署和管理邊緣設(shè)備。

在本文中,您將了解云原生軟件棧的關(guān)鍵組件,如何在 Jetson Xavier NX 開發(fā)者工具包上安裝 EGX DIY 堆棧,并使用它在邊緣輕松部署智能視頻分析( IVA )應(yīng)用程序。

人工智能容器

如今的企業(yè)正在將智能轉(zhuǎn)移到邊緣,并在地理位置不同的存在點(diǎn)( POP )部署邊緣基礎(chǔ)設(shè)施,以實(shí)現(xiàn)更低的網(wǎng)絡(luò)成本和更好的響應(yīng)時(shí)間。容器是敏捷軟件開發(fā)和交付的促成因素,并節(jié)省帶寬以幫助降低傳輸成本。

EGX 從 NGC 運(yùn)行 AI 容器,這是一個(gè)為 AI 和數(shù)據(jù)分析軟件優(yōu)化的集線器。 NGC 旨在簡(jiǎn)化和加速端到端工作流。 NGC 擁有 150 多個(gè)企業(yè)級(jí)容器, 100 多個(gè)模型,以及行業(yè)特定的 sdk 和 Helm 圖表,可以部署在本地、云中或邊緣。您可以按原樣使用軟件或“優(yōu)化和定制”,使部署功能強(qiáng)大的軟件或構(gòu)建定制的解決方案變得容易,并收集見解以實(shí)現(xiàn)業(yè)務(wù)價(jià)值。

EGX 還包括對(duì) NGC 私人注冊(cè) 的訪問(wèn),在這里您可以安全地存儲(chǔ)您獨(dú)特的 IP 和定制的解決方案,以最大的安全性在邊緣、本地或云上共享和部署。

庫(kù)伯涅茨

Kubernetes 是一個(gè)容器編排系統(tǒng),是當(dāng)今云計(jì)算和企業(yè)中最活躍的開源項(xiàng)目之一。它已經(jīng)成為阿德事實(shí)標(biāo)準(zhǔn)和邊緣計(jì)算的重要基礎(chǔ),具有自動(dòng)容器部署和自我修復(fù)的特性。

EGX 云本地軟件策略的一個(gè)核心組件是使 GPUs 具有 Kubernetes 的彈性。 EGX 包括一個(gè) GPU 操作符,它自動(dòng)安裝和配置 Kubernetes 集群中使用 GPUs 所需的所有組件。

這大大簡(jiǎn)化了第 0 天的 IT 操作,并完全自動(dòng)化了第 1 天的操作… n 操作。所有必需的組件,如 NVIDIA 驅(qū)動(dòng)程序、 NVIDIA 容器運(yùn)行時(shí)、 Kubernetes 設(shè)備插件和監(jiān)控都是容器化的,并作為服務(wù)在 Kubernetes 上運(yùn)行,這導(dǎo)致 IT 部門只需為 CPU 和 GPU 節(jié)點(diǎn)管理一個(gè)映像。

舵面圖

Helm 圖表是 Kubernetes 推薦的包格式,因?yàn)樗试S您通過(guò)單擊按鈕和幾個(gè) CLI 命令在 Kubernetes 集群上輕松地配置、部署和更新應(yīng)用程序。

NGC 托管這些庫(kù)伯內(nèi)特斯準(zhǔn)備好的頭盔圖表來(lái)部署強(qiáng)大的第三方軟件。 DevOps 還可以在 NGC 上推送和共享他們的舵圖,這樣團(tuán)隊(duì)就可以利用一致、安全和可靠的環(huán)境來(lái)加快開發(fā)到生產(chǎn)周期。

安裝 EGX 2.0 堆棧

NVIDIA Jetson Xavier NX 開發(fā)工具包 將超級(jí)計(jì)算機(jī)的性能提升到了極致,在 15W 的功率和較小的外形尺寸下,提供了 21 個(gè)頂級(jí)的 AI 計(jì)算。 Jetson Xavier NX 非常適合高性能人工智能系統(tǒng),如商業(yè)機(jī)器人、醫(yī)療器械、智能相機(jī)、高分辨率傳感器、自動(dòng)光學(xué)檢測(cè)、智能工廠和其他物聯(lián)網(wǎng)嵌入式系統(tǒng)。

對(duì) Jetson Xavier NX 的云本地支持現(xiàn)在也可以通過(guò) EGX 軟件棧的最新更新實(shí)現(xiàn)。 Jetson Xavier NX 開發(fā)工具包上的這個(gè)堆棧是 NVIDIA 功能和性能驗(yàn)證的參考設(shè)計(jì),可以在嵌入式設(shè)備上實(shí)現(xiàn)快速的云本地部署。

下面是在 Jetson Xavier NX 開發(fā)工具包上安裝 egx2.0 堆棧的步驟。成功安裝后, EGX 2.0 平臺(tái) – 就緒 Jetson Xavier NX 開發(fā)工具包包括以下內(nèi)容:

NVIDIA Jetpack SDK 4.4

管理版本 1.17.5

舵手/舵柄 3.1.0

NVIDIA 容器運(yùn)行時(shí) 1.0.1-dev

在本文中,我們使用了一個(gè)帶有 Jetson Xavier NX 開發(fā)工具包的 32gb microSD 卡。

設(shè)置開發(fā)工具包并安裝 JetPack 4.4

JetPack 包含在 Jetson 平臺(tái)上構(gòu)建 AI 應(yīng)用程序的庫(kù)、工具和核心操作系統(tǒng)。有關(guān)設(shè)置 Jetson Xavier NX 開發(fā)人員工具包和安裝 Jetpack4.4 的詳細(xì)信息,請(qǐng)參閱 Jetson Xavier NX 開發(fā)工具包入門 。

更新 Docker 配置

編輯 Docker 守護(hù)程序配置,添加以下行并保存文件:

"default-runtime" : "nvidia"

下面是一個(gè)配置塊示例:

$ sudo nano /etc/docker/daemon.json { "runtimes": { "nvidia": { "path": "nvidia-container-runtime", "runtimeArgs": [] } }, "default-runtime" : "nvidia"
}

重新啟動(dòng) Docker 守護(hù)程序:

sudo systemctl daemon-reload && sudo systemctl restart docker

正在驗(yàn)證 Docker 默認(rèn)運(yùn)行時(shí)

驗(yàn)證 Docker 默認(rèn)運(yùn)行時(shí)為 NVIDIA :

$ sudo docker info | grep -i runtime

以下是示例輸出:

Runtimes: nvidia runc
Default Runtime: nvidia

安裝 Kubernetes 1 .17. 5 版

在開始安裝之前,請(qǐng)確保 Docker 已啟動(dòng)并已啟用:

$ sudo systemctl start docker && sudo systemctl enable docker

安裝立方體、 kubeadm 和 kubectl :

$ sudo apt-get update && sudo apt-get install -y apt-transport-https curl
$ curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
$ sudo mkdir -p /etc/apt/sources.list.d/

創(chuàng)建庫(kù)伯內(nèi)特斯列表文件:

$ sudo nano /etc/apt/sources.list.d/kubernetes.list

在庫(kù)伯內(nèi)特斯列表歸檔并保存:

deb https://apt.kubernetes.io/ kubernetes-xenial main

安裝立方體、 kubectl 和 kubeadm :

$ sudo apt-get update
$ sudo apt-get install -y -q kubelet=1.17.5-00 kubectl=1.17.5-00 kubeadm=1.17.5-00
$ sudo apt-mark hold kubelet kubeadm kubectl

初始化 Kubernetes 集群以作為主服務(wù)器運(yùn)行

禁用交換:

$ sudo swapoff -a

初始化群集:

$ sudo kubeadm init --pod-network-cidr=10.244.0.0/16

輸出顯示了將 pod 網(wǎng)絡(luò)部署到集群所需執(zhí)行的命令,以及加入集群的命令。

使用輸出指令,運(yùn)行以下命令:

$ mkdir -p $HOME/.kube
$ sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
$ sudo chown $(id -u):$(id -g) $HOME/.kube/config

將 pod 網(wǎng)絡(luò)附加組件安裝到控制平面節(jié)點(diǎn)。使用 calico 作為 pod 網(wǎng)絡(luò)附加組件:

$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

確保所有吊艙都已啟動(dòng)并運(yùn)行:

$ kubectl get pods --all-namespaces

以下是示例輸出:

NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system kube-flannel-ds-arm64-gz28t 1/1 Running 0 2m8s
kube-system coredns-5c98db65d4-d4kgh 1/1 Running 0 9m8s
kube-system coredns-5c98db65d4-h6x8m 1/1 Running 0 9m8s
kube-system etcd-#yourhost 1/1 Running 0 8m25s
kube-system kube-apiserver-#yourhost 1/1 Running 0 8m7s
kube-system kube-controller-manager-#yourhost 1/1 Running 0 8m3s
kube-system kube-proxy-6sh42 1/1 Running 0 9m7s
kube-system kube-scheduler-#yourhost 1/1 Running 0 8m26s

get nodes命令顯示主節(jié)點(diǎn)已啟動(dòng)并準(zhǔn)備就緒:

$ kubectl get nodes

以下是示例輸出:

NAME STATUS ROLES AGE VERSION
#yournodes Ready master 10m v1.17.5

因?yàn)槟褂玫氖菃喂?jié)點(diǎn) Kubernetes 集群,所以默認(rèn)情況下,集群無(wú)法在控制平面節(jié)點(diǎn)上調(diào)度 pod 。在控制平面節(jié)點(diǎn)上調(diào)度 pods 。必須使用以下命令刪除污點(diǎn):

$ kubectl taint nodes --all node-role.kubernetes.io/master-

安裝舵柄/舵柄 3 .1 . 0

下載 Helm 3 .1.0 :

$ sudo wget https://get.helm.sh/helm-v3.1.0-linux-arm64.tar.gz
$ sudo tar -zxvf helm-v3.1.0-linux-arm64.tar.gz
$ sudo mv linux-arm64/helm /usr/local/bin/helm
驗(yàn)證成功的 EGX 2.0 安裝

要驗(yàn)證 EGX 堆棧是否按預(yù)期工作,請(qǐng)按照以下步驟創(chuàng)建 pod yaml 文件。如果 getpods 命令顯示 pod 狀態(tài)為 completed ,則說(shuō)明安裝成功。您還可以驗(yàn)證 CUDA 是否成功運(yùn)行 – 樣品。 yaml 驗(yàn)證輸出是否顯示 Result = PASS 。

創(chuàng)建一個(gè) pod yaml 文件,添加以下內(nèi)容,并將其另存為樣品。 yaml :

$ sudo nano cuda-samples.yaml

添加以下內(nèi)容并將其另存為 CUDA – 樣品. yaml :

apiVersion: v1
kind: Pod
metadata: name: nvidia-l4t-base
spec: restartPolicy: OnFailure containers: - name: nvidia-l4t-base image: "nvcr.io/nvidia/l4t-base:r32.4.2" args: - /usr/local/cuda/samples/1_Utilities/deviceQuery/deviceQuery

編譯 CUDA 示例以從 pod 驗(yàn)證:

$ cd /usr/local/cuda/samples/1_Utilities/deviceQuery
$ sudo make
$ cd ~

創(chuàng)建示例 GPU pod :

$ sudo kubectl apply -f cuda-samples.yaml

檢查樣本盒是否已創(chuàng)建:

$ kubectl get pods

以下是示例輸出:

nvidia-l4t-base 0/1 Completed 2m

驗(yàn)證示例 pod 日志以支持 CUDA 庫(kù):

kubectl logs nvidia-l4t-base

以下是示例輸出:

/usr/local/cuda/samples/1_Utilities/deviceQuery/deviceQuery Starting...
CUDA Device Query (Runtime API) version (CUDART static linking)
Detected 1 CUDA Capable device(s)

Device 0: "Xavier"
 CUDA Driver Version / Runtime Version 10.2 / 10.2
 CUDA Capability Major/Minor version number: 7.2
 Total amount of global memory: 7764 MBytes (8140709888 bytes)
 ( 6) Multiprocessors, ( 64) CUDA Cores/MP: 384 CUDA Cores
 GPU Max Clock rate: 1109 MHz (1.11 GHz)
 Memory Clock rate: 1109 Mhz
 Memory Bus Width: 256-bit
 L2 Cache Size: 524288 bytes
 Maximum Texture Dimension Size (x,y,z) 1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)
 Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layers
 Maximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layers
 Total amount of constant memory: 65536 bytes
 Total amount of shared memory per block: 49152 bytes
 Total number of registers available per block: 65536
 Warp size: 32
 Maximum number of threads per multiprocessor: 2048
 Maximum number of threads per block: 1024
 Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
 Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535)
 Maximum memory pitch: 2147483647 bytes
 Texture alignment: 512 bytes
 Concurrent copy and kernel execution: Yes with 1 copy engine(s)
 Run time limit on kernels: No
 Integrated GPU sharing Host Memory: Yes
 Support host page-locked memory mapping: Yes
 Alignment requirement for Surfaces: Yes
 Device has ECC support: Disabled
 Device supports Unified Addressing (UVA): Yes
 Device supports Compute Preemption: Yes
 Supports Cooperative Kernel Launch: Yes
 Supports MultiDevice Co-op Kernel Launch: Yes
 Device PCI Domain ID / Bus ID / location ID: 0 / 0 / 0
 Compute Mode:
 < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.2, CUDA Runtime Version = 10.2, NumDevs = 1
Result = PASS

有關(guān) EGX 軟件版本和安裝指南的更多信息,請(qǐng)參閱Jetson Xavier NX DevKit 的 EGX Stack – v2 . 0 安裝指南。

用例:簡(jiǎn)化 IVA 應(yīng)用程序的部署

在基于 EGX 的 Jetson Xavier NX 上使用NVIDIA 深溪構(gòu)建和部署 AI 驅(qū)動(dòng)的 IVA 應(yīng)用程序和服務(wù)。 deepstreamsdk 提供了一個(gè)具有 TLS 安全性的可擴(kuò)展加速框架,可以部署在邊緣并連接到任何云。

在您的 EGX Jetson 設(shè)備上創(chuàng)建一個(gè) DeepStream Helm 圖表目錄。

$ mkdir deepstream-helmchart

在/ deepstream helmchart 中創(chuàng)建一個(gè)模板目錄來(lái)存儲(chǔ) Kubernetes 清單:

$ mkdir -p deepstream-helmchart/templates

創(chuàng)建圖表. yaml 文件,添加以下內(nèi)容,并將其保存到/ deepstream helmchart 目錄中:

$ nano chart.yaml apiVersion: v1
name: deepstream-helmchart
version: 1.0.0
appVersion: 0.1

將新文件創(chuàng)建為配置映射. yaml 在/ deepstream helmchart / templates 中添加以下內(nèi)容:

$ nano configmap.yaml

apiVersion: v1
kind: ConfigMap
metadata:
 name: deepstream-configmap
data:
 source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt: |-
 # Copyright (c) 2018 NVIDIA Corporation. All rights reserved.
 #
 # NVIDIA Corporation and its licensors retain all intellectual property
 # and proprietary rights in and to this software, related documentation
 # and any modifications thereto. Any use, reproduction, disclosure or
 # distribution of this software and related documentation without an express
 # license agreement from NVIDIA Corporation is strictly prohibited.

 [application]
 enable-perf-measurement=1
 perf-measurement-interval-sec=5
 #gie-kitti-output-dir=streamscl

 [tiled-display]
 enable=1
 rows=2
 columns=2
 width=1280
 height=720
 gpu-id=0
 #(0): nvbuf-mem-default - Default memory allocated, specific to a platform
 #(1): nvbuf-mem-cuda-pinned - Allocate Pinned/Host cuda memory, applicable for Tesla
 #(2): nvbuf-mem-cuda-device - Allocate Device cuda memory, applicable for Tesla
 #(3): nvbuf-mem-cuda-unified - Allocate Unified cuda memory, applicable for Tesla
 #(4): nvbuf-mem-surface-array - Allocate Surface Array memory, applicable for Jetson
 nvbuf-memory-type=0

 [source0]
 enable=1
 #Type - 1=CameraV4L2 2=URI 3=MultiURI 4=RTSP
 type=3
 uri=file://../../streams/sample_1080p_h264.mp4
 num-sources=4
 #drop-frame-interval =2
 gpu-id=0
 # (0): memtype_device - Memory type Device
 # (1): memtype_pinned - Memory type Host Pinned
 # (2): memtype_unified - Memory type Unified
 cudadec-memtype=0

 [sink0]
 enable=1
 type=1
 sync=0
 codec=1
 bitrate=4000000
 rtsp-port=8554
 udp-port=5400
 gpu-id=0
 nvbuf-memory-type=0

 [sink1]
 enable=0
 type=3
 #1=mp4 2=mkv
 container=1
 #1=h264 2=h265
 codec=3
 sync=0
 bitrate=2000000
 output-file=out.mp4
 source-id=0
 gpu-id=0

 [sink2]
 enable=0
 #Type - 1=FakeSink 2=EglSink 3=File 4=RTSPStreaming
 type=4
 #1=h264 2=h265
 codec=1
 sync=1
 bitrate=1000000
 cuda-memory-type=1
 # set below properties in case of RTSPStreaming
 rtsp-port=8554
 udp-port=5400
 gpu-id=0

 [osd]
 enable=1
 gpu-id=0
 border-width=1
 text-size=15
 text-color=1;1;1;1;
 text-bg-color=0.3;0.3;0.3;1
 font=Serif
 show-clock=0
 clock-x-offset=800
 clock-y-offset=820
 clock-text-size=12
 clock-color=1;0;0;0
 nvbuf-memory-type=0

 [streammux]
 gpu-id=0
 ##Boolean property to inform muxer that sources are live
 live-source=0
 batch-size=4
 ##time out in usec, to wait after the first buffer is available
 ##to push the batch even if the complete batch is not formed
 batched-push-timeout=40000
 ## Set muxer output width and height
 width=1920
 height=1080
 ##Enable to maintain aspect ratio wrt source, and allow black borders, works
 ##along with width, height properties
 enable-padding=0
 nvbuf-memory-type=0

 # config-file property is mandatory for any gie section.
 # Other properties are optional and if set will override the properties set in
 # the infer config file.
 [primary-gie]
 enable=1
 gpu-id=0
 model-engine-file=../../models/Primary_Detector/resnet10.caffemodel_b4_int8.engine
 batch-size=4
 bbox-border-color0=1;0;0;1
 bbox-border-color1=0;1;1;1
 bbox-border-color2=0;0;1;1
 bbox-border-color3=0;1;0;1
 interval=0
 gie-unique-id=1
 nvbuf-memory-type=0
 config-file=config_infer_primary.txt

 [tracker]
 enable=1
 tracker-width=640
 tracker-height=384
 ll-lib-file=/opt/nvidia/deepstream/deepstream-5.0/lib/libnvds_mot_iou.so
 #ll-lib-file=/opt/nvidia/deepstream/deepstream-4.0/lib/libnvds_nvdcf.so
 ll-lib-file=/opt/nvidia/deepstream/deepstream-5.0/lib/libnvds_mot_klt.so
 #ll-config-file required for DCF/IOU only
 #ll-config-file=tracker_config.yml
 #ll-config-file=iou_config.txt
 gpu-id=0
 #enable-batch-process applicable to DCF only
 enable-batch-process=1

 [secondary-gie0]
 enable=1
 model-engine-file=../../models/Secondary_VehicleTypes/resnet18.caffemodel_b16_int8.engine
 gpu-id=0
 batch-size=16
 gie-unique-id=4
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_vehicletypes.txt

 [secondary-gie1]
 enable=1
 model-engine-file=../../models/Secondary_CarColor/resnet18.caffemodel_b16_int8.engine
 batch-size=16
 gpu-id=0
 gie-unique-id=5
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_carcolor.txt

 [secondary-gie2]
 enable=1
 model-engine-file=../../models/Secondary_CarMake/resnet18.caffemodel_b16_int8.engine
 batch-size=16
 gpu-id=0
 gie-unique-id=6
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_carmake.txt

 [tests]
 file-loop=1

設(shè)置電源模式并固定 Jetson 設(shè)備上的時(shí)鐘

$ sudo nvpmodel -m 2
$ sudo jetson_clocks

在 Jetson 設(shè)備上安裝 DeepStream 頭盔圖表:

$ helm install --name-template deepstream deepstream-helmchart/

驗(yàn)證 DeepStream 吊艙是否啟動(dòng)并運(yùn)行:

$ kubectl get pods
NAME READY STATUS RESTARTS AGE
deepstream-76787ffbf7-mfwk7 1/1 Running 0 1m

查看 DeepStream 吊艙日志并查看性能:

$ kubectl logs 

以下是示例輸出:

$ kubectl logs deepstream-9f8b6b68d-rc5lq
**PERF: 101.42 (100.29) 101.42 (100.29) 101.42 (100.29) 101.42 (100.29)

清理 Jetson 設(shè)備上的 DeepStream 頭盔圖表:

$ helm del deepstream

結(jié)論

在本文中,您了解了云原生軟件棧的關(guān)鍵組件。我們還向您展示了如何在 Jetson Xavier NX 開發(fā)工具包上安裝 EGX DIY 堆棧。使用它可以輕松地在邊緣部署 IVA 應(yīng)用程序。

要了解其他 Jetson Xavier NX 支持的集裝箱化、預(yù)先訓(xùn)練的 AI 模型的更多信息,請(qǐng)參見 NGC 。這些模型可以作為您的人工智能應(yīng)用程序開發(fā)的構(gòu)建塊,并幫助您在今天的邊緣計(jì)算中實(shí)現(xiàn)下一個(gè)飛躍!

關(guān)于作者

Ankita Sharma 是 NVIDIA 的產(chǎn)品營(yíng)銷經(jīng)理,幫助客戶構(gòu)建基于 EGX 的高性能企業(yè)和邊緣推理解決方案。她在 GTM 執(zhí)行云、網(wǎng)絡(luò)和人工智能解決方案方面擁有多年的經(jīng)驗(yàn)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31079

    瀏覽量

    222268
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5594

    瀏覽量

    109743
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301430
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    安霸推出開發(fā)者社區(qū)以助力部署端側(cè)AI應(yīng)用

    安霸開發(fā)者社區(qū)為合作伙伴提供優(yōu)先體驗(yàn)通道,助力其在安霸 AI SoC 及 Cooper 開發(fā)軟件上評(píng)估、構(gòu)建并大規(guī)模部署端側(cè) AI 應(yīng)用。
    的頭像 發(fā)表于 01-08 14:50 ?285次閱讀

    2025華為開發(fā)者大賽暨開發(fā)者年度會(huì)議成功舉辦

    12月27日-12月28日,以“成就AI原生時(shí)代先鋒開發(fā)者”為主題的2025華為開發(fā)者大賽暨開發(fā)者年度會(huì)議在上海華為練秋湖研發(fā)中心舉辦。本次會(huì)議旨在匯聚先鋒
    的頭像 發(fā)表于 12-31 13:32 ?676次閱讀

    NVIDIA Jetson系列開發(fā)者套件助力打造面向未來(lái)的智能機(jī)器人

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin Nano Super 開發(fā)者套件,助力打造面向未來(lái)的智能機(jī)器人。
    的頭像 發(fā)表于 12-13 10:20 ?3063次閱讀

    PYQT 應(yīng)用程序框架及開發(fā)工具

    特點(diǎn),已成為嵌入式領(lǐng)域的重要開發(fā)工具 PyQt 是一個(gè)創(chuàng)建 GUI 應(yīng)用程序工具包。它是 Python 編程語(yǔ)言和 Qt 庫(kù)的成功融合。因?yàn)榭捎玫念愑泻芏啵麄儽环殖蓭讉€(gè)模塊。QtCore 模塊
    發(fā)表于 10-29 07:15

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊

    人員可以使用以下工具快速部署AI應(yīng)用程序,而無(wú)需復(fù)雜的硬件編程: RKNN-Toolkit2 一鍵將 TensorFlow/PyTorch 模型轉(zhuǎn)換為 RKNN 格式,用于 NPU 加
    發(fā)表于 10-11 09:08

    NVIDIA Jetson AGX Thor開發(fā)者套件重磅發(fā)布

    開發(fā)者與未來(lái)創(chuàng)造們,準(zhǔn)備好迎接邊緣AI的史詩(shī)級(jí)革新了嗎?NVIDIA以顛覆性技術(shù)再次突破極限,正式推出Jetson AGX Thor開發(fā)者
    的頭像 發(fā)表于 08-28 14:31 ?1557次閱讀

    超過(guò)200萬(wàn)開發(fā)者加入NVIDIA機(jī)器人技術(shù)生態(tài)

    推出以來(lái),其生態(tài)系統(tǒng)不斷發(fā)展壯大,已有超過(guò) 1,000 家硬件系統(tǒng)、軟件及傳感器合作伙伴加入這個(gè)蓬勃發(fā)展的開發(fā)者社區(qū),助力 7,000 多個(gè)客戶在各行業(yè)部署邊緣 AI 技術(shù)。 新一代的? NVIDIA
    的頭像 發(fā)表于 08-21 19:47 ?1959次閱讀
    超過(guò)200萬(wàn)<b class='flag-5'>開發(fā)者</b>加入NVIDIA機(jī)器人技術(shù)生態(tài)

    NVIDIA Jetson AGX Thor開發(fā)者套件概述

    NVIDIA Jetson AGX Thor 開發(fā)者套件為您提供出色的性能和可擴(kuò)展性。它由 NVIDIA Blackwell GPU和128 GB 顯存提供動(dòng)力支持,提供高達(dá) 2070 FP4
    的頭像 發(fā)表于 08-11 15:03 ?1905次閱讀

    新唐科技推出高效AI MCU部署工具NuML Toolkit

    隨著 AI 技術(shù)加速導(dǎo)入各類嵌入式系統(tǒng),如何將訓(xùn)練完成的 AI 模型順利部署至資源有限的微控制器成為工程師面對(duì)的重大挑戰(zhàn)。為協(xié)助開發(fā)者快速落地 AI
    的頭像 發(fā)表于 08-01 17:21 ?2280次閱讀

    NVIDIA Jetson + Isaac SDK 人形機(jī)器人方案全面解析

    SDK + Isaac Sim :專為機(jī)器人打造的軟件開發(fā)平臺(tái),支持 ROS、實(shí)時(shí)感知、動(dòng)作規(guī)劃和 AI 強(qiáng)化學(xué)習(xí) 二、Jetson 芯片系列對(duì)比 型號(hào) GPU (CUDA) CPU AI
    的頭像 發(fā)表于 07-30 16:12 ?2186次閱讀

    Jetson平臺(tái)核心組件BOM清單概覽

    的接口芯片。對(duì)于開發(fā)者和系統(tǒng)集成商而言,了解這些關(guān)鍵組件的構(gòu)成,對(duì)于產(chǎn)品選型、硬件設(shè)計(jì)和成本控制至關(guān)重要。 以下我們將根據(jù)公開的資料和設(shè)計(jì)文檔,對(duì)主流的Jetson平臺(tái)產(chǎn)品(Jetson Nano
    的頭像 發(fā)表于 07-30 16:11 ?3139次閱讀

    Java開發(fā)者必備的效率工具——Perforce JRebel是什么?為什么很多Java開發(fā)者在用?

    Perforce JRebel是一款Java開發(fā)效率工具,旨在幫助java開發(fā)人員更快地編寫更好的應(yīng)用程序。JRebel可即時(shí)重新加載對(duì)代碼的修改,無(wú)需重啟或重新
    的頭像 發(fā)表于 04-27 13:44 ?854次閱讀
    Java<b class='flag-5'>開發(fā)者</b>必備的效率<b class='flag-5'>工具</b>——Perforce JRebel是什么?為什么很多Java<b class='flag-5'>開發(fā)者</b>在用?

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    生態(tài)系統(tǒng)的系統(tǒng)性革新,更需要高效、強(qiáng)力的開發(fā)者解決方案。為此,聯(lián)發(fā)科帶來(lái)了一站式可視化智能開發(fā)工具——天璣開發(fā)工具集,包含AI應(yīng)用全流程開發(fā)工具
    發(fā)表于 04-13 19:52

    MCP:連接AI應(yīng)用程序的開放標(biāo)準(zhǔn)!

    。 在第二種方式中,開發(fā)者需要為AI大模型編寫與具體應(yīng)用程序協(xié)作的訪問(wèn)代碼,例如,開發(fā)者希望DeepSeek-R1與Gmail協(xié)作,就需要手動(dòng)編寫協(xié)作代碼。這種手動(dòng)編寫協(xié)作代碼的方式,
    的頭像 發(fā)表于 03-21 18:21 ?2199次閱讀
    MCP:連接<b class='flag-5'>AI</b>與<b class='flag-5'>應(yīng)用程序</b>的開放標(biāo)準(zhǔn)!

    極速部署!GpuGeek提供AI開發(fā)者的云端GPU最優(yōu)解

    AI開發(fā)領(lǐng)域,算力部署的效率和資源調(diào)度的靈活性直接影響研發(fā)進(jìn)程與創(chuàng)新速度。隨著模型復(fù)雜度的提升和全球化協(xié)作需求的增長(zhǎng),開發(fā)者對(duì)GPU云服務(wù)的核心訴求已從單純追求硬件性能,轉(zhuǎn)向?qū)?/div>
    的頭像 發(fā)表于 03-17 11:27 ?761次閱讀
    極速<b class='flag-5'>部署</b>!GpuGeek提供<b class='flag-5'>AI</b><b class='flag-5'>開發(fā)者</b>的云端GPU最優(yōu)解