91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU加速的推薦程序框架Merlin HugeCTR

NVIDIA英偉達(dá) ? 來(lái)源:NVIDIA英偉達(dá) ? 作者:NVIDIA英偉達(dá) ? 2022-03-20 15:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Merlin HugeCTR(以下簡(jiǎn)稱 HugeCTR)是 GPU 加速的推薦程序框架,旨在在多個(gè) GPU 和節(jié)點(diǎn)之間分配訓(xùn)練并估計(jì)點(diǎn)擊率(Click-through rate)。

此次v3.4更新涉及的模塊主要為:

HugeCTR 分級(jí)參數(shù)服務(wù)器

HugeCTR Python API

相關(guān)介紹:

HugeCTR 分級(jí)參數(shù)服務(wù)器介紹

V3.4.1 版本新增內(nèi)容

調(diào)整了整個(gè)代碼庫(kù)中日志消息的日志級(jí)別。

現(xiàn)已支持對(duì)具有多個(gè)標(biāo)簽的數(shù)據(jù)集進(jìn)行推理:

“Softmax” 層現(xiàn)在已支持 FP16,并且支持混合精度以進(jìn)行多標(biāo)簽推理。

支持多 GPU 離線推理:

我們通過 Python 接口支持多 GPU 離線推理,它可以利用Hierarchical Parameter Server

并在多個(gè)設(shè)備上實(shí)現(xiàn)并發(fā)執(zhí)行。更多信息請(qǐng)參考推理 API和多 GPU 離線推理筆記本。

HPS 已構(gòu)建為獨(dú)立庫(kù):

我們重構(gòu)了代碼庫(kù)并將分層參數(shù)服務(wù)器構(gòu)建為一個(gè)獨(dú)立的庫(kù),以后會(huì)進(jìn)一步封裝。

metadata.json 簡(jiǎn)介:

添加了有關(guān) Parquet data 中 _metadata.json 的詳細(xì)信息。

增加了用于估計(jì)每個(gè) GPU 的詞匯量大小的文檔和工具:

我們添加了一個(gè)工具來(lái)計(jì)算每個(gè) GPU 的不同嵌入類型的詞匯量大小,在此基礎(chǔ)上,workspace_size_per_gpu_in_mb 可以根據(jù)嵌入向量大小和優(yōu)化器類型評(píng)估更多信息請(qǐng)參考腳本:

訓(xùn)練中支持 HDFS :

a. 現(xiàn)在支持從 HDFS 加載和存儲(chǔ)模型和優(yōu)化器狀態(tài)。

b. 增加了編譯選項(xiàng)使 HDFS 的支持更加靈活。

c. 添加了一個(gè)筆記本來(lái)展示如何將 HugeCTR 與 HDFS 一起使用:

增加了一個(gè)演示如何分析模型文件的 Python 腳本和筆記本

錯(cuò)誤修復(fù):修復(fù)了SOK 中的鏡像策略錯(cuò)誤。

修復(fù)了無(wú)法在nvcr.io/nvidia/merlin/merlin-tensorflow-training:22.02 中導(dǎo)入稀疏操作工具包的問題。

HugeCTR 參數(shù)服務(wù)器:修復(fù)了在未配置 RocksDB 時(shí),可能會(huì)在初始化期間發(fā)生的訪問沖突問題。

已知問題

HugeCTR 使用 NCCL 在 rank 之間共享數(shù)據(jù),并且 NCCL 可能需要共享系統(tǒng)內(nèi)存用于 IPC 和固定(頁(yè)面鎖定)系統(tǒng)內(nèi)存資源。在容器內(nèi)使用 NCCL 時(shí),建議您通過發(fā)出以下命令(-shm-size=1g -ulimit memlock=-1) 來(lái)增加這些資源。

另見 NCCL 的 已知問題

還有 GitHub 問題

目前即使目標(biāo) Kafka broker 無(wú)響應(yīng),KafkaProducers 啟動(dòng)也會(huì)成功。為了避免與來(lái)自 Kafka 的流模型更新相關(guān)的數(shù)據(jù)丟失,您必須確保有足夠數(shù)量的 Kafka brokers 啟動(dòng)、正常工作并且可以從運(yùn)行 HugeCTR 的節(jié)點(diǎn)訪問。

文件列表中的數(shù)據(jù)文件數(shù)量應(yīng)不小于數(shù)據(jù)讀取器的數(shù)量。否則,不同的 worker 將被映射到同一個(gè)文件,從而導(dǎo)致數(shù)據(jù)加載不會(huì)按預(yù)期進(jìn)行。

正則化器暫不支持聯(lián)合損失訓(xùn)練。

原文標(biāo)題:Merlin HugeCTR v3.4.1 發(fā)布說(shuō)明

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 接口
    +關(guān)注

    關(guān)注

    33

    文章

    9519

    瀏覽量

    157019
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135431
  • 工具包
    +關(guān)注

    關(guān)注

    0

    文章

    48

    瀏覽量

    9897

原文標(biāo)題:Merlin HugeCTR v3.4.1 發(fā)布說(shuō)明

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    RSoft GPU加速技術(shù)重塑光子元件設(shè)計(jì)效率革命

    設(shè)計(jì)效率。為了解決這個(gè)問題,RSoft 光子器件工具的 FullWAVE FDTD 模組中引入 GPU 加速,通過 NVIDIA GPU 的平行運(yùn)算能力,使得模擬速度相比 CPU 計(jì)算大幅提升。
    的頭像 發(fā)表于 01-12 14:09 ?254次閱讀
    RSoft <b class='flag-5'>GPU</b><b class='flag-5'>加速</b>技術(shù)重塑光子元件設(shè)計(jì)效率革命

    沐曦股份GPU加速技術(shù)助力藥物研發(fā)降本增效

    沐曦股份科學(xué)計(jì)算團(tuán)隊(duì)近期取得突破性進(jìn)展,成功將主流分子動(dòng)力學(xué)模擬引擎GROMACS中的FEP計(jì)算全流程部署于GPU執(zhí)行,并實(shí)現(xiàn)2.5倍性能提升,相關(guān)成果獲得GROMACS官方團(tuán)隊(duì)的高度認(rèn)可,該GPU
    的頭像 發(fā)表于 12-02 15:58 ?739次閱讀

    新思科技亮相微軟Ignite大會(huì),展示數(shù)字孿生賦能的制造流程優(yōu)化框架

    框架集成了英偉達(dá)Omniverse庫(kù)、英偉達(dá)CUDA-X庫(kù)、微軟Azure?以及加速的新思科技物理引擎,已證實(shí)能夠近乎實(shí)時(shí)地優(yōu)化灌裝包裝生產(chǎn)線,并拓展了仿真技術(shù)驅(qū)動(dòng)洞察的應(yīng)用范圍 摘要: · 該
    的頭像 發(fā)表于 12-01 14:41 ?489次閱讀

    FPGA和GPU加速的視覺SLAM系統(tǒng)中特征檢測(cè)器研究

    (Nvidia Jetson Orin與AMD Versal)上最佳GPU加速方案(FAST、Harris、SuperPoint)與對(duì)應(yīng)FPGA加速方案的性能,得出全新結(jié)論。
    的頭像 發(fā)表于 10-31 09:30 ?660次閱讀
    FPGA和<b class='flag-5'>GPU</b><b class='flag-5'>加速</b>的視覺SLAM系統(tǒng)中特征檢測(cè)器研究

    PYQT 應(yīng)用程序框架及開發(fā)工具

    大家好,本團(tuán)隊(duì)此次分享的內(nèi)容為開發(fā)過程中使用到的PYQT 應(yīng)用程序框架及開發(fā)工具。 pYqt 是一個(gè)多平臺(tái)的 python 圖形用戶界面應(yīng)用程序框架,由于其面向?qū)ο蟆? 易擴(kuò)展(可
    發(fā)表于 10-29 07:15

    aicube的n卡gpu索引該如何添加?

    請(qǐng)問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了gpu1
    發(fā)表于 07-25 08:18

    硅谷GPU云服務(wù)器是什么意思?使用指南詳解

    硅谷GPU云服務(wù)器本質(zhì)上是一種IaaS(基礎(chǔ)設(shè)施即服務(wù))產(chǎn)品,它將物理服務(wù)器上的GPU資源通過虛擬化技術(shù)分割成可彈性調(diào)配的云服務(wù)。與普通CPU云服務(wù)器相比,GPU服務(wù)器最大的特點(diǎn)是搭載了NVIDIATesla、AMDInstin
    的頭像 發(fā)表于 06-16 09:41 ?591次閱讀

    智算加速卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉GPU和TPU!

    隨著AI技術(shù)火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計(jì)算",可真到了落地環(huán)節(jié),算力才是硬通貨。你有沒有發(fā)現(xiàn),現(xiàn)在越來(lái)越多的AI企業(yè)不光用GPU,也不怎么迷信TPU了?他們嘴里多了一個(gè)新詞兒——智算加速卡。
    的頭像 發(fā)表于 06-05 13:39 ?1644次閱讀
    智算<b class='flag-5'>加速</b>卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉<b class='flag-5'>GPU</b>和TPU!

    直擊Computex2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——英特爾銳炫Pro B60和英特爾銳炫Pro B50
    的頭像 發(fā)表于 05-20 12:27 ?5442次閱讀
    直擊Computex2025:英特爾重磅發(fā)布新一代<b class='flag-5'>GPU</b>,圖形和AI性能躍升3.4倍

    Imagination 宣布推出 E-Series GPU:開啟Edge AI 與圖形處理新時(shí)代

    E-Series 帶來(lái)跨越式性能提升,使 GPU 成為邊緣設(shè)備圖形與 AI 的核心加速引擎
    的頭像 發(fā)表于 05-09 16:16 ?656次閱讀

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發(fā)

    NVIDIA GTC 推出新一代專業(yè)級(jí) GPU 和 AI 賦能的開發(fā)者工具—同時(shí),ChatRTX 更新現(xiàn)已支持 NVIDIA NIM,RTX Remix 正式結(jié)束測(cè)試階段,本月的 NVIDIA Studio 驅(qū)動(dòng)現(xiàn)已開放下載。
    的頭像 發(fā)表于 03-28 09:59 ?1300次閱讀

    可以手動(dòng)構(gòu)建imx-gpu-viv嗎?

    在 debian 10 上使用 imx gpu 交叉編譯 Qt,以便它與我的應(yīng)用程序一起工作。但是 imx-gpu-viv-6.4.3.p4.2.aarch64.bin(libGAL.so、libEGL.so
    發(fā)表于 03-28 06:35

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓(xùn)練策略和高性能算子庫(kù),這兩大框架在國(guó)產(chǎn)全功能GPU上實(shí)現(xiàn)了高效的混合
    的頭像 發(fā)表于 03-17 17:05 ?1518次閱讀
    摩爾線程<b class='flag-5'>GPU</b>原生FP8計(jì)算助力AI訓(xùn)練

    使用GPU作為目標(biāo)設(shè)備“無(wú)法創(chuàng)建插件libclDNNPlugin.so怎么解決?

    運(yùn)行OpenVINO時(shí)的 GPU 驅(qū)動(dòng)程序故障排除
    發(fā)表于 03-07 08:02