91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA為全球企業(yè)開發(fā)和部署大型語言模型打開一扇新的大門

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 作者:NVIDIA英偉達 ? 2021-11-12 14:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA NeMo Megatron 框架; 可定制的大規(guī)模語言模型Megatron 530B;多GPU、多節(jié)點 Triton推理服務(wù)器助力基于語言的AI開發(fā)和部署,推動行業(yè)和科學(xué)發(fā)展

NVIDIA為全球企業(yè)開發(fā)和部署大型語言模型打開了一扇新的大門——使這些企業(yè)能夠建立他們自己的、特定領(lǐng)域的聊天機器人、個人助理和其他AI應(yīng)用程序,并能夠以前所未有的水平理解語言中的微妙和細微差別。

NVIDIA推出了為訓(xùn)練具有數(shù)萬億參數(shù)的語言模型而優(yōu)化的NVIDIA NeMo Megatron框架、為新領(lǐng)域和語言進行訓(xùn)練的可定制大型語言模型(LLM)Megatron 530B以及具有多GPU、多節(jié)點分布式推理功能的NVIDIA Triton推理服務(wù)器。

這些工具與NVIDIA DGX系統(tǒng)相結(jié)合,提供了一個可部署到實際生產(chǎn)環(huán)境的企業(yè)級解決方案,以簡化大型語言模型的開發(fā)和部署。

“大型語言模型已被證明是靈活且功能強大的,無需專門的培訓(xùn)或監(jiān)督,即可回答深層次領(lǐng)域問題,翻譯語言,理解和總結(jié)文件,編寫故事和計算程序?!?NVIDIA應(yīng)用深度學(xué)習(xí)研究副總裁Bryan Catanzaro表示?!?為新的語言和領(lǐng)域建立大型語言模型可能仍然是最大的超級計算的應(yīng)用,現(xiàn)在這些功能對全球的企業(yè)也變得觸手可及。”

NVIDIA NeMo Megatron和Megatron 530B

加速大型語言模型開發(fā)

NVIDIA NeMo Megatron是在Megatron的基礎(chǔ)上發(fā)展起來的開源項目,由NVIDIA研究人員主導(dǎo),研究大型轉(zhuǎn)換語言模型的高效訓(xùn)練。Megatron 530B是世界上最大的可定制語言模型。

NeMo Megatron框架使企業(yè)能夠克服訓(xùn)練復(fù)雜自然語言處理模型的挑戰(zhàn)。經(jīng)過優(yōu)化,可以在NVIDIA DGX SuperPOD的大規(guī)模加速計算基礎(chǔ)設(shè)施上進行擴展。

NeMo Megatron通過數(shù)據(jù)處理庫自動處理LLM訓(xùn)練的復(fù)雜性,這些數(shù)據(jù)處理庫可以攝入、策劃、組織和清理數(shù)據(jù)。利用先進的數(shù)據(jù)、張量和管道并行化技術(shù),它能使大型語言模型的訓(xùn)練有效地分布在成千上萬的GPU上。企業(yè)可以通過NeMo Megatron框架進一步訓(xùn)練它以服務(wù)新的領(lǐng)域和語言。

NVIDIA Triton推理服務(wù)器

助力實時大型語言模型推理

此外,今日發(fā)布的最新NVIDIA Triton推理服務(wù)器中的多GPU、多節(jié)點特性,使大型語言模型推理工作負載能夠?qū)崟r在多個GPU和節(jié)點上擴展。這些模型需要的內(nèi)存比單個GPU甚至是包含多個GPU的大型服務(wù)器所能提供的還要多,并且,實際應(yīng)用對其推理實時性有著極高的要求。

通過Triton推理服務(wù)器,Megatron530B能夠在兩個NVIDIA DGX系統(tǒng)上運行,將處理時間從CPU服務(wù)器上的1分鐘以上縮短到半秒,令實時應(yīng)用部署大型語言模型成為可能。

全球范圍開發(fā)的大規(guī)模定制語言模型

使用NVIDIA DGX SuperPOD構(gòu)建大型復(fù)雜語言模型的早期客戶包括SiDi、京東探索研究院和VinBrai。 SiDi是巴西的一家大型AI 研究和開發(fā)機構(gòu),已經(jīng)采用三星虛擬助手,供全國 2 億巴西葡萄牙語者使用。 SiDi 首席執(zhí)行官John Yi 表示:“SiDi 團隊在AI 虛擬助理和聊天機器人開發(fā)方面擁有豐富的經(jīng)驗,此類開發(fā)既需要強大的 AI 性能,也需要經(jīng)過訓(xùn)練并適應(yīng)人類語言不斷變化的細微差別的專用軟件。NVIDIA DGX SuperPOD 非常適合推動我們團隊的先進工作,幫助我們?yōu)榘臀鞯钠咸蜒勒Z者提供領(lǐng)先的AI 服務(wù)?!?京東探索研究院,是以供應(yīng)鏈為基礎(chǔ)的領(lǐng)先技術(shù)和服務(wù)提供商京東的研發(fā)部門,他們利用 NVIDIA DGX SuperPOD 開發(fā)NLP,應(yīng)用于智能客戶服務(wù)、智能零售、智能物流、物聯(lián)網(wǎng)、醫(yī)療健康等領(lǐng)域。 VinBrain,越南的醫(yī)療健康 AI 公司,他們使用 DGX SuperPOD 為100 家醫(yī)院的放射科醫(yī)生和遠程醫(yī)療醫(yī)生開發(fā)和部署了一種臨床語言模型。在這些醫(yī)院,已有 600 多名醫(yī)療健康從業(yè)者使用該模型。

供應(yīng)情況

企業(yè)可以利用今天同期發(fā)布的NVIDIA LaunchPad,免費體驗開發(fā)和部署大型語言模型。行業(yè)組織可以申請加入搶先體驗計劃,了解用于訓(xùn)練大規(guī)模語言模型的 NVIDIA NeMo Megatron 加速框架。

NVIDIA Triton可從NVIDIA NGC目錄中獲得,該目錄是GPU優(yōu)化的AI軟件中心,包括框架、工具包、預(yù)訓(xùn)練模型和Jupyter Notebooks,并可從Triton GitHub repository中獲取開放源代碼。

Triton也包含在NVIDIA AI Enterprise軟件套件中,該套件由NVIDIA優(yōu)化、認證和支持。企業(yè)可以使用該軟件套件,在內(nèi)部數(shù)據(jù)中心和私有云的主流加速服務(wù)器上運行語言模型推理。

NVIDIA DGX SuperPOD 和NVIDIA DGX 系統(tǒng)通過NVIDIA 的全球經(jīng)銷商提供,這些合作伙伴能夠根據(jù)要求為符合條件的客戶提供詢價服務(wù)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5594

    瀏覽量

    109758
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301454
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52112

原文標題:GTC21 | NVIDIA 借助超大規(guī)模 AI 語言模型為全球企業(yè)賦能

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    在AI基礎(chǔ)設(shè)施中部署語言模型的三大舉措

    文:Gartner研究副總裁周玲中國企業(yè)機構(gòu)已逐步在生產(chǎn)環(huán)境中運行或者計劃運行大語言模型,但在AI基礎(chǔ)設(shè)施的生產(chǎn)部署與高效運營方面仍面臨諸多挑戰(zhàn)。目前,中國正加速提升其生成式AI能力,
    的頭像 發(fā)表于 02-09 16:28 ?400次閱讀
    在AI基礎(chǔ)設(shè)施中<b class='flag-5'>部署</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的三大舉措

    能源管理:御控數(shù)采網(wǎng)關(guān)讓每度電“看得見、管得精、省得下”

    御控能源數(shù)采網(wǎng)關(guān)與可視化能源管理系統(tǒng)的完美融合,正為企業(yè)開啟一扇通往智慧能源管理的新大門。
    的頭像 發(fā)表于 01-07 13:28 ?104次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞?wù)?: l NVIDIA 率先發(fā)布應(yīng)對輔助駕駛長尾場景挑戰(zhàn)而設(shè)計的開源視覺-語言-動作推理模型(Reasoning VLA);NVIDIA
    的頭像 發(fā)表于 01-06 09:40 ?387次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI <b class='flag-5'>模型</b>與工具,加速安全可靠的推理型輔助駕駛汽車<b class='flag-5'>開發(fā)</b>

    如何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)大模型

    期介紹了如何在 NVIDIA Jetson AGX Thor 上使用 Docker 部署 vLLM 推理服務(wù),以及使用 Chatbox 作為前端調(diào)用 vLLM 運行的模型(上期文章
    的頭像 發(fā)表于 12-26 17:06 ?4836次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上<b class='flag-5'>部署</b>1200億參數(shù)大<b class='flag-5'>模型</b>

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助 NVID
    的頭像 發(fā)表于 12-01 09:25 ?1140次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署
    的頭像 發(fā)表于 10-29 16:59 ?1232次閱讀

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型
    的頭像 發(fā)表于 10-13 16:52 ?948次閱讀

    Votee AI借助NVIDIA技術(shù)加速方言小語種LLM開發(fā)

    了精準的方言及小語種大語言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語言復(fù)雜及計算效率等挑戰(zhàn),全球數(shù)以百萬計、缺乏數(shù)字化資源的
    的頭像 發(fā)表于 08-20 14:21 ?863次閱讀

    Cognizant加速AI模型企業(yè)開發(fā)

    -Cognizant推出AI Training Data Services,助力企業(yè)級AI模型加速開發(fā) Cognizant是數(shù)據(jù)與AI模型訓(xùn)練合作伙伴,長期深受
    的頭像 發(fā)表于 07-31 17:25 ?714次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態(tài)大
    的頭像 發(fā)表于 07-09 10:17 ?821次閱讀

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級 AI。
    的頭像 發(fā)表于 06-12 15:42 ?1191次閱讀

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動決策自動化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型部署時,常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?889次閱讀

    如何在RAKsmart服務(wù)器上實現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計算服務(wù)提供商,已成為企業(yè)部署
    的頭像 發(fā)表于 03-27 09:46 ?940次閱讀

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)
    的頭像 發(fā)表于 03-26 14:42 ?745次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作<b class='flag-5'>部署</b>神經(jīng)人工智能平臺,加速<b class='flag-5'>企業(yè)</b>人工智能應(yīng)用

    英偉達GTC2025亮點:NVIDIA認證計劃擴展至企業(yè)存儲領(lǐng)域,加速AI工廠部署

    ,現(xiàn)在已將企業(yè)存儲納入其中,旨在通過加速計算、網(wǎng)絡(luò)、軟件和存儲,助力企業(yè)更高效地部署 AI 工廠。 在企業(yè)構(gòu)建 AI 工廠的過程中,獲取高質(zhì)量數(shù)據(jù)對于確保 AI
    的頭像 發(fā)表于 03-21 19:38 ?2060次閱讀