91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Nemotron Nano 2推理模型發(fā)布

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-08-27 12:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列NVIDIA Nemotron Nano 2。

aa2d7d4a-824b-11f0-a18e-92fbcf53809c.png

*圖中,ISL 與 OSL 分別代表輸入和輸出序列長度,吞吐量數(shù)據(jù)均在單顆 NVIDIA GPU 上以 bfloat16 精度測(cè)得。

如“NVIDIA Nemotron Nano 2:準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型”技術(shù)報(bào)告所示,推理模型 NVIDIA-Nemotron-Nano-v2-9B 在復(fù)雜推理基準(zhǔn)測(cè)試中,實(shí)現(xiàn)了與領(lǐng)先的同規(guī)模開源模型 Qwen3-8B 相當(dāng)乃至更佳的準(zhǔn)確率,吞吐量較后者至高提升6倍。

我們?cè)?Hugging Face 上發(fā)布了以下三個(gè)模型,它們均支持 128K 上下文長度:

NVIDIA-Nemotron-Nano-9B-v2:經(jīng)過對(duì)齊和剪枝的推理模型

NVIDIA-Nemotron-Nano-9B-v2-Base:經(jīng)過剪枝的基礎(chǔ)模型

NVIDIA-Nemotron-Nano-12B-v2-Base:未經(jīng)過對(duì)齊或剪枝的基礎(chǔ)模型

數(shù)據(jù)集

此外,作為行業(yè)領(lǐng)先開源模型的首次嘗試,我們公開了在預(yù)訓(xùn)練中使用的大部分?jǐn)?shù)據(jù)。

Nemotron-Pre-Training-Dataset-v1 數(shù)據(jù)集包含6.6萬億個(gè) Token,涵蓋高質(zhì)量網(wǎng)絡(luò)爬取、數(shù)學(xué)、代碼、SFT 和多語言問答數(shù)據(jù),分為以下四個(gè)類別:

Nemotron-CC-v2:基于 Nemotron-CC(Su 等人,2025 年)的后續(xù)版本,新增了 2024 至 2025 年間的八個(gè) Common Crawl 快照數(shù)據(jù)集。數(shù)據(jù)集經(jīng)過整體去重處理,并使用 Qwen3-30B-A3B 對(duì)其進(jìn)行了合成重述。此外,該數(shù)據(jù)集還包含15 種語言的合成多樣化問答,可支持強(qiáng)大的多語言邏輯推理和通用知識(shí)預(yù)訓(xùn)練。

Nemotron-CC-Math-v1:一個(gè)以數(shù)學(xué)為重點(diǎn)的數(shù)據(jù)集,包含1,330 億個(gè) Token。該數(shù)據(jù)集使用NVIDIALynx + LLM 管線從 Common Crawl 中提取數(shù)據(jù),在保留方程和代碼格式的同時(shí),將數(shù)學(xué)內(nèi)容統(tǒng)一標(biāo)準(zhǔn)化為 LaTex 的編輯形式,確保了關(guān)鍵數(shù)學(xué)內(nèi)容和代碼片段完整無損,生成的預(yù)訓(xùn)練數(shù)據(jù)在基準(zhǔn)測(cè)試中顯著優(yōu)于現(xiàn)有數(shù)學(xué)數(shù)據(jù)集。

Nemotron-Pretraining-Code-v1:基于 GitHub 構(gòu)建的大規(guī)模精選代碼數(shù)據(jù)集。該數(shù)據(jù)集經(jīng)過多階段去重、許可證強(qiáng)制執(zhí)行和啟發(fā)式質(zhì)量檢查過濾,包含11 種編程語言的 LLM 生成代碼問答對(duì)。

Nemotron-Pretraining-SFT-v1:覆蓋STEM、學(xué)術(shù)、邏輯推理和多語言領(lǐng)域的合成生成數(shù)據(jù)集。該數(shù)據(jù)集包含復(fù)雜的多選題和解析題,這些問題源自高質(zhì)量數(shù)學(xué)和科學(xué)素材、研究生級(jí)的學(xué)術(shù)文本以及經(jīng)過指令微調(diào)的 SFT 數(shù)據(jù)(涵蓋數(shù)學(xué)、代碼、通用問答和邏輯推理任務(wù))。

Nemotron-Pretraining-Dataset-sample:數(shù)據(jù)集的精簡采樣版本,包含10 個(gè)代表性子集,內(nèi)容涵蓋高質(zhì)量問答數(shù)據(jù)、專注于數(shù)學(xué)領(lǐng)域的提取內(nèi)容、代碼元數(shù)據(jù)及 SFT 風(fēng)格指令數(shù)據(jù)。

技術(shù)亮點(diǎn)

數(shù)據(jù)集的亮點(diǎn)包括:

Nemotron-CC-Math:通過文本瀏覽器 (Lynx) 渲染網(wǎng)頁并結(jié)合大語言模型 (phi-4) 進(jìn)行后處理,首次實(shí)現(xiàn)在大規(guī)模網(wǎng)頁下正確保留各種數(shù)學(xué)格式的方程和代碼的處理流程(包括長尾格式)。相較于過去基于啟發(fā)式的方法,這是一次突破性改進(jìn)。內(nèi)部預(yù)訓(xùn)練實(shí)驗(yàn)表明,使用 Nemotron-CC-Math 數(shù)據(jù)集訓(xùn)練的模型在 MATH 測(cè)試上較最強(qiáng)基線提升了 4.8 至 12.6 分,在 MBPP+ 代碼生成任務(wù)上提升了 4.6 至 14.3 分。

Nemotron-CC-v2:此前研究表明,從高質(zhì)量英文網(wǎng)頁爬取數(shù)據(jù)生成的合成多樣化問答數(shù)據(jù),能顯著提升大語言模型 (LLM) 通用能力(如 MMLU 等基準(zhǔn)測(cè)試顯示)。在此基礎(chǔ)上,我們通過將此數(shù)據(jù)集翻譯成 15 種語言,把這一發(fā)現(xiàn)擴(kuò)展到更多語言。消融實(shí)驗(yàn)顯示,加入翻譯過的多樣化問答數(shù)據(jù)后,Global-MMLU 平均準(zhǔn)確率比僅使用多語言 Common Crawl 數(shù)據(jù)提升了 10.0 分。

Nemotron-Pretraining-Code:除 1,751 億個(gè)高質(zhì)量合成代碼數(shù)據(jù) Token 外,我們還發(fā)布了元數(shù)據(jù),使用戶能夠復(fù)現(xiàn)一個(gè)精心整理、寬松授權(quán)的代碼數(shù)據(jù)集(規(guī)模達(dá) 7,474 億 Token)。

模型的亮點(diǎn)包括:

預(yù)訓(xùn)練階段:Nemotron-Nano-12B-v2-Base 采用Warmup-Stable-Decay 學(xué)習(xí)率調(diào)度器在 20 萬億個(gè) Token 上以 FP8 精度進(jìn)行預(yù)訓(xùn)練。隨后,通過持續(xù)的預(yù)訓(xùn)練長上下文擴(kuò)展階段,可在不降低其他基準(zhǔn)性能的情況下支持 128k 上下文長度。

后訓(xùn)練階段:Nemotron Nano 2 通過監(jiān)督式微調(diào) (SFT)、組相對(duì)策略優(yōu)化 (GRPO)、直接偏好優(yōu)化 (DPO) 和基于人類反饋的強(qiáng)化學(xué)習(xí) (RLHF) 進(jìn)行后訓(xùn)練。其中約 5% 的數(shù)據(jù)包含故意截?cái)嗟倪壿嬐蒲?,使推理時(shí)能夠精細(xì)控制思考預(yù)算。

壓縮:最后,我們對(duì)基礎(chǔ)模型和對(duì)齊后的模型進(jìn)行了壓縮,使其能夠在單顆 NVIDIA GPU(22 GiB 內(nèi)存,bfloat16 精度)上實(shí)現(xiàn) 128k Token 上下文長度的推理。此結(jié)果通過擴(kuò)展基于 Minitron 的壓縮策略以壓縮受約束的邏輯推理模型實(shí)現(xiàn)。

數(shù)據(jù)示例

aa4f5924-824b-11f0-a18e-92fbcf53809c.png

示例 1:我們的處理流程能夠同時(shí)保留數(shù)學(xué)公式和代碼,而之前的預(yù)訓(xùn)練數(shù)據(jù)集通常會(huì)丟失或損壞數(shù)學(xué)公式。

引用

@misc{nvidia2025nvidianemotronnano2,
   title={NVIDIA Nemotron Nano2: An AccurateandEfficient Hybrid Mamba-Transformer Reasoning Model},
   author={NVIDIA},
   year={2025},
   eprint={2508.14444},
   archivePrefix={arXiv},
   primaryClass={cs.CL},
   url={https://arxiv.org/abs/2508.14444},

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5592

    瀏覽量

    109705
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135414
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52093
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26186

原文標(biāo)題:NVIDIA Nemotron Nano 2 及 Nemotron 預(yù)訓(xùn)練數(shù)據(jù)集 v1

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用NVIDIA Nemotron開放模型構(gòu)建智能文檔處理系統(tǒng)

    基于 NVIDIA Nemotron 開放模型的 AI 驅(qū)動(dòng)文檔智能,增強(qiáng)科學(xué)研究、金融和法律等領(lǐng)域工作流。
    的頭像 發(fā)表于 02-25 11:21 ?378次閱讀

    商湯科技正式開源多模態(tài)自主推理模型SenseNova-MARS

    今日,商湯正式開源多模態(tài)自主推理模型 SenseNova-MARS(8B/32B 雙版本),其在多模態(tài)搜索與推理的核心基準(zhǔn)測(cè)試中以 69.74 分超越Gemini-3-Pro(69.06 分)、GPT-5.2(67.64 分)。
    的頭像 發(fā)表于 01-30 10:13 ?504次閱讀
    商湯科技正式開源多模態(tài)自主<b class='flag-5'>推理模型</b>SenseNova-MARS

    阿里巴巴發(fā)布通義千問旗艦推理模型Qwen3-Max-Thinking

    今天,我們正式發(fā)布千問旗艦推理模型Qwen3-Max-Thinking,創(chuàng)下數(shù)項(xiàng)權(quán)威評(píng)測(cè)全球新紀(jì)錄。
    的頭像 發(fā)表于 01-27 15:47 ?364次閱讀
    阿里巴巴<b class='flag-5'>發(fā)布</b>通義千問旗艦<b class='flag-5'>推理模型</b>Qwen3-Max-Thinking

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?470次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞?wù)?: l NVIDIA 率先發(fā)布為應(yīng)對(duì)輔助駕駛長尾場景挑戰(zhàn)而設(shè)計(jì)的開源視覺-語言-動(dòng)作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列還包含賦能輔助
    的頭像 發(fā)表于 01-06 09:40 ?372次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI <b class='flag-5'>模型</b>與工具,加速安全可靠的<b class='flag-5'>推理</b>型輔助駕駛汽車開發(fā)

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞?wù)?● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開發(fā)。 ● Nemotron
    的頭像 發(fā)表于 12-16 09:27 ?623次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 <b class='flag-5'>Nemotron</b> 3 系列開放<b class='flag-5'>模型</b>

    NVIDIA推動(dòng)面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動(dòng)出行領(lǐng)域的行業(yè)級(jí)開源視覺-語言-動(dòng)作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1329次閱讀

    NVIDIA Nemotron模型如何推動(dòng)AI發(fā)展

    Nemotron 開源技術(shù)能夠幫助開發(fā)者與企業(yè)構(gòu)建強(qiáng)大的通用和專用智能系統(tǒng)。
    的頭像 發(fā)表于 10-13 11:12 ?1014次閱讀

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?1257次閱讀

    澎峰科技完成OpenAI最新開源推理模型適配

    澎峰科技現(xiàn)已完成 OpenAI 最新開源推理模型 gpt-oss-20b 在 DeepFusion 大模型一體機(jī)上的原生適配與優(yōu)化,用戶可一鍵啟用這顆“小而強(qiáng)悍”的新引擎,在本地享受企業(yè)級(jí) AI 生產(chǎn)力!
    的頭像 發(fā)表于 08-14 11:34 ?1399次閱讀

    利用NVIDIA推理模型構(gòu)建AI智能體

    開放式推理模型能夠更快、更廣泛地進(jìn)行思考,為客戶服務(wù)、網(wǎng)絡(luò)安全、制造、物流和機(jī)器人等領(lǐng)域的 AI 智能體生成更明智的結(jié)果。
    的頭像 發(fā)表于 08-13 14:32 ?1579次閱讀
    利用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理模型</b>構(gòu)建AI智能體

    企業(yè)使用NVIDIA NeMo微服務(wù)構(gòu)建AI智能體平臺(tái)

    發(fā)布的 NeMo 微服務(wù)可與合作伙伴平臺(tái)集成,作為創(chuàng)建 AI 智能體的構(gòu)建模塊,使用商業(yè)智能與強(qiáng)大的邏輯推理模型 (包括 NVIDIA Llama Nemotron) 處理更多任務(wù)。
    的頭像 發(fā)表于 04-27 15:05 ?1278次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進(jìn)展,特別是自DeepSeekR1發(fā)布后興起的推理時(shí)間計(jì)算擴(kuò)展相關(guān)內(nèi)容。在LLM中實(shí)施和改進(jìn)推理簡單來說,基于LLM的推理模型是一種旨在通過生成中間
    的頭像 發(fā)表于 04-03 12:09 ?1610次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的 AI
    的頭像 發(fā)表于 03-20 15:03 ?1230次閱讀

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    NVIDIA 后訓(xùn)練的全新 Llama Nemotron 推理模型,為代理式 AI 提供業(yè)務(wù)就緒型基礎(chǔ) 埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike
    發(fā)表于 03-19 09:31 ?390次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> AI <b class='flag-5'>模型</b>系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)