chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深入解析NVIDIA Nemotron 3系列開放模型

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2025-12-24 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這一全新開放模型系列引入了開放的混合 Mamba-Transformer MoE 架構,使多智能體系統(tǒng)能夠進行快速長上下文推理。

代理式AI系統(tǒng)日益依賴協(xié)同運行的智能體集合,包含檢索器、規(guī)劃器、工具執(zhí)行器、驗證器等,它們需在大規(guī)模上下文上長時間協(xié)同工作。這類系統(tǒng)需要能夠提供快速吞吐、高推理精度及大規(guī)模輸入持續(xù)一致性的模型。它們也需要一定的開放性,使開發(fā)者能夠在任意運行環(huán)境定制、擴展和部署模型。

NVIDIANemotron3系列開放模型(Nano、Super、Ultra)、數(shù)據(jù)集和技術專為在新時代構建專業(yè)代理式AI而設計。

該系列引入了異構Mamba-Transformer混合專家(mixture-of-experts,MoE)架構、交互式環(huán)境強化學習(reinforcement learning,RL),以及原生100萬token上下文窗口,可為多智能體應用提供高吞吐量、長時推理能力。

Nemotron3的新特性

Nemotron3引入了多項創(chuàng)新技術,可精準滿足代理式系統(tǒng)需求:

混合Mamba-TransformerMoE主干提供出色的測試時效率與長程推理能力。

圍繞真實世界代理式任務設計的多環(huán)境強化學習。

100萬token上下文長度支持深度多文檔推理與長時間智能體記憶。

開放透明的訓練管道,包含數(shù)據(jù)、權重及方案。

Nemotron3 Nano現(xiàn)已推出并附帶現(xiàn)成使用指南。Super與Ultra將于稍晚發(fā)布。

簡單提示示例

Nemotron3模型的核心技術

混合Mamba-TransformerMoE架構

Nemotron3將三種架構整合成一個主干:

Mamba層:實現(xiàn)高效序列建模

Transformer層:保障推理精度

MoE路由:實現(xiàn)可擴展計算效率

Mamba層擅長以極低顯存開銷追蹤長程依賴,即使處理數(shù)十萬token仍能保持穩(wěn)定的性能。Transformer層通過精細注意力機制對此進行了補充,捕捉例如代碼操作、數(shù)學推理或復雜規(guī)劃等任務所需的結構與邏輯關聯(lián)。

MoE組件在不增加密集計算開銷的前提下提升了有效參數(shù)數(shù)量。每個token僅激活一部分專家,從而降低了延遲并提高了吞吐量。該架構特別適合需要同時運行大量輕量級智能體的集群場景,每個智能體都生成計劃、檢查上下文或執(zhí)行基于工具的工作流。

wKgZO2lLUaGAGg0GAAEqsx62s9Q754.png

圖1:Nemotron3混合架構。該模型通過交錯部署Mamba-2與MoE層,輔以少量自注意力層,在保持領先精度的同時實現(xiàn)推理吞吐量最大化。

多環(huán)境強化學習(RL)訓練

為使Nemotron3契合真實代理式行為,該模型在NeMoGym(一個用于構建和擴展RL環(huán)境的開源庫)中通過跨多種環(huán)境的強化學習進行后訓練。這些環(huán)境評估模型執(zhí)行連續(xù)動作序列的能力(不僅是單次響應),例如生成正確的工具調(diào)用、編寫功能性代碼,或生成滿足可驗證標準的多步驟計劃。

這種基于軌跡的強化學習帶來了在多步驟工作流中表現(xiàn)穩(wěn)定的模型,減少推理漂移,并能處理代理式管道中常見的結構化操作。由于NeMoGym是開源的,開發(fā)者可在為特定領域任務定制模型時復用、擴展甚至創(chuàng)建自己的環(huán)境。

這些環(huán)境和RL數(shù)據(jù)集連同NeMoGym一起上線,供有意使用這些環(huán)境訓練自己模型的用戶使用。

wKgZPGlLUa2ARNpOAAFb3DOuYLc686.png

圖2:Nemotron3 Nano通過混合MoE架構實現(xiàn)極高的吞吐效率,并借助NeMoGym的先進強化學習技術達到領先精度

100萬token上下文長度

Nemotron3的100萬token上下文使其能夠在大型代碼庫、長文檔、擴展對話及聚合檢索內(nèi)容中進行持續(xù)推理。智能體無需依賴碎片化的分塊啟發(fā)式方法,就可以在單個上下文窗口中完整保留證據(jù)集、歷史緩沖及多階段計劃。

這種長上下文窗口得益于Nemotron3的混合Mamba-Transformer架構,它能夠高效處理超大規(guī)模的序列。MoE路由也能保持較低的單個token計算成本,使得在推理時處理這些大型序列成為可能。

對于企業(yè)級檢索增強生成、合規(guī)性分析、多小時智能體會話或整體存儲庫理解等場景,100萬token窗口可顯著加固事實基礎并減少上下文碎片化。

Nemotron3 Super與Ultra的核心技術

潛在MoE

Nemotron3 Super與Ultra引入了潛在MoE,其中專家先在共享潛在表示中運行,然后再將輸出結果投影回token空間。該方法使模型能夠在相同推理成本下調(diào)用多達4倍的專家,從而更好地圍繞微妙語義結構、領域抽象或多跳推理模式實現(xiàn)專業(yè)化。

wKgZO2lLUbqABMswAAIZgEEMtKo829.png

圖3:標準MoE與潛在MoE架構對比。在潛在MoE中,token被投影至更小的潛在維度進行專家路由與計算,在降低通信成本的同時支持更多專家參與,并提高每字節(jié)精度。

多token預測(MTP)

MTP使模型能夠在一次前向傳播中預測多個未來token,從而顯著提高長推理序列和結構化輸出的吞吐量。對于規(guī)劃、軌跡生成、擴展思維鏈或代碼生成,MTP可降低延遲并提高智能體的響應速度。

wKgZO2lLUcmAdZdsAAJQVNMSIAk996.png

圖4:多token預測(源自論文《通過多token預測實現(xiàn)更優(yōu)更快的大語言模型》)可同時預測多個未來token,在訓練階段將精度提高約2.4%,在推理階段實現(xiàn)了推測性解碼加速。

NVFP4訓練

Super與Ultra模型采用NVFP4精度進行預訓練,NVIDIA的4位浮點格式可為訓練與推理提供業(yè)界領先的成本精度比。我們?yōu)镹emotron3設計了更新版NVFP4方案,確保在25萬億token預訓練數(shù)據(jù)集上能夠?qū)崿F(xiàn)精準且穩(wěn)定的預訓練。預訓練過程中的大部分浮點乘加運算均采用NVFP4格式。

持續(xù)致力于開放模型

Nemotron3彰顯了NVIDIA對透明度與開發(fā)者賦能的承諾。該模型的權重已根據(jù)NVIDIA開放模型許可協(xié)議(NVIDIA Open Model License)公開發(fā)布。NVIDIA的合成預訓練語料庫(近10萬億token)可以被查閱或重用。開發(fā)者還可獲取NemotronGitHub庫中的詳細訓練與后訓練方案,實現(xiàn)完全的可復現(xiàn)性與定制化。

Nemotron3 Nano已發(fā)布,為高吞吐量、長上下文代理式系統(tǒng)奠定了基礎。Super與Ultra將于2026年上半年發(fā)布,將在此基礎上進一步深化推理能力和提高架構效率。

Nemotron3 Nano現(xiàn)已發(fā)布

系列首款模型Nemotron3 Nano已于近日發(fā)布。這個總參數(shù)300億、激活參數(shù)30億的模型專為DGX Spark、Hopper GPU及Blackwell GPU設計,讓用戶能夠使用Nemotron3系列中較高效的模型進行開發(fā)。

如果您想要了解更多關于Nemotron3 Nano的技術細節(jié),可訪問Hugging Face博客,或閱讀技術報告。

該模型可達到極高的吞吐量效率,在Artificial Analysis Intelligence Index上成績領先,并且在Artificial AnalysisOpenness Index上保持了與NVIDIANemotronNano V2相同的分數(shù)。這充分展現(xiàn)了其在多智能體任務中的高效性,同時兼具透明度與可定制性。

wKgZPGlLUdOANXm6AAEaLqy0mMs217.png

圖5:在Artificial AnalysisIntelligence Indexv3.0上,Nemotron3 Nano的精度(52)領先于同等規(guī)模模型。

開發(fā)者現(xiàn)可在多種部署與開發(fā)工作流中使用Nemotron3 Nano:

通過NVIDIA使用指南啟動模型

我們?yōu)槎鄠€主流推理引擎提供現(xiàn)成使用指南:

vLLM使用指南:通過高吞吐量連續(xù)批處理和流式輸出部署Nemotron3 Nano。

SGLang使用指南:運行專為多智能體工具調(diào)用工作負載優(yōu)化的快速、輕量級推理。

TRT LLM使用指南:部署專為低延遲生產(chǎn)級環(huán)境完全優(yōu)化的TensorRTLLM引擎。

每套使用指南均包含配置模板、性能優(yōu)化建議及參考腳本,助您在數(shù)分鐘內(nèi)啟動Nemotron3 Nano。

此外,從GeForce RTX臺式電腦/筆記本電腦、RTX Pro工作站到DGX Spark,您可以立即在任意NVIDIA GPU上使用Nemotron,并借助Llama.cpp、LM Studio和Unsloth等頂級框架與工具上手。

使用Nemotron開放訓練數(shù)據(jù)集進行開發(fā)

NVIDIA同時發(fā)布了在整個模型開發(fā)期間使用的開放數(shù)據(jù)集,為高性能、可信模型的構建帶來了空前的透明度。

新數(shù)據(jù)集的特點包括:

Nemotron預訓練:新的3萬億token數(shù)據(jù)集,通過合成增強與標注管道進行增強,更加全面地覆蓋代碼、數(shù)學及推理場景。

Nemotron后訓練3.0:1,300萬樣本語料庫,用于監(jiān)督式微調(diào)與強化學習,為Nemotron3 Nano的對齊與推理能力提供支持。

Nemotron強化學習數(shù)據(jù)集:精選的強化學習數(shù)據(jù)集與環(huán)境集合,涵蓋工具使用、規(guī)劃及多步驟推理。

Nemotron智能體安全數(shù)據(jù)集:近1.1萬條AI智能體工作流軌跡集合,幫助研究人員評估和減輕代理式系統(tǒng)中的新型安全風險。

配合NVIDIANeMoGym、RL、Data Designer及Evaluator開放庫,這些開放數(shù)據(jù)集使開發(fā)者能夠訓練、增強和評估他們自己的Nemotron模型。

探索NemotronGitHub:預訓練與強化學習方案

NVIDIA維護著一個開放的NemotronGitHub庫,其中包含:

預訓練方案(已發(fā)布),展示Nemotron3 Nano的訓練過程

用于多環(huán)境優(yōu)化的強化學習對齊方案

數(shù)據(jù)處理管道、分詞器配置及長上下文設置

后續(xù)更新將加入更多后訓練與微調(diào)方案

如果您想訓練自己的Nemotron、擴展Nano或創(chuàng)建特定領域的變體,GitHub庫提供了文檔、配置及工具,可從頭至尾重現(xiàn)關鍵步驟。

這種開放性實現(xiàn)了完整閉環(huán):您可以運行、部署模型,查驗模型的構建方式,甚至訓練您自己的模型,全程僅需使用NVIDIA開放資源。

Nemotron3 Nano現(xiàn)已上線。即刻開始使用NVIDIA開放模型、開放工具、開放數(shù)據(jù)及開放訓練基礎設施,構建長上下文、高吞吐量的代理式系統(tǒng)。

Nemotron模型推理挑戰(zhàn)賽

加速開放研究是Nemotron團隊的核心使命。為此,我們十分高興地宣布一項新的社區(qū)競賽,其內(nèi)容是使用Nemotron的開放模型與數(shù)據(jù)集提高Nemotron的推理性能。

關于作者

Chris Alexiuk 是 NVIDIA 的深度學習開發(fā)者倡導者,負責創(chuàng)建技術資源,幫助開發(fā)者使用 NVIDIA 提供的一整套強大 AI 工具。Chris 擁有機器學習和數(shù)據(jù)科學背景,對大型語言模型的一切充滿熱情。

Shashank Verma 是 NVIDIA 的一名深入學習的技術營銷工程師。他負責開發(fā)和展示各種深度學習框架中以開發(fā)人員為中心的內(nèi)容。他從威斯康星大學麥迪遜分校獲得電氣工程碩士學位,在那里他專注于計算機視覺、數(shù)據(jù)科學的安全方面和 HPC 。

Chintan Patel是NVIDIA的高級產(chǎn)品經(jīng)理,致力于將GPU加速的解決方案引入HPC社區(qū)。 他負責NVIDIA GPU Cloud注冊表中HPC應用程序容器的管理和提供。 在加入NVIDIA之前,他曾在Micrel,Inc.擔任產(chǎn)品管理,市場營銷和工程職位。他擁有圣塔克拉拉大學的MBA學位以及UC Berkeley的電氣工程和計算機科學學士學位。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5682

    瀏覽量

    110092
  • AI
    AI
    +關注

    關注

    91

    文章

    40908

    瀏覽量

    302497
  • 模型
    +關注

    關注

    1

    文章

    3810

    瀏覽量

    52253

原文標題:深入解析 NVIDIA Nemotron 3:使其高效精準的技術、工具與數(shù)據(jù)

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向科學仿真的開放模型系列NVIDIA Apollo正式發(fā)布

    用于加速工業(yè)和計算工程的開放模型系列 NVIDIA Apollo 于近日舉行的 SC25 大會上正式發(fā)布。
    的頭像 發(fā)表于 11-25 11:15 ?7.4w次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該
    的頭像 發(fā)表于 09-06 14:59 ?1434次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Nemotron</b>-4 340B<b class='flag-5'>模型</b>幫助開發(fā)者生成合成訓練數(shù)據(jù)

    NVIDIA推出開放式Llama Nemotron系列模型

    作為 NVIDIA NIM 微服務,開放式 Llama Nemotron 大語言模型和 Cosmos Nemotron 視覺語言
    的頭像 發(fā)表于 01-09 11:11 ?1678次閱讀

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發(fā)者和企業(yè)提供業(yè)務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成復雜
    發(fā)表于 03-19 09:31 ?435次閱讀
    <b class='flag-5'>NVIDIA</b> 推出<b class='flag-5'>開放</b>推理 AI <b class='flag-5'>模型</b><b class='flag-5'>系列</b>,助力開發(fā)者和企業(yè)構建代理式 AI 平臺

    ServiceNow攜手NVIDIA構建150億參數(shù)超級助手

    Apriel Nemotron 15B 開源大語言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron
    的頭像 發(fā)表于 05-12 15:37 ?1040次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1991次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Nemotron</b> Nano 2推理<b class='flag-5'>模型</b>發(fā)布

    NVIDIA Nemotron模型如何推動AI發(fā)展

    Nemotron 開源技術能夠幫助開發(fā)者與企業(yè)構建強大的通用和專用智能系統(tǒng)。
    的頭像 發(fā)表于 10-13 11:12 ?1165次閱讀

    NVIDIA推動面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領域的全新 AI 工具,其中包括面向移動出行領域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1512次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞摘要: ● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領先的精度,適用于代
    的頭像 發(fā)表于 12-16 09:27 ?791次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 <b class='flag-5'>Nemotron</b> <b class='flag-5'>3</b> <b class='flag-5'>系列</b><b class='flag-5'>開放</b><b class='flag-5'>模型</b>

    利用NVIDIA Nemotron開放模型構建智能文檔處理系統(tǒng)

    基于 NVIDIA Nemotron 開放模型的 AI 驅(qū)動文檔智能,增強科學研究、金融和法律等領域工作流。
    的頭像 發(fā)表于 02-25 11:21 ?643次閱讀

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開始深入到現(xiàn)實世界的各種機器中。從 Orin 到 Thor,NVIDIA Jetson 系列正在成為運行
    的頭像 發(fā)表于 03-16 16:27 ?577次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能AI在邊緣端落地

    NVIDIA 擴展開放模型系列,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    新聞摘要: ●NVIDIA Nemotron 3 全模態(tài)理解模型 (Omni-understanding Models) 為 AI 智能體提供動力 ,使其能夠?qū)崿F(xiàn)自然對話、復雜推理和高
    的頭像 發(fā)表于 03-17 09:18 ?482次閱讀
    <b class='flag-5'>NVIDIA</b> 擴展<b class='flag-5'>開放</b><b class='flag-5'>模型</b><b class='flag-5'>系列</b>,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    NVIDIA 成立由全球領先 AI 實驗室組成的 Nemotron Coalition,推動開放前沿模型發(fā)展

    新聞摘要: ● NVIDIA Nemotron Coalition 是模型構建者和 AI 實驗室的首個此類全球合作項目,致力于通過共享專業(yè)知識、數(shù)據(jù)和計算來推進開放前沿基礎
    的頭像 發(fā)表于 03-17 11:14 ?271次閱讀
    <b class='flag-5'>NVIDIA</b> 成立由全球領先 AI 實驗室組成的 <b class='flag-5'>Nemotron</b> Coalition,推動<b class='flag-5'>開放</b>前沿<b class='flag-5'>模型</b>發(fā)展

    NVIDIA與亞馬遜云科技深化合作伙伴關系

    NVIDIA 和亞馬遜云科技 (AWS) 擴展雙方合作,增強在 AWS 平臺上的由 NVIDIA 驅(qū)動的數(shù)據(jù)處理能力,并增加對 NVIDIA Nemotron
    的頭像 發(fā)表于 03-23 15:17 ?417次閱讀

    NVIDIA開放模型助力構建下一代數(shù)字健康智能體

    NVIDIA Nemotron 系列開放模型NVIDIA NeMo 庫正在為臨床醫(yī)生、研究人
    的頭像 發(fā)表于 03-25 09:46 ?371次閱讀