熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
介紹 NVIDIA Nemotron 3 Super 🎉
開放 120B 參數(12B 活躍)混合 Mamba-Transformer MoE 模型
原生 1M 令牌上下文
專為計算效率高、準確性高的多代理應用而建
此外,完全開放的權重、數據集和配方,便於自定義和部署。🧵
這個最新的 Nemotron 家族成員不僅僅是一個更大的 Nano。
✅ 比上一版本高出 5 倍的吞吐量和 2 倍的準確性
✅ 潛在的 MoE 以相同的推理成本調用 4 倍的專家專家
✅ 多標記預測顯著減少生成時間
✅ 混合 Mamba-Transformer 主幹提供 4 倍的記憶體和計算效率提升
✅ 原生 NVFP4 預訓練針對 NVIDIA Blackwell 進行優化
查看有關模型背後架構決策和訓練方法的深入分析 👇

🦞這些創新結合在一起,創造出一個非常適合長期運行的自主代理的模型。
在 PinchBench——一個用於評估 LLM 作為 @OpenClaw 編碼代理的基準——Nemotron 3 Super 在整個測試套件中得分 85.6%,使其成為同類中最佳的開放模型。

@openclaw “NVIDIA Nemotron 3 Super:開放、高效智慧的新領導者”

9 小時前
NVIDIA 發布了 Nemotron 3 Super,這是一個 120B(12B 活躍)開放權重推理模型,在人工分析智能指數上得分 36,採用混合 Mamba-Transformer MoE 架構。
我們在發布前獲得了這個模型的訪問權限,並在智能性、開放性和推理效率方面進行了評估。
主要收穫
➤ 結合高開放性與強智能性:Nemotron 3 Super 在其大小上表現強勁,並且在智能性上顯著超過任何其他具有可比開放性的模型。
➤ Nemotron 3 Super 在人工分析智能指數上得分 36,比之前的 Super 發布高出 17 分,並比 Nemotron 3 Nano 高出 12 分。與同類型大小的模型相比,這使其超過了 gpt-oss-120b(33),但落後於最近發布的 Qwen3.5 122B A10B(42)。
➤ 專注於高效智能:我們發現 Nemotron 3 Super 的智能性高於 gpt-oss-120b,同時在一個簡單但現實的負載測試中每 GPU 的吞吐量提高了約 10%。
➤ 今天支持快速無伺服器推理:包括 @DeepInfra 和 @LightningAI 在內的提供商在發布時以每秒高達 484 個標記的速度提供此模型。
模型詳情
📝 Nemotron 3 Super 總共有 120.6B 和 12.7B 活躍參數,擁有 1 百萬個標記的上下文窗口和混合推理支持。它以開放權重和寬鬆許可證發布,並附有開放的訓練數據和方法論披露。
📐 該模型具有幾個設計特徵,能夠實現高效推理,包括使用混合 Mamba-Transformer 和 LatentMoE 架構、多標記預測和 NVFP4 量化權重。
🎯 NVIDIA 在(主要)NVFP4 精度下預訓練了 Nemotron 3 Super,但在後訓練時轉向 BF16。我們的評估分數使用 BF16 權重。
🧠 我們在其最高努力推理模式("常規")下對 Nemotron 3 Super 進行了基準測試,這是該模型三種推理模式中最具能力的一種(推理關閉、低努力和常規)。

@openclaw ✨ Nemotron 3 Super 現在已在模型選擇器下拉菜單中提供給 @Perplexity_ai Pro 和 Max 訂閱者。它也可以通過 Agent API 和 Perplexity Computer 使用。
216
熱門
排行
收藏
