NVIDIA Nemotron 3 Super'in 🎉 Tanıtımı Açık 120B-parametreli (12B aktif) hibrit Mamba-Transformatör MoE modeli Yerel 1M-token bağlamı Hesaplama verimli, yüksek hassasiyetli çok ajanlı uygulamalar için tasarlandı Ayrıca, kolay özelleştirme ve dağıtım için tamamen açık ağırlıklar, veri setleri ve tarifler. 🧵
Nemotron ailesine bu son eklenen sadece daha büyük bir Nano değil. ✅ Önceki versiyona göre 5 katına kadar daha yüksek veri verimliliği ve 2 kat daha yüksek doğruluk ✅ Aynı çıkarım maliyeti karşılığında 4 kat daha fazla uzman uzmanı çağıran gizli Sağlık Hizmetleri ✅ Üretim süresini dramatik şekilde azaltan çoklu token tahmini ✅ Hibrit Mamba-Transformer omurgası, bellek ve hesaplama verimliliğinde 4 kat daha iyi performans sağlar ✅ NVIDIA Blackwell için optimize edilmiş yerel NVFP4 ön eğitimi Modelin 👇 arkasındaki mimari kararlar ve eğitim yöntemlerine derinlemesine göz atın
🦞Bu yenilikler, uzun süreli otonom ajanlar için oldukça uygun bir model oluşturmak için bir araya geliyor. PinchBench'te—LLM'leri @OpenClaw kodlama ajanları olarak değerlendirmek için bir kıyaslama—Nemotron 3 Super tüm test paketinde %85,6 puan alıyor ve bu da onu sınıfındaki en iyi açık model yapıyor.
@openclaw "NVIDIA Nemotron 3 Super: Açık ve verimli zekanın yeni lideri"
Artificial Analysis
Artificial Analysis10 Sa Önce
NVIDIA, Yapay Analiz Zeka Endeksi'nde 36 puan alan ve hibrit Mamba-Transformer MoE mimarisiyle 120B (12B aktif) açık ağırlık akıl yürütme modeli olan Nemotron 3 Super'i piyasaya sürdü Bu modele lansman öncesinde erişim verildi ve zeka, açıklık ve çıkarım verimliliği açısından değerlendirdik. Önemli çıkarımlar ➤ Yüksek açıklığı güçlü zeka ile birleştirir: Nemotron 3 Super, boyutuna göre güçlü performans gösterir ve benzer açıklığa sahip diğer modellerden önemli ölçüde daha zekidir ➤ Nemotron 3 Super, Yapay Analiz Zeka Endeksi'nde 36 puan aldı; önceki Super sürümünden +17 puan ve Nemotron 3 Nano'dan +12 puan önünde. Benzer boyut kategorisindeki modellerle karşılaştırıldığında, bu onu gpt-oss-120b (33) modelinin önüne koymuş, ancak yakın zamanda piyasaya sürülen Qwen3.5 122B A10B'nin (42) gerisinde yer alıyor. ➤ Verimli zekaya odaklandık: Nemotron 3 Super'in gpt-oss-120b'den daha yüksek zekaya sahip olduğunu ve basit ama gerçekçi bir yük testinde GPU başına ~%10 daha yüksek veri verimliliği sağladığını bulduk ➤ Bugün hızlı sunucusuz çıkarım için destekleniyor: @DeepInfra ve @LightningAI gibi sağlayıcılar, bu modeli lansmanda saniyede 484 token hızına kadar kullanmaktadır Model detayları 📝 Nemotron 3 Super'in toplam 120,6B ve 12,7B aktif parametreleri var, ayrıca 1 milyon token bağlam penceresi ve hibrit akıl yürütme desteği var. Açık ağırlıklar ve izin veren lisansla, açık eğitim verileri ve metodoloji açıklamalarıyla birlikte yayımlanır 📐 Model, hibrit Mamba-Transformer ve LatentMoE mimarileri, çoklu token tahmini ve NVFP4 kuantize ağırlıkları gibi verimli çıkarım yapmayı sağlayan çeşitli tasarım özelliklerine sahiptir 🎯 NVIDIA, Nemotron 3 Super'i (çoğunlukla) NVFP4 hassasiyetinde önceden eğitti, ancak eğitim sonrası için BF16'ya geçti. Değerlendirme puanlarımız BF16 ağırlıklarını kullanır 🧠 Nemotron 3 Super'i, modelin üç çıkarım modundan (akıl yürütme, düşük çaba ve düzenli) en yeteneklisi olan en yüksek çaba gerektiren akıl yürütme modunda ("normal") kıyasladık
@openclaw ✨ Nemotron 3 Super artık model seçici açılır menüsünde @Perplexity_ai Pro ve Max abonelerine sunuluyor. Ayrıca Agent API ve Perplexity Computer üzerinden de kullanılabilir.
238