Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA Nemotron 3 Super'in 🎉 Tanıtımı
Açık 120B-parametreli (12B aktif) hibrit Mamba-Transformatör MoE modeli
Yerel 1M-token bağlamı
Hesaplama verimli, yüksek hassasiyetli çok ajanlı uygulamalar için tasarlandı
Ayrıca, kolay özelleştirme ve dağıtım için tamamen açık ağırlıklar, veri setleri ve tarifler. 🧵
Nemotron ailesine bu son eklenen sadece daha büyük bir Nano değil.
✅ Önceki versiyona göre 5 katına kadar daha yüksek veri verimliliği ve 2 kat daha yüksek doğruluk
✅ Aynı çıkarım maliyeti karşılığında 4 kat daha fazla uzman uzmanı çağıran gizli Sağlık Hizmetleri
✅ Üretim süresini dramatik şekilde azaltan çoklu token tahmini
✅ Hibrit Mamba-Transformer omurgası, bellek ve hesaplama verimliliğinde 4 kat daha iyi performans sağlar
✅ NVIDIA Blackwell için optimize edilmiş yerel NVFP4 ön eğitimi
Modelin 👇 arkasındaki mimari kararlar ve eğitim yöntemlerine derinlemesine göz atın

🦞Bu yenilikler, uzun süreli otonom ajanlar için oldukça uygun bir model oluşturmak için bir araya geliyor.
PinchBench'te—LLM'leri @OpenClaw kodlama ajanları olarak değerlendirmek için bir kıyaslama—Nemotron 3 Super tüm test paketinde %85,6 puan alıyor ve bu da onu sınıfındaki en iyi açık model yapıyor.

@openclaw "NVIDIA Nemotron 3 Super: Açık ve verimli zekanın yeni lideri"

10 Sa Önce
NVIDIA, Yapay Analiz Zeka Endeksi'nde 36 puan alan ve hibrit Mamba-Transformer MoE mimarisiyle 120B (12B aktif) açık ağırlık akıl yürütme modeli olan Nemotron 3 Super'i piyasaya sürdü
Bu modele lansman öncesinde erişim verildi ve zeka, açıklık ve çıkarım verimliliği açısından değerlendirdik.
Önemli çıkarımlar
➤ Yüksek açıklığı güçlü zeka ile birleştirir: Nemotron 3 Super, boyutuna göre güçlü performans gösterir ve benzer açıklığa sahip diğer modellerden önemli ölçüde daha zekidir
➤ Nemotron 3 Super, Yapay Analiz Zeka Endeksi'nde 36 puan aldı; önceki Super sürümünden +17 puan ve Nemotron 3 Nano'dan +12 puan önünde. Benzer boyut kategorisindeki modellerle karşılaştırıldığında, bu onu gpt-oss-120b (33) modelinin önüne koymuş, ancak yakın zamanda piyasaya sürülen Qwen3.5 122B A10B'nin (42) gerisinde yer alıyor.
➤ Verimli zekaya odaklandık: Nemotron 3 Super'in gpt-oss-120b'den daha yüksek zekaya sahip olduğunu ve basit ama gerçekçi bir yük testinde GPU başına ~%10 daha yüksek veri verimliliği sağladığını bulduk
➤ Bugün hızlı sunucusuz çıkarım için destekleniyor: @DeepInfra ve @LightningAI gibi sağlayıcılar, bu modeli lansmanda saniyede 484 token hızına kadar kullanmaktadır
Model detayları
📝 Nemotron 3 Super'in toplam 120,6B ve 12,7B aktif parametreleri var, ayrıca 1 milyon token bağlam penceresi ve hibrit akıl yürütme desteği var. Açık ağırlıklar ve izin veren lisansla, açık eğitim verileri ve metodoloji açıklamalarıyla birlikte yayımlanır
📐 Model, hibrit Mamba-Transformer ve LatentMoE mimarileri, çoklu token tahmini ve NVFP4 kuantize ağırlıkları gibi verimli çıkarım yapmayı sağlayan çeşitli tasarım özelliklerine sahiptir
🎯 NVIDIA, Nemotron 3 Super'i (çoğunlukla) NVFP4 hassasiyetinde önceden eğitti, ancak eğitim sonrası için BF16'ya geçti. Değerlendirme puanlarımız BF16 ağırlıklarını kullanır
🧠 Nemotron 3 Super'i, modelin üç çıkarım modundan (akıl yürütme, düşük çaba ve düzenli) en yeteneklisi olan en yüksek çaba gerektiren akıl yürütme modunda ("normal") kıyasladık

@openclaw ✨ Nemotron 3 Super artık model seçici açılır menüsünde @Perplexity_ai Pro ve Max abonelerine sunuluyor. Ayrıca Agent API ve Perplexity Computer üzerinden de kullanılabilir.
238
En İyiler
Sıralama
Takip Listesi
