Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Présentation de NVIDIA Nemotron 3 Super 🎉
Modèle hybride Mamba-Transformer MoE avec 120 milliards de paramètres (12 milliards actifs)
Contexte natif de 1 million de tokens
Conçu pour des applications multi-agents à haute précision et efficaces en calcul
De plus, poids, ensembles de données et recettes entièrement ouverts pour une personnalisation et un déploiement faciles. 🧵
Cette dernière addition à la famille Nemotron n'est pas qu'un plus grand Nano.
✅ Jusqu'à 5x plus de débit et 2x de précision par rapport à la version précédente
✅ MoE latent qui fait appel à 4x plus d'experts spécialisés pour le même coût d'inférence
✅ Prédiction multi-token qui réduit considérablement le temps de génération
✅ Backbone hybride Mamba-Transformer offrant 4x d'amélioration de la mémoire et de l'efficacité de calcul
✅ Pré-entraînement NVFP4 natif optimisé pour NVIDIA Blackwell
Découvrez en profondeur les décisions architecturales et les méthodes d'entraînement derrière le modèle 👇

🦞Ces innovations s'assemblent pour créer un modèle bien adapté aux agents autonomes fonctionnant sur le long terme.
Sur PinchBench—un benchmark pour évaluer les LLM en tant qu'agents de codage @OpenClaw—Nemotron 3 Super obtient un score de 85,6 % sur l'ensemble de la suite de tests, ce qui en fait le meilleur modèle ouvert de sa catégorie.

@openclaw "NVIDIA Nemotron 3 Super : Le nouveau leader en intelligence ouverte et efficace"

il y a 7 heures
NVIDIA a lancé Nemotron 3 Super, un modèle de raisonnement à poids ouverts de 120B (12B actifs) qui obtient un score de 36 sur l'Indice d'Analyse de l'Intelligence Artificielle avec une architecture hybride Mamba-Transformer MoE.
Nous avons eu accès à ce modèle avant son lancement et l'avons évalué en termes d'intelligence, d'ouverture et d'efficacité d'inférence.
Points clés
➤ Combine une grande ouverture avec une forte intelligence : Nemotron 3 Super performe fortement pour sa taille et est substantiellement plus intelligent que tout autre modèle avec une ouverture comparable.
➤ Nemotron 3 Super a obtenu un score de 36 sur l'Indice d'Analyse de l'Intelligence Artificielle, +17 points devant la précédente version Super et +12 points par rapport à Nemotron 3 Nano. Comparé aux modèles dans une catégorie de taille similaire, cela le place devant gpt-oss-120b (33), mais derrière le récemment lancé Qwen3.5 122B A10B (42).
➤ Axé sur une intelligence efficace : nous avons constaté que Nemotron 3 Super avait une intelligence supérieure à gpt-oss-120b tout en permettant un débit d'environ 10 % plus élevé par GPU lors d'un test de charge simple mais réaliste.
➤ Supporté aujourd'hui pour une inférence sans serveur rapide : des fournisseurs tels que @DeepInfra et @LightningAI servent ce modèle au lancement avec des vitesses allant jusqu'à 484 tokens par seconde.
Détails du modèle
📝 Nemotron 3 Super a 120,6B de paramètres au total et 12,7B de paramètres actifs, avec une fenêtre de contexte de 1 million de tokens et un support de raisonnement hybride. Il est publié avec des poids ouverts et une licence permissive, ainsi que des données d'entraînement ouvertes et une divulgation de méthodologie.
📐 Le modèle a plusieurs caractéristiques de conception permettant une inférence efficace, y compris l'utilisation d'architectures hybrides Mamba-Transformer et LatentMoE, la prédiction multi-token et des poids quantifiés NVFP4.
🎯 NVIDIA a pré-entraîné Nemotron 3 Super en précision (principalement) NVFP4, mais est passé à BF16 pour le post-entraînement. Nos scores d'évaluation utilisent les poids BF16.
🧠 Nous avons évalué Nemotron 3 Super dans son mode de raisonnement le plus exigeant ("régulier"), le plus capable des trois modes d'inférence du modèle (raisonnement désactivé, faible effort et régulier).

@openclaw ✨ Nemotron 3 Super est maintenant disponible pour les abonnés Pro et Max de @Perplexity_ai dans le menu déroulant de sélection des modèles. Il peut également être utilisé via l'API Agent et Perplexity Computer.
168
Meilleurs
Classement
Favoris
