Presentamos NVIDIA Nemotron 3 Super 🎉 Modelo híbrido Mamba-Transformer de 120B (12B activo) Contexto nativo de 1M-token Diseñado para aplicaciones multiagente eficientes en computación y alta precisión Además, pesas totalmente abiertas, conjuntos de datos y recetas para una personalización y despliegue fáciles. 🧵
Esta última incorporación a la familia Nemotron no es solo un Nano más grande. ✅ Hasta 5 veces mayor rendimiento y el doble de precisión que la versión anterior ✅ Ministerio de Educación latente que llama a cuatro veces más especialistas expertos por el mismo coste de inferencia ✅ Predicción multi-token que reduce drásticamente el tiempo de generación ✅ La columna vertebral híbrida Mamba-Transformer ofrece una mejora de la memoria y la eficiencia de cómputo 4 veces ✅ Preentrenamiento nativo NVFP4 optimizado para NVIDIA Blackwell Echa un vistazo a la profundización de las decisiones arquitectónicas y los métodos de entrenamiento detrás del modelo 👇
🦞Estas innovaciones se combinan para crear un modelo muy adecuado para agentes autónomos de larga duración. En PinchBench —un referente para evaluar LLMs como agentes de programación @OpenClaw— Nemotron 3 Super obtiene una puntuación del 85,6% en toda la suite de pruebas, lo que lo convierte en el mejor modelo abierto de su clase.
@openclaw "NVIDIA Nemotron 3 Super: El nuevo líder en inteligencia abierta y eficiente"
Artificial Analysis
Artificial Analysishace 7 horas
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene una puntuación 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE Se nos dio acceso a este modelo antes del lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia. Puntos clave ➤ Combina alta apertura con una inteligencia fuerte: Nemotron 3 Super rinde muy bien para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con apertura comparable ➤ Nemotron 3 Super obtuvo 36 puntos en el Índice de Inteligencia de Análisis Artificial, +17 puntos por delante del lanzamiento anterior de Super y +12 puntos respecto a Nemotron 3 Nano. Comparado con modelos de tamaño similar, esto lo sitúa por delante de gpt-oss-120b (33), pero por detrás del recientemente lanzado Qwen3.5 122B A10B (42). ➤ Centrado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a la de gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista ➤ Actualmente soportado para inferencia rápida sin servidor: proveedores como @DeepInfra y @LightningAI sirven este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo Detalles del modelo 📝 Nemotron 3 Super tiene un total de 120,6 mil millones y 12,7 mil millones de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte para razonamiento híbrido. Se publica con peso abierto y una licencia permisiva, junto con datos abiertos de entrenamiento y divulgación metodológica 📐 El modelo cuenta con varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, la predicción multi-token y los pesos cuantizados NVFP4 🎯 NVIDIA preentrenaba Nemotron 3 Super en precisión (mayormente) NVFP4, pero pasó a BF16 para el postentrenamiento. Nuestras puntuaciones de evaluación utilizan los pesos BF16 🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento, bajo esfuerzo y regular)
@openclaw ✨ Nemotron 3 Super ya está disponible para suscriptores @Perplexity_ai Pro y Max en el menú desplegable del selector de modelos. También puede utilizarse a través de la API del Agente y el Ordenador de Perplexidad.
171