Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene una puntuación 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE
Se nos dio acceso a este modelo antes del lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia.
Puntos clave
➤ Combina alta apertura con una inteligencia fuerte: Nemotron 3 Super rinde muy bien para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con apertura comparable
➤ Nemotron 3 Super obtuvo 36 puntos en el Índice de Inteligencia de Análisis Artificial, +17 puntos por delante del lanzamiento anterior de Super y +12 puntos respecto a Nemotron 3 Nano. Comparado con modelos de tamaño similar, esto lo sitúa por delante de gpt-oss-120b (33), pero por detrás del recientemente lanzado Qwen3.5 122B A10B (42).
➤ Centrado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a la de gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista
➤ Actualmente soportado para inferencia rápida sin servidor: proveedores como @DeepInfra y @LightningAI sirven este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo
Detalles del modelo
📝 Nemotron 3 Super tiene un total de 120,6 mil millones y 12,7 mil millones de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte para razonamiento híbrido. Se publica con peso abierto y una licencia permisiva, junto con datos abiertos de entrenamiento y divulgación metodológica
📐 El modelo cuenta con varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, la predicción multi-token y los pesos cuantizados NVFP4
🎯 NVIDIA preentrenaba Nemotron 3 Super en precisión (mayormente) NVFP4, pero pasó a BF16 para el postentrenamiento. Nuestras puntuaciones de evaluación utilizan los pesos BF16
🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento, bajo esfuerzo y regular)

NVIDIA publicó datos significativos antes y después del entrenamiento junto con nuevas recetas de entrenamiento completas para este modelo. Estas divulgaciones alcanzan un 83 en el Índice de Apertura en Análisis Artificial, solo por detrás de los modelos muy abiertos de Ai2 y MBZUAI, y sitúan a Nemotron 3 Super en el cuadrante más atractivo de Apertura e Inteligencia entre sus pares.
Nemotron 3 Super es, con diferencia, el modelo más inteligente jamás lanzado con este nivel de apertura.

Nemotron 3 Super utilizó un número relativamente alto de tokens en nuestras evaluaciones. Utilizó 110 millones de tokens de salida para ejecutar las evaluaciones del Índice de Inteligencia de Análisis Artificial; esto es aproximadamente un 40% más que gpt-oss-120b con un gran esfuerzo de razonamiento, pero una reducción del ~20% respecto al Nemotron 3 Nano.
Eso supone significativamente menos tokens que el Claude Opus 4.6 de Anthropic (máximo), que usó 160 millones de tokens, y ligeramente menos que GPT-5.4 (xhigh) de OpenAI, que usó 120 millones de tokens.

Con 120 mil millones en total y 12 mil millones de parámetros activos, Nemotron 3 Super sigue siendo relativamente pequeño en comparación con otros modelos recientes de peso abierto de los principales laboratorios globales — GLM-5 (744 mil millones en total, 40 mil millones activos), Qwen3.5 397B A17B (397 millones en total, 17 millones activos) y Kimi K2.5 (1 tonelada en total, 32 millones activos) son cada uno de 3 a 8 veces más grandes.

NVIDIA se centra en la inteligencia eficiente para la familia Nemotron, y probamos el rendimiento de inferencia frente a modelos pares para ver el impacto de las elecciones de arquitectura.
Realizamos pruebas de rendimiento autoalojadas en una variedad de modelos pares utilizando una metodología sencilla con cargas de trabajo representativas de casos de uso comunes como flujos de trabajo agentes con historial moderado, aplicaciones RAG o procesamiento de documentos.
En esta prueba, Nemotron 3 Super (NVFP4) muestra un 11% más de rendimiento por GPU NVIDIA B200 que gpt-oss-120b (MXFP4), situando a Nemotron 3 Super 'arriba y a la derecha' en comparación con gpt-oss-120b. El Qwen3.5 122B A10B alcanza +6 puntos en el Índice de Inteligencia en comparación con el Nemotron 3 Super, pero con un 40% menos de rendimiento por GPU.
Nuestras puntuaciones del Índice de Inteligencia para Nemotron 3 Super se evaluaron con los pesos BF16. Aún no hemos evaluado si existe algún impacto en inteligencia de la cuantización de NVFP4, pero las pruebas internas de NVIDIA encontraron que el modelo NVFP4 alcanzó una precisión mediana del 99,8% en relación con la línea base de BF16.
Para más detalles sobre nuestra configuración de pruebas y configuraciones de modelos, consulta nuestro artículo sobre Nemotron 3 Super:


Nemotron 3 Super estará disponible desde su lanzamiento en APIs serverless de proveedores como Lightning AI y DeepInfra.
Probamos estos endpoints y vemos un rendimiento de hasta 484 tokens por segundo en nuestras cargas de trabajo estándar de entrada de 10k tokens.
En el lanzamiento, Nemotron 3 Super se sitúa en el cuadrante más atractivo en inteligencia y velocidad de salida entre sus pares comparables.

6.76K
Populares
Ranking
Favoritas
