Apresentando o NVIDIA Nemotron 3 Super 🎉 Modelo híbrido Mamba-Transformer MoE com 120B de parâmetros (12B ativos) Contexto nativo de 1M de tokens Construído para aplicações multi-agente de alta precisão e eficiência computacional Além disso, pesos, conjuntos de dados e receitas totalmente abertos para fácil personalização e implementação. 🧵
Esta última adição à família Nemotron não é apenas um Nano maior. ✅ Até 5x maior capacidade de processamento e 2x mais precisão do que a versão anterior ✅ MoE latente que chama 4x mais especialistas para o mesmo custo de inferência ✅ Previsão de múltiplos tokens que reduz dramaticamente o tempo de geração ✅ Backbone híbrido Mamba-Transformer que oferece 4x de melhoria na eficiência de memória e computação ✅ Pré-treinamento NVFP4 nativo otimizado para NVIDIA Blackwell Confira a análise detalhada das decisões arquitetónicas e métodos de treinamento por trás do modelo 👇
🦞Estas inovações juntam-se para criar um modelo que é bem adequado para agentes autónomos de longa duração. No PinchBench—um benchmark para avaliar LLMs como agentes de codificação @OpenClaw—o Nemotron 3 Super obteve 85,6% em todo o conjunto de testes, tornando-se o melhor modelo aberto na sua classe.
@openclaw "NVIDIA Nemotron 3 Super: O novo líder em inteligência aberta e eficiente"
Artificial Analysis
Artificial AnalysisHá 8 horas
A NVIDIA lançou o Nemotron 3 Super, um modelo de raciocínio de pesos abertos de 120B (12B ativos) que pontua 36 no Índice de Inteligência de Análise Artificial com uma arquitetura híbrida Mamba-Transformer MoE Tivemos acesso a este modelo antes do lançamento e o avaliamos em termos de inteligência, abertura e eficiência de inferência. Principais conclusões ➤ Combina alta abertura com forte inteligência: o Nemotron 3 Super apresenta um desempenho forte para seu tamanho e é substancialmente mais inteligente do que qualquer outro modelo com abertura comparável ➤ O Nemotron 3 Super pontuou 36 no Índice de Inteligência de Análise Artificial, +17 pontos à frente do lançamento anterior do Super e +12 pontos em relação ao Nemotron 3 Nano. Comparado a modelos em uma categoria de tamanho semelhante, isso o coloca à frente do gpt-oss-120b (33), mas atrás do recentemente lançado Qwen3.5 122B A10B (42). ➤ Focado em inteligência eficiente: descobrimos que o Nemotron 3 Super tem uma inteligência superior ao gpt-oss-120b, enquanto permite um throughput ~10% maior por GPU em um teste de carga simples, mas realista ➤ Suportado hoje para inferência rápida sem servidor: provedores como @DeepInfra e @LightningAI estão servindo este modelo no lançamento com velocidades de até 484 tokens por segundo Detalhes do modelo 📝 O Nemotron 3 Super tem 120.6B de parâmetros totais e 12.7B de parâmetros ativos, juntamente com uma janela de contexto de 1 milhão de tokens e suporte a raciocínio híbrido. É publicado com pesos abertos e uma licença permissiva, juntamente com dados de treinamento abertos e divulgação de metodologia 📐 O modelo possui várias características de design que permitem uma inferência eficiente, incluindo o uso de arquiteturas híbridas Mamba-Transformer e LatentMoE, previsão de múltiplos tokens e pesos quantizados NVFP4 🎯 A NVIDIA pré-treinou o Nemotron 3 Super em precisão (principalmente) NVFP4, mas mudou para BF16 para o pós-treinamento. Nossas pontuações de avaliação usam os pesos BF16 🧠 Avaliamos o Nemotron 3 Super em seu modo de raciocínio de maior esforço ("regular"), o mais capaz dos três modos de inferência do modelo (raciocínio-desligado, baixo-esforço e regular)
@openclaw ✨ O Nemotron 3 Super já está disponível para os assinantes Pro e Max da @Perplexity_ai no menu suspenso do seletor de modelos. Também pode ser utilizado através da API do Agente e do Perplexity Computer.
213