Apresentando o NVIDIA Nemotron 3 Super 🎉 Modelo híbrido Mamba-Transformer de 120B (12B ativo) híbrido Mamba-Transformer Contexto nativo de 1M-token Construído para aplicações multiagente eficientes em computação e alta precisão Além disso, todos os pesos abertos, conjuntos de dados e receitas para fácil personalização e implantação. 🧵
Essa mais recente adição à família Nemotron não é apenas um Nano maior. ✅ Até 5x maior de débito e 2x maior de precisão que a versão anterior ✅ O Gabinete de Educação latente que chama 4 vezes mais especialistas especialistas pelo mesmo custo de inferência ✅ Previsão multi-token que reduz drasticamente o tempo de geração ✅ A backbone híbrida Mamba-Transformer oferece 4x melhor memória e eficiência computacional ✅ Pré-treinamento nativo NVFP4 otimizado para NVIDIA Blackwell Confira o mergulho profundo nas decisões arquitetônicas e métodos de treinamento por trás do modelo 👇
🦞Essas inovações se unem para criar um modelo bem adequado para agentes autônomos de longa duração. No PinchBench — um benchmark para avaliar LLMs como agentes de codificação @OpenClaw — o Nemotron 3 Super obtém 85,6% em todo o conjunto de testes, tornando-se o melhor modelo aberto de sua categoria.
@openclaw "NVIDIA Nemotron 3 Super: O novo líder em inteligência aberta e eficiente"
Artificial Analysis
Artificial Analysis7 horas atrás
A NVIDIA lançou o Nemotron 3 Super, um modelo de raciocínio de pesos abertos de 120B (12B ativos) que pontua 36 no Índice de Inteligência de Análise Artificial, com uma arquitetura híbrida Mamba-Transformer MoE Recebemos acesso a esse modelo antes do lançamento e o avaliamos em termos de inteligência, abertura e eficiência de inferência. Principais lições ➤ Combina alta abertura com forte inteligência: Nemotron 3 Super tem desempenho excelente para seu tamanho e é substancialmente mais inteligente do que qualquer outro modelo com abertura comparável ➤ Nemotron 3 Super obteve 36 pontos no Índice de Inteligência de Análise Artificial, +17 pontos à frente do lançamento anterior do Super e +12 pontos do Nemotron 3 Nano. Comparado a modelos de tamanho semelhante, isso o coloca à frente do gpt-oss-120b (33), mas atrás do recentemente lançado Qwen3.5 122B A10B (42). ➤ Focado em inteligência eficiente: descobrimos que o Nemotron 3 Super tem inteligência maior que o gpt-oss-120b, permitindo ~10% maior de throughput por GPU em um teste de carga simples, mas realista ➤ Suportado hoje para inferência serverless rápida: provedores como @DeepInfra e @LightningAI estão atendendo esse modelo no lançamento com velocidades de até 484 tokens por segundo Detalhes do modelo 📝 O Nemotron 3 Super tem 120,6 bilhões no total e 12,7 bilhões de parâmetros ativos, além de uma janela de contexto de 1 milhão de tokens e suporte a raciocínio híbrido. É publicado com volumes abertos e uma licença permissiva, juntamente com dados de treinamento abertos e divulgação metodológica 📐 O modelo possui várias características de design que permitem inferência eficiente, incluindo o uso de arquiteturas híbridas Mamba-Transformer e LatentMoE, previsão multi-token e pesos quantizados NVFP4 🎯 A NVIDIA pré-treinou o Nemotron 3 Super em precisão (quase) NVFP4, mas migrou para o BF16 para o pós-treinamento. Nossas pontuações de avaliação usam os pesos BF16 🧠 Fizemos benchmarks do Nemotron 3 Super em seu modo de raciocínio de maior esforço ("regular"), o mais capaz dos três modos de inferência do modelo (raciocínio, de baixo esforço e regular)
@openclaw ✨ Nemotron 3 Super agora está disponível para assinantes @Perplexity_ai Pro e Max no menu suspenso do seletor de modelos. Também pode ser usado através da API do Agente e do Computador de Perplexidade.
169