Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Apresentando o NVIDIA Nemotron 3 Super 🎉
Modelo híbrido Mamba-Transformer MoE com 120B de parâmetros (12B ativos)
Contexto nativo de 1M de tokens
Construído para aplicações multi-agente de alta precisão e eficiência computacional
Além disso, pesos, conjuntos de dados e receitas totalmente abertos para fácil personalização e implementação. 🧵
Esta última adição à família Nemotron não é apenas um Nano maior.
✅ Até 5x maior capacidade de processamento e 2x mais precisão do que a versão anterior
✅ MoE latente que chama 4x mais especialistas para o mesmo custo de inferência
✅ Previsão de múltiplos tokens que reduz dramaticamente o tempo de geração
✅ Backbone híbrido Mamba-Transformer que oferece 4x de melhoria na eficiência de memória e computação
✅ Pré-treinamento NVFP4 nativo otimizado para NVIDIA Blackwell
Confira a análise detalhada das decisões arquitetónicas e métodos de treinamento por trás do modelo 👇

🦞Estas inovações juntam-se para criar um modelo que é bem adequado para agentes autónomos de longa duração.
No PinchBench—um benchmark para avaliar LLMs como agentes de codificação @OpenClaw—o Nemotron 3 Super obteve 85,6% em todo o conjunto de testes, tornando-se o melhor modelo aberto na sua classe.

@openclaw "NVIDIA Nemotron 3 Super: O novo líder em inteligência aberta e eficiente"

Há 8 horas
A NVIDIA lançou o Nemotron 3 Super, um modelo de raciocínio de pesos abertos de 120B (12B ativos) que pontua 36 no Índice de Inteligência de Análise Artificial com uma arquitetura híbrida Mamba-Transformer MoE
Tivemos acesso a este modelo antes do lançamento e o avaliamos em termos de inteligência, abertura e eficiência de inferência.
Principais conclusões
➤ Combina alta abertura com forte inteligência: o Nemotron 3 Super apresenta um desempenho forte para seu tamanho e é substancialmente mais inteligente do que qualquer outro modelo com abertura comparável
➤ O Nemotron 3 Super pontuou 36 no Índice de Inteligência de Análise Artificial, +17 pontos à frente do lançamento anterior do Super e +12 pontos em relação ao Nemotron 3 Nano. Comparado a modelos em uma categoria de tamanho semelhante, isso o coloca à frente do gpt-oss-120b (33), mas atrás do recentemente lançado Qwen3.5 122B A10B (42).
➤ Focado em inteligência eficiente: descobrimos que o Nemotron 3 Super tem uma inteligência superior ao gpt-oss-120b, enquanto permite um throughput ~10% maior por GPU em um teste de carga simples, mas realista
➤ Suportado hoje para inferência rápida sem servidor: provedores como @DeepInfra e @LightningAI estão servindo este modelo no lançamento com velocidades de até 484 tokens por segundo
Detalhes do modelo
📝 O Nemotron 3 Super tem 120.6B de parâmetros totais e 12.7B de parâmetros ativos, juntamente com uma janela de contexto de 1 milhão de tokens e suporte a raciocínio híbrido. É publicado com pesos abertos e uma licença permissiva, juntamente com dados de treinamento abertos e divulgação de metodologia
📐 O modelo possui várias características de design que permitem uma inferência eficiente, incluindo o uso de arquiteturas híbridas Mamba-Transformer e LatentMoE, previsão de múltiplos tokens e pesos quantizados NVFP4
🎯 A NVIDIA pré-treinou o Nemotron 3 Super em precisão (principalmente) NVFP4, mas mudou para BF16 para o pós-treinamento. Nossas pontuações de avaliação usam os pesos BF16
🧠 Avaliamos o Nemotron 3 Super em seu modo de raciocínio de maior esforço ("regular"), o mais capaz dos três modos de inferência do modelo (raciocínio-desligado, baixo-esforço e regular)

@openclaw ✨ O Nemotron 3 Super já está disponível para os assinantes Pro e Max da @Perplexity_ai no menu suspenso do seletor de modelos. Também pode ser utilizado através da API do Agente e do Perplexity Computer.
213
Top
Classificação
Favoritos
