Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Apresentando o NVIDIA Nemotron 3 Super 🎉
Modelo híbrido Mamba-Transformer de 120B (12B ativo) híbrido Mamba-Transformer
Contexto nativo de 1M-token
Construído para aplicações multiagente eficientes em computação e alta precisão
Além disso, todos os pesos abertos, conjuntos de dados e receitas para fácil personalização e implantação. 🧵
Essa mais recente adição à família Nemotron não é apenas um Nano maior.
✅ Até 5x maior de débito e 2x maior de precisão que a versão anterior
✅ O Gabinete de Educação latente que chama 4 vezes mais especialistas especialistas pelo mesmo custo de inferência
✅ Previsão multi-token que reduz drasticamente o tempo de geração
✅ A backbone híbrida Mamba-Transformer oferece 4x melhor memória e eficiência computacional
✅ Pré-treinamento nativo NVFP4 otimizado para NVIDIA Blackwell
Confira o mergulho profundo nas decisões arquitetônicas e métodos de treinamento por trás do modelo 👇

🦞Essas inovações se unem para criar um modelo bem adequado para agentes autônomos de longa duração.
No PinchBench — um benchmark para avaliar LLMs como agentes de codificação @OpenClaw — o Nemotron 3 Super obtém 85,6% em todo o conjunto de testes, tornando-se o melhor modelo aberto de sua categoria.

@openclaw "NVIDIA Nemotron 3 Super: O novo líder em inteligência aberta e eficiente"

7 horas atrás
A NVIDIA lançou o Nemotron 3 Super, um modelo de raciocínio de pesos abertos de 120B (12B ativos) que pontua 36 no Índice de Inteligência de Análise Artificial, com uma arquitetura híbrida Mamba-Transformer MoE
Recebemos acesso a esse modelo antes do lançamento e o avaliamos em termos de inteligência, abertura e eficiência de inferência.
Principais lições
➤ Combina alta abertura com forte inteligência: Nemotron 3 Super tem desempenho excelente para seu tamanho e é substancialmente mais inteligente do que qualquer outro modelo com abertura comparável
➤ Nemotron 3 Super obteve 36 pontos no Índice de Inteligência de Análise Artificial, +17 pontos à frente do lançamento anterior do Super e +12 pontos do Nemotron 3 Nano. Comparado a modelos de tamanho semelhante, isso o coloca à frente do gpt-oss-120b (33), mas atrás do recentemente lançado Qwen3.5 122B A10B (42).
➤ Focado em inteligência eficiente: descobrimos que o Nemotron 3 Super tem inteligência maior que o gpt-oss-120b, permitindo ~10% maior de throughput por GPU em um teste de carga simples, mas realista
➤ Suportado hoje para inferência serverless rápida: provedores como @DeepInfra e @LightningAI estão atendendo esse modelo no lançamento com velocidades de até 484 tokens por segundo
Detalhes do modelo
📝 O Nemotron 3 Super tem 120,6 bilhões no total e 12,7 bilhões de parâmetros ativos, além de uma janela de contexto de 1 milhão de tokens e suporte a raciocínio híbrido. É publicado com volumes abertos e uma licença permissiva, juntamente com dados de treinamento abertos e divulgação metodológica
📐 O modelo possui várias características de design que permitem inferência eficiente, incluindo o uso de arquiteturas híbridas Mamba-Transformer e LatentMoE, previsão multi-token e pesos quantizados NVFP4
🎯 A NVIDIA pré-treinou o Nemotron 3 Super em precisão (quase) NVFP4, mas migrou para o BF16 para o pós-treinamento. Nossas pontuações de avaliação usam os pesos BF16
🧠 Fizemos benchmarks do Nemotron 3 Super em seu modo de raciocínio de maior esforço ("regular"), o mais capaz dos três modos de inferência do modelo (raciocínio, de baixo esforço e regular)

@openclaw ✨ Nemotron 3 Super agora está disponível para assinantes @Perplexity_ai Pro e Max no menu suspenso do seletor de modelos. Também pode ser usado através da API do Agente e do Computador de Perplexidade.
169
Melhores
Classificação
Favoritos
