Представляем NVIDIA Nemotron 3 Super 🎉 Открытая гибридная модель Mamba-Transformer MoE с 120B параметрами (12B активных) Нативный контекст на 1M токенов Создана для вычислительно эффективных, высокоточных многопользовательских приложений Кроме того, полностью открытые веса, наборы данных и рецепты для легкой настройки и развертывания. 🧵
Это последнее дополнение к семейству Nemotron — это не просто больший Nano. ✅ До 5 раз выше пропускная способность и в 2 раза точнее, чем в предыдущей версии ✅ Latent MoE, который вызывает в 4 раза больше экспертов-специалистов за ту же стоимость вывода ✅ Многотокеновое предсказание, которое значительно сокращает время генерации ✅ Гибридная архитектура Mamba-Transformer обеспечивает в 4 раза большую эффективность памяти и вычислений ✅ Нативное предобучение NVFP4, оптимизированное для NVIDIA Blackwell Посмотрите глубокое погружение в архитектурные решения и методы обучения, лежащие в основе модели 👇
🦞Эти инновации объединяются, чтобы создать модель, хорошо подходящую для автономных агентов, работающих долгое время. На PinchBench — бенчмарк для оценки LLM в качестве @OpenClaw кодирующих агентов — Nemotron 3 Super набирает 85,6% по всему тестовому набору, что делает его лучшей открытой моделью в своем классе.
@openclaw “NVIDIA Nemotron 3 Super: Новый лидер в открытом, эффективном интеллекте”
Artificial Analysis
Artificial Analysis22 часа назад
NVIDIA выпустила Nemotron 3 Super, модель рассуждений с открытыми весами на 120B (12B активных), которая набрала 36 баллов в Индексе Искусственного Интеллекта Анализа. Нам предоставили доступ к этой модели до запуска, и мы оценили её по критериям интеллекта, открытости и эффективности вывода. Ключевые выводы ➤ Сочетает высокую открытость с сильным интеллектом: Nemotron 3 Super демонстрирует высокие результаты для своего размера и значительно более интеллектуален, чем любая другая модель с сопоставимой открытостью. ➤ Nemotron 3 Super набрала 36 баллов в Индексе Искусственного Интеллекта Анализа, на 17 пунктов опережая предыдущий выпуск Super и на 12 пунктов от Nemotron 3 Nano. По сравнению с моделями в аналогичной категории по размеру, это ставит её впереди gpt-oss-120b (33), но позади недавно выпущенной Qwen3.5 122B A10B (42). ➤ Сосредоточена на эффективном интеллекте: мы обнаружили, что Nemotron 3 Super имеет более высокий интеллект, чем gpt-oss-120b, при этом обеспечивая ~10% более высокую пропускную способность на GPU в простом, но реалистичном нагрузочном тесте. ➤ Поддерживается сегодня для быстрого безсерверного вывода: провайдеры, включая @DeepInfra и @LightningAI, обслуживают эту модель с момента запуска со скоростью до 484 токенов в секунду. Детали модели 📝 Nemotron 3 Super имеет 120.6B общих и 12.7B активных параметров, а также контекстное окно на 1 миллион токенов и поддержку гибкого рассуждения. Она опубликована с открытыми весами и разрешительной лицензией, наряду с открытыми данными для обучения и раскрытием методологии. 📐 Модель имеет несколько проектных особенностей, позволяющих эффективный вывод, включая использование гибридных архитектур Mamba-Transformer и LatentMoE, многотокенное предсказание и квантованные веса NVFP4. 🎯 NVIDIA предварительно обучила Nemotron 3 Super в (в основном) точности NVFP4, но перешла на BF16 для постобучения. Наши оценочные баллы используют веса BF16. 🧠 Мы провели бенчмаркинг Nemotron 3 Super в её режиме рассуждений с наибольшими усилиями ("обычный"), который является самым способным из трёх режимов вывода модели (выключение рассуждений, низкие усилия и обычный).
@openclaw ✨ Nemotron 3 Super теперь доступен для подписчиков @Perplexity_ai Pro и Max в выпадающем списке выбора модели. Его также можно использовать через Agent API и Perplexity Computer.
282