Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA a lansat Nemotron 3 Super, un model de raționament cu greutăți deschise de 120B (12B active) care obține un scor 36 la Artificial Analysis Intelligence Index, cu o arhitectură MoE hibridă Mamba-Transformer
Ni s-a oferit acces la acest model înainte de lansare și l-am evaluat în funcție de inteligență, deschidere și eficiență a inferenței.
Concluzii cheie
➤ Combină deschidere ridicată cu inteligență puternică: Nemotron 3 Super performează puternic pentru dimensiunea sa și este substanțial mai inteligent decât orice alt model cu deschidere comparabilă
➤ Nemotron 3 Super a obținut 36 de puncte la Artificial Analysis Intelligence Index, cu +17 puncte peste lansarea anterioară a Super și cu +12 puncte față de Nemotron 3 Nano. Comparativ cu modelele dintr-o categorie de dimensiuni similare, acest lucru îl plasează înaintea gpt-oss-120b (33), dar în spatele recentului Qwen3.5 122B A10B (42).
➤ Axat pe inteligență eficientă: am constatat că Nemotron 3 Super are o inteligență mai mare decât gpt-oss-120b, permițând totodată un throughput de ~10% mai mare pe GPU într-un test de încărcare simplu, dar realist
➤ Suportat astăzi pentru inferență rapidă serverless: furnizorii precum @DeepInfra și @LightningAI servesc acest model la lansare, cu viteze de până la 484 de tokenuri pe secundă
Detalii despre model
📝 Nemotron 3 Super are 120,6 miliarde în total și 12,7 miliarde parametri activi, împreună cu o fereastră de context de 1 milion de tokenuri și suport pentru raționament hibrid. Este publicată cu greutăți deschise și o licență permisivă, alături de date deschise de antrenament și dezvăluire metodologică
📐 Modelul are mai multe caracteristici de design care permit inferențe eficiente, inclusiv utilizarea arhitecturilor hibride Mamba-Transformer și LatentMoE, predicția multi-token și ponderile cuantificate NVFP4
🎯 NVIDIA a pre-antrenat Nemotron 3 Super în (în mare parte) precizie NVFP4, dar a trecut la BF16 pentru post-antrenament. Scorurile noastre de evaluare folosesc ponderile BF16
🧠 Am evaluat Nemotron 3 Super în modul său de raționament cu cel mai mare efort ("regular"), cel mai capabil dintre cele trei moduri de inferență ale modelului (raționament-off, low-effort și regular)

NVIDIA a publicat date semnificative înainte și după antrenament, alături de noi rețete cuprinzătoare de antrenament pentru acest model. Aceste dezvăluiri ajung la 83 în Artificial Analysis Openness Index, depășind doar modelele foarte deschise de la Ai2 și MBZUAI, plasând Nemotron 3 Super în cel mai atractiv cadran pentru Deschidere și Inteligență printre colegi.
Nemotron 3 Super este de departe cel mai inteligent model lansat vreodată cu acest nivel de deschidere.

Nemotron 3 Super a folosit un număr relativ mare de jetoane în evaluările noastre. A folosit 110M token-uri de ieșire pentru a rula evaluările Artificial Analysis Intelligence Index - aceasta este cu aproximativ 40% mai mult decât gpt-oss-120b cu un efort de raționament ridicat, dar o reducere de ~20% față de Nemotron 3 Nano.
Asta înseamnă semnificativ mai puține tokenuri decât Claude Opus 4.6 (maxim), care a folosit 160M tokens, și puțin mai puține decât GPT-5.4 (xhigh) de la OpenAI, care a folosit 120M tokens.

Cu un total de 120B și 12B parametri activi, Nemotron 3 Super este încă relativ mic comparativ cu alte modele recente cu greutăți deschise de la laboratoarele globale de top — GLM-5 (744B în total, 40B activ), Qwen3.5 397B A17B (397B în total, 17B activ) și Kimi K2.5 (1T total, 32B activ) sunt fiecare de 3 până la 8 ori mai mari.

NVIDIA se concentrează pe inteligență eficientă pentru familia Nemotron, iar noi am testat performanța inferenței față de modele similare pentru a vedea impactul alegerilor de arhitectură.
Am rulat teste de debit self-hosted pe o gamă largă de modele peer, folosind o metodologie simplă, cu sarcini de lucru reprezentative pentru cazuri de utilizare comune, cum ar fi fluxuri de lucru agențice cu istoric moderat, aplicații RAG sau procesarea documentelor.
În acest test, Nemotron 3 Super (NVFP4) arată un throughput cu 11% mai mare per GPU NVIDIA B200 decât gpt-oss-120b (MXFP4), plasând Nemotron 3 Super "sus și la dreapta" față de gpt-oss-120b. Qwen3.5 122B A10B obține +6 puncte în Indicele de Inteligență comparativ cu Nemotron 3 Super, dar cu un debit de 40% mai mic pe GPU.
Scorurile noastre din Indicele de Inteligență pentru Nemotron 3 Super au fost evaluate pe ponderile BF16. Nu am evaluat încă dacă există vreun impact asupra inteligenței al cuantificării NVFP4, dar testarea internă NVIDIA a arătat că modelul NVFP4 a atins o acuratețe mediană de 99,8% în raport cu baza BF16.
Pentru mai multe detalii despre configurația noastră de testare și modele, consultați articolul nostru despre Nemotron 3 Super:


Nemotron 3 Super va fi disponibil încă de la lansare pe API-uri serverless de la furnizori precum Lightning AI și DeepInfra.
Am testat aceste endpoint-uri și am observat performanțe de până la 484 de tokenuri pe secundă pe sarcinile noastre standard de intrare de 10k token-uri.
La lansare, Nemotron 3 Super se află în cel mai atractiv cadran pentru inteligență și viteză de ieșire între colegii comparabili.

6,76K
Limită superioară
Clasament
Favorite
