Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Onafhankelijke analyse van AI-modellen en hostingproviders - kies het beste model en de beste API-provider voor uw use-case
NVIDIA heeft Nemotron 3 Super uitgebracht, een 120B (12B actief) open gewichten redeneermodel dat 36 scoort op de Artificial Analysis Intelligence Index met een hybride Mamba-Transformer MoE-architectuur.
We kregen toegang tot dit model voorafgaand aan de lancering en hebben het geëvalueerd op intelligentie, openheid en inferentie-efficiëntie.
Belangrijkste punten
➤ Combineert hoge openheid met sterke intelligentie: Nemotron 3 Super presteert sterk voor zijn grootte en is aanzienlijk intelligenter dan elk ander model met vergelijkbare openheid.
➤ Nemotron 3 Super scoorde 36 op de Artificial Analysis Intelligence Index, +17 punten voor op de vorige Super-release en +12 punten ten opzichte van Nemotron 3 Nano. Vergeleken met modellen in een vergelijkbare groottecategorie plaatst dit het voor gpt-oss-120b (33), maar achter de recent uitgebrachte Qwen3.5 122B A10B (42).
➤ Gefocust op efficiënte intelligentie: we hebben ontdekt dat Nemotron 3 Super hogere intelligentie heeft dan gpt-oss-120b terwijl het ~10% hogere doorvoer per GPU mogelijk maakt in een eenvoudige maar realistische belastingstest.
➤ Vandaag ondersteund voor snelle serverloze inferentie: aanbieders zoals @DeepInfra en @LightningAI bieden dit model bij de lancering aan met snelheden tot 484 tokens per seconde.
Modeldetails
📝 Nemotron 3 Super heeft 120,6B totaal en 12,7B actieve parameters, samen met een contextvenster van 1 miljoen tokens en hybride redeneersondersteuning. Het is gepubliceerd met open gewichten en een permissieve licentie, naast open trainingsdata en methodologie-openbaring.
📐 Het model heeft verschillende ontwerpeigenschappen die efficiënte inferentie mogelijk maken, waaronder het gebruik van hybride Mamba-Transformer en LatentMoE-architecturen, multi-token voorspelling en NVFP4-gequantiseerde gewichten.
🎯 NVIDIA heeft Nemotron 3 Super voorgetraind in (voornamelijk) NVFP4-precisie, maar is overgestapt op BF16 voor post-training. Onze evaluatiescores gebruiken de BF16-gewichten.
🧠 We hebben Nemotron 3 Super getest in zijn hoogste-inspanning redeneerstand ("regulier"), de meest capabele van de drie inferentiemodi van het model (redenaar-uit, lage-inspanning en regulier).

6,61K
Alibaba heeft 4 nieuwe Qwen3.5-modellen uitgebracht van 0.8B tot 9B. De 9B (Redenering, 32 op de Intelligentie-index) is het meest intelligente model onder de 10B parameters, en de 4B (Redenering, 27) het meest intelligente onder de 5B, maar beide gebruiken 200M+ outputtokens om de Intelligentie-index te draaien
@Alibaba_Qwen heeft de Qwen3.5-familie uitgebreid met vier kleinere dichte modellen: de 9B (Redenering, 32 op de Intelligentie-index), 4B (Redenering, 27), 2B (Redenering, 16) en 0.8B (Redenering, 9). Deze aanvullen de grotere 397B, 27B, 122B A10B en 35B A3B-modellen die eerder deze maand zijn uitgebracht. Alle modellen zijn gelicentieerd onder Apache 2.0, ondersteunen 262K context, bevatten native visuele ondersteuning en gebruiken dezelfde uniforme denk-/niet-denk hybride aanpak als de rest van de Qwen3.5-familie
Belangrijke benchmarkresultaten voor de redeneringsvarianten:
➤ De 9B en 4B zijn de meest intelligente modellen in hun respectieve grootteklassen, voor alle andere modellen onder de 10B parameters. Qwen3.5 9B (32) scoort ongeveer het dubbele van de dichtstbijzijnde modellen onder de 10B: Falcon-H1R-7B (16) en NVIDIA Nemotron Nano 9B V2 (Redenering, 15). Qwen3.5 4B (27) scoort beter dan al deze, ondanks dat het ongeveer de helft van de parameters heeft. Alle vier de kleine Qwen3.5-modellen bevinden zich op de Pareto-grens van de Intelligentie versus Totale Parameters-grafiek
➤ De Qwen3.5-generatie vertegenwoordigt een materiële intelligentieverbetering ten opzichte van Qwen3 over alle sub-10B modelgroottes, met grotere winsten bij hogere totale parameteraantallen. Bij het vergelijken van redeneringsvarianten: Qwen3.5 9B (32) is 15 punten beter dan Qwen3 VL 8B (17), de 4B (27) wint 9 punten ten opzichte van Qwen3 4B 2507 (18), de 2B (16) is 3 punten beter dan Qwen3 1.7B (geschat 13), en de 0.8B (9) wint 2.5 punten ten opzichte van Qwen3 0.6B (6.5).
➤ Alle vier de modellen gebruiken 230-390M outputtokens om de Intelligentie-index te draaien, aanzienlijk meer dan zowel de grotere Qwen3.5-zussen als de Qwen3-voorgangers. Qwen3.5 2B gebruikte ~390M outputtokens, 4B gebruikte ~240M, 0.8B gebruikte ~230M, en 9B gebruikte ~260M. Ter context, de veel grotere Qwen3.5 27B gebruikte 98M en de 397B vlaggenschip gebruikte 86M. Deze tokenaantallen overschrijden ook de meeste grensmodellen: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) en GLM-5 Redenering (109M)
➤ AA-Omniscience is een relatieve zwakte, met hallucinatiepercentages van 80-82% voor de 4B en 9B. Qwen3.5 4B scoort -57 op AA-Omniscience met een hallucinatiepercentage van 80% en een nauwkeurigheid van 12.8%. Qwen3.5 9B scoort -56 met 82% hallucinatie en 14.7% nauwkeurigheid. Deze zijn marginaal beter dan hun Qwen3-voorgangers (Qwen3 4B 2507: -61, 84% hallucinatie, 12.7% nauwkeurigheid), waarbij de verbetering voornamelijk wordt gedreven door lagere hallucinatiepercentages in plaats van hogere nauwkeurigheid.
➤ De Qwen3.5 sub-10B modellen combineren hoge intelligentie met native visie op een schaal die voorheen niet beschikbaar was. Op MMMU-Pro (multimodale redenering) scoort Qwen3.5 9B 69.2% en 4B scoort 65.4%, voor Qwen3 VL 8B (56.6%), Qwen3 VL 4B (52.0%) en Ministral 3 8B (46.0%). De Qwen3.5 0.8B scoort 25.8%, wat opmerkelijk is voor een sub-1B model
Andere informatie:
➤ Contextvenster: 262K tokens
➤ Licentie: Apache 2.0
➤ Kwantisatie: Native gewichten zijn BF16. Alibaba heeft geen eerste partij GPTQ-Int4-kwantisaties voor deze kleine modellen vrijgegeven, hoewel ze dat wel hebben gedaan voor de grotere modellen in de Qwen3.5-familie die eerder zijn uitgebracht (27B, 35B-A3B, 122B-A10B, 397B-A17B). In 4-bits kwantisatie zijn alle vier de modellen toegankelijk op consumentenhardware
➤ Beschikbaarheid: Op het moment van publicatie zijn er geen eerste partij of derde partij serverloze API's die deze modellen hosten.

9,88K
Boven
Positie
Favorieten
