トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
AIモデルとホスティングプロバイダーの独立した分析 - ユースケースに最適なモデルとAPIプロバイダーを選択します
NVIDIAは、ハイブリッドなMamba-Transformer MoEアーキテクチャを持つ人工分析知能指数(Artificial Analysis Intelligence Index)で36点を獲得した、120B(12Bアクティブ)のオープンウェイト推論モデルNemotron 3 Superをリリースしました
ローンチ前にこのモデルへのアクセス権を与えられ、知能、開放性、推論効率の面で評価しました。
主なポイント
高い開放性と高い知能を兼ね備えている:Nemotron 3 Superはそのサイズに対して優れた性能を示し、同等の開閉度を持つ他のどのモデルよりもはるかに高い知能を持っています
† Nemotron 3 SuperはArtificial Analysis Intelligence Indexで36点を獲得し、前回のSuperリリースより+17ポイント、Nemotron 3 Nanoより+12ポイントの差をつけました。同サイズのモデルと比べると、これはGPT-OSS-120B(33)より上位ですが、最近発売されたQwen3.5 122B A10B(42)には及びません。
効率的なインテリジェンスに焦点を当てて:Nemotron 3 SuperはGPT-OSS-120bよりも高い知能を持ち、シンプルながら現実的な負荷テストでGPUあたり約10%のスループット向上を実現しました
† 今日は高速なサーバーレス推論に対応しています:@DeepInfraや@LightningAIなどのプロバイダーが、ローンチ時に最大484トークン/秒の速度でこのモデルを提供しています
モデルの詳細
📝 Nemotron 3 Superは合計120.6億トークンとアクティブパラメータ1270万倍、さらに100万トークンコンテキストウィンドウとハイブリッド推論サポートを備えています。オープンウェイトと許可ライセンス、オープントレーニングデータおよび方法論の開示とともに公開されています
📐 このモデルには、ハイブリッドなマンバトランスフォーマーおよびLatentMoEアーキテクチャ、マルチトークン予測、NVFP4量子化重みなど、効率的な推論を可能にする複数の設計特徴があります
🎯 NVIDIAはNemotron 3 Superを(主に)NVFP4精度で事前学習しましたが、後処理はBF16に移行しました。評価スコアはBF16の重みを使用しています
🧠 私たちはNemotron 3 Superを、モデルの3つの推論モード(推論オフ、低努力、通常)の中で最も高性能な、最も高い努力推論モード(「通常」)でベンチマークしました

6.92K
アリババは0.8Bから9Bまでの4つの新しいQwen3.5モデルをリリースしました。9B(推論、知能指数で32位)は10Bパラメータ下で最も知能の高いモデルであり、4B(推論、27位)は5Bより最も知能が高いですが、どちらも知能指数を実行するために2億00M+の出力トークンを使用しています
@Alibaba_QwenはQwen3.5ファミリーを拡張し、4つのより小さな密度の高いモデルを導入しました:9B(推論、知能指数で32)、4B(推論、27)、2B(推論、16)、0.8B(推論、9)。これらは今月初めに発売されたより大きな397B、27B、122B A10B、35B A3Bモデルを補完するものです。すべてのモデルはApache 2.0ライセンスを受けており、262Kコンテキストをサポートし、ネイティブビジョン対応を含み、Qwen3.5ファミリーの他のモデルと同じ統一思考/非思考ハイブリッドアプローチを採用しています
推論バリアントの主なベンチマーク結果:
† 9Bと4Bはそれぞれのサイズクラスで最も知能の高いモデルであり、10Bパラメータ内の他のすべてのモデルを上回っています。Qwen3.5 9B(32)は、10B未満の次に近いモデルであるFalcon-H1R-7B(16)とNVIDIA Nemotron Nano 9B V2(Reasoning、15)のほぼ倍のスコアを獲得しています。Qwen3.5 4B(27)は、パラメータの約半分にもかかわらずこれらすべてを上回っています。4つの小型Qwen3.5モデルはすべて、知能対総パラメータチャートのパレートフロンティアに位置しています
† Qwen3.5世代は、Qwen3に対してQwen3よりも物質知能が向上し、10B未満のモデルサイズで、総パラメータ数が増えるほど大きな向上を示します。推論の比較:Qwen3.5 9B(32)はQwen3 VL 8B(17)に15ポイントリードし、4B(27)はQwen3 4B 2507(18)より9ポイント上回り、2B(16)はQwen3 1.7B(推定13)に3ポイント上回り、0.8B(9)はQwen3 0.6B(6.5)に2.5ポイント上回っています。
† 4つのモデルすべてが2億3,000万〜3億9,000万の出力トークンを使って知能指数を運用しており、これはより大きなQwen3.5の兄弟モデルやQwen3の前身モデルよりも大幅に多いです。Qwen3.5 2Bは~390Mの出力トークンを使用し、4Bは~240M、0.8Bは~230M、9Bは~260Mを使用しました。参考までに、はるかに大きなQwen3.5 27Bは98Mを使用し、397Bフラッグシップは86Mを使用していました。これらのトークン数は、Gemini 3.1 Pro Preview(57M)、GPT-5.2(xhigh、1億30M)、GLM-5 Reasoning(109M)といった多くのフロンティアモデルを上回っています
† AA全知は比較的弱点であり、4Bと9Bの幻覚率は80〜82%です。Qwen3.5 4BはAA-Omniscienceで-57点、幻覚率80%、精度12.8%です。Qwen3.5 9Bは-56点、幻覚率82%、正確率14.7%です。これらはQwen3の前身(Qwen3 4B 2507: -61、幻覚84%、精度12.7%)よりわずかに優れており、改善の主な要因は高い精度よりも幻覚の発生率の低下によるものです。
† Qwen3.5のサブ10Bモデルは、これまでにないスケールで高い知能とネイティブビジョンを融合させています。MMMU-Pro(マルチモーダル推論)では、Qwen3.5 9Bが69.2%、4Bが65.4%のスコアを得ており、Qwen3 VL 8B(56.6%)、Qwen3 VL 4B(52.0%)、Ministral 3 8B(46.0%)を上回っています。Qwen3.5 0.8Bは25.8%のスコアで、1B未満モデルとしては注目すべき数字です
その他の情報:
† コンテキストウィンドウ:262Kトークン
† ライセンス:Apache 2.0
† 量子化:ネイティブ重みはBF16です。アリババはこれらの小規模モデルに対してファーストパーティのGPTQ-Int4量子化を公開していませんが、以前にリリースされたQwen3.5ファミリーの大型モデル(27B、35B-A3B、122B-A10B、397B-A17B)については公開しています。4ビット量子化では、これら4つのモデルすべてが消費者向けハードウェアで利用可能です
† 利用可能性:公開時点で、これらのモデルをホストするファーストパーティまたはサードパーティのサーバーレスAPIは存在しません

9.93K
トップ
ランキング
お気に入り
