Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Yapay zeka modellerinin ve barındırma sağlayıcılarının bağımsız analizi - kullanım durumunuz için en iyi modeli ve API sağlayıcısını seçin
NVIDIA, Yapay Analiz Zeka Endeksi'nde 36 puan alan ve hibrit Mamba-Transformer MoE mimarisiyle 120B (12B aktif) açık ağırlık akıl yürütme modeli olan Nemotron 3 Super'i piyasaya sürdü
Bu modele lansman öncesinde erişim verildi ve zeka, açıklık ve çıkarım verimliliği açısından değerlendirdik.
Önemli çıkarımlar
➤ Yüksek açıklığı güçlü zeka ile birleştirir: Nemotron 3 Super, boyutuna göre güçlü performans gösterir ve benzer açıklığa sahip diğer modellerden önemli ölçüde daha zekidir
➤ Nemotron 3 Super, Yapay Analiz Zeka Endeksi'nde 36 puan aldı; önceki Super sürümünden +17 puan ve Nemotron 3 Nano'dan +12 puan önünde. Benzer boyut kategorisindeki modellerle karşılaştırıldığında, bu onu gpt-oss-120b (33) modelinin önüne koymuş, ancak yakın zamanda piyasaya sürülen Qwen3.5 122B A10B'nin (42) gerisinde yer alıyor.
➤ Verimli zekaya odaklandık: Nemotron 3 Super'in gpt-oss-120b'den daha yüksek zekaya sahip olduğunu ve basit ama gerçekçi bir yük testinde GPU başına ~%10 daha yüksek veri verimliliği sağladığını bulduk
➤ Bugün hızlı sunucusuz çıkarım için destekleniyor: @DeepInfra ve @LightningAI gibi sağlayıcılar, bu modeli lansmanda saniyede 484 token hızına kadar kullanmaktadır
Model detayları
📝 Nemotron 3 Super'in toplam 120,6B ve 12,7B aktif parametreleri var, ayrıca 1 milyon token bağlam penceresi ve hibrit akıl yürütme desteği var. Açık ağırlıklar ve izin veren lisansla, açık eğitim verileri ve metodoloji açıklamalarıyla birlikte yayımlanır
📐 Model, hibrit Mamba-Transformer ve LatentMoE mimarileri, çoklu token tahmini ve NVFP4 kuantize ağırlıkları gibi verimli çıkarım yapmayı sağlayan çeşitli tasarım özelliklerine sahiptir
🎯 NVIDIA, Nemotron 3 Super'i (çoğunlukla) NVFP4 hassasiyetinde önceden eğitti, ancak eğitim sonrası için BF16'ya geçti. Değerlendirme puanlarımız BF16 ağırlıklarını kullanır
🧠 Nemotron 3 Super'i, modelin üç çıkarım modundan (akıl yürütme, düşük çaba ve düzenli) en yeteneklisi olan en yüksek çaba gerektiren akıl yürütme modunda ("normal") kıyasladık

7,03K
Alibaba, 0.8B'den 9B'ye kadar 4 yeni Qwen3.5 modeli piyasaya sürdü. 9B (Akıl yürütme, Zeka Endeksi'nde 32) 10B parametreleri altında en zeki model, 4B (Akıl yürütme, 27) ise 5B altında en zeki modeldir, ancak her ikisi de Zeka İndeksini çalıştırmak için 200M+ çıkış tokenı kullanır
@Alibaba_Qwen, Qwen3.5 ailesini dört daha küçük yoğun modelle genişletmiştir: 9B (Akıl yürütme, Zeka Indeksinde 32), 4B (Akıl yürütme, 27), 2B (Akıl yürütme, 16) ve 0.8B (Akıl yürütme, 9). Bunlar, bu ayın başında piyasaya sürülen daha büyük 397B, 27B, 122B A10B ve 35B A3B modellerini tamamlayacak. Tüm modeller Apache 2.0 lisanslıdır, 262K bağlamını destekler, yerel görme desteği içerir ve Qwen3.5 ailesinin geri kalanı gibi birleşik düşünme/düşünme dışı hibrit yaklaşımı kullanır
Akıl yürütme varyantları için temel kıyaslama sonuçları:
➤ 9B ve 4B, kendi boyut sınıflarında en akıllı modellerdir ve 10B parametreleri altındaki diğer tüm modellerin önündedir. Qwen3.5 9B (32), 10B'nin altındaki en yakın modellerin yaklaşık iki katı puan alıyor: Falcon-H1R-7B (16) ve NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27), parametrelerin yaklaşık yarısına sahip olmasına rağmen bunların hepsini geride bırakıyor. Dört küçük Qwen3.5 modelinin tamamı, Zeka vs. Toplam Parametreler tablosunda Pareto sınırında yer alıyor
➤ Qwen3.5 nesli, tüm 10B altındaki model boyutlarında Qwen3'e göre maddi zeka artışını temsil eder ve daha yüksek toplam parametre sayılarında daha büyük kazançlar elde eder. Akıl yürütme varyantlarını karşılaştırırsak: Qwen3.5 9B (32), Qwen3 VL 8B'nin (17) 15 puan önünde, 4B (27) Qwen3 4B 2507 (18) üzerinde 9 puan kazanır, 2B (16) Qwen3 1.7B'nin (tahmini 13) 3 puan önündedir ve 0.8B (9) Qwen3 0.6B (6.5) üzerinde 2.5 puan kazanır.
➤ Dört modelin tamamı Intelligence Index'i çalıştırmak için 230-390M çıkış tokenları kullanır; bu, hem büyük Qwen3.5 kardeşlerinden hem de Qwen3 seleflerinden önemli ölçüde fazladır. Qwen3.5 2B ~390M çıkış jetonları kullandı, 4B ~240M, 0.8B ~230M ve 9B ~260M kullandı. Bağlam için, çok daha büyük Qwen3.5 27B 98M kullanmış, 397B amiral gemisi ise 86M kullanmıştır. Bu token sayıları da çoğu öncü modeli aşıyor: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) ve GLM-5 Reasoning (109M)
➤ AA-Her Şeyi Bilme görece bir zayıflıktır; 4B ve 9B için halüsinasyon oranları %80-82 arasındadır. Qwen3.5 4B puanı AA-Omniscience'da -57 puan aldı, halüsinasyon oranı %80 ve doğruluk oranı %12,8. Qwen3.5 9B -56 puan, %82 halüsinasyon ve %14.7 isabet puanı aldı. Bunlar, Qwen3 seleflerinden (Qwen3 4B 2507: -61, %84 halüsinasyon, %12,7 doğruluk) biraz daha iyidir ve bu gelişme esas olarak daha yüksek doğruluk yerine daha düşük halüsinasyon oranlarından kaynaklanmaktadır.
➤ Qwen3.5 sub-10B modelleri, daha önce bulunamayan ölçekte yüksek zeka ile yerel görüşü birleştirir. MMMU-Pro (multimodal akıl yürütme) alanında, Qwen3.5 9B %69,2, 4B %65,4 puan alarak Qwen3 VL 8B (%56,6), Qwen3 VL 4B (%52,0) ve Ministral 3 8B (%46,0) önünde yer alır. Qwen3.5 0.8B %25.8 puan alıyor ki bu, 1B'nin altında bir model için dikkat çekicidir
Diğer bilgiler:
➤ Bağlam penceresi: 262K token
➤ Lisans: Apache 2.0
➤ Kuantizasyon: Yerel ağırlıklar BF16'dır. Alibaba, bu küçük modeller için birinci parti GPTQ-Int4 kuantizasyonlarını piyasaya sürmedi, ancak daha önce piyasaya sürülen Qwen3.5 ailesindeki daha büyük modeller için (27B, 35B-A3B, 122B-A10B, 397B-A17B) bu kuantizasyonlar yayımlamıştır. 4-bit quantizasyonda dört modelin tamamı tüketici donanımında erişilebilir
➤ Erişilebilirlik: Yayın sırasında bu modelleri barındıran birinci veya üçüncü taraf sunucusuz API'ler yoktur

9,96K
En İyiler
Sıralama
Takip Listesi
