LLaMA 4 Maverick, 17 milyar aktif parametreye sahip olup, 128 uzman içeren Mixture-of-Experts mimarisiyle toplamda 400 milyar parametre barındıran son teknoloji bir çok modlu modeldir. GPT-4o ve Gemini 2.0 Flash gibi modelleri birçok ölçütte geride bırakarak sınıfında lider konuma gelmiştir ve akıl yürütme ile kodlama görevlerinde DeepSeek V3 ile eşleşirken, bunu yarısından daha az aktif parametre kullanarak başarmaktadır. Verimlilik ve ölçeklenebilirlik için tasarlanan Maverick, en iyi performans-maliyet oranını sunarak, deneysel sohbet varyantı LMArena'da 1417 ELO puanı elde etmiştir. Ölçeğine rağmen, tek bir NVIDIA H100 ana sunucusunda çalışarak basit ve pratik bir dağıtım sağlamaktadır.
GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.
Llama 4 Maverick | GPT-4.1 Nano | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller video | metin görseller |
API Sağlayıcıları
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Bilgi Kesim Tarihi
| 2024-08 | - |
Açık Kaynak
| Evet (Kaynak) | Hayır |
Fiyatlandırma Girdisi
| Mevcut değil | $0.10 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 80.1% Kaynak |
MMLU-Pro
| 80.5% Kaynak | - |
MMMU
| 73.4% Kaynak | 55.4% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| Mevcut değil | - |
GPQA
| 69.8% Diamond Kaynak | 50.3% Diamond Kaynak |
IFEval
| Mevcut değil | 74.5% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | 29.4% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 66.9% Kaynak |
MathVista
| - | 56.2% Image Reasoning Kaynak |
Mobil Uygulama | - | |
VideoGameBench | ||
Toplam puan | 0% | - |
Doom II | 0% | - |
Dream DX | 0% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | %0 | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.