LLaMA 4 Maverick, 17 milyar aktif parametreye sahip olup, 128 uzman içeren Mixture-of-Experts mimarisiyle toplamda 400 milyar parametre barındıran son teknoloji bir çok modlu modeldir. GPT-4o ve Gemini 2.0 Flash gibi modelleri birçok ölçütte geride bırakarak sınıfında lider konuma gelmiştir ve akıl yürütme ile kodlama görevlerinde DeepSeek V3 ile eşleşirken, bunu yarısından daha az aktif parametre kullanarak başarmaktadır. Verimlilik ve ölçeklenebilirlik için tasarlanan Maverick, en iyi performans-maliyet oranını sunarak, deneysel sohbet varyantı LMArena'da 1417 ELO puanı elde etmiştir. Ölçeğine rağmen, tek bir NVIDIA H100 ana sunucusunda çalışarak basit ve pratik bir dağıtım sağlamaktadır.
OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
Llama 4 Maverick | GPT-4.1 | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller video | metin görseller |
API Sağlayıcıları
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Bilgi Kesim Tarihi
| 2024-08 | - |
Açık Kaynak
| Evet (Kaynak) | Hayır |
Fiyatlandırma Girdisi
| Mevcut değil | $2.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $8.00 milyon belirteç başına |
MMLU
| Mevcut değil | 90.2% pass@1 Kaynak |
MMLU-Pro
| 80.5% Kaynak | - |
MMMU
| 73.4% Kaynak | 74.8% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| Mevcut değil | - |
GPQA
| 69.8% Diamond Kaynak | 66.3% Diamond Kaynak |
IFEval
| Mevcut değil | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Kaynak |
MathVista
| - | - |
Mobil Uygulama | - | |
VideoGameBench | ||
Toplam puan | 0% | - |
Doom II | 0% | - |
Dream DX | 0% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | %0 | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.