LLaMA 4 Scout, 17 milyar parametreli bir model olup, 16 aktif uzman içeren Mixture-of-Experts mimarisinden yararlanarak kategorisinde en iyi çok modlu model konumundadır. Gemma 3, Gemini 2.0 Flash-Lite ve Mistral 3.1 gibi rakipleri çeşitli ölçütlerde sürekli olarak geride bırakmaktadır. Performansına rağmen, LLaMA 4 Scout son derece verimlidir—Int4 kuantizasyonu ile tek bir NVIDIA H100 GPU üzerinde çalışabilmektedir. Ayrıca, sektör lideri 10 milyon token bağlam penceresi sunmakta ve doğal olarak çok modlu olup, gelişmiş gerçek dünya uygulamaları için metin, görüntü ve video girişlerini sorunsuz bir şekilde işlemektedir.
OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
Llama 4 Scout | GPT-4.1 | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller video | metin görseller |
API Sağlayıcıları
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Bilgi Kesim Tarihi
| 2025-04 | - |
Açık Kaynak
| Evet (Kaynak) | Hayır |
Fiyatlandırma Girdisi
| Mevcut değil | $2.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $8.00 milyon belirteç başına |
MMLU
| Mevcut değil | 90.2% pass@1 Kaynak |
MMLU-Pro
| 74.3% Reasoning & Knowledge Kaynak | - |
MMMU
| 69.4% Image Reasoning Kaynak | 74.8% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| Mevcut değil | - |
GPQA
| 57.2% Diamond Kaynak | 66.3% Diamond Kaynak |
IFEval
| Mevcut değil | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Kaynak |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.