OpenAI o3, OpenAI'nin en gelişmiş akıl yürütme modeli olup, karmaşık ve yüksek bilişsel görevleri ele almak için özel olarak tasarlanmıştır. Nisan 2025'te piyasaya sürülen model, yazılım mühendisliği, matematik ve bilimsel problem çözmede olağanüstü performans göstermektedir. Model, düşük, orta ve yüksek olmak üzere üç akıl yürütme seviyesini sunarak kullanıcıların görev karmaşıklığına göre gecikme süresi ile akıl yürütme derinliği arasında denge kurmasını sağlar. o3, geliştiriciler için işlev çağırma, yapılandırılmış çıktılar ve sistem düzeyinde mesajlaşma gibi temel araçları desteklemektedir. Dahili görsel yetenekleri sayesinde görüntüleri yorumlayıp analiz edebilir ve çok modlu uygulamalar için uygundur. Chat Completions API, Assistants API ve Batch API aracılığıyla sunularak kurumsal ve araştırma iş akışlarına esnek entegrasyon sağlar.
LLaMA 4 Scout, 17 milyar parametreli bir model olup, 16 aktif uzman içeren Mixture-of-Experts mimarisinden yararlanarak kategorisinde en iyi çok modlu model konumundadır. Gemma 3, Gemini 2.0 Flash-Lite ve Mistral 3.1 gibi rakipleri çeşitli ölçütlerde sürekli olarak geride bırakmaktadır. Performansına rağmen, LLaMA 4 Scout son derece verimlidir—Int4 kuantizasyonu ile tek bir NVIDIA H100 GPU üzerinde çalışabilmektedir. Ayrıca, sektör lideri 10 milyon token bağlam penceresi sunmakta ve doğal olarak çok modlu olup, gelişmiş gerçek dünya uygulamaları için metin, görüntü ve video girişlerini sorunsuz bir şekilde işlemektedir.
o3 | Llama 4 Scout | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin görseller video |
API Sağlayıcıları
| OpenAI API | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
Bilgi Kesim Tarihi
| - | 2025-04 |
Açık Kaynak
| Hayır | Evet (Kaynak) |
Fiyatlandırma Girdisi
| $10.00 milyon belirteç başına | Mevcut değil |
Fiyatlandırma Çıktısı
| $40.00 milyon belirteç başına | Mevcut değil |
MMLU
| 82.9% Kaynak | Mevcut değil |
MMLU-Pro
| - | 74.3% Reasoning & Knowledge Kaynak |
MMMU
| - | 69.4% Image Reasoning Kaynak |
HellaSwag
| - | Mevcut değil |
HumanEval
| - | Mevcut değil |
MATH
| - | Mevcut değil |
GPQA
| 83.3% Diamond, no tools Kaynak | 57.2% Diamond Kaynak |
IFEval
| - | Mevcut değil |
SimpleQA
| - | - |
AIME 2024 | 91.6% Kaynak | - |
AIME 2025 | 88.9% Kaynak | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.