o3

OpenAI o3, OpenAI'nin en gelişmiş akıl yürütme modeli olup, karmaşık ve yüksek bilişsel görevleri ele almak için özel olarak tasarlanmıştır. Nisan 2025'te piyasaya sürülen model, yazılım mühendisliği, matematik ve bilimsel problem çözmede olağanüstü performans göstermektedir. Model, düşük, orta ve yüksek olmak üzere üç akıl yürütme seviyesini sunarak kullanıcıların görev karmaşıklığına göre gecikme süresi ile akıl yürütme derinliği arasında denge kurmasını sağlar. o3, geliştiriciler için işlev çağırma, yapılandırılmış çıktılar ve sistem düzeyinde mesajlaşma gibi temel araçları desteklemektedir. Dahili görsel yetenekleri sayesinde görüntüleri yorumlayıp analiz edebilir ve çok modlu uygulamalar için uygundur. Chat Completions API, Assistants API ve Batch API aracılığıyla sunularak kurumsal ve araştırma iş akışlarına esnek entegrasyon sağlar.

o4-mini

OpenAI o4-mini, o-serisinin en yeni hafif modeli olup, metin ve görsel görevlerde verimli ve yetenekli akıl yürütme için tasarlanmıştır. Hız ve performans açısından optimize edilmiş olup, kod üretimi ve görsel tabanlı anlayışta üstün başarı gösterirken gecikme süresi ile akıl yürütme derinliği arasında dengeli bir yapı sunar. Model, 200.000 token bağlam penceresini ve 100.000'e kadar çıktı token desteğini sağlayarak uzun ve yüksek hacimli etkileşimler için uygundur. Hem metin hem de görsel girdileri işleyerek gelişmiş akıl yürütme yetenekleriyle metinsel çıktılar üretir. Kompakt mimarisi ve çok yönlü performansı ile o4-mini, hızlı ve maliyet açısından verimli zekâ gerektiren geniş çaplı gerçek dünya uygulamaları için idealdir.

o3o4-mini
Web Sitesi ?
Sağlayıcı ?
Sohbet ?
Yayın Tarihi ?
Modallikler ?
metin ?
görseller ?
metin ?
görseller ?
API Sağlayıcıları ?
OpenAI API
OpenAI API
Bilgi Kesim Tarihi ?
-
-
Açık Kaynak ?
Hayır
Hayır
Fiyatlandırma Girdisi ?
$10.00 milyon belirteç başına
$1.10 milyon belirteç başına
Fiyatlandırma Çıktısı ?
$40.00 milyon belirteç başına
$4.40 milyon belirteç başına
MMLU ?
82.9%
Kaynak
fort
MMLU-Pro ?
-
-
MMMU ?
-
81.6%
Kaynak
HellaSwag ?
-
-
HumanEval ?
-
14.28%
Kaynak
MATH ?
-
-
GPQA ?
83.3%
Diamond, no tools
Kaynak
81.4%
Kaynak
IFEval ?
-
-
SimpleQA ?
-
-
AIME 2024
91.6%
Kaynak
93.4%
Kaynak
AIME 2025
88.9%
Kaynak
92.7%
Kaynak
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobil Uygulama

LLM Karşılaştırması

Yorum Ekle


10%
Sitemiz çerez kullanmaktadır.

Gizlilik ve Çerez Politikası: Bu site çerez kullanır. Siteyi kullanmaya devam ederek, kullanımını kabul etmiş olursunuz.