o3

OpenAI o3, OpenAI'nin en gelişmiş akıl yürütme modeli olup, karmaşık ve yüksek bilişsel görevleri ele almak için özel olarak tasarlanmıştır. Nisan 2025'te piyasaya sürülen model, yazılım mühendisliği, matematik ve bilimsel problem çözmede olağanüstü performans göstermektedir. Model, düşük, orta ve yüksek olmak üzere üç akıl yürütme seviyesini sunarak kullanıcıların görev karmaşıklığına göre gecikme süresi ile akıl yürütme derinliği arasında denge kurmasını sağlar. o3, geliştiriciler için işlev çağırma, yapılandırılmış çıktılar ve sistem düzeyinde mesajlaşma gibi temel araçları desteklemektedir. Dahili görsel yetenekleri sayesinde görüntüleri yorumlayıp analiz edebilir ve çok modlu uygulamalar için uygundur. Chat Completions API, Assistants API ve Batch API aracılığıyla sunularak kurumsal ve araştırma iş akışlarına esnek entegrasyon sağlar.

GPT-4.1 Nano

GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.

o3GPT-4.1 Nano
Web Sitesi ?
Sağlayıcı ?
Sohbet ?
Yayın Tarihi ?
Modallikler ?
metin ?
görseller ?
metin ?
görseller ?
API Sağlayıcıları ?
OpenAI API
OpenAI API
Bilgi Kesim Tarihi ?
-
-
Açık Kaynak ?
Hayır
Hayır
Fiyatlandırma Girdisi ?
$10.00 milyon belirteç başına
$0.10 milyon belirteç başına
Fiyatlandırma Çıktısı ?
$40.00 milyon belirteç başına
$0.40 milyon belirteç başına
MMLU ?
82.9%
Kaynak
80.1%
Kaynak
MMLU-Pro ?
-
-
MMMU ?
-
55.4%
Kaynak
HellaSwag ?
-
-
HumanEval ?
-
-
MATH ?
-
-
GPQA ?
83.3%
Diamond, no tools
Kaynak
50.3%
Diamond
Kaynak
IFEval ?
-
74.5%
Kaynak
SimpleQA ?
-
-
AIME 2024
91.6%
Kaynak
29.4%
Kaynak
AIME 2025
88.9%
Kaynak
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
66.9%
Kaynak
MathVista ?
-
56.2%
Image Reasoning
Kaynak
Mobil Uygulama

LLM Karşılaştırması

Yorum Ekle


10%
Sitemiz çerez kullanmaktadır.

Gizlilik ve Çerez Politikası: Bu site çerez kullanır. Siteyi kullanmaya devam ederek, kullanımını kabul etmiş olursunuz.