OpenAI o3-mini, STEM uygulamaları için tasarlanmış yüksek hızlı ve maliyet etkin bir akıl yürütme modelidir; bilim, matematik ve kodlama alanlarında güçlü performans sergiler. Ocak 2025’te piyasaya sürülen model, fonksiyon çağrısı, yapılandırılmış çıktılar ve geliştirici mesajları gibi temel geliştirici özelliklerini içerir. Kullanıcılar, düşük, orta ve yüksek düzeyde akıl yürütme yoğunluğu arasında seçim yaparak yanıt süresi ile derin analiz arasında denge kurabilir. Görsel yeteneklere sahip olmayan bu model, başlangıçta yalnızca seviye 3-5 API geliştiricilerine sunulmuştur ve Chat Completions API, Assistants API ve Batch API aracılığıyla erişilebilir.
OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
o3-mini | GPT-4.1 | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin | metin görseller |
API Sağlayıcıları
| OpenAI API | OpenAI API |
Bilgi Kesim Tarihi
| Bilinmiyor | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| $1.10 milyon belirteç başına | $2.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $4.40 milyon belirteç başına | $8.00 milyon belirteç başına |
MMLU
| 86.9% pass@1, high effort Kaynak | 90.2% pass@1 Kaynak |
MMLU-Pro
| Mevcut değil | - |
MMMU
| Mevcut değil | 74.8% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| 97.9% pass@1, high effort Kaynak | - |
GPQA
| 79.7% 0-shot, high effort Kaynak | 66.3% Diamond Kaynak |
IFEval
| Mevcut değil | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Kaynak |
MathVista
| - | - |
Mobil Uygulama |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.