OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.
GPT-4.1 | GPT-4.1 Nano | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin görseller |
API Sağlayıcıları
| OpenAI API | OpenAI API |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| $2.00 milyon belirteç başına | $0.10 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $8.00 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| 90.2% pass@1 Kaynak | 80.1% Kaynak |
MMLU-Pro
| - | - |
MMMU
| 74.8% Kaynak | 55.4% Kaynak |
HellaSwag
| - | - |
HumanEval
| - | - |
MATH
| - | - |
GPQA
| 66.3% Diamond Kaynak | 50.3% Diamond Kaynak |
IFEval
| - | 74.5% Kaynak |
SimpleQA
| - | - |
AIME 2024 | 48.1% Kaynak | 29.4% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 Kaynak | 66.9% Kaynak |
MathVista
| - | 56.2% Image Reasoning Kaynak |
Mobil Uygulama |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.