OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
Command R+, Cohere’in en ileri düzey üretken yapay zeka modeli olup, hız, güvenlik ve çıktı kalitesinin kritik olduğu kurumsal düzeyde performans için tasarlanmıştır. Minimum altyapıyla verimli çalışacak şekilde geliştirilmiş olup, hem yetenek hem de maliyet açısından GPT-4o ve DeepSeek-V3 gibi üst düzey modelleri geride bırakmaktadır. 256K token bağlam penceresi sunarak çoğu lider modelin iki katı genişlikte bir bağlam sağlamakta ve modern iş operasyonları için hayati öneme sahip karmaşık çok dilli ve ajan tabanlı görevlerde üstün performans sergilemektedir. Gücüne rağmen yalnızca iki GPU üzerinde çalıştırılabilir, bu da onu oldukça erişilebilir kılmaktadır. 156 token/saniye gibi son derece hızlı veri işleme kapasitesine sahiptir—GPT-4o’dan yaklaşık 1,75 kat daha hızlı—Command R+, doğruluk veya derinlikten ödün vermeden olağanüstü verimlilik sunmaktadır.
GPT-4.1 | Command A | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin |
API Sağlayıcıları
| OpenAI API | Cohere, Hugging Face, Major cloud providers |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Evet |
Fiyatlandırma Girdisi
| $2.00 milyon belirteç başına | $2.50 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $8.00 milyon belirteç başına | $10.00 milyon belirteç başına |
MMLU
| 90.2% pass@1 Kaynak | 85.5% Kaynak |
MMLU-Pro
| - | Mevcut değil |
MMMU
| 74.8% Kaynak | Mevcut değil |
HellaSwag
| - | Mevcut değil |
HumanEval
| - | Mevcut değil |
MATH
| - | 80% Kaynak |
GPQA
| 66.3% Diamond Kaynak | 50.8% Kaynak |
IFEval
| - | 90.9% Kaynak |
SimpleQA
| - | - |
AIME 2024 | 48.1% Kaynak | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 Kaynak | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.