OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen GPT-4.1, 1 milyon token bağlam penceresi sunar ve istek başına 32.768 token'a kadar çıktı desteği sağlar. Kodlama görevlerinde olağanüstü performans göstererek SWE-Bench Verified ölçütünde %54,6 başarı elde etmiş ve MultiChallenge'da GPT-4o'ya kıyasla talimat takip etmede %10,5 iyileşme sağlamıştır. Modelin bilgi kesim tarihi Haziran 2024 olarak belirlenmiştir. Fiyatlandırma, milyon giriş token başına 2,00$ ve milyon çıkış token başına 8,00$ olarak belirlenmiş olup, önbelleğe alınmış girdiler için %75 indirim uygulanarak tekrar eden sorgular için oldukça maliyet etkin hale getirilmiştir.
Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en gelişmiş modeli olup, piyasadaki ilk hibrit akıl yürütme yapay zekasıdır. Hem standart hem de genişletilmiş düşünme modları sunar; genişletilmiş mod, şeffaf ve adım adım akıl yürütme sağlar. Model, kodlama ve ön yüz web geliştirmede üstün performans göstererek SWE-bench Verified ve TAU-bench'te son teknoloji sonuçlar elde etmiştir. Claude.ai, Anthropic API, Amazon Bedrock ve Google Cloud'un Vertex AI hizmetleri aracılığıyla kullanılabilir ve yapay zeka destekli problem çözme konusunda yeni bir ölçüt belirler.
GPT-4.1 | Claude 3.7 Sonnet | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin görseller |
API Sağlayıcıları
| OpenAI API | Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| $2.00 milyon belirteç başına | $3.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $8.00 milyon belirteç başına | $15.00 milyon belirteç başına |
MMLU
| 90.2% pass@1 Kaynak | Mevcut değil |
MMLU-Pro
| - | Mevcut değil |
MMMU
| 74.8% Kaynak | 71.8% Kaynak |
HellaSwag
| - | Mevcut değil |
HumanEval
| - | Mevcut değil |
MATH
| - | 82.2% Kaynak |
GPQA
| 66.3% Diamond Kaynak | 68% Diamond Kaynak |
IFEval
| - | 90.8% Kaynak |
SimpleQA
| - | - |
AIME 2024 | 48.1% Kaynak | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 Kaynak | - |
MathVista
| - | - |
Mobil Uygulama | ||
VideoGameBench | ||
Toplam puan | - | 0% |
Doom II | - | 0% |
Dream DX | - | 0% |
Awakening DX | - | 0% |
Civilization I | - | 0% |
Pokemon Crystal | - | 0% |
The Need for Speed | - | 0% |
The Incredible Machine | - | 0% |
Secret Game 1 | - | 0% |
Secret Game 2 | - | 0% |
Secret Game 3 | - | 0% |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.