Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en gelişmiş modeli olup, piyasadaki ilk hibrit akıl yürütme yapay zekasıdır. Hem standart hem de genişletilmiş düşünme modları sunar; genişletilmiş mod, şeffaf ve adım adım akıl yürütme sağlar. Model, kodlama ve ön yüz web geliştirmede üstün performans göstererek SWE-bench Verified ve TAU-bench'te son teknoloji sonuçlar elde etmiştir. Claude.ai, Anthropic API, Amazon Bedrock ve Google Cloud'un Vertex AI hizmetleri aracılığıyla kullanılabilir ve yapay zeka destekli problem çözme konusunda yeni bir ölçüt belirler.
GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.
Claude 3.7 Sonnet | GPT-4.1 Nano | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin görseller |
API Sağlayıcıları
| Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI | OpenAI API |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| $3.00 milyon belirteç başına | $0.10 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $15.00 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 80.1% Kaynak |
MMLU-Pro
| Mevcut değil | - |
MMMU
| 71.8% Kaynak | 55.4% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| 82.2% Kaynak | - |
GPQA
| 68% Diamond Kaynak | 50.3% Diamond Kaynak |
IFEval
| 90.8% Kaynak | 74.5% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | 29.4% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 66.9% Kaynak |
MathVista
| - | 56.2% Image Reasoning Kaynak |
Mobil Uygulama | ||
VideoGameBench | ||
Toplam puan | 0% | - |
Doom II | 0% | - |
Dream DX | 0% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | 0% | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.