Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en gelişmiş yapay zeka modeli olup, piyasadaki ilk hibrit akıl yürütme sistemidir. Hem standart hem de genişletilmiş düşünme modları sunar; genişletilmiş mod, şeffaf ve adım adım akıl yürütme sağlar. Model, kodlama ve ön yüz web geliştirmede önemli iyileştirmeler göstererek SWE-bench Verified ve TAU-bench'te son teknoloji sonuçlar elde etmiştir. Claude.ai, Anthropic API, Amazon Bedrock ve Google Cloud'un Vertex AI hizmetleri aracılığıyla kullanılabilir ve yapay zeka destekli problem çözme konusunda yeni bir standart belirler.
Meta tarafından geliştirilen Llama 3.3 70B Instruct, özellikle talimat temelli görevler için ince ayar yapılmış çok dilli büyük bir dil modelidir ve sohbet uygulamaları için optimize edilmiştir. 128.000 token’a kadar destekleyen bir bağlam penceresiyle birçok dili işleyip üretebilir. 6 Aralık 2024’te piyasaya sürülen model, çeşitli sektör kıyaslamalarında birçok açık kaynaklı ve özel sohbet modelini geride bırakmıştır. Ölçeklenebilirliği artırmak için Grup Sorgu Dikkati (GQA) kullanır ve 15 trilyon token’dan fazla halka açık verilerden oluşan çeşitli bir veri kümesiyle eğitilmiştir. Modelin bilgi kapsamı Aralık 2023’e kadardır.
Claude 3.7 Sonnet - Extended Thinking | Llama 3.3 70B Instruct | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin |
API Sağlayıcıları
| Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI | Fireworks, Together, DeepInfra, Hyperbolic |
Bilgi Kesim Tarihi
| - | 12.2024 |
Açık Kaynak
| Hayır | Evet |
Fiyatlandırma Girdisi
| $3.00 milyon belirteç başına | $0.23 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $15.00 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 86% 0-shot, CoT Kaynak |
MMLU-Pro
| Mevcut değil | 68.9% 5-shot, CoT Kaynak |
MMMU
| 75% Kaynak | Mevcut değil |
HellaSwag
| Mevcut değil | Mevcut değil |
HumanEval
| Mevcut değil | 88.4% pass@1 Kaynak |
MATH
| 96.2% Kaynak | 77% 0-shot, CoT Kaynak |
GPQA
| 84.8% Diamond Kaynak | 50.5% 0-shot, CoT Kaynak |
IFEval
| 93.2% Kaynak | 92.1% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.