DeepSeek-R1

DeepSeek-R1, token başına 37B etkin parametreye sahip 671B parametreli bir Uzman Karışımı (MoE) modelidir ve büyük ölçekli pekiştirmeli öğrenme ile özellikle akıl yürütme yeteneklerine odaklanılarak eğitilmiştir. Model, geliştirilmiş akıl yürütme kalıplarını keşfetmek ve insan tercihleriyle uyum sağlamak için iki RL aşaması ile birlikte akıl yürütme ve diğer yetenekleri başlatmak üzere iki SFT aşaması içerir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile karşılaştırılabilir performans sergiler.

Claude 3.5 Haiku

Anthropic tarafından geliştirilen Claude 3.5 Haiku, 200.000 token'lık bir bağlam penceresi sunar. Girdi başına milyon token için $1 ve çıktı başına $5 ücretlendirme ile gelir; prompt önbellekleme ile %90’a, Message Batches API ile %50’ye varan tasarruf sağlanabilir. 4 Kasım 2024’te yayımlanan bu model, kod tamamlama, etkileşimli sohbet botları, veri çıkarımı ve etiketleme ile gerçek zamanlı içerik denetiminde üstün performans sunar.

DeepSeek-R1Claude 3.5 Haiku
Web Sitesi ?
Sağlayıcı ?
Sohbet ?
Yayın Tarihi ?
Modallikler ?
metin ?
metin ?
API Sağlayıcıları ?
DeepSeek, HuggingFace
Anthropic, AWS Bedrock, Vertex AI
Bilgi Kesim Tarihi ?
Bilinmiyor
01.04.2024
Açık Kaynak ?
Evet
Hayır
Fiyatlandırma Girdisi ?
$0.55 milyon belirteç başına
$0.80 milyon belirteç başına
Fiyatlandırma Çıktısı ?
$2.19 milyon belirteç başına
$4.00
MMLU ?
90.8%
Pass@1
Kaynak
Mevcut değil
MMLU-Pro ?
84%
EM
Kaynak
65%
0-shot CoT
Kaynak
MMMU ?
-
Mevcut değil
HellaSwag ?
-
Mevcut değil
HumanEval ?
-
88.1%
0-shot
Kaynak
MATH ?
-
69.4%
0-shot CoT
Kaynak
GPQA ?
71.5%
Pass@1
Kaynak
Mevcut değil
IFEval ?
83.3%
Prompt Strict
Kaynak
Mevcut değil
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobil Uygulama

LLM Karşılaştırması

Yorum Ekle


10%
Sitemiz çerez kullanmaktadır.

Gizlilik ve Çerez Politikası: Bu site çerez kullanır. Siteyi kullanmaya devam ederek, kullanımını kabul etmiş olursunuz.