DeepSeek-R1

DeepSeek-R1, token başına 37B etkin parametreye sahip 671B parametreli bir Uzman Karışımı (MoE) modelidir ve büyük ölçekli pekiştirmeli öğrenme ile özellikle akıl yürütme yeteneklerine odaklanılarak eğitilmiştir. Model, geliştirilmiş akıl yürütme kalıplarını keşfetmek ve insan tercihleriyle uyum sağlamak için iki RL aşaması ile birlikte akıl yürütme ve diğer yetenekleri başlatmak üzere iki SFT aşaması içerir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile karşılaştırılabilir performans sergiler.

Mistral Large 2

Mistral Large 2, Mistral tarafından geliştirildi ve 128K token bağlam penceresi sunar. Milyon giriş token başına 3,00$ ve milyon çıkış token başına 9,00$ fiyatlandırılmıştır. 24 Temmuz 2024'te yayınlanan model, 5 atış değerlendirmesinde MMLU ölçütünde 84,0 puan alarak çeşitli görevlerde güçlü performans sergilemiştir.

DeepSeek-R1Mistral Large 2
Web Sitesi ?
Sağlayıcı ?
Sohbet ?
Yayın Tarihi ?
Modallikler ?
metin ?
metin ?
API Sağlayıcıları ?
DeepSeek, HuggingFace
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Bilgi Kesim Tarihi ?
Bilinmiyor
Bilinmiyor
Açık Kaynak ?
Evet
Evet
Fiyatlandırma Girdisi ?
$0.55 milyon belirteç başına
$3.00 milyon belirteç başına
Fiyatlandırma Çıktısı ?
$2.19 milyon belirteç başına
$9.00 milyon belirteç başına
MMLU ?
90.8%
Pass@1
Kaynak
84%
5-shot
Kaynak
MMLU-Pro ?
84%
EM
Kaynak
50.69%
Kaynak
MMMU ?
-
Mevcut değil
HellaSwag ?
-
Mevcut değil
HumanEval ?
-
Mevcut değil
MATH ?
-
1.13%
Kaynak
GPQA ?
71.5%
Pass@1
Kaynak
24.94%
IFEval ?
83.3%
Prompt Strict
Kaynak
84.01%
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobil Uygulama
-

LLM Karşılaştırması

Yorum Ekle


10%
Sitemiz çerez kullanmaktadır.

Gizlilik ve Çerez Politikası: Bu site çerez kullanır. Siteyi kullanmaya devam ederek, kullanımını kabul etmiş olursunuz.