DeepSeek-R1, token başına 37B etkin parametreye sahip 671B parametreli bir Uzman Karışımı (MoE) modelidir ve büyük ölçekli pekiştirmeli öğrenme ile özellikle akıl yürütme yeteneklerine odaklanılarak eğitilmiştir. Model, geliştirilmiş akıl yürütme kalıplarını keşfetmek ve insan tercihleriyle uyum sağlamak için iki RL aşaması ile birlikte akıl yürütme ve diğer yetenekleri başlatmak üzere iki SFT aşaması içerir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile karşılaştırılabilir performans sergiler.
Mistral Large 2, Mistral tarafından geliştirildi ve 128K token bağlam penceresi sunar. Milyon giriş token başına 3,00$ ve milyon çıkış token başına 9,00$ fiyatlandırılmıştır. 24 Temmuz 2024'te yayınlanan model, 5 atış değerlendirmesinde MMLU ölçütünde 84,0 puan alarak çeşitli görevlerde güçlü performans sergilemiştir.
DeepSeek-R1 | Mistral Large 2 | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin | metin |
API Sağlayıcıları
| DeepSeek, HuggingFace | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
Bilgi Kesim Tarihi
| Bilinmiyor | Bilinmiyor |
Açık Kaynak
| Evet | Evet |
Fiyatlandırma Girdisi
| $0.55 milyon belirteç başına | $3.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $2.19 milyon belirteç başına | $9.00 milyon belirteç başına |
MMLU
| 90.8% Pass@1 Kaynak | 84% 5-shot Kaynak |
MMLU-Pro
| 84% EM Kaynak | 50.69% Kaynak |
MMMU
| - | Mevcut değil |
HellaSwag
| - | Mevcut değil |
HumanEval
| - | Mevcut değil |
MATH
| - | 1.13% Kaynak |
GPQA
| 71.5% Pass@1 Kaynak | 24.94% |
IFEval
| 83.3% Prompt Strict Kaynak | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.