DeepSeek-R1, token başına 37B etkin parametreye sahip 671B parametreli bir Uzman Karışımı (MoE) modelidir ve büyük ölçekli pekiştirmeli öğrenme ile özellikle akıl yürütme yeteneklerine odaklanılarak eğitilmiştir. Model, geliştirilmiş akıl yürütme kalıplarını keşfetmek ve insan tercihleriyle uyum sağlamak için iki RL aşaması ile birlikte akıl yürütme ve diğer yetenekleri başlatmak üzere iki SFT aşaması içerir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile karşılaştırılabilir performans sergiler.
Command R+, Cohere’in en ileri düzey üretken yapay zeka modeli olup, hız, güvenlik ve çıktı kalitesinin kritik olduğu kurumsal düzeyde performans için tasarlanmıştır. Minimum altyapıyla verimli çalışacak şekilde geliştirilmiş olup, hem yetenek hem de maliyet açısından GPT-4o ve DeepSeek-V3 gibi üst düzey modelleri geride bırakmaktadır. 256K token bağlam penceresi sunarak çoğu lider modelin iki katı genişlikte bir bağlam sağlamakta ve modern iş operasyonları için hayati öneme sahip karmaşık çok dilli ve ajan tabanlı görevlerde üstün performans sergilemektedir. Gücüne rağmen yalnızca iki GPU üzerinde çalıştırılabilir, bu da onu oldukça erişilebilir kılmaktadır. 156 token/saniye gibi son derece hızlı veri işleme kapasitesine sahiptir—GPT-4o’dan yaklaşık 1,75 kat daha hızlı—Command R+, doğruluk veya derinlikten ödün vermeden olağanüstü verimlilik sunmaktadır.
DeepSeek-R1 | Command A | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin | metin |
API Sağlayıcıları
| DeepSeek, HuggingFace | Cohere, Hugging Face, Major cloud providers |
Bilgi Kesim Tarihi
| Bilinmiyor | - |
Açık Kaynak
| Evet | Evet |
Fiyatlandırma Girdisi
| $0.55 milyon belirteç başına | $2.50 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $2.19 milyon belirteç başına | $10.00 milyon belirteç başına |
MMLU
| 90.8% Pass@1 Kaynak | 85.5% Kaynak |
MMLU-Pro
| 84% EM Kaynak | Mevcut değil |
MMMU
| - | Mevcut değil |
HellaSwag
| - | Mevcut değil |
HumanEval
| - | Mevcut değil |
MATH
| - | 80% Kaynak |
GPQA
| 71.5% Pass@1 Kaynak | 50.8% Kaynak |
IFEval
| 83.3% Prompt Strict Kaynak | 90.9% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.