DeepSeek-R1 ist ein Mixture-of-Experts (MoE)-Modell mit 671 Milliarden Parametern, wobei 37 Milliarden Parameter pro Token aktiv sind. Es wurde durch groß angelegtes Reinforcement Learning mit Fokus auf logische Schlussfolgerungen trainiert. Das Modell umfasst zwei RL-Phasen zur Entdeckung verbesserter Denkstrategien und zur Anpassung an menschliche Präferenzen sowie zwei SFT-Phasen zur Initialisierung von logischem und nicht-logischem Wissen. Die Leistung des Modells ist vergleichbar mit OpenAI-o1 in den Bereichen Mathematik, Programmierung und logisches Denken.
Command R+ ist Coheres modernstes generatives KI-Modell, entwickelt für Unternehmensleistung, bei der Geschwindigkeit, Sicherheit und Ausgabequalität entscheidend sind. Es arbeitet effizient mit minimaler Infrastruktur und übertrifft Spitzenmodelle wie GPT-4o und DeepSeek-V3 in Fähigkeiten und Kosteneffizienz. Mit einem erweiterten Kontextfenster von 256K Token – doppelt so groß wie bei den meisten führenden Modellen – glänzt es bei komplexen mehrsprachigen und agentenbasierten Aufgaben, die für moderne Geschäftsabläufe entscheidend sind. Trotz seiner Leistung kann es mit nur zwei GPUs betrieben werden, was es hochgradig zugänglich macht. Mit einer rasanten Durchsatzrate von bis zu 156 Token pro Sekunde – etwa 1,75-mal schneller als GPT-4o – bietet Command R+ außergewöhnliche Effizienz ohne Kompromisse bei Genauigkeit oder Tiefe.
DeepSeek-R1 | Command A | |
---|---|---|
Anbieter | ||
Webseite | ||
Veröffentlichungsdatum | Jan 21, 2025 3 Monate ago | Mar 14, 2025 1 Monat ago |
Modalitäten | Text | Text |
API-Anbieter | DeepSeek, HuggingFace | Cohere, Hugging Face, Major cloud providers |
Datum des Wissensstandes | Unbekannt | - |
Open Source | Ja | Ja |
Preisgestaltung Eingabe | $0.55 pro Million Token | $2.50 pro Million Token |
Preisgestaltung Ausgabe | $2.19 pro Million Token | $10.00 pro Million Token |
MMLU | 90.8% Pass@1 Quelle | 85.5% Quelle |
MMLU Pro | 84% EM Quelle | Nicht verfügbar |
MMMU | - | Nicht verfügbar |
HellaSwag | - | Nicht verfügbar |
HumanEval | - | Nicht verfügbar |
MATH | - | 80% Quelle |
GPQA | 71.5% Pass@1 Quelle | 50.8% Quelle |
IFEval | 83.3% Prompt Strict Quelle | 90.9% Quelle |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.