DeepSeek-R1 to model typu Mixture-of-Experts (MoE) o 671B parametrach, z 37B aktywowanymi parametrami na token, szkolony za pomocą szeroko zakrojonego uczenia ze wzmocnieniem z naciskiem na zdolności rozumowania. Model ten obejmuje dwa etapy RL w celu odkrywania ulepszonych wzorców rozumowania i dostosowania do preferencji ludzkich, a także dwa etapy SFT do rozwijania zdolności rozumowania i innych umiejętności. Model osiąga wydajność porównywalną z OpenAI-o1 w zadaniach matematycznych, programistycznych i związanych z rozumowaniem.
Claude Sonnet 4 | DeepSeek-R1 | |
---|---|---|
Dostawca | ||
Strona internetowa | ||
Data wydania | May 22, 2025 3 dni ago | Jan 21, 2025 4 miesiące ago |
Modalności | tekst obrazy | tekst |
Dostawcy API | Anthropic API, Amazon Bedrock, Google Cloud's Vertex AI | DeepSeek, HuggingFace |
Data ostatniej aktualizacji wiedzy | Nieznane | Nieznane |
Open Source | Nie | Tak |
Cena za wejście | $3 za milion tokenów | $0.55 za milion tokenów |
Cena za wyjście | $15 za milion tokenów | $2.19 za milion tokenów |
MMLU | 86.5% Źródło | 90.8% Pass@1 Źródło |
MMLU Pro | - | 84% EM Źródło |
MMMU | 74.4% Źródło | - |
HellaSwag | - | - |
HumanEval | - | - |
MATH | - | - |
GPQA | 75.4% Diamond Źródło | 71.5% Pass@1 Źródło |
IFEval | - | 83.3% Prompt Strict Źródło |
Array | - | - |
AIME 2024 | - | - |
AIME 2025 | 75.5% Źródło | - |
Array | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Aplikacja mobilna |
Compare AI. Test. Benchmarks. Chatboty mobilne, Sketch
Copyright © 2025 All Right Reserved.