DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
DeepSeek-R1 | Qwen 3 | |
---|---|---|
Website
| ||
Aanbieder
| ||
Chat
| ||
Releasedatum
| ||
Modaliteiten
| tekst | - |
API-Aanbieders
| DeepSeek, HuggingFace | - |
Kennisafsluitdatum
| Onbekend | - |
Open Source
| Ja | Ja (Bron) |
Prijzen Invoer
| $0.55 per miljoen tokens | - |
Prijzen Uitvoer
| $2.19 per miljoen tokens | - |
MMLU
| 90.8% Pass@1 Bron | - |
MMLU-Pro
| 84% EM Bron | - |
MMMU
| - | - |
HellaSwag
| - | - |
HumanEval
| - | - |
MATH
| - | - |
GPQA
| 71.5% Pass@1 Bron | - |
IFEval
| 83.3% Prompt Strict Bron | - |
SimpleQA
| - | - |
AIME 2024 | - | Bron |
AIME 2025 | - | Bron |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobiele applicatie | - |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.