DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
Claude Opus 4 | DeepSeek-R1 | |
---|---|---|
Aanbieder | ||
Website | ||
Releasedatum | May 22, 2025 3 dagen ago | Jan 21, 2025 4 maanden ago |
Modaliteiten | tekst afbeeldingen | tekst |
API-Aanbieders | Anthropic API, Amazon Bedrock, Google Cloud's Vertex AI | DeepSeek, HuggingFace |
Kennisafsluitdatum | Onbekend | Onbekend |
Open Source | Nee | Ja |
Prijzen Invoer | $15 | $0.55 per miljoen tokens |
Prijzen Uitvoer | $75 per miljoen tokens | $2.19 per miljoen tokens |
MMLU | 88.8% Bron | 90.8% Pass@1 Bron |
MMLU Pro | - | 84% EM Bron |
MMMU | 76.5% Bron | - |
HellaSwag | - | - |
HumanEval | - | - |
MATH | - | - |
GPQA | 79.6% Diamond Bron | 71.5% Pass@1 Bron |
IFEval | - | 83.3% Prompt Strict Bron |
Array | - | - |
AIME 2024 | - | - |
AIME 2025 | 75.5% Bron | - |
Array | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Mobiele applicatie |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.