DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
DeepSeek-R1 | Llama 4 Maverick | |
---|---|---|
Aanbieder | ||
Website | ||
Releasedatum | Jan 21, 2025 3 maanden ago | Apr 05, 2025 2 weken ago |
Modaliteiten | tekst | tekst afbeeldingen video |
API-Aanbieders | DeepSeek, HuggingFace | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
Kennisafsluitdatum | Onbekend | 2024-08 |
Open Source | Ja | Ja (Bron) |
Prijzen Invoer | $0.55 per miljoen tokens | Niet beschikbaar |
Prijzen Uitvoer | $2.19 per miljoen tokens | Niet beschikbaar |
MMLU | 90.8% Pass@1 Bron | Niet beschikbaar |
MMLU Pro | 84% EM Bron | 80.5% Bron |
MMMU | - | 73.4% Bron |
HellaSwag | - | Niet beschikbaar |
HumanEval | - | Niet beschikbaar |
MATH | - | Niet beschikbaar |
GPQA | 71.5% Pass@1 Bron | 69.8% Diamond Bron |
IFEval | 83.3% Prompt Strict Bron | Niet beschikbaar |
Mobiele applicatie | - |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.