DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
Mistral Large 2, ontwikkeld door Mistral, biedt een contextvenster van 128K tokens en is geprijsd op $3,00 per miljoen invoertokens en $9,00 per miljoen uitvoertokens. Uitgebracht op 24 juli 2024, scoorde het model 84,0 op de MMLU-benchmark in een 5-shot evaluatie, wat sterke prestaties in diverse taken aantoont.
DeepSeek-R1 | Mistral Large 2 | |
---|---|---|
Website
| ||
Aanbieder
| ||
Chat
| ||
Releasedatum
| ||
Modaliteiten
| tekst | tekst |
API-Aanbieders
| DeepSeek, HuggingFace | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
Kennisafsluitdatum
| Onbekend | Onbekend |
Open Source
| Ja | Ja |
Prijzen Invoer
| $0.55 per miljoen tokens | $3.00 per miljoen tokens |
Prijzen Uitvoer
| $2.19 per miljoen tokens | $9.00 per miljoen tokens |
MMLU
| 90.8% Pass@1 Bron | 84% 5-shot Bron |
MMLU-Pro
| 84% EM Bron | 50.69% Bron |
MMMU
| - | Niet beschikbaar |
HellaSwag
| - | Niet beschikbaar |
HumanEval
| - | Niet beschikbaar |
MATH
| - | 1.13% Bron |
GPQA
| 71.5% Pass@1 Bron | 24.94% |
IFEval
| 83.3% Prompt Strict Bron | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobiele applicatie | - |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.