DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
Claude 3.5 Haiku, ontwikkeld door Anthropic, biedt een contextvenster van 200.000 tokens. De prijsstelling is $1 per miljoen invoertokens en $5 per miljoen uitvoertokens, met mogelijke besparingen tot 90% via prompt caching en 50% via de Message Batches API. Uitgebracht op 4 november 2024, blinkt dit model uit in codecompletering, interactieve chatbots, gegevensextractie en -labeling, evenals realtime contentmoderatie.
DeepSeek-R1 | Claude 3.5 Haiku | |
---|---|---|
Website
| ||
Aanbieder
| ||
Chat
| ||
Releasedatum
| ||
Modaliteiten
| tekst | tekst |
API-Aanbieders
| DeepSeek, HuggingFace | Anthropic, AWS Bedrock, Vertex AI |
Kennisafsluitdatum
| Onbekend | 01.04.2024 |
Open Source
| Ja | Nee |
Prijzen Invoer
| $0.55 per miljoen tokens | $0.80 per miljoen tokens |
Prijzen Uitvoer
| $2.19 per miljoen tokens | $4.00 |
MMLU
| 90.8% Pass@1 Bron | Niet beschikbaar |
MMLU-Pro
| 84% EM Bron | 65% 0-shot CoT Bron |
MMMU
| - | Niet beschikbaar |
HellaSwag
| - | Niet beschikbaar |
HumanEval
| - | 88.1% 0-shot Bron |
MATH
| - | 69.4% 0-shot CoT Bron |
GPQA
| 71.5% Pass@1 Bron | Niet beschikbaar |
IFEval
| 83.3% Prompt Strict Bron | Niet beschikbaar |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobiele applicatie |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.