DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Claude 3.5 Haiku

Claude 3.5 Haiku, ontwikkeld door Anthropic, biedt een contextvenster van 200.000 tokens. De prijsstelling is $1 per miljoen invoertokens en $5 per miljoen uitvoertokens, met mogelijke besparingen tot 90% via prompt caching en 50% via de Message Batches API. Uitgebracht op 4 november 2024, blinkt dit model uit in codecompletering, interactieve chatbots, gegevensextractie en -labeling, evenals realtime contentmoderatie.

DeepSeek-R1Claude 3.5 Haiku
Aanbieder
Website
Releasedatum
Jan 21, 2025
3 maanden ago
Nov 04, 2024
5 maanden ago
Modaliteiten
tekst ?
tekst ?
API-Aanbieders
DeepSeek, HuggingFace
Anthropic, AWS Bedrock, Vertex AI
Kennisafsluitdatum
Onbekend
01.04.2024
Open Source
Ja
Nee
Prijzen Invoer
$0.55 per miljoen tokens
$0.80 per miljoen tokens
Prijzen Uitvoer
$2.19 per miljoen tokens
$4.00
MMLU
90.8%
Pass@1
Bron
Niet beschikbaar
MMLU Pro
84%
EM
Bron
65%
0-shot CoT
Bron
MMMU
-
Niet beschikbaar
HellaSwag
-
Niet beschikbaar
HumanEval
-
88.1%
0-shot
Bron
MATH
-
69.4%
0-shot CoT
Bron
GPQA
71.5%
Pass@1
Bron
Niet beschikbaar
IFEval
83.3%
Prompt Strict
Bron
Niet beschikbaar
Mobiele applicatie

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.