DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Mistral Large 2

Mistral Large 2, ontwikkeld door Mistral, biedt een contextvenster van 128K tokens en is geprijsd op $3,00 per miljoen invoertokens en $9,00 per miljoen uitvoertokens. Uitgebracht op 24 juli 2024, scoorde het model 84,0 op de MMLU-benchmark in een 5-shot evaluatie, wat sterke prestaties in diverse taken aantoont.

DeepSeek-R1Mistral Large 2
Aanbieder
Website
Releasedatum
Jan 21, 2025
3 maanden ago
Jun 24, 2024
9 maanden ago
Modaliteiten
tekst ?
tekst ?
API-Aanbieders
DeepSeek, HuggingFace
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Kennisafsluitdatum
Onbekend
Onbekend
Open Source
Ja
Ja
Prijzen Invoer
$0.55 per miljoen tokens
$3.00 per miljoen tokens
Prijzen Uitvoer
$2.19 per miljoen tokens
$9.00 per miljoen tokens
MMLU
90.8%
Pass@1
Bron
84%
5-shot
Bron
MMLU Pro
84%
EM
Bron
50.69%
Bron
MMMU
-
Niet beschikbaar
HellaSwag
-
Niet beschikbaar
HumanEval
-
Niet beschikbaar
MATH
-
1.13%
Bron
GPQA
71.5%
Pass@1
Bron
24.94%
IFEval
83.3%
Prompt Strict
Bron
84.01%
Mobiele applicatie
-

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.