DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Llama 4 Maverick

DeepSeek-R1Llama 4 Maverick
Website ?
Aanbieder ?
Chat ?
Releasedatum ?
Modaliteiten ?
tekst ?
tekst ?
afbeeldingen ?
video ?
API-Aanbieders ?
DeepSeek, HuggingFace
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Kennisafsluitdatum ?
Onbekend
2024-08
Open Source ?
Ja
Ja (Bron)
Prijzen Invoer ?
$0.55 per miljoen tokens
Niet beschikbaar
Prijzen Uitvoer ?
$2.19 per miljoen tokens
Niet beschikbaar
MMLU ?
90.8%
Pass@1
Bron
Niet beschikbaar
MMLU-Pro ?
84%
EM
Bron
80.5%
Bron
MMMU ?
-
73.4%
Bron
HellaSwag ?
-
Niet beschikbaar
HumanEval ?
-
Niet beschikbaar
MATH ?
-
Niet beschikbaar
GPQA ?
71.5%
Pass@1
Bron
69.8%
Diamond
Bron
IFEval ?
83.3%
Prompt Strict
Bron
Niet beschikbaar
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobiele applicatie
-

VideoGameBench ?

Totale score
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
%0
Secret Game 2
-
0%
Secret Game 3
-
0%

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.