DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Nova Micro

Amazon Nova Micro is een tekstmodel dat is geoptimaliseerd voor kosten en snelheid. Met een contextvenster van 128K tokens blinkt het uit in taken zoals tekstsamenvatting, vertaling, interactieve chat en basisprogrammering. Uitgebracht als onderdeel van de Amazon Nova-foundationmodellen, ondersteunt het fine-tuning en distillatie voor aanpassing aan eigen gegevens.

DeepSeek-R1Nova Micro
Website ?
Aanbieder ?
Chat ?
Releasedatum ?
Modaliteiten ?
tekst ?
tekst ?
API-Aanbieders ?
DeepSeek, HuggingFace
Amazon Bedrock
Kennisafsluitdatum ?
Onbekend
Opzettelijk niet vrijgegeven
Open Source ?
Ja
Nee
Prijzen Invoer ?
$0.55 per miljoen tokens
$0.04 per miljoen tokens
Prijzen Uitvoer ?
$2.19 per miljoen tokens
$0.14 per miljoen tokens
MMLU ?
90.8%
Pass@1
Bron
77.6%
CoT
Bron
MMLU-Pro ?
84%
EM
Bron
-
MMMU ?
-
-
HellaSwag ?
-
-
HumanEval ?
-
81.1%
pass@1
Bron
MATH ?
-
69.3%
CoT
Bron
GPQA ?
71.5%
Pass@1
Bron
40%
Main
Bron
IFEval ?
83.3%
Prompt Strict
Bron
87.2%
Bron
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobiele applicatie
-

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.