DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Llama 3.1 Nemotron 70B Instruct

NVIDIA's Llama 3.1 Nemotron 70B is een krachtig taalmodel dat is geoptimaliseerd voor het leveren van nauwkeurige en informatieve antwoorden. Gebouwd op de Llama 3.1 70B-architectuur en verbeterd met Reinforcement Learning from Human Feedback (RLHF),behaalt het top prestaties in automatische alignementbenchmarks. Ontworpen voor toepassingen die hoge precisie vereisen bij het genereren van antwoorden en behulpzaamheid, is dit model geschikt voor een breed scala aan gebruikersvragen in meerdere domeinen.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
Aanbieder
Website
Releasedatum
Jan 21, 2025
3 maanden ago
Oct 15, 2023
1 jaar ago
Modaliteiten
tekst ?
tekst ?
API-Aanbieders
DeepSeek, HuggingFace
OpenRouter
Kennisafsluitdatum
Onbekend
-
Open Source
Ja
Ja
Prijzen Invoer
$0.55 per miljoen tokens
$0.35 per miljoen tokens
Prijzen Uitvoer
$2.19 per miljoen tokens
$0.40 per miljoen tokens
MMLU
90.8%
Pass@1
Bron
85%
5-shot
Bron
MMLU Pro
84%
EM
Bron
Niet beschikbaar
MMMU
-
Niet beschikbaar
HellaSwag
-
Niet beschikbaar
HumanEval
-
75%
Bron
MATH
-
71%
Bron
GPQA
71.5%
Pass@1
Bron
Niet beschikbaar
IFEval
83.3%
Prompt Strict
Bron
Niet beschikbaar
Mobiele applicatie
-

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.