DeepSeek-R1

DeepSeek-R1 je model Mixture-of-Experts (MoE) s 671 miliardami parametrů, z nichž 37 miliard je aktivováno na token. Byl vyškolen pomocí rozsáhlého posilovaného učení se zaměřením na schopnosti logického uvažování. Model obsahuje dvě fáze RL pro objevování lepších vzorců uvažování a sladění s lidskými preferencemi, spolu se dvěma fázemi SFT pro inicializaci schopností souvisejících s uvažováním i bez něj. Dosahuje výkonu srovnatelného s OpenAI-o1 v matematických, programovacích a logických úlohách.

Llama 4 Maverick

DeepSeek-R1Llama 4 Maverick
Webová stránka ?
Poskytovatel ?
Chat ?
Datum vydání ?
Modality ?
text ?
text ?
obrázky ?
video ?
Poskytovatelé API ?
DeepSeek, HuggingFace
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Datum uzávěrky znalostí ?
Neznámý
2024-08
Open Source ?
Ano
Ano (Zdroj)
Cena za vstup ?
$0.55 na milion tokenů
Není k dispozici
Cena za výstup ?
$2.19 na milion tokenů
Není k dispozici
MMLU ?
90.8%
Pass@1
Zdroj
Není k dispozici
MMLU-Pro ?
84%
EM
Zdroj
80.5%
Zdroj
MMMU ?
-
73.4%
Zdroj
HellaSwag ?
-
Není k dispozici
HumanEval ?
-
Není k dispozici
MATH ?
-
Není k dispozici
GPQA ?
71.5%
Pass@1
Zdroj
69.8%
Diamond
Zdroj
IFEval ?
83.3%
Prompt Strict
Zdroj
Není k dispozici
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobilní aplikace
-

VideoGameBench ?

Celkové skóre
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
%0
Secret Game 2
-
0%
Secret Game 3
-
0%

Porovnat LLM

Přidat komentář


10%
Naše stránky používají soubory cookie.

Zásady ochrany osobních údajů a souborů cookie: Tento web používá soubory cookie. Dalším používáním webu souhlasíte s jejich používáním.