DeepSeek-R1

DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.

Llama 4 Maverick

DeepSeek-R1Llama 4 Maverick
Internetinė svetainė ?
Tiekėjas ?
Pokalbiai ?
Išleidimo data ?
Modalumai ?
tekstas ?
tekstas ?
vaizdai ?
vaizdo ?
API tiekėjai ?
DeepSeek, HuggingFace
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Žinių nutraukimo data ?
Nežinoma
2024-08
Atvirojo kodo ?
Taip
Taip (Šaltinis)
Įvesties kaina ?
$0.55 už milijoną žodžių
Nėra prieinama
Išvesties kaina ?
$2.19 už milijoną žodžių
Nėra prieinama
MMLU ?
90.8%
Pass@1
Šaltinis
Nėra prieinama
MMLU-Pro ?
84%
EM
Šaltinis
80.5%
Šaltinis
MMMU ?
-
73.4%
Šaltinis
HellaSwag ?
-
Nėra prieinama
HumanEval ?
-
Nėra prieinama
MATH ?
-
Nėra prieinama
GPQA ?
71.5%
Pass@1
Šaltinis
69.8%
Diamond
Šaltinis
IFEval ?
83.3%
Prompt Strict
Šaltinis
Nėra prieinama
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobilioji programa
-

VideoGameBench ?

Bendras balas
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
%0
Secret Game 2
-
0%
Secret Game 3
-
0%

Palyginti LLM

Pridėti komentarą


10%
Mūsų svetainė naudoja slapukus.

Privatumo ir slapukų politika: Ši svetainė naudoja slapukus. Tęsdami naudojimąsi svetaine, jūs sutinkate su jų naudojimu.