DeepSeek-R1

DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.

Qwen 3

DeepSeek-R1Qwen 3
Tiekėjas
Internetinė svetainė
Išleidimo data
Jan 21, 2025
3 mėnesiai ago
Apr 29, 2025
17 valandų ago
Modalumai
tekstas ?
-
API tiekėjai
DeepSeek, HuggingFace
-
Žinių nutraukimo data
Nežinoma
-
Atvirojo kodo
Taip
Taip (Šaltinis)
Įvesties kaina
$0.55 už milijoną žodžių
-
Išvesties kaina
$2.19 už milijoną žodžių
-
MMLU
90.8%
Pass@1
Šaltinis
-
MMLU Pro
84%
EM
Šaltinis
-
MMMU
-
-
HellaSwag
-
-
HumanEval
-
-
MATH
-
-
GPQA
71.5%
Pass@1
Šaltinis
-
IFEval
83.3%
Prompt Strict
Šaltinis
-
Mobilioji programa
-

Palyginti LLM

Pridėti komentarą


10%
Mūsų svetainė naudoja slapukus.

Privatumo ir slapukų politika: Ši svetainė naudoja slapukus. Tęsdami naudojimąsi svetaine, jūs sutinkate su jų naudojimu.