DeepSeek-R1

DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.

Llama 3.1 Nemotron 70B Instruct

NVIDIA Llama 3.1 Nemotron 70B yra galingas kalbos modelis, optimizuotas teikti tikslius ir informatyvius atsakymus. Sukurtas pagal Llama 3.1 70B architektūrą ir patobulintas naudojant stiprinamąjį mokymą iš žmogaus atsiliepimų (RLHF),jis pasiekia aukščiausius rezultatus automatinio lygiavimo testuose. Sukurtas programoms, reikalaujančioms didelio tikslumo atsakymų generavime ir naudingumo, šis modelis tinka įvairioms vartotojų užklausoms įvairiose srityse.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
Internetinė svetainė ?
Tiekėjas ?
Pokalbiai ?
Išleidimo data ?
Modalumai ?
tekstas ?
tekstas ?
API tiekėjai ?
DeepSeek, HuggingFace
OpenRouter
Žinių nutraukimo data ?
Nežinoma
-
Atvirojo kodo ?
Taip
Taip
Įvesties kaina ?
$0.55 už milijoną žodžių
$0.35 už milijoną žodžių
Išvesties kaina ?
$2.19 už milijoną žodžių
$0.40 už milijoną žodžių
MMLU ?
90.8%
Pass@1
Šaltinis
85%
5-shot
Šaltinis
MMLU-Pro ?
84%
EM
Šaltinis
Nėra prieinama
MMMU ?
-
Nėra prieinama
HellaSwag ?
-
Nėra prieinama
HumanEval ?
-
75%
Šaltinis
MATH ?
-
71%
Šaltinis
GPQA ?
71.5%
Pass@1
Šaltinis
Nėra prieinama
IFEval ?
83.3%
Prompt Strict
Šaltinis
Nėra prieinama
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobilioji programa
-

Palyginti LLM

Pridėti komentarą


10%
Mūsų svetainė naudoja slapukus.

Privatumo ir slapukų politika: Ši svetainė naudoja slapukus. Tęsdami naudojimąsi svetaine, jūs sutinkate su jų naudojimu.