DeepSeek-R1

DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.

Mistral Large 2

Mistral Large 2, sukurtas „Mistral“, siūlo 128 000 ženklų konteksto langą ir kainuoja 3,00 USD už milijoną įvesties ženklų ir 9,00 USD už milijoną išvesties ženklų. 2024 m. liepos 24 d. išleistas modelis MMLU teste 5-shot vertinime surinko 84,0 balą, parodydamas stiprų našumą įvairiose užduotyse.

DeepSeek-R1Mistral Large 2
Internetinė svetainė ?
Tiekėjas ?
Pokalbiai ?
Išleidimo data ?
Modalumai ?
tekstas ?
tekstas ?
API tiekėjai ?
DeepSeek, HuggingFace
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Žinių nutraukimo data ?
Nežinoma
Nežinoma
Atvirojo kodo ?
Taip
Taip
Įvesties kaina ?
$0.55 už milijoną žodžių
$3.00 už milijoną žodžių
Išvesties kaina ?
$2.19 už milijoną žodžių
$9.00 už milijoną žodžių
MMLU ?
90.8%
Pass@1
Šaltinis
84%
5-shot
Šaltinis
MMLU-Pro ?
84%
EM
Šaltinis
50.69%
Šaltinis
MMMU ?
-
Nėra prieinama
HellaSwag ?
-
Nėra prieinama
HumanEval ?
-
Nėra prieinama
MATH ?
-
1.13%
Šaltinis
GPQA ?
71.5%
Pass@1
Šaltinis
24.94%
IFEval ?
83.3%
Prompt Strict
Šaltinis
84.01%
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobilioji programa
-

Palyginti LLM

Pridėti komentarą


10%
Mūsų svetainė naudoja slapukus.

Privatumo ir slapukų politika: Ši svetainė naudoja slapukus. Tęsdami naudojimąsi svetaine, jūs sutinkate su jų naudojimu.