DeepSeek-R1

DeepSeek-R1 — це модель з 671B параметрів, побудована на архітектурі Mixture-of-Experts (MoE),з 37B активованих параметрів на токен. Вона навчалась за допомогою масштабного навчання з підкріпленням із акцентом на розвиток навичок міркування. Модель включає два етапи RL для виявлення покращених шаблонів міркування та відповідності людським уподобанням, а також два етапи SFT для закладання основ міркувальних та неміркувальних здібностей. Модель демонструє продуктивність, порівнянну з OpenAI-o1, у завданнях з математики, програмування та міркування.

Llama 4 Maverick

DeepSeek-R1Llama 4 Maverick
Веб-сайт ?
Постачальник ?
Чат ?
Дата випуску ?
Модальності ?
текст ?
текст ?
зображення ?
відео ?
Постачальники API ?
DeepSeek, HuggingFace
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Дата оновлення знань ?
Невідомо
2024-08
Відкритий код ?
Так
Вартість введення ?
$0.55 за мільйон токенів
Недоступно
Вартість виведення ?
$2.19 за мільйон токенів
Недоступно
MMLU ?
90.8%
Pass@1
Джерело
Недоступно
MMLU-Pro ?
84%
EM
Джерело
80.5%
Джерело
MMMU ?
-
73.4%
Джерело
HellaSwag ?
-
Недоступно
HumanEval ?
-
Недоступно
MATH ?
-
Недоступно
GPQA ?
71.5%
Pass@1
Джерело
69.8%
Diamond
Джерело
IFEval ?
83.3%
Prompt Strict
Джерело
Недоступно
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Мобільний додаток
-

VideoGameBench ?

Загальний бал
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
%0
Secret Game 2
-
0%
Secret Game 3
-
0%

Порівняти LLM

Додати коментар


10%
Наш сайт використовує cookies

Цей сайт використовує файли cookie. Продовжуючи користуватися сайтом, ви погоджуєтеся з їх використанням.