DeepSeek-R1

DeepSeek-R1 — це модель з 671B параметрів, побудована на архітектурі Mixture-of-Experts (MoE),з 37B активованих параметрів на токен. Вона навчалась за допомогою масштабного навчання з підкріпленням із акцентом на розвиток навичок міркування. Модель включає два етапи RL для виявлення покращених шаблонів міркування та відповідності людським уподобанням, а також два етапи SFT для закладання основ міркувальних та неміркувальних здібностей. Модель демонструє продуктивність, порівнянну з OpenAI-o1, у завданнях з математики, програмування та міркування.

Nova Micro

Amazon Nova Micro — це текстова модель, оптимізована для зниження витрат і підвищення швидкості. Маючи контекстне вікно в 128K токенів, вона відмінно справляється із завданнями, такими як підсумовування тексту, переклад, інтерактивний чат та базове програмування. Випущена як частина фундаментальних моделей Amazon Nova, вона підтримує тонке налаштування та дистиляцію для адаптації під власні дані.

DeepSeek-R1Nova Micro
Веб-сайт ?
Постачальник ?
Чат ?
Дата випуску ?
Модальності ?
текст ?
текст ?
Постачальники API ?
DeepSeek, HuggingFace
Amazon Bedrock
Дата оновлення знань ?
Невідомо
Навмисно не розголошується
Відкритий код ?
Так
Ні
Вартість введення ?
$0.55 за мільйон токенів
$0.04 за мільйон токенів
Вартість виведення ?
$2.19 за мільйон токенів
$0.14 за мільйон токенів
MMLU ?
90.8%
Pass@1
Джерело
77.6%
CoT
Джерело
MMLU-Pro ?
84%
EM
Джерело
-
MMMU ?
-
-
HellaSwag ?
-
-
HumanEval ?
-
81.1%
pass@1
Джерело
MATH ?
-
69.3%
CoT
Джерело
GPQA ?
71.5%
Pass@1
Джерело
40%
Main
Джерело
IFEval ?
83.3%
Prompt Strict
Джерело
87.2%
Джерело
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Мобільний додаток
-

Порівняти LLM

Додати коментар


10%
Наш сайт використовує cookies

Цей сайт використовує файли cookie. Продовжуючи користуватися сайтом, ви погоджуєтеся з їх використанням.