DeepSeek-R1

DeepSeek-R1 to model typu Mixture-of-Experts (MoE) o 671B parametrach, z 37B aktywowanymi parametrami na token, szkolony za pomocą szeroko zakrojonego uczenia ze wzmocnieniem z naciskiem na zdolności rozumowania. Model ten obejmuje dwa etapy RL w celu odkrywania ulepszonych wzorców rozumowania i dostosowania do preferencji ludzkich, a także dwa etapy SFT do rozwijania zdolności rozumowania i innych umiejętności. Model osiąga wydajność porównywalną z OpenAI-o1 w zadaniach matematycznych, programistycznych i związanych z rozumowaniem.

Nova Micro

Amazon Nova Micro to model tekstowy zoptymalizowany pod kątem kosztów i szybkości. Dzięki oknu kontekstu wynoszącemu 128K tokenów, doskonale sprawdza się w zadaniach takich jak podsumowywanie tekstu, tłumaczenie, interaktywna czat oraz podstawowe programowanie. Wydany jako część modeli podstawowych Amazon Nova, wspiera dostrajanie i destylację w celu dostosowania do danych własnych.

DeepSeek-R1Nova Micro
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
tekst ?
Dostawcy API ?
DeepSeek, HuggingFace
Amazon Bedrock
Data ostatniej aktualizacji wiedzy ?
Nieznane
Celowo nieujawnione
Open Source ?
Tak
Nie
Cena za wejście ?
$0.55 za milion tokenów
$0.04 za milion tokenów
Cena za wyjście ?
$2.19 za milion tokenów
$0.14 za milion tokenów
MMLU ?
90.8%
Pass@1
Źródło
77.6%
CoT
Źródło
MMLU-Pro ?
84%
EM
Źródło
-
MMMU ?
-
-
HellaSwag ?
-
-
HumanEval ?
-
81.1%
pass@1
Źródło
MATH ?
-
69.3%
CoT
Źródło
GPQA ?
71.5%
Pass@1
Źródło
40%
Main
Źródło
IFEval ?
83.3%
Prompt Strict
Źródło
87.2%
Źródło
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Aplikacja mobilna
-

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.