DeepSeek-R1

DeepSeek-R1 je model Mixture-of-Experts (MoE) s 671 miliardami parametrů, z nichž 37 miliard je aktivováno na token. Byl vyškolen pomocí rozsáhlého posilovaného učení se zaměřením na schopnosti logického uvažování. Model obsahuje dvě fáze RL pro objevování lepších vzorců uvažování a sladění s lidskými preferencemi, spolu se dvěma fázemi SFT pro inicializaci schopností souvisejících s uvažováním i bez něj. Dosahuje výkonu srovnatelného s OpenAI-o1 v matematických, programovacích a logických úlohách.

Llama 3.1 Nemotron 70B Instruct

NVIDIA Llama 3.1 Nemotron 70B je výkonný jazykový model optimalizovaný pro poskytování přesných a informativních odpovědí. Postavený na architektuře Llama 3.1 70B a vylepšený pomocí učení s posilováním na základě lidské zpětné vazby (RLHF),dosahuje špičkových výsledků v benchmarkech automatického zarovnání. Navržený pro aplikace vyžadující vysokou přesnost při generování odpovědí a užitečnost je tento model vhodný pro širokou škálu uživatelských dotazů napříč různými doménami.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
Webová stránka ?
Poskytovatel ?
Chat ?
Datum vydání ?
Modality ?
text ?
text ?
Poskytovatelé API ?
DeepSeek, HuggingFace
OpenRouter
Datum uzávěrky znalostí ?
Neznámý
-
Open Source ?
Ano
Ano
Cena za vstup ?
$0.55 na milion tokenů
$0.35 na milion tokenů
Cena za výstup ?
$2.19 na milion tokenů
$0.40 na milion tokenů
MMLU ?
90.8%
Pass@1
Zdroj
85%
5-shot
Zdroj
MMLU-Pro ?
84%
EM
Zdroj
Není k dispozici
MMMU ?
-
Není k dispozici
HellaSwag ?
-
Není k dispozici
HumanEval ?
-
75%
Zdroj
MATH ?
-
71%
Zdroj
GPQA ?
71.5%
Pass@1
Zdroj
Není k dispozici
IFEval ?
83.3%
Prompt Strict
Zdroj
Není k dispozici
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobilní aplikace
-

Porovnat LLM

Přidat komentář


10%
Naše stránky používají soubory cookie.

Zásady ochrany osobních údajů a souborů cookie: Tento web používá soubory cookie. Dalším používáním webu souhlasíte s jejich používáním.