DeepSeek-R1

DeepSeek-R1 je model Mixture-of-Experts (MoE) s 671 miliardami parametrů, z nichž 37 miliard je aktivováno na token. Byl vyškolen pomocí rozsáhlého posilovaného učení se zaměřením na schopnosti logického uvažování. Model obsahuje dvě fáze RL pro objevování lepších vzorců uvažování a sladění s lidskými preferencemi, spolu se dvěma fázemi SFT pro inicializaci schopností souvisejících s uvažováním i bez něj. Dosahuje výkonu srovnatelného s OpenAI-o1 v matematických, programovacích a logických úlohách.

Llama 3.1 Nemotron 70B Instruct

NVIDIA Llama 3.1 Nemotron 70B je výkonný jazykový model optimalizovaný pro poskytování přesných a informativních odpovědí. Postavený na architektuře Llama 3.1 70B a vylepšený pomocí učení s posilováním na základě lidské zpětné vazby (RLHF),dosahuje špičkových výsledků v benchmarkech automatického zarovnání. Navržený pro aplikace vyžadující vysokou přesnost při generování odpovědí a užitečnost je tento model vhodný pro širokou škálu uživatelských dotazů napříč různými doménami.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
Poskytovatel
Webová stránka
Datum vydání
Jan 21, 2025
3 měsíce ago
Oct 15, 2023
1 rok ago
Modality
text ?
text ?
Poskytovatelé API
DeepSeek, HuggingFace
OpenRouter
Datum uzávěrky znalostí
Neznámý
-
Open Source
Ano
Ano
Cena za vstup
$0.55 na milion tokenů
$0.35 na milion tokenů
Cena za výstup
$2.19 na milion tokenů
$0.40 na milion tokenů
MMLU
90.8%
Pass@1
Zdroj
85%
5-shot
Zdroj
MMLU Pro
84%
EM
Zdroj
Není k dispozici
MMMU
-
Není k dispozici
HellaSwag
-
Není k dispozici
HumanEval
-
75%
Zdroj
MATH
-
71%
Zdroj
GPQA
71.5%
Pass@1
Zdroj
Není k dispozici
IFEval
83.3%
Prompt Strict
Zdroj
Není k dispozici
Mobilní aplikace
-

Porovnat LLM

Přidat komentář


10%
Naše stránky používají soubory cookie.

Zásady ochrany osobních údajů a souborů cookie: Tento web používá soubory cookie. Dalším používáním webu souhlasíte s jejich používáním.