DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.
DeepSeek-R1 | Llama 4 Maverick | |
---|---|---|
Tiekėjas | ||
Internetinė svetainė | ||
Išleidimo data | Jan 21, 2025 3 mėnesiai ago | Apr 05, 2025 2 savaitės ago |
Modalumai | tekstas | tekstas vaizdai vaizdo |
API tiekėjai | DeepSeek, HuggingFace | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
Žinių nutraukimo data | Nežinoma | 2024-08 |
Atvirojo kodo | Taip | Taip (Šaltinis) |
Įvesties kaina | $0.55 už milijoną žodžių | Nėra prieinama |
Išvesties kaina | $2.19 už milijoną žodžių | Nėra prieinama |
MMLU | 90.8% Pass@1 Šaltinis | Nėra prieinama |
MMLU Pro | 84% EM Šaltinis | 80.5% Šaltinis |
MMMU | - | 73.4% Šaltinis |
HellaSwag | - | Nėra prieinama |
HumanEval | - | Nėra prieinama |
MATH | - | Nėra prieinama |
GPQA | 71.5% Pass@1 Šaltinis | 69.8% Diamond Šaltinis |
IFEval | 83.3% Prompt Strict Šaltinis | Nėra prieinama |
Mobilioji programa | - |
Compare AI. Test. Benchmarks. Mobiliosios pokalbių robotų programos, Sketch
Copyright © 2025 All Right Reserved.