DeepSeek-R1 yra 671B parametrų Mišrios ekspertų (MoE) modelis su 37B aktyvuotais parametrais per žodį, apmokytas didelio masto sustiprinto mokymosi, sutelkiant dėmesį į mąstymo gebėjimus. Jis apima dvi sustiprinto mokymosi stadijas, skirtas atrasti patobulintas mąstymo schemas ir suderinti su žmogaus pageidavimais, taip pat dvi SFT stadijas, skirtas pritaikyti mąstymo ir nemąstymo gebėjimus. Modelis pasiekia našumą, panašų į OpenAI-o1, matematikos, kodo ir mąstymo užduotyse.
NVIDIA Llama 3.1 Nemotron 70B yra galingas kalbos modelis, optimizuotas teikti tikslius ir informatyvius atsakymus. Sukurtas pagal Llama 3.1 70B architektūrą ir patobulintas naudojant stiprinamąjį mokymą iš žmogaus atsiliepimų (RLHF),jis pasiekia aukščiausius rezultatus automatinio lygiavimo testuose. Sukurtas programoms, reikalaujančioms didelio tikslumo atsakymų generavime ir naudingumo, šis modelis tinka įvairioms vartotojų užklausoms įvairiose srityse.
DeepSeek-R1 | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
Internetinė svetainė
| ||
Tiekėjas
| ||
Pokalbiai
| ||
Išleidimo data
| ||
Modalumai
| tekstas | tekstas |
API tiekėjai
| DeepSeek, HuggingFace | OpenRouter |
Žinių nutraukimo data
| Nežinoma | - |
Atvirojo kodo
| Taip | Taip |
Įvesties kaina
| $0.55 už milijoną žodžių | $0.35 už milijoną žodžių |
Išvesties kaina
| $2.19 už milijoną žodžių | $0.40 už milijoną žodžių |
MMLU
| 90.8% Pass@1 Šaltinis | 85% 5-shot Šaltinis |
MMLU-Pro
| 84% EM Šaltinis | Nėra prieinama |
MMMU
| - | Nėra prieinama |
HellaSwag
| - | Nėra prieinama |
HumanEval
| - | 75% Šaltinis |
MATH
| - | 71% Šaltinis |
GPQA
| 71.5% Pass@1 Šaltinis | Nėra prieinama |
IFEval
| 83.3% Prompt Strict Šaltinis | Nėra prieinama |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobilioji programa | - |
Compare AI. Test. Benchmarks. Mobiliosios pokalbių robotų programos, Sketch
Copyright © 2025 All Right Reserved.