A DeepSeek-R1 egy 671B paraméteres Mixture-of-Experts (MoE) modell, amely tokenenként 37B aktivált paraméterrel rendelkezik, és nagymértékű megerősítéses tanuláson keresztül készült, kiemelt figyelmet fordítva a gondolkodási képességekre. Két RL (reinforcement learning) szakaszt tartalmaz a javított gondolkodási minták felfedezésére és az emberi preferenciákhoz igazításra, valamint két SFT (supervised fine-tuning) szakaszt a gondolkodási és nem-gondolkodási képességek bevetésére. A modell teljesítménye hasonló az OpenAI-o1 modelléhez matematikai, kódolási és gondolkodási feladatokban.
Az NVIDIA Llama 3.1 Nemotron 70B egy hatékony nyelvi modell, amely pontos és informatív válaszok nyújtására van optimalizálva. A Llama 3.1 70B architektúrára épül, és az emberi visszajelzésből származó megerősítő tanulással (RLHF) továbbfejlesztve, kiemelkedő teljesítményt nyújt az automatikus igazítási benchmarkokon. A válaszgenerálásban és hasznosságban magas pontosságot igénylő alkalmazásokhoz tervezve, ez a modell különböző területeken széles körű felhasználói lekérdezésekhez is ideális.
DeepSeek-R1 | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
Szolgáltató | ||
Weboldal | ||
Kiadási Dátum | Jan 21, 2025 3 hónapok ago | Oct 15, 2023 1 év ago |
Modalitások | szöveg | szöveg |
API Szolgáltatók | DeepSeek, HuggingFace | OpenRouter |
Tudás Befejezési Dátuma | Ismeretlen | - |
Nyílt Forráskódú | Igen | Igen |
Bemeneti Árazás | $0.55 millió tokenenként | $0.35 millió tokenenként |
Kimeneti Árazás | $2.19 millió tokenenként | $0.40 millió tokenenként |
MMLU | 90.8% Pass@1 Forrás | 85% 5-shot Forrás |
MMLU Pro | 84% EM Forrás | Nem elérhető |
MMMU | - | Nem elérhető |
HellaSwag | - | Nem elérhető |
HumanEval | - | 75% Forrás |
MATH | - | 71% Forrás |
GPQA | 71.5% Pass@1 Forrás | Nem elérhető |
IFEval | 83.3% Prompt Strict Forrás | Nem elérhető |
Mobilalkalmazás | - |
Compare AI. Test. Benchmarks. Mobil Chatbot Alkalmazások, Sketch
Copyright © 2025 All Right Reserved.