DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
NVIDIA's Llama 3.1 Nemotron 70B is een krachtig taalmodel dat is geoptimaliseerd voor het leveren van nauwkeurige en informatieve antwoorden. Gebouwd op de Llama 3.1 70B-architectuur en verbeterd met Reinforcement Learning from Human Feedback (RLHF),behaalt het top prestaties in automatische alignementbenchmarks. Ontworpen voor toepassingen die hoge precisie vereisen bij het genereren van antwoorden en behulpzaamheid, is dit model geschikt voor een breed scala aan gebruikersvragen in meerdere domeinen.
DeepSeek-R1 | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
Aanbieder | ||
Website | ||
Releasedatum | Jan 21, 2025 3 maanden ago | Oct 15, 2023 1 jaar ago |
Modaliteiten | tekst | tekst |
API-Aanbieders | DeepSeek, HuggingFace | OpenRouter |
Kennisafsluitdatum | Onbekend | - |
Open Source | Ja | Ja |
Prijzen Invoer | $0.55 per miljoen tokens | $0.35 per miljoen tokens |
Prijzen Uitvoer | $2.19 per miljoen tokens | $0.40 per miljoen tokens |
MMLU | 90.8% Pass@1 Bron | 85% 5-shot Bron |
MMLU Pro | 84% EM Bron | Niet beschikbaar |
MMMU | - | Niet beschikbaar |
HellaSwag | - | Niet beschikbaar |
HumanEval | - | 75% Bron |
MATH | - | 71% Bron |
GPQA | 71.5% Pass@1 Bron | Niet beschikbaar |
IFEval | 83.3% Prompt Strict Bron | Niet beschikbaar |
Mobiele applicatie | - |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.