DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.
GPT-4.1, gelanceerd door OpenAI op 14 april 2025, introduceert een contextvenster van 1 miljoen tokens en ondersteunt uitvoer van maximaal 32.768 tokens per verzoek. Het levert uitstekende prestaties bij codeertaken, behaalt 54,6% op de SWE-Bench Verified-benchmark en toont een verbetering van 10,5% ten opzichte van GPT-4o op MultiChallenge voor het opvolgen van instructies. De kennis van het model is bijgewerkt tot juni 2024. De prijs is $2,00 per miljoen tokens voor invoer en $8,00 per miljoen tokens voor uitvoer, met een korting van 75% op gecachete invoer, wat het zeer kostenefficiënt maakt voor herhaalde queries.
DeepSeek-R1 | GPT-4.1 | |
---|---|---|
Aanbieder | ||
Website | ||
Releasedatum | Jan 21, 2025 3 maanden ago | Apr 14, 2025 2 weken ago |
Modaliteiten | tekst | tekst afbeeldingen |
API-Aanbieders | DeepSeek, HuggingFace | OpenAI API |
Kennisafsluitdatum | Onbekend | - |
Open Source | Ja | Nee |
Prijzen Invoer | $0.55 per miljoen tokens | $2.00 per miljoen tokens |
Prijzen Uitvoer | $2.19 per miljoen tokens | $8.00 per miljoen tokens |
MMLU | 90.8% Pass@1 Bron | 90.2% pass@1 Bron |
MMLU Pro | 84% EM Bron | - |
MMMU | - | 74.8% Bron |
HellaSwag | - | - |
HumanEval | - | - |
MATH | - | - |
GPQA | 71.5% Pass@1 Bron | 66.3% Diamond Bron |
IFEval | 83.3% Prompt Strict Bron | - |
Mobiele applicatie |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.