DeepSeek-R1 est un modèle Mixture-of-Experts (MoE) de 671 milliards de paramètres, avec 37 milliards de paramètres activés par token, entraîné via un apprentissage par renforcement à grande échelle avec un accent sur les capacités de raisonnement. Il intègre deux étapes de RL pour découvrir des schémas de raisonnement améliorés et s’aligner sur les préférences humaines, ainsi que deux étapes de SFT pour amorcer les capacités de raisonnement et non-raisonnement. Le modèle atteint des performances comparables à OpenAI-o1 sur les tâches de mathématiques, de codage et de raisonnement.
Mistral Large 2, développé par Mistral, offre une fenêtre contextuelle de 128 000 tokens et est tarifé à 3,00 USD par million de tokens d'entrée et 9,00 USD par million de tokens de sortie. Publié le 24 juillet 2024, le modèle a obtenu un score de 84,0 au benchmark MMLU dans une évaluation 5-shot, démontrant de solides performances dans diverses tâches.
DeepSeek-R1 | Mistral Large 2 | |
---|---|---|
Fournisseur | ||
Site web | ||
Date de sortie | Jan 21, 2025 3 mois ago | Jun 24, 2024 10 mois ago |
Modalités | texte | texte |
Fournisseurs d’API | DeepSeek, HuggingFace | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
Date de mise à jour des connaissances | Inconnu | Inconnu |
Open Source | Oui | Oui |
Tarification d’entrée | $0.55 par million de tokens | $3.00 par million de tokens |
Tarification de sortie | $2.19 par million de tokens | $9.00 par million de tokens |
MMLU | 90.8% Pass@1 Source | 84% 5-shot Source |
MMLU Pro | 84% EM Source | 50.69% Source |
MMMU | - | Non disponible |
HellaSwag | - | Non disponible |
HumanEval | - | Non disponible |
MATH | - | 1.13% Source |
GPQA | 71.5% Pass@1 Source | 24.94% |
IFEval | 83.3% Prompt Strict Source | 84.01% |
Application mobile | - |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.