DeepSeek-R1

DeepSeek-R1 est un modèle Mixture-of-Experts (MoE) de 671 milliards de paramètres, avec 37 milliards de paramètres activés par token, entraîné via un apprentissage par renforcement à grande échelle avec un accent sur les capacités de raisonnement. Il intègre deux étapes de RL pour découvrir des schémas de raisonnement améliorés et s’aligner sur les préférences humaines, ainsi que deux étapes de SFT pour amorcer les capacités de raisonnement et non-raisonnement. Le modèle atteint des performances comparables à OpenAI-o1 sur les tâches de mathématiques, de codage et de raisonnement.

Nova Micro

Amazon Nova Micro est un modèle textuel optimisé pour le coût et la rapidité. Avec une fenêtre de contexte de 128K tokens, il excelle dans des tâches telles que le résumé de texte, la traduction, le chat interactif et le codage basique. Publié dans le cadre des modèles fondamentaux Amazon Nova, il prend en charge l'ajustement fin et la distillation pour une personnalisation sur des données propriétaires.

DeepSeek-R1Nova Micro
Fournisseur
Site web
Date de sortie
Jan 21, 2025
3 mois ago
Dec 02, 2024
4 mois ago
Modalités
texte ?
texte ?
Fournisseurs d’API
DeepSeek, HuggingFace
Amazon Bedrock
Date de mise à jour des connaissances
Inconnu
Délibérément non divulgué
Open Source
Oui
Non
Tarification d’entrée
$0.55 par million de tokens
$0.04 par million de tokens
Tarification de sortie
$2.19 par million de tokens
$0.14 par million de tokens
MMLU
90.8%
Pass@1
Source
77.6%
CoT
Source
MMLU Pro
84%
EM
Source
-
MMMU
-
-
HellaSwag
-
-
HumanEval
-
81.1%
pass@1
Source
MATH
-
69.3%
CoT
Source
GPQA
71.5%
Pass@1
Source
40%
Main
Source
IFEval
83.3%
Prompt Strict
Source
87.2%
Source
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.