DeepSeek-R1

DeepSeek-R1 es un modelo Mixture-of-Experts (MoE) con 671 mil millones de parámetros, de los cuales 37 mil millones se activan por token. Fue entrenado mediante aprendizaje por refuerzo a gran escala, con un enfoque en capacidades de razonamiento. Incorpora dos etapas de RL para descubrir patrones de razonamiento mejorados y alinearse con las preferencias humanas, además de dos etapas de SFT para desarrollar habilidades de razonamiento y no razonamiento. El modelo logra un rendimiento comparable a OpenAI-o1 en tareas de matemáticas, programación y razonamiento.

Claude 3.5 Haiku

Claude 3.5 Haiku, desarrollado por Anthropic, ofrece una ventana de contexto de 200.000 tokens. El precio está fijado en 1 $ por millón de tokens de entrada y 5 $ por millón de tokens de salida, con posibles ahorros de hasta un 90 % mediante el almacenamiento en caché de prompts y un 50 % a través de la API de Message Batches. Este modelo, lanzado el 4 de noviembre de 2024, destaca en la autocompletación de código, chatbots interactivos, extracción y etiquetado de datos, así como en la moderación de contenido en tiempo real.

DeepSeek-R1Claude 3.5 Haiku
Proveedor
Sitio Web
Fecha de Lanzamiento
Jan 21, 2025
3 meses ago
Nov 04, 2024
5 meses ago
Modalidades
texto ?
texto ?
Proveedores de API
DeepSeek, HuggingFace
Anthropic, AWS Bedrock, Vertex AI
Fecha de Corte de Conocimiento
Desconocido
01.04.2024
Código Abierto
No
Costo de Entrada
$0.55 por millón de tokens
$0.80 por millón de tokens
Costo de Salida
$2.19 por millón de tokens
$4.00
MMLU
90.8%
Pass@1
Fuente
No disponible
MMLU Pro
84%
EM
Fuente
65%
0-shot CoT
Fuente
MMMU
-
No disponible
HellaSwag
-
No disponible
HumanEval
-
88.1%
0-shot
Fuente
MATH
-
69.4%
0-shot CoT
Fuente
GPQA
71.5%
Pass@1
Fuente
No disponible
IFEval
83.3%
Prompt Strict
Fuente
No disponible
Aplicación Móvil

Comparar LLMs

Agregar un Comentario


10%
Nuestro sitio utiliza cookies.

Política de privacidad y cookies: este sitio utiliza cookies. Si continúa utilizando el sitio, acepta su uso.