DeepSeek-R1

DeepSeek-R1 es un modelo Mixture-of-Experts (MoE) con 671 mil millones de parámetros, de los cuales 37 mil millones se activan por token. Fue entrenado mediante aprendizaje por refuerzo a gran escala, con un enfoque en capacidades de razonamiento. Incorpora dos etapas de RL para descubrir patrones de razonamiento mejorados y alinearse con las preferencias humanas, además de dos etapas de SFT para desarrollar habilidades de razonamiento y no razonamiento. El modelo logra un rendimiento comparable a OpenAI-o1 en tareas de matemáticas, programación y razonamiento.

o3

OpenAI o3 es el modelo de razonamiento más avanzado de OpenAI, creado específicamente para manejar tareas complejas de alta cognición. Lanzado en abril de 2025, ofrece un rendimiento excepcional en ingeniería de software, matemáticas y resolución de problemas científicos. El modelo introduce tres niveles de esfuerzo de razonamiento —bajo, medio y alto—, permitiendo a los usuarios equilibrar latencia y profundidad según la complejidad de la tarea. o3 incluye herramientas esenciales para desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes a nivel de sistema. Con capacidades visuales integradas, o3 puede interpretar y analizar imágenes, siendo apto para aplicaciones multimodales. Está disponible mediante Chat Completions API, Assistants API y Batch API para una integración flexible en flujos de trabajo empresariales y de investigación.

DeepSeek-R1o3
Sitio Web ?
Proveedor ?
Chat ?
Fecha de Lanzamiento ?
Modalidades ?
texto ?
texto ?
imágenes ?
Proveedores de API ?
DeepSeek, HuggingFace
OpenAI API
Fecha de Corte de Conocimiento ?
Desconocido
-
Código Abierto ?
No
Costo de Entrada ?
$0.55 por millón de tokens
$10.00 por millón de tokens
Costo de Salida ?
$2.19 por millón de tokens
$40.00 por millón de tokens
MMLU ?
90.8%
Pass@1
Fuente
82.9%
Fuente
MMLU-Pro ?
84%
EM
Fuente
-
MMMU ?
-
-
HellaSwag ?
-
-
HumanEval ?
-
-
MATH ?
-
-
GPQA ?
71.5%
Pass@1
Fuente
83.3%
Diamond, no tools
Fuente
IFEval ?
83.3%
Prompt Strict
Fuente
-
SimpleQA ?
-
-
AIME 2024
-
91.6%
Fuente
AIME 2025
-
88.9%
Fuente
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Aplicación Móvil

Comparar LLMs

Agregar un Comentario


10%
Nuestro sitio utiliza cookies.

Política de privacidad y cookies: este sitio utiliza cookies. Si continúa utilizando el sitio, acepta su uso.