DeepSeek-R1 es un modelo Mixture-of-Experts (MoE) con 671 mil millones de parámetros, de los cuales 37 mil millones se activan por token. Fue entrenado mediante aprendizaje por refuerzo a gran escala, con un enfoque en capacidades de razonamiento. Incorpora dos etapas de RL para descubrir patrones de razonamiento mejorados y alinearse con las preferencias humanas, además de dos etapas de SFT para desarrollar habilidades de razonamiento y no razonamiento. El modelo logra un rendimiento comparable a OpenAI-o1 en tareas de matemáticas, programación y razonamiento.
OpenAI o3 es el modelo de razonamiento más avanzado de OpenAI, creado específicamente para manejar tareas complejas de alta cognición. Lanzado en abril de 2025, ofrece un rendimiento excepcional en ingeniería de software, matemáticas y resolución de problemas científicos. El modelo introduce tres niveles de esfuerzo de razonamiento —bajo, medio y alto—, permitiendo a los usuarios equilibrar latencia y profundidad según la complejidad de la tarea. o3 incluye herramientas esenciales para desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes a nivel de sistema. Con capacidades visuales integradas, o3 puede interpretar y analizar imágenes, siendo apto para aplicaciones multimodales. Está disponible mediante Chat Completions API, Assistants API y Batch API para una integración flexible en flujos de trabajo empresariales y de investigación.
DeepSeek-R1 | o3 | |
---|---|---|
Proveedor | ||
Sitio Web | ||
Fecha de Lanzamiento | Jan 21, 2025 3 meses ago | Apr 16, 2025 1 semana ago |
Modalidades | texto | texto imágenes |
Proveedores de API | DeepSeek, HuggingFace | OpenAI API |
Fecha de Corte de Conocimiento | Desconocido | - |
Código Abierto | Sí | No |
Costo de Entrada | $0.55 por millón de tokens | $10.00 por millón de tokens |
Costo de Salida | $2.19 por millón de tokens | $40.00 por millón de tokens |
MMLU | 90.8% Pass@1 Fuente | 82.9% Fuente |
MMLU Pro | 84% EM Fuente | - |
MMMU | - | - |
HellaSwag | - | - |
HumanEval | - | - |
MATH | - | - |
GPQA | 71.5% Pass@1 Fuente | 83.3% Diamond, no tools Fuente |
IFEval | 83.3% Prompt Strict Fuente | - |
Aplicación Móvil |
Compare AI. Test. Benchmarks. Chatbots Móviles, Sketch
Copyright © 2025 All Right Reserved.