OpenAI o3 es el modelo de razonamiento más avanzado de OpenAI, creado específicamente para manejar tareas complejas de alta cognición. Lanzado en abril de 2025, ofrece un rendimiento excepcional en ingeniería de software, matemáticas y resolución de problemas científicos. El modelo introduce tres niveles de esfuerzo de razonamiento —bajo, medio y alto—, permitiendo a los usuarios equilibrar latencia y profundidad según la complejidad de la tarea. o3 incluye herramientas esenciales para desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes a nivel de sistema. Con capacidades visuales integradas, o3 puede interpretar y analizar imágenes, siendo apto para aplicaciones multimodales. Está disponible mediante Chat Completions API, Assistants API y Batch API para una integración flexible en flujos de trabajo empresariales y de investigación.
GPT-4.1, lanzado por OpenAI el 14 de abril de 2025, introduce una ventana de contexto de 1 millón de tokens y admite salidas de hasta 32 768 tokens por solicitud. Ofrece un rendimiento excepcional en tareas de codificación, logrando un 54,6 % en el benchmark SWE-Bench Verified, y muestra una mejora del 10,5 % respecto a GPT-4o en MultiChallenge para el seguimiento de instrucciones. El corte de conocimiento del modelo está establecido en junio de 2024. El precio es de 2,00 $ por millón de tokens para entrada y 8,00 $ por millón de tokens para salida, con un descuento del 75 % aplicado a entradas en caché, lo que lo hace muy rentable para consultas repetidas.
o3 | GPT-4.1 | |
---|---|---|
Proveedor | ||
Sitio Web | ||
Fecha de Lanzamiento | Apr 16, 2025 1 semana ago | Apr 14, 2025 2 semanas ago |
Modalidades | texto imágenes | texto imágenes |
Proveedores de API | OpenAI API | OpenAI API |
Fecha de Corte de Conocimiento | - | - |
Código Abierto | No | No |
Costo de Entrada | $10.00 por millón de tokens | $2.00 por millón de tokens |
Costo de Salida | $40.00 por millón de tokens | $8.00 por millón de tokens |
MMLU | 82.9% Fuente | 90.2% pass@1 Fuente |
MMLU Pro | - | - |
MMMU | - | 74.8% Fuente |
HellaSwag | - | - |
HumanEval | - | - |
MATH | - | - |
GPQA | 83.3% Diamond, no tools Fuente | 66.3% Diamond Fuente |
IFEval | - | - |
Aplicación Móvil |
Compare AI. Test. Benchmarks. Chatbots Móviles, Sketch
Copyright © 2025 All Right Reserved.