o3-mini

El OpenAI o3-mini es un modelo de razonamiento rápido y rentable diseñado para aplicaciones STEM, con un alto rendimiento en ciencia, matemáticas y programación. Lanzado en enero de 2025, incluye funciones esenciales para desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes para desarrolladores. El modelo ofrece tres niveles de esfuerzo de razonamiento—bajo, medio y alto—permitiendo a los usuarios optimizar entre un análisis más profundo y tiempos de respuesta más rápidos. A diferencia del modelo o3, carece de capacidades de visión. Inicialmente disponible para desarrolladores seleccionados en los niveles 3-5 de uso de la API, se puede acceder a través de la API de Chat Completions, la API de Assistants y la API de Batch.

o4-mini

OpenAI o4-mini es el modelo más reciente y ligero de la serie o, diseñado para un razonamiento eficiente y capaz en tareas tanto de texto como visuales. Optimizado para velocidad y rendimiento, destaca en generación de código y comprensión basada en imágenes, manteniendo un equilibrio entre latencia y profundidad de razonamiento. El modelo admite una ventana de contexto de 200.000 tokens con hasta 100.000 tokens de salida, lo que lo hace ideal para interacciones extensas y de alto volumen. Procesa entradas tanto de texto como de imágenes y produce salidas textuales con capacidades avanzadas de razonamiento. Gracias a su arquitectura compacta y rendimiento versátil, o4-mini es perfecto para una amplia gama de aplicaciones del mundo real que requieren inteligencia rápida y rentable.

o3-minio4-mini
Proveedor
Sitio Web
Fecha de Lanzamiento
Jan 31, 2025
3 meses ago
Apr 16, 2025
1 mes ago
Modalidades
texto ?
texto ?
imágenes ?
Proveedores de API
OpenAI API
OpenAI API
Fecha de Corte de Conocimiento
Desconocido
-
Código Abierto
No
No
Costo de Entrada
$1.10 por millón de tokens
$1.10 por millón de tokens
Costo de Salida
$4.40 por millón de tokens
$4.40 por millón de tokens
MMLU
86.9%
pass@1, high effort
Fuente
fort
MMLU Pro
No disponible
-
MMMU
No disponible
81.6%
Fuente
HellaSwag
No disponible
-
HumanEval
No disponible
14.28%
Fuente
MATH
97.9%
pass@1, high effort
Fuente
-
GPQA
79.7%
0-shot, high effort
Fuente
81.4%
Fuente
IFEval
No disponible
-
Array
-
-
AIME 2024
-
93.4%
Fuente
AIME 2025
-
92.7%
Fuente
Array
-
-
Array
-
-
Array
-
-
Array
-
-
Aplicación Móvil

Comparar LLMs

Agregar un Comentario


10%
Nuestro sitio utiliza cookies.

Política de privacidad y cookies: este sitio utiliza cookies. Si continúa utilizando el sitio, acepta su uso.