Gemini 2.5 Pro

Gemini 2.5 Pro es el modelo de IA más avanzado de Google, diseñado para razonamiento profundo y generación de respuestas reflexivas. Supera los principales benchmarks demostrando lógica excepcional y competencia en codificación. Optimizado para construir aplicaciones web dinámicas, sistemas de código autónomo y adaptación de código, ofrece un rendimiento de alto nivel. Con capacidades multimodales integradas y una ventana de contexto extendida, procesa eficientemente grandes conjuntos de datos e integra diversas fuentes de información para abordar desafíos complejos.

o4-mini

OpenAI o4-mini es el modelo más reciente y ligero de la serie o, diseñado para un razonamiento eficiente y capaz en tareas tanto de texto como visuales. Optimizado para velocidad y rendimiento, destaca en generación de código y comprensión basada en imágenes, manteniendo un equilibrio entre latencia y profundidad de razonamiento. El modelo admite una ventana de contexto de 200.000 tokens con hasta 100.000 tokens de salida, lo que lo hace ideal para interacciones extensas y de alto volumen. Procesa entradas tanto de texto como de imágenes y produce salidas textuales con capacidades avanzadas de razonamiento. Gracias a su arquitectura compacta y rendimiento versátil, o4-mini es perfecto para una amplia gama de aplicaciones del mundo real que requieren inteligencia rápida y rentable.

Gemini 2.5 Proo4-mini
Sitio Web ?
Proveedor ?
Chat ?
Fecha de Lanzamiento ?
Modalidades ?
texto ?
imágenes ?
voz ?
video ?
texto ?
imágenes ?
Proveedores de API ?
Google AI Studio, Vertex AI, Gemini app
OpenAI API
Fecha de Corte de Conocimiento ?
-
-
Código Abierto ?
No
No
Costo de Entrada ?
No disponible
$1.10 por millón de tokens
Costo de Salida ?
No disponible
$4.40 por millón de tokens
MMLU ?
No disponible
fort
MMLU-Pro ?
No disponible
-
MMMU ?
81.7%
Fuente
81.6%
Fuente
HellaSwag ?
No disponible
-
HumanEval ?
No disponible
14.28%
Fuente
MATH ?
No disponible
-
GPQA ?
84.0%
Diamond Science
Fuente
81.4%
Fuente
IFEval ?
No disponible
-
SimpleQA ?
52.9%
-
AIME 2024
92.0%
93.4%
Fuente
AIME 2025
86.7%
92.7%
Fuente
Aider Polyglot ?
74.0% / 68.6%
-
LiveCodeBench v5 ?
70.4%
-
Global MMLU (Lite) ?
89.8%
-
MathVista ?
-
-
Aplicación Móvil

VideoGameBench ?

Puntuación total
0.48%
-
Doom II
0%
-
Dream DX
4.8%
-
Awakening DX
0%
-
Civilization I
0%
-
Pokemon Crystal
0%
-
The Need for Speed
0%
-
The Incredible Machine
0%
-
Secret Game 1
0%
-
Secret Game 2
0%
-
Secret Game 3
0%
-

Comparar LLMs

Agregar un Comentario


10%
Nuestro sitio utiliza cookies.

Política de privacidad y cookies: este sitio utiliza cookies. Si continúa utilizando el sitio, acepta su uso.