Gemini 2.5 Pro

Gemini 2.5 Pro es el modelo de IA más avanzado de Google, diseñado para razonamiento profundo y generación de respuestas reflexivas. Supera los principales benchmarks demostrando lógica excepcional y competencia en codificación. Optimizado para construir aplicaciones web dinámicas, sistemas de código autónomo y adaptación de código, ofrece un rendimiento de alto nivel. Con capacidades multimodales integradas y una ventana de contexto extendida, procesa eficientemente grandes conjuntos de datos e integra diversas fuentes de información para abordar desafíos complejos.

Llama 4 Scout

LLaMA 4 Scout es un modelo de 17 mil millones de parámetros que utiliza una arquitectura Mixture-of-Experts con 16 expertos activos, posicionándose como el mejor modelo multimodal en su categoría. Supera constantemente a competidores como Gemma 3, Gemini 2.0 Flash-Lite y Mistral 3.1 en una amplia gama de tareas de evaluación. A pesar de su rendimiento, LLaMA 4 Scout es increíblemente eficiente: puede ejecutarse en una sola GPU NVIDIA H100 con cuantización Int4. También cuenta con una ventana de contexto líder en la industria de 10 millones de tokens y es nativamente multimodal, lo que le permite procesar texto, imágenes y video de forma fluida para aplicaciones avanzadas del mundo real.

Gemini 2.5 ProLlama 4 Scout
Sitio Web ?
Proveedor ?
Chat ?
Fecha de Lanzamiento ?
Modalidades ?
texto ?
imágenes ?
voz ?
video ?
texto ?
imágenes ?
video ?
Proveedores de API ?
Google AI Studio, Vertex AI, Gemini app
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Fecha de Corte de Conocimiento ?
-
2025-04
Código Abierto ?
No
(Fuente)
Costo de Entrada ?
No disponible
No disponible
Costo de Salida ?
No disponible
No disponible
MMLU ?
No disponible
No disponible
MMLU-Pro ?
No disponible
74.3%
Reasoning & Knowledge
Fuente
MMMU ?
81.7%
Fuente
69.4%
Image Reasoning
Fuente
HellaSwag ?
No disponible
No disponible
HumanEval ?
No disponible
No disponible
MATH ?
No disponible
No disponible
GPQA ?
84.0%
Diamond Science
Fuente
57.2%
Diamond
Fuente
IFEval ?
No disponible
No disponible
SimpleQA ?
52.9%
-
AIME 2024
92.0%
-
AIME 2025
86.7%
-
Aider Polyglot ?
74.0% / 68.6%
-
LiveCodeBench v5 ?
70.4%
-
Global MMLU (Lite) ?
89.8%
-
MathVista ?
-
-
Aplicación Móvil
-

VideoGameBench ?

Puntuación total
0.48%
-
Doom II
0%
-
Dream DX
4.8%
-
Awakening DX
0%
-
Civilization I
0%
-
Pokemon Crystal
0%
-
The Need for Speed
0%
-
The Incredible Machine
0%
-
Secret Game 1
0%
-
Secret Game 2
0%
-
Secret Game 3
0%
-

Comparar LLMs

Agregar un Comentario


10%
Nuestro sitio utiliza cookies.

Política de privacidad y cookies: este sitio utiliza cookies. Si continúa utilizando el sitio, acepta su uso.