LLaMA 4 Scout es un modelo de 17 mil millones de parámetros que utiliza una arquitectura Mixture-of-Experts con 16 expertos activos, posicionándose como el mejor modelo multimodal en su categoría. Supera constantemente a competidores como Gemma 3, Gemini 2.0 Flash-Lite y Mistral 3.1 en una amplia gama de tareas de evaluación. A pesar de su rendimiento, LLaMA 4 Scout es increíblemente eficiente: puede ejecutarse en una sola GPU NVIDIA H100 con cuantización Int4. También cuenta con una ventana de contexto líder en la industria de 10 millones de tokens y es nativamente multimodal, lo que le permite procesar texto, imágenes y video de forma fluida para aplicaciones avanzadas del mundo real.
El OpenAI o3-mini es un modelo de razonamiento rápido y rentable diseñado para aplicaciones STEM, con un alto rendimiento en ciencia, matemáticas y programación. Lanzado en enero de 2025, incluye funciones esenciales para desarrolladores, como llamadas a funciones, salidas estructuradas y mensajes para desarrolladores. El modelo ofrece tres niveles de esfuerzo de razonamiento—bajo, medio y alto—permitiendo a los usuarios optimizar entre un análisis más profundo y tiempos de respuesta más rápidos. A diferencia del modelo o3, carece de capacidades de visión. Inicialmente disponible para desarrolladores seleccionados en los niveles 3-5 de uso de la API, se puede acceder a través de la API de Chat Completions, la API de Assistants y la API de Batch.
Llama 4 Scout | o3-mini | |
---|---|---|
Proveedor | ||
Sitio Web | ||
Fecha de Lanzamiento | Apr 05, 2025 3 semanas ago | Jan 31, 2025 2 meses ago |
Modalidades | texto imágenes video | texto |
Proveedores de API | Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Fecha de Corte de Conocimiento | 2025-04 | Desconocido |
Código Abierto | Sí (Fuente) | No |
Costo de Entrada | No disponible | $1.10 por millón de tokens |
Costo de Salida | No disponible | $4.40 por millón de tokens |
MMLU | No disponible | 86.9% pass@1, high effort Fuente |
MMLU Pro | 74.3% Reasoning & Knowledge Fuente | No disponible |
MMMU | 69.4% Image Reasoning Fuente | No disponible |
HellaSwag | No disponible | No disponible |
HumanEval | No disponible | No disponible |
MATH | No disponible | 97.9% pass@1, high effort Fuente |
GPQA | 57.2% Diamond Fuente | 79.7% 0-shot, high effort Fuente |
IFEval | No disponible | No disponible |
Aplicación Móvil | - |
Compare AI. Test. Benchmarks. Chatbots Móviles, Sketch
Copyright © 2025 All Right Reserved.