Amazon Nova Pro es un modelo multimodal de vanguardia diseñado para manejar entradas de texto, imagen y video con capacidades de procesamiento avanzadas. Con una ventana de contexto de 300.000 tokens, sobresale en el análisis de documentos, la respuesta visual a preguntas y los flujos de trabajo complejos impulsados por agentes. Como parte de los modelos base de Amazon Nova, admite ajustes finos y destilación, lo que permite una personalización profunda para diversas aplicaciones.
Llama 3.1 Nemotron 70B de NVIDIA es un potente modelo de lenguaje optimizado para ofrecer respuestas precisas e informativas. Basado en la arquitectura Llama 3.1 70B y mejorado con Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF),logra un rendimiento superior en benchmarks de alineación automática. Diseñado para aplicaciones que requieren alta precisión en la generación de respuestas y utilidad, este modelo es ideal para una amplia gama de consultas de usuarios en múltiples dominios.
Nova Pro | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
Sitio Web
| ||
Proveedor
| ||
Chat
| ||
Fecha de Lanzamiento
| ||
Modalidades
| texto imágenes video | texto |
Proveedores de API
| Amazon Bedrock | OpenRouter |
Fecha de Corte de Conocimiento
| Intencionalmente no divulgado | - |
Código Abierto
| No | Sí |
Costo de Entrada
| $0.80 por millón de tokens | $0.35 por millón de tokens |
Costo de Salida
| $3.20 por millón de tokens | $0.40 por millón de tokens |
MMLU
| 85.9% CoT Fuente | 85% 5-shot Fuente |
MMLU-Pro
| No disponible | No disponible |
MMMU
| No disponible | No disponible |
HellaSwag
| No disponible | No disponible |
HumanEval
| 89% pass@1 Fuente | 75% Fuente |
MATH
| 76.6% CoT Fuente | 71% Fuente |
GPQA
| 46.9% Main Fuente | No disponible |
IFEval
| 92.1% Fuente | No disponible |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Aplicación Móvil | - | - |
Compare AI. Test. Benchmarks. Chatbots Móviles, Sketch
Copyright © 2025 All Right Reserved.