Llama 4 Scout

LLaMA 4 Scout est un modèle de 17 milliards de paramètres utilisant une architecture Mixture-of-Experts avec 16 experts actifs, ce qui en fait le modèle multimodal de référence dans sa catégorie. Il surpasse régulièrement des concurrents comme Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur divers tests de performance. Malgré ses capacités, LLaMA 4 Scout est d’une efficacité remarquable — il peut fonctionner sur un seul GPU NVIDIA H100 avec une quantification Int4. Il offre également une fenêtre de contexte de 10 millions de tokens, un record dans l’industrie, et il est nativement multimodal, capable de traiter de manière fluide le texte, les images et les vidéos pour des applications avancées du monde réel.

GPT-4.1 Nano

Llama 4 ScoutGPT-4.1 Nano
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
images ?
vidéo ?
texte ?
images ?
Fournisseurs d’API ?
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
OpenAI API
Date de mise à jour des connaissances ?
2025-04
-
Open Source ?
Oui (Source)
Non
Tarification d’entrée ?
Non disponible
$0.10 par million de tokens
Tarification de sortie ?
Non disponible
$0.40 par million de tokens
MMLU ?
Non disponible
80.1%
Source
MMLU-Pro ?
74.3%
Reasoning & Knowledge
Source
-
MMMU ?
69.4%
Image Reasoning
Source
55.4%
Source
HellaSwag ?
Non disponible
-
HumanEval ?
Non disponible
-
MATH ?
Non disponible
-
GPQA ?
57.2%
Diamond
Source
50.3%
Diamond
Source
IFEval ?
Non disponible
74.5%
Source
SimpleQA ?
-
-
AIME 2024
-
29.4%
Source
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
66.9%
Source
MathVista ?
-
56.2%
Image Reasoning
Source
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.