o3-mini

Le OpenAI o3-mini est un modèle de raisonnement rapide et économique conçu pour les applications STEM, offrant d'excellentes performances en sciences, mathématiques et programmation. Lancé en janvier 2025, il inclut des fonctionnalités essentielles pour les développeurs, telles que l’appel de fonctions, les sorties structurées et les messages développeurs. Le modèle propose trois niveaux d’effort de raisonnement—faible, moyen et élevé—permettant aux utilisateurs d’optimiser entre une analyse plus approfondie et des temps de réponse plus rapides. Contrairement au modèle o3, il ne dispose pas de capacités de vision. Initialement disponible pour certains développeurs dans les niveaux 3 à 5 d'utilisation de l'API, il est accessible via l'API Chat Completions, l'API Assistants et l'API Batch.

Llama 4 Scout

LLaMA 4 Scout est un modèle de 17 milliards de paramètres utilisant une architecture Mixture-of-Experts avec 16 experts actifs, ce qui en fait le modèle multimodal de référence dans sa catégorie. Il surpasse régulièrement des concurrents comme Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur divers tests de performance. Malgré ses capacités, LLaMA 4 Scout est d’une efficacité remarquable — il peut fonctionner sur un seul GPU NVIDIA H100 avec une quantification Int4. Il offre également une fenêtre de contexte de 10 millions de tokens, un record dans l’industrie, et il est nativement multimodal, capable de traiter de manière fluide le texte, les images et les vidéos pour des applications avancées du monde réel.

o3-miniLlama 4 Scout
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
texte ?
images ?
vidéo ?
Fournisseurs d’API ?
OpenAI API
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Date de mise à jour des connaissances ?
Inconnu
2025-04
Open Source ?
Non
Oui (Source)
Tarification d’entrée ?
$1.10 par million de tokens
Non disponible
Tarification de sortie ?
$4.40 par million de tokens
Non disponible
MMLU ?
86.9%
pass@1, high effort
Source
Non disponible
MMLU-Pro ?
Non disponible
74.3%
Reasoning & Knowledge
Source
MMMU ?
Non disponible
69.4%
Image Reasoning
Source
HellaSwag ?
Non disponible
Non disponible
HumanEval ?
Non disponible
Non disponible
MATH ?
97.9%
pass@1, high effort
Source
Non disponible
GPQA ?
79.7%
0-shot, high effort
Source
57.2%
Diamond
Source
IFEval ?
Non disponible
Non disponible
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.