o3-mini

Le OpenAI o3-mini est un modèle de raisonnement rapide et économique conçu pour les applications STEM, offrant d'excellentes performances en sciences, mathématiques et programmation. Lancé en janvier 2025, il inclut des fonctionnalités essentielles pour les développeurs, telles que l’appel de fonctions, les sorties structurées et les messages développeurs. Le modèle propose trois niveaux d’effort de raisonnement—faible, moyen et élevé—permettant aux utilisateurs d’optimiser entre une analyse plus approfondie et des temps de réponse plus rapides. Contrairement au modèle o3, il ne dispose pas de capacités de vision. Initialement disponible pour certains développeurs dans les niveaux 3 à 5 d'utilisation de l'API, il est accessible via l'API Chat Completions, l'API Assistants et l'API Batch.

Qwen2.5-VL-32B

Durant les cinq mois depuis la sortie de Qwen2-VL, les développeurs ont construit de nouveaux modèles basés sur celui-ci, apportant des retours précieux. Maintenant, Qwen2.5-VL introduit des capacités améliorées, incluant une analyse précise des images, textes et graphiques, ainsi qu'une localisation d'objets avec des sorties JSON structurées. Il comprend les vidéos longues, identifie les événements clés et fonctionne comme un agent interagissant avec des outils sur ordinateurs et téléphones. L'architecture du modèle comprend un traitement vidéo dynamique et un encodeur ViT optimisé pour une vitesse et une précision améliorées.

o3-miniQwen2.5-VL-32B
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
texte ?
images ?
vidéo ?
Fournisseurs d’API ?
OpenAI API
-
Date de mise à jour des connaissances ?
Inconnu
Inconnu
Open Source ?
Non
Oui (Source)
Tarification d’entrée ?
$1.10 par million de tokens
$0
Tarification de sortie ?
$4.40 par million de tokens
$0
MMLU ?
86.9%
pass@1, high effort
Source
78.4%
Source
MMLU-Pro ?
Non disponible
49.5%
MMMU ?
Non disponible
70%
HellaSwag ?
Non disponible
Non disponible
HumanEval ?
Non disponible
Non disponible
MATH ?
97.9%
pass@1, high effort
Source
82.2%
GPQA ?
79.7%
0-shot, high effort
Source
46.0%
Diamond
IFEval ?
Non disponible
Non disponible
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.