Qwen2.5-VL-32B

Durant les cinq mois depuis la sortie de Qwen2-VL, les développeurs ont construit de nouveaux modèles basés sur celui-ci, apportant des retours précieux. Maintenant, Qwen2.5-VL introduit des capacités améliorées, incluant une analyse précise des images, textes et graphiques, ainsi qu'une localisation d'objets avec des sorties JSON structurées. Il comprend les vidéos longues, identifie les événements clés et fonctionne comme un agent interagissant avec des outils sur ordinateurs et téléphones. L'architecture du modèle comprend un traitement vidéo dynamique et un encodeur ViT optimisé pour une vitesse et une précision améliorées.

Nova Micro

Amazon Nova Micro est un modèle textuel optimisé pour le coût et la rapidité. Avec une fenêtre de contexte de 128K tokens, il excelle dans des tâches telles que le résumé de texte, la traduction, le chat interactif et le codage basique. Publié dans le cadre des modèles fondamentaux Amazon Nova, il prend en charge l'ajustement fin et la distillation pour une personnalisation sur des données propriétaires.

Qwen2.5-VL-32BNova Micro
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
images ?
vidéo ?
texte ?
Fournisseurs d’API ?
-
Amazon Bedrock
Date de mise à jour des connaissances ?
Inconnu
Délibérément non divulgué
Open Source ?
Oui (Source)
Non
Tarification d’entrée ?
$0
$0.04 par million de tokens
Tarification de sortie ?
$0
$0.14 par million de tokens
MMLU ?
78.4%
Source
77.6%
CoT
Source
MMLU-Pro ?
49.5%
-
MMMU ?
70%
-
HellaSwag ?
Non disponible
-
HumanEval ?
Non disponible
81.1%
pass@1
Source
MATH ?
82.2%
69.3%
CoT
Source
GPQA ?
46.0%
Diamond
40%
Main
Source
IFEval ?
Non disponible
87.2%
Source
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Application mobile
-
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.