In den fünf Monaten seit der Veröffentlichung von Qwen2-VL haben Entwickler darauf basierende neue Modelle erstellt und wertvolles Feedback gegeben. Jetzt führt Qwen2.5-VL verbesserte Fähigkeiten ein, darunter präzise Analyse von Bildern, Texten und Diagrammen sowie Objektlokalisierung mit strukturierten JSON-Ausgaben. Es versteht lange Videos, erkennt Schlüsselereignisse und fungiert als Agent, der mit Tools auf Computern und Telefonen interagiert. Die Architektur des Modells umfasst dynamische Videoverarbeitung und einen optimierten ViT-Encoder für verbesserte Geschwindigkeit und Genauigkeit.
Claude Sonnet 4 | Qwen2.5-VL-32B | |
---|---|---|
Anbieter | ||
Webseite | ||
Veröffentlichungsdatum | May 22, 2025 3 Tage ago | Mar 25, 2025 2 Monate ago |
Modalitäten | Text Bilder | Text Bilder Video |
API-Anbieter | Anthropic API, Amazon Bedrock, Google Cloud's Vertex AI | - |
Datum des Wissensstandes | Unbekannt | Unbekannt |
Open Source | Nein | Ja (Quelle) |
Preisgestaltung Eingabe | $3 pro Million Token | $0 |
Preisgestaltung Ausgabe | $15 pro Million Token | $0 |
MMLU | 86.5% Quelle | 78.4% Quelle |
MMLU Pro | - | 49.5% |
MMMU | 74.4% Quelle | 70% |
HellaSwag | - | Nicht verfügbar |
HumanEval | - | Nicht verfügbar |
MATH | - | 82.2% |
GPQA | 75.4% Diamond Quelle | 46.0% Diamond |
IFEval | - | Nicht verfügbar |
Array | - | - |
AIME 2024 | - | - |
AIME 2025 | 75.5% Quelle | - |
Array | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.