In den fünf Monaten seit der Veröffentlichung von Qwen2-VL haben Entwickler darauf basierende neue Modelle erstellt und wertvolles Feedback gegeben. Jetzt führt Qwen2.5-VL verbesserte Fähigkeiten ein, darunter präzise Analyse von Bildern, Texten und Diagrammen sowie Objektlokalisierung mit strukturierten JSON-Ausgaben. Es versteht lange Videos, erkennt Schlüsselereignisse und fungiert als Agent, der mit Tools auf Computern und Telefonen interagiert. Die Architektur des Modells umfasst dynamische Videoverarbeitung und einen optimierten ViT-Encoder für verbesserte Geschwindigkeit und Genauigkeit.
Amazon Nova Lite ist ein vielseitiges multimodales Modell, das zur Verarbeitung von Text-, Bild- und Videoeingaben entwickelt wurde und textbasierte Ausgaben erzeugt. Mit einem Kontextfenster von 300.000 Token eignet es sich hervorragend für Echtzeitinteraktionen, Dokumentenanalyse und visuelle Fragebeantwortung. Als Teil der Amazon Nova Foundation-Modelle unterstützt es Feinabstimmung und Destillation, wodurch eine erweiterte Anpassung möglich ist.
Qwen2.5-VL-32B | Nova Lite | |
---|---|---|
Webseite
| - | |
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder Video | Text Bilder Video |
API-Anbieter
| - | Amazon Bedrock |
Datum des Wissensstandes
| Unbekannt | Absichtlich nicht offengelegt |
Open Source
| Ja (Quelle) | Nein |
Preisgestaltung Eingabe
| $0 | $0.06 pro Million Token |
Preisgestaltung Ausgabe
| $0 | $0.24 pro Million Token |
MMLU
| 78.4% Quelle | 80.5% CoT Quelle |
MMLU-Pro
| 49.5% | Nicht verfügbar |
MMMU
| 70% | Nicht verfügbar |
HellaSwag
| Nicht verfügbar | Nicht verfügbar |
HumanEval
| Nicht verfügbar | 85.4% pass@1 Quelle |
MATH
| 82.2% | 73.3% CoT Quelle |
GPQA
| 46.0% Diamond | 42% Main Quelle |
IFEval
| Nicht verfügbar | 89.7% Quelle |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobile Anwendung | - | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.