Qwen2.5-VL-32B

In den fünf Monaten seit der Veröffentlichung von Qwen2-VL haben Entwickler darauf basierende neue Modelle erstellt und wertvolles Feedback gegeben. Jetzt führt Qwen2.5-VL verbesserte Fähigkeiten ein, darunter präzise Analyse von Bildern, Texten und Diagrammen sowie Objektlokalisierung mit strukturierten JSON-Ausgaben. Es versteht lange Videos, erkennt Schlüsselereignisse und fungiert als Agent, der mit Tools auf Computern und Telefonen interagiert. Die Architektur des Modells umfasst dynamische Videoverarbeitung und einen optimierten ViT-Encoder für verbesserte Geschwindigkeit und Genauigkeit.

Mistral Large 2

Mistral Large 2, entwickelt von Mistral, bietet ein Kontextfenster von 128.000 Token und ist zu einem Preis von 3,00 USD pro Million Eingabe-Token und 9,00 USD pro Million Ausgabe-Token erhältlich. Das am 24. Juli 2024 veröffentlichte Modell erzielte im MMLU-Benchmark bei einer 5-Shot-Auswertung eine Punktzahl von 84,0 und zeigt damit eine starke Leistung in verschiedenen Aufgaben.

Qwen2.5-VL-32BMistral Large 2
Webseite ?
Anbieter ?
Chat ?
Veröffentlichungsdatum ?
Modalitäten ?
Text ?
Bilder ?
Video ?
Text ?
API-Anbieter ?
-
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Datum des Wissensstandes ?
Unbekannt
Unbekannt
Open Source ?
Ja (Quelle)
Ja
Preisgestaltung Eingabe ?
$0
$3.00 pro Million Token
Preisgestaltung Ausgabe ?
$0
$9.00 pro Million Token
MMLU ?
78.4%
Quelle
84%
5-shot
Quelle
MMLU-Pro ?
49.5%
50.69%
Quelle
MMMU ?
70%
Nicht verfügbar
HellaSwag ?
Nicht verfügbar
Nicht verfügbar
HumanEval ?
Nicht verfügbar
Nicht verfügbar
MATH ?
82.2%
1.13%
Quelle
GPQA ?
46.0%
Diamond
24.94%
IFEval ?
Nicht verfügbar
84.01%
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobile Anwendung
-
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.