Gemini 2.5 Pro ist Googles fortschrittlichstes KI-Modell, entwickelt für tiefgehendes Denken und durchdachte Antwortgenerierung. Es übertrifft wichtige Benchmarks mit außergewöhnlicher Logik und Programmierkompetenz. Optimiert für den Aufbau dynamischer Webanwendungen, autonomer Codesysteme und Codeanpassung liefert es Spitzenleistungen. Mit integrierten multimodalen Fähigkeiten und einem erweiterten Kontextfenster verarbeitet es effizient große Datensätze und integriert verschiedene Informationsquellen zur Bewältigung komplexer Herausforderungen.
In den fünf Monaten seit der Veröffentlichung von Qwen2-VL haben Entwickler darauf basierende neue Modelle erstellt und wertvolles Feedback gegeben. Jetzt führt Qwen2.5-VL verbesserte Fähigkeiten ein, darunter präzise Analyse von Bildern, Texten und Diagrammen sowie Objektlokalisierung mit strukturierten JSON-Ausgaben. Es versteht lange Videos, erkennt Schlüsselereignisse und fungiert als Agent, der mit Tools auf Computern und Telefonen interagiert. Die Architektur des Modells umfasst dynamische Videoverarbeitung und einen optimierten ViT-Encoder für verbesserte Geschwindigkeit und Genauigkeit.
Gemini 2.5 Pro | Qwen2.5-VL-32B | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder Sprache Video | Text Bilder Video |
API-Anbieter
| Google AI Studio, Vertex AI, Gemini app | - |
Datum des Wissensstandes
| - | Unbekannt |
Open Source
| Nein | Ja (Quelle) |
Preisgestaltung Eingabe
| Nicht verfügbar | $0 |
Preisgestaltung Ausgabe
| Nicht verfügbar | $0 |
MMLU
| Nicht verfügbar | 78.4% Quelle |
MMLU-Pro
| Nicht verfügbar | 49.5% |
MMMU
| 81.7% Quelle | 70% |
HellaSwag
| Nicht verfügbar | Nicht verfügbar |
HumanEval
| Nicht verfügbar | Nicht verfügbar |
MATH
| Nicht verfügbar | 82.2% |
GPQA
| 84.0% Diamond Science Quelle | 46.0% Diamond |
IFEval
| Nicht verfügbar | Nicht verfügbar |
SimpleQA
| 52.9% | - |
AIME 2024 | 92.0% | - |
AIME 2025 | 86.7% | - |
Aider Polyglot
| 74.0% / 68.6% | - |
LiveCodeBench v5
| 70.4% | - |
Global MMLU (Lite)
| 89.8% | - |
MathVista
| - | - |
Mobile Anwendung | - | |
VideoGameBench | ||
Gesamtpunktzahl | 0.48% | - |
Doom II | 0% | - |
Dream DX | 4.8% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | 0% | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.