GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.
Gemini 2.0 Pro ist Googles bisher fortschrittlichstes Modell, das außergewöhnliche Programmierleistung bietet und komplexe Eingaben mühelos verarbeitet. Es verfügt über erweiterte Funktionen wie native Tool-Integration, Bilderzeugung und Sprachsynthese. Entwickelt für fortgeschrittenes logisches Denken, unterstützt das Modell multimodale Eingaben, darunter Text, Bilder, Video und Audio. Erhältlich über Google AI Studio und Vertex AI, bietet es erhebliche Leistungssteigerungen gegenüber früheren Versionen bei hoher Effizienz.
GPT-4.1 | Gemini 2.0 Pro | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder | Text Bilder Sprache Video |
API-Anbieter
| OpenAI API | Google AI Studio, Vertex AI |
Datum des Wissensstandes
| - | 08.2024 |
Open Source
| Nein | Nein |
Preisgestaltung Eingabe
| $2.00 pro Million Token | $0.10 pro Million Token |
Preisgestaltung Ausgabe
| $8.00 pro Million Token | $0.40 pro Million Token |
MMLU
| 90.2% pass@1 Quelle | Nicht verfügbar |
MMLU-Pro
| - | 79.1% Quelle |
MMMU
| 74.8% Quelle | 72.7% Quelle |
HellaSwag
| - | Nicht verfügbar |
HumanEval
| - | Nicht verfügbar |
MATH
| - | 91.8% Quelle |
GPQA
| 66.3% Diamond Quelle | 64.7% Diamond Quelle |
IFEval
| - | Nicht verfügbar |
SimpleQA
| - | - |
AIME 2024 | 48.1% Quelle | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 Quelle | - |
MathVista
| - | - |
Mobile Anwendung |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.