OpenAI o4-mini ist das neueste leichtgewichtige Modell der o-Serie, entwickelt für effizientes und leistungsfähiges Denken über Text- und Bildaufgaben hinweg. Für Geschwindigkeit und Leistung optimiert, zeichnet es sich durch Code-Generierung und bildbasiertes Verständnis aus, während es ein Gleichgewicht zwischen Latenz und Denktiefe beibehält. Das Modell unterstützt ein Kontextfenster von 200.000 Token mit bis zu 100.000 Ausgabe-Token, was es für umfangreiche Interaktionen geeignet macht. Es verarbeitet sowohl Text- als auch Bildeingaben und erzeugt Textausgaben mit fortgeschrittenen Denkfähigkeiten. Dank seiner kompakten Architektur und vielseitigen Leistung ist o4-mini ideal für eine breite Palette von realen Anwendungen, die schnelle und kostengünstige Intelligenz erfordern.
GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.
o4-mini | GPT-4.1 | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder | Text Bilder |
API-Anbieter
| OpenAI API | OpenAI API |
Datum des Wissensstandes
| - | - |
Open Source
| Nein | Nein |
Preisgestaltung Eingabe
| $1.10 pro Million Token | $2.00 pro Million Token |
Preisgestaltung Ausgabe
| $4.40 pro Million Token | $8.00 pro Million Token |
MMLU
| fort | 90.2% pass@1 Quelle |
MMLU-Pro
| - | - |
MMMU
| 81.6% Quelle | 74.8% Quelle |
HellaSwag
| - | - |
HumanEval
| 14.28% Quelle | - |
MATH
| - | - |
GPQA
| 81.4% Quelle | 66.3% Diamond Quelle |
IFEval
| - | - |
SimpleQA
| - | - |
AIME 2024 | 93.4% Quelle | 48.1% Quelle |
AIME 2025 | 92.7% Quelle | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Quelle |
MathVista
| - | - |
Mobile Anwendung |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.