OpenAI o4-mini ist das neueste leichtgewichtige Modell der o-Serie, entwickelt für effizientes und leistungsfähiges Denken über Text- und Bildaufgaben hinweg. Für Geschwindigkeit und Leistung optimiert, zeichnet es sich durch Code-Generierung und bildbasiertes Verständnis aus, während es ein Gleichgewicht zwischen Latenz und Denktiefe beibehält. Das Modell unterstützt ein Kontextfenster von 200.000 Token mit bis zu 100.000 Ausgabe-Token, was es für umfangreiche Interaktionen geeignet macht. Es verarbeitet sowohl Text- als auch Bildeingaben und erzeugt Textausgaben mit fortgeschrittenen Denkfähigkeiten. Dank seiner kompakten Architektur und vielseitigen Leistung ist o4-mini ideal für eine breite Palette von realen Anwendungen, die schnelle und kostengünstige Intelligenz erfordern.
GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.
o4-mini | GPT-4.1 | |
---|---|---|
Anbieter | ||
Webseite | ||
Veröffentlichungsdatum | Apr 16, 2025 1 Woche ago | Apr 14, 2025 2 Wochen ago |
Modalitäten | Text Bilder | Text Bilder |
API-Anbieter | OpenAI API | OpenAI API |
Datum des Wissensstandes | - | - |
Open Source | Nein | Nein |
Preisgestaltung Eingabe | $1.10 pro Million Token | $2.00 pro Million Token |
Preisgestaltung Ausgabe | $4.40 pro Million Token | $8.00 pro Million Token |
MMLU | fort | 90.2% pass@1 Quelle |
MMLU Pro | - | - |
MMMU | 81.6% Quelle | 74.8% Quelle |
HellaSwag | - | - |
HumanEval | 14.28% Quelle | - |
MATH | - | - |
GPQA | 81.4% Quelle | 66.3% Diamond Quelle |
IFEval | - | - |
Mobile Anwendung |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.