o4-mini

OpenAI o4-mini ist das neueste leichtgewichtige Modell der o-Serie, entwickelt für effizientes und leistungsfähiges Denken über Text- und Bildaufgaben hinweg. Für Geschwindigkeit und Leistung optimiert, zeichnet es sich durch Code-Generierung und bildbasiertes Verständnis aus, während es ein Gleichgewicht zwischen Latenz und Denktiefe beibehält. Das Modell unterstützt ein Kontextfenster von 200.000 Token mit bis zu 100.000 Ausgabe-Token, was es für umfangreiche Interaktionen geeignet macht. Es verarbeitet sowohl Text- als auch Bildeingaben und erzeugt Textausgaben mit fortgeschrittenen Denkfähigkeiten. Dank seiner kompakten Architektur und vielseitigen Leistung ist o4-mini ideal für eine breite Palette von realen Anwendungen, die schnelle und kostengünstige Intelligenz erfordern.

Mistral Large 2

Mistral Large 2, entwickelt von Mistral, bietet ein Kontextfenster von 128.000 Token und ist zu einem Preis von 3,00 USD pro Million Eingabe-Token und 9,00 USD pro Million Ausgabe-Token erhältlich. Das am 24. Juli 2024 veröffentlichte Modell erzielte im MMLU-Benchmark bei einer 5-Shot-Auswertung eine Punktzahl von 84,0 und zeigt damit eine starke Leistung in verschiedenen Aufgaben.

o4-miniMistral Large 2
Webseite ?
Anbieter ?
Chat ?
Veröffentlichungsdatum ?
Modalitäten ?
Text ?
Bilder ?
Text ?
API-Anbieter ?
OpenAI API
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Datum des Wissensstandes ?
-
Unbekannt
Open Source ?
Nein
Ja
Preisgestaltung Eingabe ?
$1.10 pro Million Token
$3.00 pro Million Token
Preisgestaltung Ausgabe ?
$4.40 pro Million Token
$9.00 pro Million Token
MMLU ?
fort
84%
5-shot
Quelle
MMLU-Pro ?
-
50.69%
Quelle
MMMU ?
81.6%
Quelle
Nicht verfügbar
HellaSwag ?
-
Nicht verfügbar
HumanEval ?
14.28%
Quelle
Nicht verfügbar
MATH ?
-
1.13%
Quelle
GPQA ?
81.4%
Quelle
24.94%
IFEval ?
-
84.01%
SimpleQA ?
-
-
AIME 2024
93.4%
Quelle
-
AIME 2025
92.7%
Quelle
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobile Anwendung
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.