Claude 3.7 Sonnet ist das bisher fortschrittlichste KI-Modell von Anthropic und das erste hybride Denksystem auf dem Markt. Es bietet sowohl Standard- als auch erweiterte Denkmodi, wobei letzterer transparente, schrittweise Argumentation ermöglicht. Das Modell zeigt signifikante Verbesserungen in der Programmierung und Front-End-Webentwicklung und erzielt Spitzenergebnisse bei SWE-bench Verified und TAU-bench. Verfügbar über Claude.ai, die Anthropic API, Amazon Bedrock und Google Cloud Vertex AI, setzt es neue Maßstäbe für intelligente, KI-gestützte Problemlösungen.
OpenAI o4-mini ist das neueste leichtgewichtige Modell der o-Serie, entwickelt für effizientes und leistungsfähiges Denken über Text- und Bildaufgaben hinweg. Für Geschwindigkeit und Leistung optimiert, zeichnet es sich durch Code-Generierung und bildbasiertes Verständnis aus, während es ein Gleichgewicht zwischen Latenz und Denktiefe beibehält. Das Modell unterstützt ein Kontextfenster von 200.000 Token mit bis zu 100.000 Ausgabe-Token, was es für umfangreiche Interaktionen geeignet macht. Es verarbeitet sowohl Text- als auch Bildeingaben und erzeugt Textausgaben mit fortgeschrittenen Denkfähigkeiten. Dank seiner kompakten Architektur und vielseitigen Leistung ist o4-mini ideal für eine breite Palette von realen Anwendungen, die schnelle und kostengünstige Intelligenz erfordern.
Claude 3.7 Sonnet - Extended Thinking | o4-mini | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder | Text Bilder |
API-Anbieter
| Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI | OpenAI API |
Datum des Wissensstandes
| - | - |
Open Source
| Nein | Nein |
Preisgestaltung Eingabe
| $3.00 pro Million Token | $1.10 pro Million Token |
Preisgestaltung Ausgabe
| $15.00 pro Million Token | $4.40 pro Million Token |
MMLU
| Nicht verfügbar | fort |
MMLU-Pro
| Nicht verfügbar | - |
MMMU
| 75% Quelle | 81.6% Quelle |
HellaSwag
| Nicht verfügbar | - |
HumanEval
| Nicht verfügbar | 14.28% Quelle |
MATH
| 96.2% Quelle | - |
GPQA
| 84.8% Diamond Quelle | 81.4% Quelle |
IFEval
| 93.2% Quelle | - |
SimpleQA
| - | - |
AIME 2024 | - | 93.4% Quelle |
AIME 2025 | - | 92.7% Quelle |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobile Anwendung |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.