Claude 3.7 Sonnet ist das bisher fortschrittlichste KI-Modell von Anthropic und das erste hybride Denksystem auf dem Markt. Es bietet sowohl Standard- als auch erweiterte Denkmodi, wobei letzterer transparente, schrittweise Argumentation ermöglicht. Das Modell zeigt signifikante Verbesserungen in der Programmierung und Front-End-Webentwicklung und erzielt Spitzenergebnisse bei SWE-bench Verified und TAU-bench. Verfügbar über Claude.ai, die Anthropic API, Amazon Bedrock und Google Cloud Vertex AI, setzt es neue Maßstäbe für intelligente, KI-gestützte Problemlösungen.
GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.
Claude 3.7 Sonnet - Extended Thinking | GPT-4.1 | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder | Text Bilder |
API-Anbieter
| Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI | OpenAI API |
Datum des Wissensstandes
| - | - |
Open Source
| Nein | Nein |
Preisgestaltung Eingabe
| $3.00 pro Million Token | $2.00 pro Million Token |
Preisgestaltung Ausgabe
| $15.00 pro Million Token | $8.00 pro Million Token |
MMLU
| Nicht verfügbar | 90.2% pass@1 Quelle |
MMLU-Pro
| Nicht verfügbar | - |
MMMU
| 75% Quelle | 74.8% Quelle |
HellaSwag
| Nicht verfügbar | - |
HumanEval
| Nicht verfügbar | - |
MATH
| 96.2% Quelle | - |
GPQA
| 84.8% Diamond Quelle | 66.3% Diamond Quelle |
IFEval
| 93.2% Quelle | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Quelle |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Quelle |
MathVista
| - | - |
Mobile Anwendung |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.