Claude 3.7 Sonnet - Extended Thinking

Claude 3.7 Sonnet ist das bisher fortschrittlichste KI-Modell von Anthropic und das erste hybride Denksystem auf dem Markt. Es bietet sowohl Standard- als auch erweiterte Denkmodi, wobei letzterer transparente, schrittweise Argumentation ermöglicht. Das Modell zeigt signifikante Verbesserungen in der Programmierung und Front-End-Webentwicklung und erzielt Spitzenergebnisse bei SWE-bench Verified und TAU-bench. Verfügbar über Claude.ai, die Anthropic API, Amazon Bedrock und Google Cloud Vertex AI, setzt es neue Maßstäbe für intelligente, KI-gestützte Problemlösungen.

GPT-4.1

GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.

Claude 3.7 Sonnet - Extended ThinkingGPT-4.1
Webseite ?
Anbieter ?
Chat ?
Veröffentlichungsdatum ?
Modalitäten ?
Text ?
Bilder ?
Text ?
Bilder ?
API-Anbieter ?
Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
OpenAI API
Datum des Wissensstandes ?
-
-
Open Source ?
Nein
Nein
Preisgestaltung Eingabe ?
$3.00 pro Million Token
$2.00 pro Million Token
Preisgestaltung Ausgabe ?
$15.00 pro Million Token
$8.00 pro Million Token
MMLU ?
Nicht verfügbar
90.2%
pass@1
Quelle
MMLU-Pro ?
Nicht verfügbar
-
MMMU ?
75%
Quelle
74.8%
Quelle
HellaSwag ?
Nicht verfügbar
-
HumanEval ?
Nicht verfügbar
-
MATH ?
96.2%
Quelle
-
GPQA ?
84.8%
Diamond
Quelle
66.3%
Diamond
Quelle
IFEval ?
93.2%
Quelle
-
SimpleQA ?
-
-
AIME 2024
-
48.1%
Quelle
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
87.3%
pass@1
Quelle
MathVista ?
-
-
Mobile Anwendung

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.