Claude 3.7 Sonnet ist das bisher fortschrittlichste KI-Modell von Anthropic und das erste hybride Denksystem auf dem Markt. Es bietet sowohl Standard- als auch erweiterte Denkmodi, wobei letzterer transparente, schrittweise Argumentation ermöglicht. Das Modell zeigt signifikante Verbesserungen in der Programmierung und Front-End-Webentwicklung und erzielt Spitzenergebnisse bei SWE-bench Verified und TAU-bench. Verfügbar über Claude.ai, die Anthropic API, Amazon Bedrock und Google Cloud Vertex AI, setzt es neue Maßstäbe für intelligente, KI-gestützte Problemlösungen.
LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.
Claude 3.7 Sonnet - Extended Thinking | Llama 4 Scout | |
---|---|---|
Anbieter | ||
Webseite | ||
Veröffentlichungsdatum | Feb 24, 2025 2 Monate ago | Apr 05, 2025 1 Monat ago |
Modalitäten | Text Bilder | Text Bilder Video |
API-Anbieter | Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
Datum des Wissensstandes | - | 2025-04 |
Open Source | Nein | Ja (Quelle) |
Preisgestaltung Eingabe | $3.00 pro Million Token | Nicht verfügbar |
Preisgestaltung Ausgabe | $15.00 pro Million Token | Nicht verfügbar |
MMLU | Nicht verfügbar | Nicht verfügbar |
MMLU Pro | Nicht verfügbar | 74.3% Reasoning & Knowledge Quelle |
MMMU | 75% Quelle | 69.4% Image Reasoning Quelle |
HellaSwag | Nicht verfügbar | Nicht verfügbar |
HumanEval | Nicht verfügbar | Nicht verfügbar |
MATH | 96.2% Quelle | Nicht verfügbar |
GPQA | 84.8% Diamond Quelle | 57.2% Diamond Quelle |
IFEval | 93.2% Quelle | Nicht verfügbar |
Array | - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.