LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.
Claude 3.7 Sonnet ist das bisher fortschrittlichste Modell von Anthropic und die erste hybride Denk-KI auf dem Markt. Es bietet sowohl Standard- als auch erweiterte Denkmodi, wobei letzterer transparente, schrittweise Argumentation ermöglicht. Das Modell glänzt in der Programmierung und Front-End-Webentwicklung und erzielt Spitzenergebnisse bei SWE-bench Verified und TAU-bench. Verfügbar über Claude.ai, die Anthropic API, Amazon Bedrock und Google Cloud Vertex AI, setzt es neue Maßstäbe für intelligente, KI-gestützte Problemlösungen.
Llama 4 Scout | Claude 3.7 Sonnet | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder Video | Text Bilder |
API-Anbieter
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI |
Datum des Wissensstandes
| 2025-04 | - |
Open Source
| Ja (Quelle) | Nein |
Preisgestaltung Eingabe
| Nicht verfügbar | $3.00 pro Million Token |
Preisgestaltung Ausgabe
| Nicht verfügbar | $15.00 pro Million Token |
MMLU
| Nicht verfügbar | Nicht verfügbar |
MMLU-Pro
| 74.3% Reasoning & Knowledge Quelle | Nicht verfügbar |
MMMU
| 69.4% Image Reasoning Quelle | 71.8% Quelle |
HellaSwag
| Nicht verfügbar | Nicht verfügbar |
HumanEval
| Nicht verfügbar | Nicht verfügbar |
MATH
| Nicht verfügbar | 82.2% Quelle |
GPQA
| 57.2% Diamond Quelle | 68% Diamond Quelle |
IFEval
| Nicht verfügbar | 90.8% Quelle |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobile Anwendung | - | |
VideoGameBench | ||
Gesamtpunktzahl | - | 0% |
Doom II | - | 0% |
Dream DX | - | 0% |
Awakening DX | - | 0% |
Civilization I | - | 0% |
Pokemon Crystal | - | 0% |
The Need for Speed | - | 0% |
The Incredible Machine | - | 0% |
Secret Game 1 | - | 0% |
Secret Game 2 | - | 0% |
Secret Game 3 | - | 0% |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.