LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.
GPT-4.1, von OpenAI am 14. April 2025 eingeführt, bietet ein Kontextfenster von 1 Million Token und unterstützt Ausgaben von bis zu 32.768 Token pro Anfrage. Es liefert herausragende Leistung bei Codierungsaufgaben, erreicht 54,6 % im SWE-Bench Verified-Benchmark und zeigt eine 10,5 %ige Verbesserung gegenüber GPT-4o im MultiChallenge für die Befolgung von Anweisungen. Der Wissensstand des Modells ist auf Juni 2024 festgelegt. Die Preisgestaltung beträgt 2,00 $ pro Million Token für Eingaben und 8,00 $ pro Million Token für Ausgaben, mit einem 75 %igen Rabatt für zwischengespeicherte Eingaben, was es für wiederholte Abfragen äußerst kosteneffizient macht.
Llama 4 Scout | GPT-4.1 | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder Video | Text Bilder |
API-Anbieter
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Datum des Wissensstandes
| 2025-04 | - |
Open Source
| Ja (Quelle) | Nein |
Preisgestaltung Eingabe
| Nicht verfügbar | $2.00 pro Million Token |
Preisgestaltung Ausgabe
| Nicht verfügbar | $8.00 pro Million Token |
MMLU
| Nicht verfügbar | 90.2% pass@1 Quelle |
MMLU-Pro
| 74.3% Reasoning & Knowledge Quelle | - |
MMMU
| 69.4% Image Reasoning Quelle | 74.8% Quelle |
HellaSwag
| Nicht verfügbar | - |
HumanEval
| Nicht verfügbar | - |
MATH
| Nicht verfügbar | - |
GPQA
| 57.2% Diamond Quelle | 66.3% Diamond Quelle |
IFEval
| Nicht verfügbar | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Quelle |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Quelle |
MathVista
| - | - |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.