Llama 4 Scout

LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.

GPT-4.1 Nano

Llama 4 ScoutGPT-4.1 Nano
Anbieter
Webseite
Veröffentlichungsdatum
Apr 05, 2025
1 Monat ago
Apr 14, 2025
3 Wochen ago
Modalitäten
Text ?
Bilder ?
Video ?
Text ?
Bilder ?
API-Anbieter
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
OpenAI API
Datum des Wissensstandes
2025-04
-
Open Source
Ja (Quelle)
Nein
Preisgestaltung Eingabe
Nicht verfügbar
$0.10 pro Million Token
Preisgestaltung Ausgabe
Nicht verfügbar
$0.40 pro Million Token
MMLU
Nicht verfügbar
80.1%
Quelle
MMLU Pro
74.3%
Reasoning & Knowledge
Quelle
-
MMMU
69.4%
Image Reasoning
Quelle
55.4%
Quelle
HellaSwag
Nicht verfügbar
-
HumanEval
Nicht verfügbar
-
MATH
Nicht verfügbar
-
GPQA
57.2%
Diamond
Quelle
50.3%
Diamond
Quelle
IFEval
Nicht verfügbar
74.5%
Quelle
Array
-
-
AIME 2024
-
29.4%
Quelle
AIME 2025
-
-
Array
-
-
Array
-
-
Array
-
66.9%
Quelle
Array
-
56.2%
Image Reasoning
Quelle
Mobile Anwendung
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.