Llama 4 Scout

LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.

Command A

Command R+ ist Coheres modernstes generatives KI-Modell, entwickelt für Unternehmensleistung, bei der Geschwindigkeit, Sicherheit und Ausgabequalität entscheidend sind. Es arbeitet effizient mit minimaler Infrastruktur und übertrifft Spitzenmodelle wie GPT-4o und DeepSeek-V3 in Fähigkeiten und Kosteneffizienz. Mit einem erweiterten Kontextfenster von 256K Token – doppelt so groß wie bei den meisten führenden Modellen – glänzt es bei komplexen mehrsprachigen und agentenbasierten Aufgaben, die für moderne Geschäftsabläufe entscheidend sind. Trotz seiner Leistung kann es mit nur zwei GPUs betrieben werden, was es hochgradig zugänglich macht. Mit einer rasanten Durchsatzrate von bis zu 156 Token pro Sekunde – etwa 1,75-mal schneller als GPT-4o – bietet Command R+ außergewöhnliche Effizienz ohne Kompromisse bei Genauigkeit oder Tiefe.

Llama 4 ScoutCommand A
Webseite ?
Anbieter ?
Chat ?
Veröffentlichungsdatum ?
Modalitäten ?
Text ?
Bilder ?
Video ?
Text ?
API-Anbieter ?
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Cohere, Hugging Face, Major cloud providers
Datum des Wissensstandes ?
2025-04
-
Open Source ?
Ja (Quelle)
Ja
Preisgestaltung Eingabe ?
Nicht verfügbar
$2.50 pro Million Token
Preisgestaltung Ausgabe ?
Nicht verfügbar
$10.00 pro Million Token
MMLU ?
Nicht verfügbar
85.5%
Quelle
MMLU-Pro ?
74.3%
Reasoning & Knowledge
Quelle
Nicht verfügbar
MMMU ?
69.4%
Image Reasoning
Quelle
Nicht verfügbar
HellaSwag ?
Nicht verfügbar
Nicht verfügbar
HumanEval ?
Nicht verfügbar
Nicht verfügbar
MATH ?
Nicht verfügbar
80%
Quelle
GPQA ?
57.2%
Diamond
Quelle
50.8%
Quelle
IFEval ?
Nicht verfügbar
90.9%
Quelle
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobile Anwendung
-
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.