LLaMA 4 Scout ist ein Modell mit 17 Milliarden Parametern, das eine Mixture-of-Experts-Architektur mit 16 aktiven Experten nutzt und sich damit als führendes multimodales Modell seiner Klasse positioniert. Es übertrifft konsequent Wettbewerber wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in verschiedenen Benchmark-Aufgaben. Trotz seiner Leistung ist LLaMA 4 Scout bemerkenswert effizient – es kann mit Int4-Quantisierung auf einer einzigen NVIDIA H100 GPU betrieben werden. Darüber hinaus verfügt es über ein branchenführendes Kontextfenster von 10 Millionen Tokens und ist nativ multimodal, wodurch es Text-, Bild- und Videoeingaben nahtlos für fortschrittliche reale Anwendungen verarbeiten kann.
OpenAI o4-mini ist das neueste leichtgewichtige Modell der o-Serie, entwickelt für effizientes und leistungsfähiges Denken über Text- und Bildaufgaben hinweg. Für Geschwindigkeit und Leistung optimiert, zeichnet es sich durch Code-Generierung und bildbasiertes Verständnis aus, während es ein Gleichgewicht zwischen Latenz und Denktiefe beibehält. Das Modell unterstützt ein Kontextfenster von 200.000 Token mit bis zu 100.000 Ausgabe-Token, was es für umfangreiche Interaktionen geeignet macht. Es verarbeitet sowohl Text- als auch Bildeingaben und erzeugt Textausgaben mit fortgeschrittenen Denkfähigkeiten. Dank seiner kompakten Architektur und vielseitigen Leistung ist o4-mini ideal für eine breite Palette von realen Anwendungen, die schnelle und kostengünstige Intelligenz erfordern.
Llama 4 Scout | o4-mini | |
---|---|---|
Webseite
| ||
Anbieter
| ||
Chat
| ||
Veröffentlichungsdatum
| ||
Modalitäten
| Text Bilder Video | Text Bilder |
API-Anbieter
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Datum des Wissensstandes
| 2025-04 | - |
Open Source
| Ja (Quelle) | Nein |
Preisgestaltung Eingabe
| Nicht verfügbar | $1.10 pro Million Token |
Preisgestaltung Ausgabe
| Nicht verfügbar | $4.40 pro Million Token |
MMLU
| Nicht verfügbar | fort |
MMLU-Pro
| 74.3% Reasoning & Knowledge Quelle | - |
MMMU
| 69.4% Image Reasoning Quelle | 81.6% Quelle |
HellaSwag
| Nicht verfügbar | - |
HumanEval
| Nicht verfügbar | 14.28% Quelle |
MATH
| Nicht verfügbar | - |
GPQA
| 57.2% Diamond Quelle | 81.4% Quelle |
IFEval
| Nicht verfügbar | - |
SimpleQA
| - | - |
AIME 2024 | - | 93.4% Quelle |
AIME 2025 | - | 92.7% Quelle |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.