A LLaMA 4 Scout egy 17 milliárd paraméteres modell, amely Mixture-of-Experts architektúrát használ 16 aktív szakértővel, így kategóriájának vezető multimodális modellje. Rendszeresen felülmúlja a versenytársakat, mint a Gemma 3, Gemini 2.0 Flash-Lite és a Mistral 3.1, különféle benchmark feladatokon. Teljesítménye ellenére a LLaMA 4 Scout rendkívül hatékony – képes egyetlen NVIDIA H100 GPU-n futni Int4 kvantálással. Emellett iparágvezető, 10 millió tokenes kontextusablakkal rendelkezik, és natív módon multimodális, zökkenőmentesen dolgozza fel a szöveges, képi és videós bemeneteket fejlett valós alkalmazásokhoz.
A GPT-4.1-et az OpenAI 2025. április 14-én dobta piacra, amely 1 millió tokenes kontextusablakot vezet be, és kérésselként legfeljebb 32 768 token kimenetet támogat. Kiváló teljesítményt nyújt kódolási feladatokban, 54,6%-ot ér el a SWE-Bench Verified benchmarkon, és 10,5%-os javulást mutat a GPT-4o-hoz képest a MultiChallenge-en az utasítások követésében. A modell tudásának határidője 2024. júniusra van állítva. A díjszabás 2,00 $ milliónyi token bemenetre és 8,00 $ milliónyi token kimenetre vonatkozik, a gyorsítótárazott bemenetekre 75%-os kedvezményt alkalmazva, ami nagyon költséghatékonyvá teszi az ismétlődő lekérdezések esetén.
Llama 4 Scout | GPT-4.1 | |
---|---|---|
Weboldal
| ||
Szolgáltató
| ||
Csevegés
| ||
Kiadási Dátum
| ||
Modalitások
| szöveg képek videó | szöveg képek |
API Szolgáltatók
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Tudás Befejezési Dátuma
| 2025-04 | - |
Nyílt Forráskódú
| Igen (Forrás) | Nem |
Bemeneti Árazás
| Nem elérhető | $2.00 millió tokenenként |
Kimeneti Árazás
| Nem elérhető | $8.00 millió tokenenként |
MMLU
| Nem elérhető | 90.2% pass@1 Forrás |
MMLU-Pro
| 74.3% Reasoning & Knowledge Forrás | - |
MMMU
| 69.4% Image Reasoning Forrás | 74.8% Forrás |
HellaSwag
| Nem elérhető | - |
HumanEval
| Nem elérhető | - |
MATH
| Nem elérhető | - |
GPQA
| 57.2% Diamond Forrás | 66.3% Diamond Forrás |
IFEval
| Nem elérhető | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Forrás |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Forrás |
MathVista
| - | - |
Mobilalkalmazás | - |
Compare AI. Test. Benchmarks. Mobil Chatbot Alkalmazások, Sketch
Copyright © 2025 All Right Reserved.