LLaMA 4 Scout — це модель з 17 мільярдами параметрів, яка використовує архітектуру Mixture-of-Experts з 16 активними експертами, що робить її провідною мультимодальною моделлю у своїй категорії. Вона стабільно перевершує конкурентів, таких як Gemma 3, Gemini 2.0 Flash-Lite та Mistral 3.1, у різноманітних бенчмарках. Незважаючи на потужність, LLaMA 4 Scout є надзвичайно ефективною — здатна працювати на одному графічному процесорі NVIDIA H100 із квантуванням Int4. Вона також має передове в галузі контекстне вікно на 10 мільйонів токенів і є нативно мультимодальною, безперешкодно обробляє текст, зображення та відео для складних прикладних завдань у реальному світі.
GPT-4.1, випущений OpenAI 14 квітня 2025 року, пропонує контекстне вікно в 1 мільйон токенів і підтримує виведення до 32 768 токенів на запит. Він демонструє видатну продуктивність у завданнях програмування, досягаючи 54,6% у тесті SWE-Bench Verified та покращуючи результат GPT-4o на 10,5% у MultiChallenge за виконання інструкцій. Обсяг знань моделі актуальний на червень 2024 року. Вартість становить $2,00 за мільйон вхідних токенів і $8,00 за мільйон вихідних, зі знижкою 75% на кешовані дані, що робить його дуже економічним для повторюваних запитів.
Llama 4 Scout | GPT-4.1 | |
---|---|---|
Веб-сайт
| ||
Постачальник
| ||
Чат
| ||
Дата випуску
| ||
Модальності
| текст зображення відео | текст зображення |
Постачальники API
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | OpenAI API |
Дата оновлення знань
| 2025-04 | - |
Відкритий код
| Так (Джерело) | Ні |
Вартість введення
| Недоступно | $2.00 за мільйон токенів |
Вартість виведення
| Недоступно | $8.00 за мільйон токенів |
MMLU
| Недоступно | 90.2% pass@1 Джерело |
MMLU-Pro
| 74.3% Reasoning & Knowledge Джерело | - |
MMMU
| 69.4% Image Reasoning Джерело | 74.8% Джерело |
HellaSwag
| Недоступно | - |
HumanEval
| Недоступно | - |
MATH
| Недоступно | - |
GPQA
| 57.2% Diamond Джерело | 66.3% Diamond Джерело |
IFEval
| Недоступно | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Джерело |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Джерело |
MathVista
| - | - |
Мобільний додаток | - |
Compare AI. Test. Benchmarks. Чат-боти для мобільних застосунків, Sketch
Copyright © 2025 All Right Reserved.