o4-mini

OpenAI o4-mini — це найновіша легка модель у серії o, розроблена для ефективного та потужного аналізу текстових та візуальних завдань. Оптимізована для швидкості та продуктивності, вона відмінно справляється з генерацією коду та аналізом зображень, зберігаючи баланс між затримкою та глибиною аналізу. Модель підтримує контекстне вікно у 200 000 токенів з виведенням до 100 000 токенів, що робить її придатною для тривалих та об’ємних взаємодій. Вона обробляє як текстові, так і графічні вхідні дані, видаючи текстові результати з розширеними аналітичними можливостями. Завдяки компактній архітектурі та універсальній продуктивності o4-mini ідеально підходить для широкого спектру реальних додатків, що вимагають швидкого та економічно ефективного інтелекту.

Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, створена Meta, — це багатомовна велика мовна модель, спеціально налаштована для завдань на основі інструкцій і оптимізована для розмовних додатків. Вона може обробляти та генерувати текст кількома мовами, підтримуючи контекстне вікно до 128 000 токенів. Запущена 6 грудня 2024 року, модель перевершує багато відкритих і комерційних чат-ботів у різних галузевих тестах. Використовує Grouped-Query Attention (GQA) для покращення масштабованості та навчена на різноманітному наборі даних, що містить понад 15 трильйонів токенів із публічних джерел. Знання моделі актуальні до грудня 2023 року.

o4-miniLlama 3.3 70B Instruct
Веб-сайт ?
Постачальник ?
Чат ?
Дата випуску ?
Модальності ?
текст ?
зображення ?
текст ?
Постачальники API ?
OpenAI API
Fireworks, Together, DeepInfra, Hyperbolic
Дата оновлення знань ?
-
12.2024
Відкритий код ?
Ні
Так
Вартість введення ?
$1.10 за мільйон токенів
$0.23 за мільйон токенів
Вартість виведення ?
$4.40 за мільйон токенів
$0.40 за мільйон токенів
MMLU ?
fort
86%
0-shot, CoT
Джерело
MMLU-Pro ?
-
68.9%
5-shot, CoT
Джерело
MMMU ?
81.6%
Джерело
Недоступно
HellaSwag ?
-
Недоступно
HumanEval ?
14.28%
Джерело
88.4%
pass@1
Джерело
MATH ?
-
77%
0-shot, CoT
Джерело
GPQA ?
81.4%
Джерело
50.5%
0-shot, CoT
Джерело
IFEval ?
-
92.1%
Джерело
SimpleQA ?
-
-
AIME 2024
93.4%
Джерело
-
AIME 2025
92.7%
Джерело
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Мобільний додаток
-

Порівняти LLM

Додати коментар


10%
Наш сайт використовує cookies

Цей сайт використовує файли cookie. Продовжуючи користуватися сайтом, ви погоджуєтеся з їх використанням.