o3

OpenAI o3 — це найдосконаліша аналітична модель від OpenAI, створена спеціально для вирішення складних завдань із високими когнітивними вимогами. Випущена у квітні 2025 року, вона демонструє виняткову продуктивність у розробці програмного забезпечення, математиці та науковому вирішенні проблем. Модель пропонує три рівні аналітичного навантаження — низький, середній та високий — дозволяючи користувачам балансувати між затримкою та глибиною аналізу залежно від складності завдання. o3 підтримує ключові інструменти для розробників, включаючи виклик функцій, структуровані висновки та системні повідомлення. Завдяки вбудованим візуальним можливостям o3 може інтерпретувати та аналізувати зображення, що робить його придатним для мультимодальних додатків. Доступний через Chat Completions API, Assistants API та Batch API для гнучкої інтеграції в корпоративні та дослідницькі процеси.

Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, створена Meta, — це багатомовна велика мовна модель, спеціально налаштована для завдань на основі інструкцій і оптимізована для розмовних додатків. Вона може обробляти та генерувати текст кількома мовами, підтримуючи контекстне вікно до 128 000 токенів. Запущена 6 грудня 2024 року, модель перевершує багато відкритих і комерційних чат-ботів у різних галузевих тестах. Використовує Grouped-Query Attention (GQA) для покращення масштабованості та навчена на різноманітному наборі даних, що містить понад 15 трильйонів токенів із публічних джерел. Знання моделі актуальні до грудня 2023 року.

o3Llama 3.3 70B Instruct
Веб-сайт ?
Постачальник ?
Чат ?
Дата випуску ?
Модальності ?
текст ?
зображення ?
текст ?
Постачальники API ?
OpenAI API
Fireworks, Together, DeepInfra, Hyperbolic
Дата оновлення знань ?
-
12.2024
Відкритий код ?
Ні
Так
Вартість введення ?
$10.00 за мільйон токенів
$0.23 за мільйон токенів
Вартість виведення ?
$40.00 за мільйон токенів
$0.40 за мільйон токенів
MMLU ?
82.9%
Джерело
86%
0-shot, CoT
Джерело
MMLU-Pro ?
-
68.9%
5-shot, CoT
Джерело
MMMU ?
-
Недоступно
HellaSwag ?
-
Недоступно
HumanEval ?
-
88.4%
pass@1
Джерело
MATH ?
-
77%
0-shot, CoT
Джерело
GPQA ?
83.3%
Diamond, no tools
Джерело
50.5%
0-shot, CoT
Джерело
IFEval ?
-
92.1%
Джерело
SimpleQA ?
-
-
AIME 2024
91.6%
Джерело
-
AIME 2025
88.9%
Джерело
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Мобільний додаток
-

Порівняти LLM

Додати коментар


10%
Наш сайт використовує cookies

Цей сайт використовує файли cookie. Продовжуючи користуватися сайтом, ви погоджуєтеся з їх використанням.