OpenAI o3 — это самая продвинутая аналитическая модель от OpenAI, созданная специально для решения сложных задач с высокими когнитивными требованиями. Выпущенная в апреле 2025 года, она демонстрирует исключительную производительность в разработке программного обеспечения, математике и научном решении проблем. Модель предлагает три уровня аналитической нагрузки — низкий, средний и высокий — позволяя пользователям балансировать между задержкой и глубиной анализа в зависимости от сложности задачи. o3 поддерживает ключевые инструменты для разработчиков, включая вызов функций, структурированные выводы и системные сообщения. Благодаря встроенным визуальным возможностям o3 может интерпретировать и анализировать изображения, что делает его пригодным для мультимодальных приложений. Доступен через Chat Completions API, Assistants API и Batch API для гибкой интеграции в корпоративные и исследовательские процессы.
Claude 3.5 Haiku, разработанный компанией Anthropic, предлагает контекстное окно размером 200 000 токенов. Стоимость составляет 1 $ за миллион входных токенов и 5 $ за миллион выходных токенов, при этом возможна экономия до 90 % с помощью кэширования подсказок и до 50 % через API Message Batches. Эта модель, выпущенная 4 ноября 2024 года, отлично справляется с дополнением кода, интерактивными чат-ботами, извлечением и маркировкой данных, а также с модерацией контента в реальном времени.
o3 | Claude 3.5 Haiku | |
---|---|---|
Веб-сайт
| ||
Провайдер
| ||
Чат
| ||
Дата выпуска
| ||
Модальности
| текст изображения | текст |
Поставщики API
| OpenAI API | Anthropic, AWS Bedrock, Vertex AI |
Дата актуальности знаний
| - | 01.04.2024 |
Открытый исходный код
| Нет | Нет |
Стоимость ввода
| $10.00 за миллион токенов | $0.80 за миллион токенов |
Стоимость вывода
| $40.00 за миллион токенов | $4.00 |
MMLU
| 82.9% Источник | Недоступно |
MMLU-Pro
| - | 65% 0-shot CoT Источник |
MMMU
| - | Недоступно |
HellaSwag
| - | Недоступно |
HumanEval
| - | 88.1% 0-shot Источник |
MATH
| - | 69.4% 0-shot CoT Источник |
GPQA
| 83.3% Diamond, no tools Источник | Недоступно |
IFEval
| - | Недоступно |
SimpleQA
| - | - |
AIME 2024 | 91.6% Источник | - |
AIME 2025 | 88.9% Источник | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Мобильное приложение |
Compare AI. Test. Benchmarks. Чат-боты для мобильных приложений, Sketch
Copyright © 2025 All Right Reserved.