Qwen2.5-VL-32B

За пять месяцев с момента выпуска Qwen2-VL разработчики создали на его основе новые модели, предоставив ценные отзывы. Теперь Qwen2.5-VL предлагает улучшенные возможности, включая точный анализ изображений, текстов и диаграмм, а также локализацию объектов со структурированными выводами JSON. Он понимает длинные видео, определяет ключевые события и функционирует как агент, взаимодействующий с инструментами на компьютерах и телефонах. Архитектура модели включает динамическую обработку видео и оптимизированный кодировщик ViT для повышения скорости и точности.

o3-mini

OpenAI o3-mini — это высокоскоростная и экономичная модель логического мышления, разработанная для STEM-приложений, обладающая высокой производительностью в науке, математике и программировании. Выпущенная в январе 2025 года, она включает ключевые функции для разработчиков, такие как вызовы функций, структурированные выходные данные и сообщения разработчиков. Модель предлагает три уровня глубины анализа—низкий, средний и высокий—что позволяет пользователям находить баланс между детальным разбором и скоростью отклика. В отличие от модели o3, она не поддерживает обработку изображений. Изначально доступна избранным разработчикам на уровнях использования API 3-5 и может быть использована через Chat Completions API, Assistants API и Batch API.

Qwen2.5-VL-32Bo3-mini
Провайдер
Веб-сайт
Дата выпуска
Mar 25, 2025
4 недели назад
Jan 31, 2025
2 месяца назад
Модальности
текст ?
изображения ?
видео ?
текст ?
Поставщики API
-
OpenAI API
Дата актуальности знаний
Неизвестно
Неизвестно
Открытый исходный код
Нет
Стоимость ввода
$0
$1.10 за миллион токенов
Стоимость вывода
$0
$4.40 за миллион токенов
MMLU
78.4%
Источник
86.9%
pass@1, high effort
Источник
MMLU Pro
49.5%
Недоступно
MMMU
70%
Недоступно
HellaSwag
Недоступно
Недоступно
HumanEval
Недоступно
Недоступно
MATH
82.2%
97.9%
pass@1, high effort
Источник
GPQA
46.0%
Diamond
79.7%
0-shot, high effort
Источник
IFEval
Недоступно
Недоступно
Мобильное приложение
-

Сравнение LLM

Добавить комментарий


10%
Наш сайт использует cookies

Этот сайт использует файлы cookie. Продолжая пользоваться сайтом, вы соглашаетесь с их использованием.