Qwen2.5-VL-32B

自 Qwen2-VL 发布以来的五个月里,开发者基于该模型构建了新模型,并提供了宝贵的反馈。现在,Qwen2.5-VL 引入了更强的功能,包括对图像、文本和图表的精准分析,以及通过结构化 JSON 输出进行对象定位。它能够理解长视频,识别关键事件,并作为智能代理与计算机和手机上的工具交互。该模型的架构采用了动态视频处理和优化的 ViT 编码器,以提升处理速度和准确性。

Command A

Command R+是Cohere的尖端生成式AI模型,专为企业级性能设计,其中速度、安全性和输出质量至关重要。该模型能够在最小基础设施下高效运行,在能力和成本效益方面均优于GPT-4o和DeepSeek-V3等顶级模型。具备扩展的256K token上下文窗口(是大多数领先模型的两倍),擅长现代商业运营中必不可少的复杂多语言和基于代理的任务。尽管功能强大,但仅需两个GPU即可部署,具有高度可访问性。吞吐速度高达每秒156个token(比GPT-4o快约1.75倍),Command R+在保持准确性和深度的同时提供了卓越的效率。

Qwen2.5-VL-32BCommand A
网站 ?
提供商 ?
聊天 ?
发布日期 ?
模态 ?
文本 ?
图像 ?
视频 ?
文本 ?
API提供商 ?
-
Cohere, Hugging Face, Major cloud providers
知识截止日期 ?
未知
-
开源 ?
(来源)
输入定价 ?
$0
$2.50 每百万token
输出定价 ?
$0
$10.00 每百万token
MMLU ?
78.4%
来源
85.5%
来源
MMLU-Pro ?
49.5%
不可用
MMMU ?
70%
不可用
HellaSwag ?
不可用
不可用
HumanEval ?
不可用
不可用
MATH ?
82.2%
80%
来源
GPQA ?
46.0%
Diamond
50.8%
来源
IFEval ?
不可用
90.9%
来源
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
移动应用
-
-

对比LLM

添加评论


10%
本网站使用cookies

隐私和Cookie政策:本网站使用cookies。继续使用本网站即表示您同意使用cookies。