自 Qwen2-VL 发布以来的五个月里,开发者基于该模型构建了新模型,并提供了宝贵的反馈。现在,Qwen2.5-VL 引入了更强的功能,包括对图像、文本和图表的精准分析,以及通过结构化 JSON 输出进行对象定位。它能够理解长视频,识别关键事件,并作为智能代理与计算机和手机上的工具交互。该模型的架构采用了动态视频处理和优化的 ViT 编码器,以提升处理速度和准确性。
GPT-4.1由OpenAI于2025年4月14日推出,提供100万令牌的上下文窗口,每个请求最多支持输出32,768个令牌。在编码任务中表现卓越,SWE-Bench Verified基准测试达到54.6%,在MultiChallenge指令遵循方面比GPT-4o提高10.5%。模型知识截止日期为2024年6月。输入每百万令牌2.00美元,输出每百万令牌8.00美元,缓存输入可享75%折扣,对于重复查询极具成本效益。
Qwen2.5-VL-32B | GPT-4.1 | |
---|---|---|
提供商 | ||
网站 | ||
发布日期 | Mar 25, 2025 1 个月 ago | Apr 14, 2025 2 周 ago |
模态 | 文本 图像 视频 | 文本 图像 |
API提供商 | - | OpenAI API |
知识截止日期 | 未知 | - |
开源 | 是 (来源) | 否 |
输入定价 | $0 | $2.00 每百万token |
输出定价 | $0 | $8.00 每百万token |
MMLU | 78.4% 来源 | 90.2% pass@1 来源 |
MMLU Pro | 49.5% | - |
MMMU | 70% | 74.8% 来源 |
HellaSwag | 不可用 | - |
HumanEval | 不可用 | - |
MATH | 82.2% | - |
GPQA | 46.0% Diamond | 66.3% Diamond 来源 |
IFEval | 不可用 | - |
移动应用 | - |