Qwen2-VL이 출시된 이후 지난 5개월 동안 개발자들은 이를 기반으로 다양한 모델을 구축하고 피드백을 제공해왔습니다. 이제 Qwen2.5-VL은 이미지, 텍스트, 차트에 대한 정밀 분석과 구조화된 JSON 출력의 객체 위치 지정 기능 등 향상된 기능을 제공합니다. 긴 동영상 이해, 핵심 이벤트 식별, 컴퓨터와 휴대폰 도구와 상호작용하는 에이전트 역할 수행이 가능합니다. 모델 아키텍처는 동적 비디오 처리와 최적화된 ViT 인코더를 통해 속도와 정확도가 개선되었습니다.
Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.
Qwen2.5-VL-32B | Command A | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 이미지 비디오 | 텍스트 |
API 제공자
| - | Cohere, Hugging Face, Major cloud providers |
지식 업데이트 종료일
| 알 수 없음 | - |
오픈 소스
| 예 (출처) | 예 |
입력 가격
| $0 | $2.50 100만 토큰당 |
출력 가격
| $0 | $10.00 100만 토큰당 |
MMLU
| 78.4% 출처 | 85.5% 출처 |
MMLU-Pro
| 49.5% | 정보 없음 |
MMMU
| 70% | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 정보 없음 | 정보 없음 |
MATH
| 82.2% | 80% 출처 |
GPQA
| 46.0% Diamond | 50.8% 출처 |
IFEval
| 정보 없음 | 90.9% 출처 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |