Qwen2-VL이 출시된 이후 지난 5개월 동안 개발자들은 이를 기반으로 다양한 모델을 구축하고 피드백을 제공해왔습니다. 이제 Qwen2.5-VL은 이미지, 텍스트, 차트에 대한 정밀 분석과 구조화된 JSON 출력의 객체 위치 지정 기능 등 향상된 기능을 제공합니다. 긴 동영상 이해, 핵심 이벤트 식별, 컴퓨터와 휴대폰 도구와 상호작용하는 에이전트 역할 수행이 가능합니다. 모델 아키텍처는 동적 비디오 처리와 최적화된 ViT 인코더를 통해 속도와 정확도가 개선되었습니다.
GPT-4.1 Nano는 OpenAI가 2025년 4월 14일에 출시한 가장 빠르고 저렴한 모델입니다. 분류, 자동완성, 빠른 추론 작업과 같은 저지연 작업을 위해 설계되었으며, 컴팩트한 아키텍처와 강력한 기능을 결합했습니다. 모델 크기에도 불구하고 100만 개 토큰의 컨텍스트 윈도우를 지원하며, MMLU 80.1%, GPQA 50.3%의 벤치마크 성능을 기록했습니다. 지식 컷오프는 2024년 6월이며, 입력 토큰 100만 개당 $0.10, 출력 토큰 100만 개당 $0.40로 매우 저렴하며, 캐시된 입력에는 75%의 할인이 적용되어 대규모 및 비용 민감한 배포 환경에 이상적입니다.
Qwen2.5-VL-32B | GPT-4.1 Nano | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 이미지 비디오 | 텍스트 이미지 |
API 제공자
| - | OpenAI API |
지식 업데이트 종료일
| 알 수 없음 | - |
오픈 소스
| 예 (출처) | 아니오 |
입력 가격
| $0 | $0.10 100만 토큰당 |
출력 가격
| $0 | $0.40 100만 토큰당 |
MMLU
| 78.4% 출처 | 80.1% 출처 |
MMLU-Pro
| 49.5% | - |
MMMU
| 70% | 55.4% 출처 |
HellaSwag
| 정보 없음 | - |
HumanEval
| 정보 없음 | - |
MATH
| 82.2% | - |
GPQA
| 46.0% Diamond | 50.3% Diamond 출처 |
IFEval
| 정보 없음 | 74.5% 출처 |
SimpleQA
| - | - |
AIME 2024 | - | 29.4% 출처 |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 66.9% 출처 |
MathVista
| - | 56.2% Image Reasoning 출처 |
모바일 앱 | - |