Qwen2.5-VL-32B

Qwen2-VL이 출시된 이후 지난 5개월 동안 개발자들은 이를 기반으로 다양한 모델을 구축하고 피드백을 제공해왔습니다. 이제 Qwen2.5-VL은 이미지, 텍스트, 차트에 대한 정밀 분석과 구조화된 JSON 출력의 객체 위치 지정 기능 등 향상된 기능을 제공합니다. 긴 동영상 이해, 핵심 이벤트 식별, 컴퓨터와 휴대폰 도구와 상호작용하는 에이전트 역할 수행이 가능합니다. 모델 아키텍처는 동적 비디오 처리와 최적화된 ViT 인코더를 통해 속도와 정확도가 개선되었습니다.

Llama 3.3 70B Instruct

메타가 개발한 Llama 3.3 70B Instruct는 지시 기반 작업에 특화되어 미세 조정된 다국어 대형 언어 모델로, 대화형 응용에 최적화되어 있습니다. 최대 128,000 토큰의 컨텍스트 윈도우를 지원하며, 다양한 언어의 텍스트 생성 및 처리가 가능합니다. 2024년 12월 6일 출시되었으며, 공개 및 사유 챗봇 모델 다수를 능가하는 벤치마크 성능을 기록했습니다. Grouped-Query Attention(GQA)을 활용해 확장성을 높였으며, 공개 데이터 기반의 15조 개 이상 토큰으로 학습되었습니다. 모델 지식은 2023년 12월 기준입니다.

Qwen2.5-VL-32BLlama 3.3 70B Instruct
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
이미지 ?
비디오 ?
텍스트 ?
API 제공자 ?
-
Fireworks, Together, DeepInfra, Hyperbolic
지식 업데이트 종료일 ?
알 수 없음
12.2024
오픈 소스 ?
(출처)
입력 가격 ?
$0
$0.23 100만 토큰당
출력 가격 ?
$0
$0.40 100만 토큰당
MMLU ?
78.4%
출처
86%
0-shot, CoT
출처
MMLU-Pro ?
49.5%
68.9%
5-shot, CoT
출처
MMMU ?
70%
정보 없음
HellaSwag ?
정보 없음
정보 없음
HumanEval ?
정보 없음
88.4%
pass@1
출처
MATH ?
82.2%
77%
0-shot, CoT
출처
GPQA ?
46.0%
Diamond
50.5%
0-shot, CoT
출처
IFEval ?
정보 없음
92.1%
출처
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
모바일 앱
-
-

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.