Llama 4 Scout

LLaMA 4 Scout는 170억 개의 파라미터를 갖춘 모델로, 16개의 활성 전문가를 사용하는 혼합 전문가(Mixture-of-Experts) 아키텍처를 기반으로 합니다. 이 모델은 다양한 벤치마크 작업에서 Gemma 3, Gemini 2.0 Flash-Lite, Mistral 3.1과 같은 경쟁 모델을 꾸준히 능가하며, 해당 분야 최고의 멀티모달 모델로 평가받고 있습니다. 뛰어난 성능에도 불구하고, Int4 양자화를 통해 단일 NVIDIA H100 GPU에서도 실행 가능할 정도로 매우 효율적입니다. 또한 업계 최고 수준인 1,000만 토큰 컨텍스트 윈도우를 제공하며, 텍스트, 이미지, 비디오 입력을 자연스럽게 처리하는 네이티브 멀티모달 기능을 갖추고 있어 고급 현실 응용 분야에 적합합니다.

Command A

Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.

Llama 4 ScoutCommand A
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
이미지 ?
비디오 ?
텍스트 ?
API 제공자 ?
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
Cohere, Hugging Face, Major cloud providers
지식 업데이트 종료일 ?
2025-04
-
오픈 소스 ?
(출처)
입력 가격 ?
정보 없음
$2.50 100만 토큰당
출력 가격 ?
정보 없음
$10.00 100만 토큰당
MMLU ?
정보 없음
85.5%
출처
MMLU-Pro ?
74.3%
Reasoning & Knowledge
출처
정보 없음
MMMU ?
69.4%
Image Reasoning
출처
정보 없음
HellaSwag ?
정보 없음
정보 없음
HumanEval ?
정보 없음
정보 없음
MATH ?
정보 없음
80%
출처
GPQA ?
57.2%
Diamond
출처
50.8%
출처
IFEval ?
정보 없음
90.9%
출처
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
모바일 앱
-
-

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.