Loading...
Loading...
Llama 4 Scout 17B Instruct (16E) is a mixture-of-experts (MoE) language model developed by Meta, activating 17 billion parameters out of a total of 109B. It supports native multimodal input (text and image) and multilingual output (text and code) across 12 supported languages. Designed for assistant-style interaction and visual reasoning, Scout uses 16 experts per forward pass and features a context length of 10 million tokens, with a training corpus of ~40 trillion tokens. Built for high efficiency and local or commercial deployment, Llama 4 Scout incorporates early fusion for seamless modality integration. It is instruction-tuned for use in multilingual chat, captioning, and image understanding tasks. Released under the Llama 4 Community License, it was last trained on data up to August 2024 and launched publicly on April 5, 2025.
Índice de Qualidade
13.5
297th de 442
Top 68%
Índice de Código
6.7
296th de 352
Top 85%
Índice de Matemática
14.0
220th de 268
Top 83%
Preço/1M
$0.29
328th mais barato
6% abaixo da mediana
Top 48%
Velocidade
129 tok/s
Top 20%
TTFT
0.45s
Janela de Contexto
328K
58th maior
Top 16%
Entrada
$0.17
por 1M tokens
Saída
$0.66
por 1M tokens
Combinado
$0.29
por 1M tokens
Mais barato que 52% dos modelos. Preço mediano é $0.31/1M tokens.
Diário
$0.29
Mensal
$8.76
129
tokens/seg
Mais rápido que 80% dos modelos
0.45
segundos
Mais rápido que 48% dos modelos
0.45
segundos
Mais rápido que 50% dos modelos
Mediana do Mercado
46 tok/s
183% mais rápido
TTFT Mediano
0.42s
7% mais lento
Vazão/Dólar
442
tok/s por $/1M
Comparação de Velocidade
Janela de Contexto
328K
tokens
Maior que 84% dos modelos
Saída Máxima
16K
tokens
5% do contexto