Loading...
Loading...
DeepSeek R1 Distill Llama 70B is a distilled large language model based on [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). The model combines advanced distillation techniques to achieve high performance across multiple benchmarks, including: - AIME 2024 pass@1: 70.0 - MATH-500 pass@1: 94.5 - CodeForces Rating: 1633 The model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Índice de Qualidade
16.0
244th de 442
Top 56%
Índice de Código
11.4
242nd de 352
Top 69%
Índice de Matemática
53.7
132nd de 268
Top 50%
Preço/1M
$0.88
465th mais barato
182% acima da mediana
Top 69%
Velocidade
60 tok/s
Top 42%
TTFT
0.80s
Janela de Contexto
131K
145th maior
Top 63%
Entrada
$0.70
por 1M tokens
Saída
$1.05
por 1M tokens
Combinado
$0.88
por 1M tokens
Mais barato que 31% dos modelos. Preço mediano é $0.31/1M tokens.
Diário
$0.88
Mensal
$26.25
60
tokens/seg
Mais rápido que 58% dos modelos
0.80
segundos
Mais rápido que 35% dos modelos
34.07
segundos
Mais rápido que 7% dos modelos
Mediana do Mercado
46 tok/s
32% mais rápido
TTFT Mediano
0.42s
90% mais lento
Vazão/Dólar
69
tok/s por $/1M
Comparação de Velocidade
Janela de Contexto
131K
tokens
Maior que 37% dos modelos
Saída Máxima
16K
tokens
13% do contexto