Loading...
Loading...
Ajuda e Suporte
Tudo o que você precisa saber sobre o FindLLM, como comparamos modelos e o que os números significam.
O FindLLM é uma plataforma gratuita e independente que ajuda você a comparar Large Language Models (LLMs) por qualidade, velocidade e preço. Agregamos scores de benchmark do Artificial Analysis, preços do OpenRouter e metadados do HuggingFace para oferecer uma visão abrangente e atualizada do cenário de modelos de IA.
Obtemos dados de três fontes principais: Artificial Analysis para benchmarks e scores de qualidade, OpenRouter para preços em tempo real e disponibilidade de provedores, e HuggingFace para métricas da comunidade como downloads e scores de tendência. Os dados são atualizados de hora em hora a diariamente, dependendo da fonte.
O Índice de Qualidade é um score composto (0–100) criado pelo Artificial Analysis que reflete o desempenho de um modelo em múltiplos benchmarks incluindo MMLU, HumanEval, MATH, GPQA e outros. Quanto maior, melhor. É a medida única mais holística da capacidade de um modelo.
O preço combinado é o custo médio por milhão de tokens, ponderando os preços de tokens de entrada e saída. A ponderação típica que usamos é 3:1 entrada-para-saída, o que reflete padrões comuns de uso no mundo real. Isso fornece um ponto de preço único e comparável entre modelos.
Comece com a ferramenta Seletor de LLM — responda algumas perguntas sobre seu caso de uso (programação, chat, análise) e orçamento, e ranquearemos os modelos para você. Ou use a página Explorar para comparar modelos em um gráfico de dispersão de qualidade vs. preço. Para tarefas específicas, confira o Ranking relevante.
Sim, completamente gratuito. Sem necessidade de conta, sem paywalls. Nosso objetivo é tornar a comparação de LLMs acessível a todos.
Dados de benchmark do Artificial Analysis são atualizados a cada poucas horas. Preços do OpenRouter atualizam várias vezes ao dia. Métricas do HuggingFace são obtidas diariamente. A frequência exata depende da API de cada fonte.
Rastreamos os principais benchmarks reportados pelo Artificial Analysis, incluindo MMLU, HumanEval, MATH, GPQA, MT-Bench e outros. O detalhamento de benchmarks de cada modelo é visível em sua página de detalhes. Também rastreamos velocidade de saída (tokens por segundo) e latência do primeiro token.
Confira a página de Metodologia para um mergulho profundo em como benchmarks e métricas são calculados, ou visite a página Sobre para saber mais sobre o FindLLM.
O FindLLM fornece informações apenas para fins educacionais e de comparação. Scores de benchmark, preços e métricas de desempenho são obtidos de provedores terceiros e podem mudar sem aviso prévio. Nos esforçamos pela precisão, mas não podemos garantir que todos os dados estejam atualizados ou livres de erros. O desempenho do modelo em produção pode diferir dos resultados de benchmark. O FindLLM não é afiliado a nenhum provedor de modelos de IA. Sempre verifique informações críticas diretamente com os provedores antes de tomar decisões de compra.