Métodos de pesquisa

Guia de Confiabilidade e Validade de Pesquisas — Garantindo a qualidade da medição com Alfa de Cronbach e validade de constructo

Garantir que os dados coletados em uma pesquisa 'estão de fato medindo o que se quer medir' é o papel da verificação de confiabilidade (Reliability) e validade (Validity). Organizamos o Alfa de Cronbach (Cronbach's α), a confiabilidade teste-reteste, as 3 categorias de validade (de conteúdo, de constructo, relacionada a critério), e as portas de entrada para a análise fatorial exploratória (EFA) / análise fatorial confirmatória (CFA), com base nas fontes acadêmicas de Nunnally, Cronbach e Messick.

"Comparamos a pesquisa de satisfação de três meses atrás com o resultado atual, e a pontuação mudou bastante — mas ninguém consegue explicar o que mudou." "Um executivo perguntou: 'esse indicador realmente mede satisfação?' e eu não soube responder." Quem opera pesquisas de forma contínua acaba esbarrando, inevitavelmente, na pergunta de "como garantir a qualidade da medição". Os conceitos que respondem a isso são confiabilidade (Reliability) e validade (Validity) — uma área que vem sendo estruturada há mais de 70 anos na psicometria e na pesquisa de levantamento.

Este artigo organiza as 4 categorias de confiabilidade (consistência interna, teste-reteste, formas paralelas, entre avaliadores), o cálculo e os limiares do Alfa de Cronbach (Cronbach's α), as 3 categorias de validade (de conteúdo, de constructo, relacionada a critério), os métodos de verificação da validade de constructo, as portas de entrada para a análise fatorial exploratória (EFA) / análise fatorial confirmatória (CFA), e o formato dos relatórios práticos, com base nos clássicos de Nunnally & Bernstein (1994), Cronbach (1951), Messick (1989) e Campbell & Fiske (1959). Posicionamos este texto como o hub superior que fornece a "base da qualidade de medição" assumida pelos artigos sobre guia de design da escala Likert, armadilhas das perguntas matriz, teste piloto e agregação e teste de significância.

1. Por que tratar "qualidade da medição" como um problema

Na operação de pesquisas em ambiente de negócios, o fluxo de criar perguntas, distribuir, ver os resultados agregados e tomar decisões é considerado natural. Mas esse fluxo costuma deixar de fora a premissa: "os números coletados realmente conseguem medir o conceito que se queria medir?".

Os 3 padrões da "armadilha da medição"

Quando se opera sem questionar a qualidade da medição, surgem falhas como estas.

  • O indicador se move com o tempo: "Mesmo medido com as mesmas perguntas, a pontuação oscila bastante de trimestre a trimestre" — confiabilidade teste-reteste baixa
  • Os indicadores se contradizem entre si: "A satisfação está subindo, mas o NPS está caindo" — validade de constructo ambígua
  • Não há correlação com as ações: "Realizamos um treinamento, mas a satisfação com o treinamento não se correlaciona em nada com os KPIs do negócio" — validade relacionada a critério baixa

Esses problemas são de design — não são problemas dos respondentes nem da operação. Verificar o que cada pergunta está medindo a partir do duplo ângulo da teoria e da estatística é o papel da verificação de confiabilidade e validade.

Confiabilidade e validade são conceitos distintos

Confiabilidade e validade são frequentemente confundidas, mas são conceitos distintos, e ambas precisam estar estabelecidas.

  • Confiabilidade (Reliability): se, ao medir repetidamente nas mesmas condições, o resultado é estável
  • Validade (Validity): se o valor medido de fato representa o constructo que se queria medir

Nunnally & Bernstein (1994) Psychometric Theory sintetizam: "a confiabilidade é condição necessária mas não suficiente para a validade". Ou seja: se a confiabilidade é baixa, a validade também não se sustenta, mas mesmo com confiabilidade alta a validade pode não estar garantida (pode-se estar errando de forma estável com o mesmo viés).

2. As 4 categorias de confiabilidade

A confiabilidade (Reliability) é o conceito ligado à "estabilidade" e à "consistência" do valor medido. São 4 tipos representativos.

As 4 categorias de confiabilidade

① Consistência interna (Internal Consistency)
Se múltiplos itens que medem o mesmo conceito se movem na mesma direção. Medir com o Alfa de Cronbach é o padrão. Pode ser calculada dentro de uma única pesquisa.
② Confiabilidade teste-reteste (Test-Retest Reliability)
Pedir aos mesmos respondentes que respondam novamente após um intervalo e verificar a correlação dos resultados. Garante que o indicador não se move por causa do tempo. Intervalo típico: 2 a 4 semanas.
③ Confiabilidade por formas paralelas (Parallel-Forms Reliability)
Preparar outro conjunto de perguntas que mede o mesmo conceito e ver a correlação entre as duas pontuações. Usado em pesquisa acadêmica, mas com custo operacional alto em pesquisa de negócios — pouco adotado.
④ Confiabilidade entre avaliadores (Inter-rater Reliability)
Quando múltiplos avaliadores avaliam o mesmo objeto, se os resultados coincidem. Usado em codificação de respostas abertas ou em pontuação de entrevistas. Calculado com Cohen's κ, entre outros.

Em pesquisa de negócios, os dois mais utilizados são ① consistência interna (α) e ② confiabilidade teste-reteste.

3. Alfa de Cronbach (Cronbach's α)

O α é o indicador representativo de consistência interna proposto por Cronbach (1951) Coefficient alpha and the internal structure of tests. Assume valores de 0 a 1, indicando o grau em que múltiplos itens medem o mesmo conceito.

A ideia do cálculo

Matematicamente, o α é expresso da seguinte forma (k = número de itens, σ²ᵢ = variância do item i, σ²ₜ = variância da pontuação total).

α = (k / (k − 1)) × (1 − Σσ²ᵢ / σ²ₜ)

Intuitivamente, basta entender que "quanto maior a covariância entre os itens, maior o α" e que "quanto mais itens, maior a tendência do α". O cálculo manual não é prático — usa-se psych::alpha() em R, pingouin.cronbach_alpha() em Python, a Reliability Analysis do SPSS, o módulo Reliability do JASP, etc.

Interpretação dos limiares

Os limiares apresentados por Nunnally (1978), ainda referência padrão hoje, são:

  • α ≥ 0,9: excelente (mas pode haver itens redundantes)
  • α ≥ 0,8: bom
  • α ≥ 0,7: aceitável (linha mínima para pesquisa exploratória)
  • α < 0,7: precisa melhorar
  • α < 0,5: alta probabilidade de que os itens não estejam medindo o mesmo conceito

No entanto, Cortina (1993) What is coefficient alpha? enfatiza que "α alto ≠ unidimensionalidade garantida". Como o α sobe mecanicamente com o número de itens, a operação correta é não julgar apenas pelo α, e sim combiná-lo com a análise fatorial.

Fatores que aumentam / diminuem o α

  • Aumentar o número de itens: α sobe mecanicamente (mas há risco de redundância)
  • Aumentar a correlação entre itens: selecionar com rigor itens que mirem o mesmo conceito
  • Incluir itens reversos: se o processamento reverso é feito corretamente, não há problema, mas esquecer faz o α despencar
  • Alta homogeneidade dos respondentes: a variância fica pequena e há casos em que o α cai

4. As 3 categorias de validade

Validade (Validity) é o conceito sobre "se o valor medido representa o conceito que se queria medir", tradicionalmente em 3 categorias. Messick (1989) depois propôs unificar essas categorias em "Construct Validity" (visão monista), mas para entendimento prático as 3 categorias são mais fáceis de manejar — então, este texto também as organiza assim.

As 3 categorias de validade

① Validade de conteúdo (Content Validity)
Se o conjunto de perguntas cobre de forma abrangente o domínio do conceito que se quer medir. A avaliação qualitativa por um painel de especialistas é central. Pode-se quantificar com o Content Validity Index (CVI), entre outros.
② Validade de constructo (Construct Validity)
Se o conjunto de perguntas de fato consegue medir o constructo (Construct) teoricamente definido. Verificada com análise fatorial, validade convergente e validade discriminante. É o núcleo da verificação de validade.
③ Validade relacionada a critério (Criterion Validity)
Se o valor medido se correlaciona com critérios externos (dados comportamentais, vendas, taxa de rotatividade, etc.). Divide-se em validade concorrente (Concurrent) e validade preditiva (Predictive).

Por que a validade de constructo é o núcleo

Das 3 categorias, a mais valorizada na psicometria contemporânea é a validade de constructo (Construct Validity). Cronbach & Meehl (1955) Construct validity in psychological tests mostraram que, ao se lidar com variáveis latentes não observáveis (satisfação, engajamento, estresse etc.), "se o conceito teoricamente definido está de fato sendo medido" se torna a pergunta central.

5. Métodos de verificação da validade de constructo

Os principais métodos para verificar a validade de constructo são 4.

① Validade convergente (Convergent Validity)

Confirmar que tem alta correlação com outro indicador que se supõe medir o mesmo constructo. Exemplo: confirmar que a correlação entre NPS e satisfação geral é r ≥ 0,5.

② Validade discriminante (Discriminant Validity)

Confirmar baixa correlação com indicadores que medem constructos diferentes. Exemplo: confirmar que a correlação entre satisfação no trabalho e horas de sono da noite anterior é baixa. Verificar em conjunto com a validade convergente.

③ Matriz MTMM (Multitrait-Multimethod Matrix)

Método clássico proposto por Campbell & Fiske (1959) Convergent and discriminant validation by the multitrait-multimethod matrix. Medir múltiplos conceitos (trait) por múltiplos métodos (method) e avaliar convergência / discriminação em uma única tabela. Orientado a pesquisa acadêmica.

④ Análise fatorial (Factor Analysis)

O método mais prático. Por análise fatorial exploratória (EFA), investiga-se em quantos fatores o conjunto de itens se agrupa; por análise fatorial confirmatória (CFA), verifica-se se a estrutura fatorial corresponde à hipótese.

  • EFA: não assume o número de fatores e deixa os dados revelarem a estrutura. Usada no desenvolvimento de uma nova escala
  • CFA: estabelece uma estrutura fatorial hipotética e verifica se os dados se ajustam. Usada para verificação de validade de escalas existentes

A EFA pode ser feita com psych::fa() em R, factor_analyzer em Python, SPSS / JASP. Para CFA, são necessárias ferramentas de modelagem de equações estruturais (SEM) como lavaan em R, semopy em Python, ou Mplus.

Limiares dos índices de ajuste

Índices de ajuste representativos usados na CFA e seus limiares convencionais:

  • CFI (Comparative Fit Index): ≥ 0,95 (bom)
  • TLI (Tucker-Lewis Index): ≥ 0,95 (bom)
  • RMSEA (Root Mean Square Error of Approximation): ≤ 0,06 (bom), ≤ 0,08 (aceitável)
  • SRMR (Standardized Root Mean Square Residual): ≤ 0,08 (bom)

Esses são os limiares apresentados por Hu & Bentler (1999), ainda referência padrão.

6. Verificação da validade relacionada a critério

A validade relacionada a critério mostra "se o valor medido se relaciona com critérios externos relevantes para o negócio" — é a validade de maior significado prático.

Validade concorrente (Concurrent Validity)

Verifica a correlação com critérios externos medidos no mesmo período. Exemplo:

  • Correlação entre a pontuação de engajamento dos colaboradores e a taxa de intenção de saída no momento
  • Correlação entre satisfação do cliente e taxa de churn no momento

Validade preditiva (Predictive Validity)

Verifica se o valor consegue prever critérios externos futuros. Exemplo:

  • Se o NPS deste período se correlaciona com a taxa de crescimento de receita do próximo período
  • Se o engajamento dos colaboradores deste período prevê a taxa de rotatividade dos próximos 6 meses

Ao explicar à alta gestão o significado de um indicador de medição em pesquisa de negócios, ter ou não dados de verificação de validade preditiva é o que dá poder de convencimento.

7. Formato dos relatórios práticos

Após verificar confiabilidade e validade, o próximo desafio é como reportar os resultados. Trabalhos acadêmicos e relatórios de negócio exigem granularidades diferentes.

Formato de relatório para artigos acadêmicos

Em artigos acadêmicos (especialmente no estilo APA), no mínimo as seguintes informações são registradas na seção de Methods.

  • O número de itens e o α de cada subescala (ex.: "Escala de satisfação 5 itens, α = .87")
  • Se necessário, coeficiente de correlação e intervalo da confiabilidade teste-reteste (ex.: "Confiabilidade teste-reteste após 2 semanas r = .82")
  • Se foi realizada CFA, conjunto de índices de ajuste (CFI / TLI / RMSEA / SRMR) e estimativas (ex.: "CFI = .96, RMSEA = .05")
  • Verificações de validade convergente / discriminante reportadas por matriz de correlação ou variância média extraída (AVE)

Formato de relatório para uso interno do negócio

Para alta gestão e áreas de negócio, restringir o jargão técnico ao mínimo e escrever em 3 linhas a conclusão necessária para a decisão.

  • "Esse indicador é estável no tempo?" (confiabilidade teste-reteste) → "Correlação com 3 meses atrás r = .85, estável"
  • "Esse indicador mede o quê?" (validade de constructo) → "Correlação com NPS r = .62, funciona como indicador proxy de satisfação"
  • "Esse indicador tem relação com o negócio?" (validade relacionada a critério) → "Correlação com churn r = −.45, eficaz como indicador preditivo de churn"

Em relatórios de negócio, em vez de escrever em detalhes os valores de α ou da CFA, o protagonista é a interpretação que conecta diretamente a "que ação se pode tomar a seguir".

8. Implementação no Kicue

O Kicue cobre a distribuição de perguntas, a coleta de respostas e a exportação dos dados brutos — o processamento estatístico para verificação de confiabilidade e validade é executado em ferramentas externas, e essa é a abordagem realista.

Escopo implementado no Kicue

  • Distribuição de perguntas em escalas com múltiplos itens: composição de medições multi-item de constructos com escalas Likert e perguntas matriz
  • Operação de pesquisas teste-reteste: redistribuição aos mesmos respondentes após intervalo e exportação com IDs associados
  • Coleta de dados demográficos / de critérios externos: coleta simultânea das informações de atributos e indicadores comportamentais necessários para a verificação
  • Exportação CSV dos dados brutos: dados em nível de respondente para importação em ferramentas de análise estatística

Escopo implementado em ferramentas externas

  • Cálculo do α: R psych::alpha(), Python pingouin, SPSS, JASP
  • Análise fatorial exploratória (EFA): R psych::fa(), Python factor_analyzer, SPSS, JASP
  • Análise fatorial confirmatória (CFA) / SEM: R lavaan, Python semopy, Mplus
  • Análise de correlação (convergente / discriminante / critério): R / Python / Excel
  • Construção da matriz MTMM: scripts em R / Python

Verificação recomendada na fase piloto

A verificação de confiabilidade e validade idealmente ocorre na fase do teste piloto, antes da pesquisa principal. Se o problema aparece na pesquisa principal, a correção é difícil e a comparação com dados anteriores fica impossível. O fluxo seguro é garantir n = 100–200 no piloto, confirmar a estrutura com α e análise fatorial exploratória, e então avançar para a pesquisa principal.


A verificação de confiabilidade e validade é a área mais acadêmica do design de pesquisas — e a mais frequentemente postergada. Mas um indicador que não consegue responder "o que está medindo?" e "como se relaciona com o negócio?" não cumpre a accountability perante a alta gestão, e não suporta operação de longo prazo.

Os conceitos de α, análise fatorial, validade de constructo e validade relacionada a critério organizados neste texto nasceram todos no contexto acadêmico — mas são também ferramentas práticas para garantir a continuidade da operação de pesquisas de negócio. Em vez de mirar a perfeição desde o início, comece por calcular o α das principais escalas uma vez, e medir a confiabilidade teste-reteste uma vez.


Referências

Confiabilidade

Validade

  • Cronbach, L. J., & Meehl, P. E. (1955). Construct validity in psychological tests. Psychological Bulletin, 52(4), 281-302. https://doi.org/10.1037/h0040957
  • Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait-multimethod matrix. Psychological Bulletin, 56(2), 81-105. https://doi.org/10.1037/h0046016
  • Messick, S. (1989). Validity. In R. L. Linn (Ed.), Educational measurement (3rd ed., pp. 13-103). American Council on Education and Macmillan.

Índices de ajuste

  • Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1-55. https://doi.org/10.1080/10705519909540118

Entidades do setor / padronização


Se você quer começar a operar pesquisas com qualidade de medição garantida, experimente a ferramenta gratuita de pesquisas Kicue. Desde a composição de múltiplos itens com escalas Likert e perguntas matriciais, até a gestão de IDs de respondentes para estudos teste-reteste, e a exportação CSV de dados brutos para R / Python / SPSS / JASP — você pode construir a base para a verificação de confiabilidade e validade em uma única conta.

Artigos relacionados

Métodos de pesquisa

Guia de design do Medidor de Sensibilidade ao Preço de Van Westendorp (PSM) — Como quatro perguntas mapeiam uma faixa de preço aceitável

Quando é preciso definir o preço de um produto ou serviço novo, o PSM é a pesquisa que se roda primeiro — e tem sido assim desde 1976. Organizamos a estrutura de quatro perguntas, os quatro pontos de interseção (PMC / PME / IPP / OPP), a extensão Newton-Miller-Smith, como se diferencia da análise conjunta e as limitações apontadas por Lipovetsky et al. (2011), para que dê para acionar.

Como fazer

Guia de textos de abertura e agradecimento — Os 4 textos que decidem a taxa de conclusão

A conclusão de uma pesquisa não é decidida só pelas perguntas. A abertura, o indicador de progresso, a página de agradecimento e o e-mail de follow-up são quatro textos que dirigem diretamente a taxa de conclusão, a qualidade dos dados e a re-participação. Organizamos as regras de design com a Teoria da Troca Social de Dillman, Conrad et al. (2010) sobre barras de progresso e o marco do Consentimento Informado do Relatório Belmont.

Guia

Programa VoC (Voz do Cliente): guia de design — de pesquisas pontuais à operação

Como mover NPS, CSAT e CES da fase de 'medir' para a fase de 'fazer a organização se mover'. Os quatro blocos de construção de um programa VoC (Voz do Cliente / Voice of Customer), operação de loop fechado e os padrões comuns de falha — fundamentado em Anderson & Mittal (2000), Reichheld (2003) e outros.

Pronto para criar sua própria pesquisa?

Envie seu arquivo de questionário e a IA gera um formulário web em 30 segundos.

Começar grátis