«Comparé los resultados de la encuesta de satisfacción de hace 3 meses con los actuales: la puntuación cambió mucho, pero no puedo explicar qué cambió.» «Un directivo me preguntó "¿esta métrica está realmente midiendo la satisfacción?" y me quedé sin respuesta.» Cualquiera que opere encuestas de forma continua acaba topándose con la misma pregunta: «¿cómo garantizamos la calidad de la medición?». Los conceptos que responden a esa pregunta son confiabilidad (Reliability) y validez (Validity), un área desarrollada durante más de 70 años en psicometría e investigación encuestal.
Esta guía organiza, apoyada en clásicos como Nunnally & Bernstein (1994), Cronbach (1951), Messick (1989) y Campbell & Fiske (1959): las 4 categorías de confiabilidad (consistencia interna, test-retest, formas paralelas, entre evaluadores), el cálculo y los umbrales del Alfa de Cronbach (Cronbach's α), las 3 categorías de validez (de contenido, de constructo y referida a un criterio), los métodos para verificar la validez de constructo, la puerta de entrada al análisis factorial exploratorio (EFA) y confirmatorio (CFA), y el formato de los informes prácticos. La posicionamos como artículo-hub que aporta las «bases de calidad de medición» asumidas por la guía de diseño de escalas Likert, las trampas de las preguntas matriz, la guía de pilot testing y la guía de agregación y pruebas de significación.
1. Por qué importa la «calidad de medición»
En el día a día de las encuestas de negocio, el flujo «diseñar las preguntas → distribuir → ver resultados → decidir» se ha convertido en algo automático. Sin embargo, ese flujo suele dar por hecho algo que rara vez se revisa: ¿los números que estamos recogiendo miden realmente el concepto que queríamos medir?
Los 3 patrones de la «trampa de la medición»
Operar sin cuestionar la calidad de medición lleva, típicamente, a estos fallos:
- El indicador se mueve con el tiempo: «Mismas preguntas, pero la puntuación oscila trimestre a trimestre» — baja confiabilidad test-retest.
- Los indicadores se contradicen entre sí: «La satisfacción sube, pero el NPS baja» — validez de constructo ambigua.
- No correlaciona con las iniciativas: «Hicimos formación y la satisfacción con la formación no correlaciona nada con los KPI del negocio» — validez de criterio baja.
Estos problemas son de diseño, no del encuestado ni de la operación. El papel de la verificación de confiabilidad y validez es comprobar, desde la teoría y la estadística, qué está midiendo realmente una pregunta.
Confiabilidad y validez son conceptos distintos
A menudo se confunden, pero son conceptos distintos, y ambos deben cumplirse.
- Confiabilidad (Reliability): si al medir repetidamente en condiciones similares, los resultados son estables.
- Validez (Validity): si los valores medidos representan efectivamente el constructo que se pretendía medir.
Nunnally & Bernstein (1994) Psychometric Theory lo sintetiza así: «la confiabilidad es condición necesaria, pero no suficiente, para la validez». Es decir, si la confiabilidad es baja, la validez tampoco se sostiene; pero una alta confiabilidad no garantiza validez (puede estar equivocándose de manera estable con el mismo sesgo).
2. Las 4 categorías de confiabilidad
La confiabilidad (Reliability) se refiere a la «estabilidad» y «consistencia» de los valores medidos. Hay cuatro tipos clásicos.
Las 4 categorías de confiabilidad
En encuestas de negocio, las dos más usadas son ① consistencia interna (Alfa de Cronbach) y ② confiabilidad test-retest.
3. Alfa de Cronbach (Cronbach's α)
El Alfa de Cronbach es el indicador de consistencia interna por excelencia, propuesto en Cronbach (1951) Coefficient alpha and the internal structure of tests. Toma valores entre 0 y 1 e indica en qué medida varios ítems están midiendo un mismo concepto.
Cómo se calcula
Matemáticamente, el α se expresa así (k = número de ítems, σ²ᵢ = varianza del ítem i, σ²ₜ = varianza de la puntuación total).
α = (k / (k − 1)) × (1 − Σσ²ᵢ / σ²ₜ)
Intuitivamente, basta con entender que «cuanto mayor es la covarianza entre ítems, mayor es α» y que «α tiende a subir mecánicamente cuando aumenta el número de ítems». El cálculo a mano no es práctico; se calcula con psych::alpha() en R, pingouin.cronbach_alpha() en Python, el Reliability Analysis de SPSS, el módulo Reliability de JASP, etc.
Interpretación de los umbrales
Los umbrales propuestos por Nunnally (1978) y aún hoy de referencia estándar son:
- α ≥ 0.9: excelente (aunque puede indicar ítems redundantes).
- α ≥ 0.8: bueno.
- α ≥ 0.7: aceptable (mínimo habitual en investigación exploratoria).
- α < 0.7: requiere mejoras.
- α < 0.5: muy probablemente los ítems no están midiendo el mismo concepto.
Conviene recordar el matiz de Cortina (1993) What is coefficient alpha?: «α alto ≠ unidimensionalidad garantizada». Dado que α sube de manera mecánica con el número de ítems, lo correcto es no juzgar por α sola y combinarla con análisis factorial.
Factores que suben o bajan α
- Aumentar el número de ítems: sube α de forma mecánica (cuidado con la redundancia).
- Aumentar la correlación entre ítems: seleccionar con cuidado ítems que apuntan al mismo concepto.
- Incluir ítems invertidos: si se recodifican correctamente no hay problema, pero olvidarse de invertirlos hunde α.
- Homogeneidad alta entre encuestados: a veces baja α porque cae la varianza.
4. Las 3 categorías de validez
La validez (Validity) se refiere a «si los valores medidos representan el concepto que se quería medir», y tradicionalmente se divide en 3 categorías. Messick (1989) propuso más tarde unificarlas bajo «validez de constructo», pero, por claridad operativa, mantendremos aquí la división clásica en 3 categorías.
Las 3 categorías de validez
Por qué la validez de constructo es el núcleo
De las tres categorías, la más enfatizada por la psicometría moderna es la validez de constructo (Construct Validity). Cronbach & Meehl (1955) Construct validity in psychological tests mostró que, cuando se trabaja con variables latentes no observables (satisfacción, engagement, estrés, etc.), la pregunta central es necesariamente «¿estamos midiendo realmente el concepto definido teóricamente?».
5. Métodos para verificar la validez de constructo
Los principales métodos para verificar la validez de constructo son cuatro.
① Validez convergente (Convergent Validity)
Confirmar que se obtiene una alta correlación con otros indicadores que se considera miden el mismo constructo. Ejemplo: comprobar que la correlación entre NPS y satisfacción global es r ≥ 0.5.
② Validez discriminante (Discriminant Validity)
Confirmar que la correlación con indicadores que miden constructos distintos es baja. Ejemplo: comprobar que la correlación entre satisfacción laboral y las horas dormidas la noche anterior es baja. Se verifica en conjunto con la validez convergente.
③ Matriz MTMM (Multitrait-Multimethod Matrix)
Método clásico propuesto por Campbell & Fiske (1959) Convergent and discriminant validation by the multitrait-multimethod matrix. Se miden varios conceptos (traits) por varios métodos (methods) y se evalúa de un vistazo convergencia y discriminación. Orientado a investigación académica.
④ Análisis factorial (Factor Analysis)
Es el método más práctico. Con el análisis factorial exploratorio (EFA) se explora en cuántos factores se agrupan los ítems, y con el análisis factorial confirmatorio (CFA) se verifica si la estructura factorial coincide con la hipótesis.
- EFA: no se asume el número de factores; se deja que los datos «hablen» de la estructura factorial. Se usa al desarrollar nuevas escalas.
- CFA: se plantea una estructura factorial hipotética y se contrasta el ajuste de los datos. Se usa para verificar la validez de escalas existentes.
EFA se puede realizar con psych::fa() en R, factor_analyzer en Python, SPSS o JASP. CFA requiere herramientas de modelado de ecuaciones estructurales (SEM) como lavaan en R, semopy en Python o Mplus.
Umbrales de los índices de ajuste
Índices de ajuste habituales en CFA y sus umbrales convencionales:
- CFI (Comparative Fit Index): ≥ 0.95 (bueno).
- TLI (Tucker-Lewis Index): ≥ 0.95 (bueno).
- RMSEA (Root Mean Square Error of Approximation): ≤ 0.06 (bueno), ≤ 0.08 (aceptable).
- SRMR (Standardized Root Mean Square Residual): ≤ 0.08 (bueno).
Son los umbrales propuestos por Hu & Bentler (1999) y siguen siendo referencia estándar.
6. Verificación de la validez de criterio
La validez de criterio observa «si los valores medidos se relacionan con criterios externos relevantes para el negocio» y, por tanto, es la validez con mayor peso práctico.
Validez concurrente (Concurrent Validity)
Se observa la correlación con un criterio externo medido en el mismo periodo. Ejemplo:
- Correlación entre la puntuación de engagement de empleados y la tasa de intención de rotación en ese momento.
- Correlación entre la satisfacción de cliente y la tasa de cancelación (churn) en ese momento.
Validez predictiva (Predictive Validity)
Se observa si se puede predecir un criterio externo futuro. Ejemplo:
- Si el NPS de este trimestre correlaciona con la tasa de crecimiento de ventas del trimestre siguiente.
- Si el engagement de empleados actual predice la tasa de rotación a 6 meses vista.
En encuestas de negocio, al explicar el valor de un indicador a la dirección, disponer de datos de validez predictiva suele ser el factor decisivo de la credibilidad.
7. Formato de los informes prácticos
Una vez verificadas confiabilidad y validez, el siguiente reto es cómo reportar los resultados. El nivel de detalle exigido difiere entre artículos académicos e informes de negocio.
Formato para artículos académicos
En artículos académicos (especialmente en estilo APA) se incluye, como mínimo, la siguiente información en la sección Métodos.
- Número de ítems y α de cada subescala (ej.: «Escala de satisfacción, 5 ítems, α = .87»).
- Cuando proceda, el coeficiente de confiabilidad test-retest y el intervalo (ej.: «Confiabilidad test-retest a 2 semanas r = .82»).
- Si se realizó CFA, el conjunto de índices de ajuste (CFI / TLI / RMSEA / SRMR) y las estimaciones (ej.: «CFI = .96, RMSEA = .05»).
- La validez convergente y discriminante se reporta con matriz de correlaciones o Varianza Media Extraída (AVE).
Formato para informes de negocio
En informes a dirección o áreas de negocio, hay que reducir al mínimo la jerga y escribir, en 3 líneas, las conclusiones necesarias para decidir.
- «¿Este indicador es estable en el tiempo?» (confiabilidad test-retest) → «Correlación con la medición de hace 3 meses r = .85, estable.»
- «¿Qué está midiendo realmente?» (validez de constructo) → «Correlación con NPS r = .62, funciona como proxy de la satisfacción.»
- «¿Tiene relación con el negocio?» (validez de criterio) → «Correlación con la tasa de cancelación r = −.45, indicador válido para predecir churn.»
En los informes de negocio, en lugar de detallar α o los valores del CFA, el protagonismo lo tiene la interpretación que lleva directamente a «qué acción puedo tomar después».
8. Implementación en Kicue
Kicue cubre la distribución de preguntas, la recogida de respuestas y la exportación de datos crudos; el tratamiento estadístico para verificar confiabilidad y validez se realiza, de forma realista, con herramientas externas.
Alcance que cubre Kicue
- Distribución de escalas con múltiples ítems: medición multítem de constructos con escalas Likert y preguntas matriz.
- Operación de estudios test-retest: redistribución a los mismos encuestados tras un intervalo y exportación vinculada por ID.
- Captación de datos demográficos / criterios externos: obtención simultánea de atributos e indicadores de comportamiento necesarios para la verificación de confiabilidad y validez.
- Exportación CSV de datos crudos: datos a nivel de encuestado en un formato listo para herramientas de análisis estadístico.
Alcance que cubren las herramientas externas
- Cálculo de α: R
psych::alpha(), Pythonpingouin, SPSS, JASP. - Análisis factorial exploratorio (EFA): R
psych::fa(), Pythonfactor_analyzer, SPSS, JASP. - Análisis factorial confirmatorio (CFA) / SEM: R
lavaan, Pythonsemopy, Mplus. - Análisis de correlaciones (convergente / discriminante / criterio): R / Python / Excel.
- Construcción de matrices MTMM: scripts en R / Python.
Recomendación: verificar en la fase de pilotaje
La verificación de confiabilidad y validez es ideal hacerla en la fase de pilot testing, antes del estudio principal. Si los problemas aparecen ya en el estudio principal, las correcciones son difíciles y se pierde la comparabilidad con los datos históricos. Una operación segura es asegurar n = 100–200 en el piloto y, tras confirmar la estructura con α y EFA, pasar al estudio principal.
La verificación de confiabilidad y validez es una de las áreas más académicas del diseño de encuestas y, a la vez, una de las que más se posponen. Sin embargo, un indicador que no puede responder a «¿qué está midiendo?» o «¿qué relación tiene con el negocio?» no resiste la rendición de cuentas ante la dirección ni soporta una operación sostenida en el tiempo.
Los conceptos que esta guía organiza —α, análisis factorial, validez de constructo y validez de criterio— nacieron todos en contextos académicos, pero son también herramientas prácticas para sostener la continuidad operativa de las encuestas de negocio. No hay que perseguir la perfección desde el principio: empieza por calcular una vez el α de tus escalas principales y medir una vez la confiabilidad test-retest.
Referencias
Confiabilidad
- Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297-334. https://doi.org/10.1007/BF02310555
- Cortina, J. M. (1993). What is coefficient alpha? An examination of theory and applications. Journal of Applied Psychology, 78(1), 98-104. https://doi.org/10.1037/0021-9010.78.1.98
- Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric Theory (3rd ed.). McGraw-Hill. https://www.mheducation.com/highered/product/psychometric-theory-nunnally-bernstein/M9780070478497.html
Validez
- Cronbach, L. J., & Meehl, P. E. (1955). Construct validity in psychological tests. Psychological Bulletin, 52(4), 281-302. https://doi.org/10.1037/h0040957
- Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait-multimethod matrix. Psychological Bulletin, 56(2), 81-105. https://doi.org/10.1037/h0046016
- Messick, S. (1989). Validity. In R. L. Linn (Ed.), Educational measurement (3rd ed., pp. 13-103). American Council on Education and Macmillan.
Índices de ajuste
- Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1-55. https://doi.org/10.1080/10705519909540118
Organismos sectoriales y de estandarización
- American Educational Research Association (AERA), APA, NCME: Standards for Educational and Psychological Testing.
- International Test Commission: Guidelines for Test Adaptation.
Si quieres empezar a operar encuestas con calidad de medición garantizada, prueba la herramienta gratuita de encuestas Kicue. Desde la composición de múltiples ítems con escalas Likert y preguntas matriciales, hasta la gestión de IDs de respondientes para estudios test-retest, y la exportación CSV de datos crudos para R / Python / SPSS / JASP — puedes construir las bases para verificar la confiabilidad y validez en una sola cuenta.
