"Recogimos N=500, empezamos el análisis y los respondentes leían las preguntas de manera totalmente distinta a la que diseñamos." Cualquier equipo que se haya saltado el piloto pasa por este rito. Puedes estresar la redacción en papel todo lo que quieras — lo que el cerebro del respondente realmente hace es opaco hasta que pones gente real frente a la encuesta. Pilotar no es un "estaría bien". Saltarlo es como se quema el campo principal.
Esta entrada recorre las tres capas del piloto (entrevistas cognitivas, focus groups, pretest cuantitativo), qué se puede y no se puede medir con N=30–100, las cinco métricas que vigilamos, el bucle piloto → campo principal y las reglas editoriales que aplicamos siempre. Léelo como compañero de implementación de la guía de redacción de preguntas: donde decíamos "mide la carga cognitiva con un piloto", aquí está el cómo.
1. Qué pasa cuando te saltas el piloto
"Cazarlo en papel" vs. "cazarlo en la realidad" — el diferencial de costo
Revisar la redacción en tu mesa no predice dónde tropieza el respondente real. Presser et al. (2004) Methods for Testing and Evaluating Survey Questionnaires documentan que la deriva de significado entre la intención del diseñador y la interpretación del respondente ocurre a una tasa medible incluso con investigadores con experiencia.
Si descubres el problema en campo, el retrabajo típico es:
- 1–2 días para arreglarlo: identificar → parchear → relanzar
- 1 día para decidir qué hacer con los datos ya recogidos (descartar / uso parcial / ponderar)
- 0,5–1 día explicando al equipo / cliente
- A veces una semana entera negociando presupuesto para re-recolección
Caza el mismo problema en piloto y la corrección lleva horas. El diferencial de ROI es del orden de 10x. Recuerda esto cada vez que tengas la tentación de saltarlo.
Marco académico
Beatty & Willis (2007) Research Synthesis: The Practice of Cognitive Interviewing formalizan el pilotaje como "verificar la validez de la pregunta contra el proceso cognitivo del respondente". Es un control procedimental para confirmar que las cuatro etapas de Tourangeau (2003) — comprensión → recuperación → juicio → respuesta — se comportan como el diseñador esperaba.
2. Las tres capas del piloto
En la práctica, los pilotos vienen en tres capas, usadas según lo que se quiere atrapar.
Capa 1: Entrevista cognitiva
N: 5–15 / Formato: 1 a 1 / Tiempo: 30–60 min / Detecta: errores de lectura
El respondente hace think-aloud — verbalizando lo que piensa al responder cada pregunta — y un moderador sondea las incomprensiones. Willis (2005) Cognitive Interviewing: A Tool for Improving Questionnaire Design es la metodología canónica. Aquí afloran los problemas de redacción, opciones y diseño de escala.
Fortaleza: 5 entrevistas detectan 70–80% de los problemas de redacción Debilidad: Sin representatividad estadística; coste de reclutamiento y trabajo
Capa 2: Focus group
N: 6–10 × 1–2 grupos / Formato: discusión moderada / Tiempo: 60–90 min / Detecta: validez de constructo
Tira de la definición del constructo — "satisfacción", "lealtad", "facilidad de uso" — y comprueba si tu constructo se alinea con cómo la población objetivo realmente piensa.
Fortaleza: Detecta desajustes a nivel de constructo temprano Debilidad: Dinámicas de grupo; participantes ruidosos distorsionan la señal
Capa 3: Pretest cuantitativo
N: 30–100 / Formato: idéntico a campo principal / Tiempo: 1–3 días / Detecta: tiempo de finalización, abandonos, distribución, problemas técnicos
Corre la encuesta real con N=30–100 y mide medianas de tiempo, puntos de abandono, distribuciones de respuesta y problemas técnicos (renderizado móvil, skip logic).
Fortaleza: Detecta cualquier cosa "visible en los números" antes de campo principal Debilidad: Las malas lecturas no aparecen solo en distribuciones — se combina con Capa 1/2
Elegir capas
| Qué quieres detectar | Capa recomendada |
|---|---|
| Mala interpretación de redacción | Capa 1 (entrevista cognitiva) |
| Definición de constructo desalineada | Capa 2 (focus group) |
| Tiempo / abandonos / problemas técnicos | Capa 3 (cuantitativo) |
| Estabilidad de distribución por subgrupos | Capa 3 + muestra ampliada |
Para una batería nueva, Capa 1 → Capa 3 es la secuencia estándar. Para preguntas reutilizadas, Capa 3 sola suele bastar.
3. Qué te puede y no te puede decir N=30–100
Hay confusión frecuente sobre la escala del piloto, así que vale la pena fijarlo.
Detectable con N=30–100
- Mediana y forma del tiempo de finalización — alarma si es muy distinta de la asumida
- Puntos de abandono — preguntas donde la tasa de finalización cae
- Defectos técnicos — renderizado móvil / navegador antiguo, skip logic rota
- Problemas obvios de redacción — "fue confuso" repetido en abiertas
- Anomalías de distribución — todos eligiendo el punto medio, agrupamientos raros
- Contradicciones lógicas — % de respondentes con respuestas inconsistentes entre preguntas enlazadas
No detectable con N=30–100
- Significancia estadística — N=30 tiene poder muy bajo
- Distribuciones estables por subgrupos — divisiones por género × edad × región dejan cada celda muy fina
- Comportamientos / atributos raros — un comportamiento con 1–5% de prevalencia da pocos casos a N=100
- Patrones por hora del día / día de la semana — recolección de 1–3 días pierde variación temporal
Reglas de tamaño
- N=30: verificación técnica + estimación de tiempo
- N=50: + identificación de abandonos + cosecha de abiertas sobre redacción
- N=100: + lectura direccional por subgrupos (no intentes test de significancia)
- N=200–300: más "soft launch" que piloto — un campo principal a escala reducida
4. Cinco métricas que rastrear en el piloto
En el pretest cuantitativo, estas son las cinco que siempre miramos.
Métrica 1: Mediana y distribución del tiempo de finalización
Comprueba que la mediana esté dentro de ±20% del supuesto de diseño. Demasiado largo sugiere riesgo de abandono; demasiado corto sugiere satisficing. Outliers de cola larga también importan — suelen apuntar a una pregunta concreta donde un subconjunto se atascó.
Métrica 2: Tasa de abandono por pregunta
Grafica la tasa de finalización por índice de pregunta. Cualquier pregunta donde caiga 5+ puntos es candidata a reescritura. Causas habituales: redacción opaca, contenido sensible, formatos de entrada inesperados (numérico, multiselección compleja).
Métrica 3: Abierta "¿hubo preguntas difíciles de responder?"
Añadir una pregunta final — "¿Hubo preguntas difíciles de responder?" — produce un detector notablemente preciso de problemas de redacción. Las Standard Definitions de AAPOR tratan el feedback del respondente como procedimiento estándar de evaluación de calidad.
Métrica 4: Tasa de contradicción interna
El porcentaje de respondentes con respuestas lógicamente inconsistentes entre preguntas enlazadas. Ejemplos:
- Q1: "Nunca he usado el servicio" → Q5: "satisfecho con el servicio"
- Q3: "uso mensual o más" → Q7: "uso menos que anual"
Una tasa de contradicción superior al 5% apunta a un problema de interpretación o a clics aleatorios.
Métrica 5: Distribución vs. intuición de diseño
Anota tu estimación a ojo de la distribución antes de correr el piloto. Compara con lo medido. Brechas grandes entre intuición y realidad suelen ser un problema de redacción o de targeting, no un hallazgo.
5. El bucle piloto → campo principal
El patrón de implementación es mismo formulario, buckets separados.
Flujo estándar
- Crea el bucket piloto — mismas preguntas, capado a N=30–100
- Pónlo en campo — primero Capa 1 si haces entrevistas cognitivas, después Capa 3
- Revisa los datos — cinco métricas + comentarios abiertos
- Corrige — redacción, opciones, lógica
- Re-pilota si hace falta — si hubo cambios significativos, re-corre N=20–30
- Abre el bucket principal — sube a la cuota objetivo y excluye los datos piloto del análisis
Regla "no mezcles piloto con campo principal"
- El formulario puede haberse modificado entre piloto y campo principal
- Mezclar datos pre-modificación distorsiona la distribución principal
- Usa parámetros de URL o proyectos separados para mantener buckets claramente separables y que la exclusión en análisis sea trivial
6. Visión editorial — cinco reglas que aplicamos siempre
De la literatura y la práctica, las cinco cosas que defenderíamos con fuerza.
1. Incluye siempre "¿qué fue difícil de responder?" como pregunta final. Métricas cuantitativas como tiempo y abandono no muestran malas lecturas. Una o dos abiertas — "¿hubo preguntas difíciles?" "¿alguna opción confusa?" — al final del piloto es el detector con mejor ROI. Funciona con N=30.
2. Re-pilota tras cada corrección significativa. Arreglar el problema del primer piloto puede introducir uno nuevo. Re-corre N=20–30 después de las correcciones para cazar bugs de segundo orden temprano. Presupuesta dos ciclos, no uno.
3. Graba las entrevistas cognitivas y transcríbelas. Tomar notas durante la entrevista te hace perder señal. Grabar → transcribir → etiquetar por pregunta convierte 5 entrevistas en datos cualitativos sólidos. Willis (2005) lo recomienda explícitamente.
4. No piloteen con stakeholders ni personal interno. Quien conoce la intención de la pregunta tiene un proceso cognitivo contaminado. Necesitas lectores fríos para validar redacción. Reserva las pruebas internas solo a verificación técnica.
5. Trata el tiempo de finalización como umbral duro, no como "objetivo aproximado". Sustituye "alrededor de 8 min" por "mediana ≤ 8 min, percentil 95 ≤ 12 min" antes de empezar el campo. Predecide qué cortarás si excedes el umbral (quitar preguntas, ramificar con lógica). Si no, los resultados del piloto no informan decisiones.
7. Operaciones de piloto en la herramienta de encuestas Kicue
Kicue cubre las piezas operativas del pilotaje.
Parámetros de URL para identificar respuestas del piloto
Los parámetros de URL permiten etiquetar la URL de distribución del piloto con ?bucket=pilot y la principal con ?bucket=main. La etiqueta queda registrada con cada respuesta, así que filtrar por bucket en análisis separa piloto y principal limpiamente.
Cuando el piloto ha recogido suficientes respuestas, dejas de distribuir la URL del piloto y cambias a la principal. Para una separación de fase más estricta, lanza piloto y principal como proyectos separados. (El módulo de cuotas de Kicue está pensado para celdas demográficas, no para separar fases.)
Vista previa y verificación pre-campo
Preview muestra los layouts mobile y desktop al instante. Las rutas de skip logic y carry-forward pueden recorrerse manualmente antes de salir a campo.
Tipos de pregunta abierta
Configura la pregunta final del piloto — "¿hubo algo difícil de responder?" — usando tipos de pregunta abierta. OA (una línea) para comentarios cortos, FA (multilínea) para feedback más rico — minimiza la carga cognitiva del respondente y cosecha señal cualitativa.
Elegir la herramienta correcta — Los límites del plan gratuito, soporte de ramificación, capacidades IA y exportación CSV varían mucho entre herramientas. Consulta nuestra comparativa de herramientas de encuestas gratuitas para encontrar la adecuada para este enfoque.
Resumen
Checklist operativa de piloto:
- Saltar el piloto cuesta unas 10 veces más que correrlo. El ROI está decisivamente del lado del piloto.
- Tres capas — entrevista cognitiva (redacción), focus group (constructos), pretest cuantitativo (operación).
- N=30–100 detecta tiempo, abandonos, defectos técnicos, abiertas sobre redacción, tasa de contradicción, anomalías de distribución.
- Cinco métricas — mediana de tiempo, abandono por pregunta, abierta de "difícil de responder", tasa de contradicción, distribución vs. intuición.
- Cinco reglas — abierta de difícil-de-responder, re-pilotaje tras correcciones, grabar entrevistas cognitivas, excluir stakeholders, tiempo como umbral no objetivo.
- Separación de buckets — flag de parámetro URL para filtrar en análisis, proyectos separados para aislar fases más estrictamente.
Pilotar no es un sí/no. Es una decisión de qué escala, qué medir. 1–3 días de inversión en piloto rutinariamente ahorran 1–2 semanas de retrabajo post-lanzamiento.
Referencias
Académicas y metodológicas
- Presser, S., Couper, M. P., Lessler, J. T., Martin, E., Martin, J., Rothgeb, J. M., & Singer, E. (2004). Métodos para probar y evaluar cuestionarios de encuesta. Wiley.
- Beatty, P. C., & Willis, G. B. (2007). Síntesis de investigación: la práctica de la entrevista cognitiva. Public Opinion Quarterly, 71(2), 287–311.
- Willis, G. B. (2005). Cognitive Interviewing: A Tool for Improving Questionnaire Design. Sage.
- Tourangeau, R., Rips, L. J., & Rasinski, K. (2000). The Psychology of Survey Response. Cambridge University Press.
- Converse, J. M., & Presser, S. (1986). Survey Questions: Handcrafting the Standardized Questionnaire. Sage.
Organismos de estándares y centros metodológicos
- AAPOR (American Association for Public Opinion Research): Standard Definitions.
- Pew Research Center: Our Survey Methodology in Detail.
Guías de la industria (a título de observación)
¿Quieres correr operaciones de piloto de extremo a extremo dentro de un solo formulario? Prueba Kicue — una herramienta de encuestas online gratuita. Etiquetado por bucket vía parámetros de URL, vista previa de preguntas y skip logic vienen de serie, así que el bucle piloto → corrección → campo principal vive en un solo proyecto.
