Detección de agentes AI y bots
Detecta respuestas automáticas de agentes LLM como ChatGPT, así como navegadores headless y respuestas duplicadas mediante VPN.
Cada vez más encuestados entregan los cuestionarios completos a agentes AI como ChatGPT, Claude o Gemini y dejan que los respondan automáticamente. kicue incluye un sistema de detección específico para este nuevo tipo de fraude, junto con la detección clásica de bots y de respuestas duplicadas.
Detección de agentes AI
Un modelo especializado evalúa si es probable que una respuesta haya sido generada por un agente LLM. Ejemplos de señales:
- Patrones del texto libre: textos demasiado largos y formales, falta llamativa de dudas, elección estereotipada de sinónimos
- Preferencias en las opciones: elecciones neutras o seguras repetidas, que los LLM suelen favorecer
- Anomalías en el registro de interacción: nulo movimiento del ratón o eventos de teclado durante toda la sesión
Las respuestas detectadas quedan marcadas como pending y pueden excluirse de la tabulación tras su revisión.
Detección de bots y duplicados
Aparte de los agentes AI, kicue también detecta la automatización pura:
- Navegadores headless: se identifican las huellas de Puppeteer / Playwright
- Anomalías de automatización: ausencia de eventos de ratón, tiempos sospechosamente uniformes
- Respuestas duplicadas a través de VPN: se combinan dirección IP, cookies y huella del navegador para detectar a la misma persona que reintenta a través de varios puntos de salida VPN
Estas comprobaciones se ejecutan tanto al acceder por primera vez a la URL pública como justo después del envío.
Cómo se tratan las respuestas detectadas
- Aparecen en la lista Marcas de la pantalla de monitoreo, etiquetadas con la categoría de detección
- Estados de marca: pending / confirmed / dismissed
- Las respuestas
confirmedpueden excluirse de la tabulación (consulta Gestión de marcas y exclusión)
Sobre la precisión de la detección
- La detección basada en machine learning nunca es precisa al 100 %. Las respuestas limítrofes permanecen en estado
pending, dejando la decisión final a un revisor humano - El modelo se actualiza continuamente conforme aparecen nuevos agentes AI y herramientas de automatización
- Se combinan varias señales en lugar de confiar en un solo indicador, para reducir los falsos positivos entre los encuestados legítimos
