Detección de agentes AI y bots

Detecta respuestas automáticas de agentes LLM como ChatGPT, así como navegadores headless y respuestas duplicadas mediante VPN.

Cada vez más encuestados entregan los cuestionarios completos a agentes AI como ChatGPT, Claude o Gemini y dejan que los respondan automáticamente. kicue incluye un sistema de detección específico para este nuevo tipo de fraude, junto con la detección clásica de bots y de respuestas duplicadas.

Detección de agentes AI

Un modelo especializado evalúa si es probable que una respuesta haya sido generada por un agente LLM. Ejemplos de señales:

  • Patrones del texto libre: textos demasiado largos y formales, falta llamativa de dudas, elección estereotipada de sinónimos
  • Preferencias en las opciones: elecciones neutras o seguras repetidas, que los LLM suelen favorecer
  • Anomalías en el registro de interacción: nulo movimiento del ratón o eventos de teclado durante toda la sesión

Las respuestas detectadas quedan marcadas como pending y pueden excluirse de la tabulación tras su revisión.

Detección de bots y duplicados

Aparte de los agentes AI, kicue también detecta la automatización pura:

  • Navegadores headless: se identifican las huellas de Puppeteer / Playwright
  • Anomalías de automatización: ausencia de eventos de ratón, tiempos sospechosamente uniformes
  • Respuestas duplicadas a través de VPN: se combinan dirección IP, cookies y huella del navegador para detectar a la misma persona que reintenta a través de varios puntos de salida VPN

Estas comprobaciones se ejecutan tanto al acceder por primera vez a la URL pública como justo después del envío.

Cómo se tratan las respuestas detectadas

  • Aparecen en la lista Marcas de la pantalla de monitoreo, etiquetadas con la categoría de detección
  • Estados de marca: pending / confirmed / dismissed
  • Las respuestas confirmed pueden excluirse de la tabulación (consulta Gestión de marcas y exclusión)

Sobre la precisión de la detección

  • La detección basada en machine learning nunca es precisa al 100 %. Las respuestas limítrofes permanecen en estado pending, dejando la decisión final a un revisor humano
  • El modelo se actualiza continuamente conforme aparecen nuevos agentes AI y herramientas de automatización
  • Se combinan varias señales en lugar de confiar en un solo indicador, para reducir los falsos positivos entre los encuestados legítimos