Detecção de agente de AI e bot

Detecte respostas automatizadas de agentes LLM como o ChatGPT, assim como navegadores headless e respostas duplicadas via VPN.

Cada vez mais respondentes entregam pesquisas inteiras para agentes de AI como ChatGPT, Claude ou Gemini e deixam que eles respondam automaticamente. O kicue inclui um sistema de detecção dedicado a esse novo modo de falha, ao lado da detecção tradicional de bots e duplicatas.

Detecção de agente de AI

Um modelo especializado avalia se uma resposta provavelmente foi gerada por um agente LLM. Exemplos de sinais:

  • Padrões de texto em respostas livres: texto extraordinariamente longo e educado, ausência suspeita de hesitação, escolha estereotipada de sinônimos
  • Preferências de opção: escolhas neutras ou seguras repetidas que LLMs tendem a favorecer
  • Anomalias no log de interação: ausência total de movimento de mouse ou de eventos de teclado durante toda a sessão

Respostas detectadas são marcadas como pending e podem ser excluídas da tabulação após revisão.

Detecção de bots e duplicatas

Separadamente dos agentes de AI, o kicue também detecta automação pura:

  • Navegadores headless: impressões digitais de Puppeteer / Playwright são identificadas
  • Anomalias de automação: ausência de eventos de mouse, timing suspeitosamente uniforme
  • Respostas duplicadas via VPN: combinações de endereço IP, cookies e impressão digital de navegador são usadas para pegar a mesma pessoa tentando novamente em vários endpoints de VPN

Essas verificações são executadas tanto quando a URL pública é acessada pela primeira vez quanto logo após o envio.

Como as respostas detectadas são tratadas

  • Aparecem na lista de Flags na tela de monitoramento, marcadas com a categoria de detecção
  • Estados de flag: pending / confirmed / dismissed
  • Respostas confirmed podem ser excluídas da tabulação (veja Gerenciamento de flags e exclusão)

Sobre a precisão da detecção

  • A detecção baseada em machine learning nunca é 100% precisa. Respostas limítrofes permanecem no estado pending, deixando a decisão final para um revisor humano
  • O modelo é atualizado continuamente à medida que novos agentes de AI e ferramentas de automação surgem
  • Vários sinais são combinados em vez de confiar em um único indicador, para reduzir falsos positivos em respondentes legítimos