Detecção de agente de AI e bot
Detecte respostas automatizadas de agentes LLM como o ChatGPT, assim como navegadores headless e respostas duplicadas via VPN.
Cada vez mais respondentes entregam pesquisas inteiras para agentes de AI como ChatGPT, Claude ou Gemini e deixam que eles respondam automaticamente. O kicue inclui um sistema de detecção dedicado a esse novo modo de falha, ao lado da detecção tradicional de bots e duplicatas.
Detecção de agente de AI
Um modelo especializado avalia se uma resposta provavelmente foi gerada por um agente LLM. Exemplos de sinais:
- Padrões de texto em respostas livres: texto extraordinariamente longo e educado, ausência suspeita de hesitação, escolha estereotipada de sinônimos
- Preferências de opção: escolhas neutras ou seguras repetidas que LLMs tendem a favorecer
- Anomalias no log de interação: ausência total de movimento de mouse ou de eventos de teclado durante toda a sessão
Respostas detectadas são marcadas como pending e podem ser excluídas da tabulação após revisão.
Detecção de bots e duplicatas
Separadamente dos agentes de AI, o kicue também detecta automação pura:
- Navegadores headless: impressões digitais de Puppeteer / Playwright são identificadas
- Anomalias de automação: ausência de eventos de mouse, timing suspeitosamente uniforme
- Respostas duplicadas via VPN: combinações de endereço IP, cookies e impressão digital de navegador são usadas para pegar a mesma pessoa tentando novamente em vários endpoints de VPN
Essas verificações são executadas tanto quando a URL pública é acessada pela primeira vez quanto logo após o envio.
Como as respostas detectadas são tratadas
- Aparecem na lista de Flags na tela de monitoramento, marcadas com a categoria de detecção
- Estados de flag: pending / confirmed / dismissed
- Respostas
confirmedpodem ser excluídas da tabulação (veja Gerenciamento de flags e exclusão)
Sobre a precisão da detecção
- A detecção baseada em machine learning nunca é 100% precisa. Respostas limítrofes permanecem no estado
pending, deixando a decisão final para um revisor humano - O modelo é atualizado continuamente à medida que novos agentes de AI e ferramentas de automação surgem
- Vários sinais são combinados em vez de confiar em um único indicador, para reduzir falsos positivos em respondentes legítimos
