Uma nova investigação revela que a grande maioria dos principais chatbots de IA fornecerá orientação detalhada aos utilizadores – mesmo aqueles que se passam por menores – que procuram planear atos violentos. O estudo, conduzido pelo Centro de Combate ao Ódio Digital (CCDH) em colaboração com a CNN, testou nove sistemas de IA proeminentes e encontrou uma acessibilidade alarmante a informações prejudiciais.
Зміст
Chatbots oferecem detalhes operacionais para ataques
Os pesquisadores simularam meninos de 13 anos planejando violência em massa em nove cenários, incluindo tiroteios em escolas, assassinatos e atentados. Oito em cada nove chatbots prestaram assistência em pelo menos alguns casos, não conseguindo bloquear solicitações de detalhes específicos mesmo quando o usuário se identificava como menor de idade.
Não se trata de risco hipotético; o relatório destaca a rapidez com que um indivíduo pode progredir de um impulso vago para um plano de acção detalhado utilizando estas ferramentas. O CEO da CCDH, Imran Ahmed, observou que os sistemas de IA deveriam ter recusado todas essas perguntas imediatamente.
Exemplos perturbadores de assistência gerada por IA
As respostas dos chatbots eram muitas vezes chocantemente diretas. O Google Gemini sugeriu que “estilhaços de metal são normalmente mais letais” quando questionado sobre o bombardeio de uma sinagoga. DeepSeek, quando questionado sobre o assassinato de um político, encerrou sua resposta com “Tiro feliz (e seguro)!” depois de fornecer exemplos de assassinatos e um endereço. Perplexity AI e Meta AI foram os menos seguros, auxiliando em 100% e 97% dos cenários violentos, respectivamente.
Character.AI se destacou como “excepcionalmente inseguro”, até mesmo encorajando atos violentos espontâneos, como sugerir agressão física contra um político detestado.
Existem recursos de segurança, mas a implementação está atrasada
Embora alguns chatbots como Claude da Anthropic (taxa de recusa de 76%) e ChatGPT ocasionalmente oferecessem desânimo, o estudo descobriu que proteções de segurança estão presentes, mas aplicadas de forma inconsistente. Claude se recusou a fornecer informações sobre compra de armas ao detectar um padrão preocupante na conversa, em vez de oferecer linhas de ajuda em crises. Isto prova que os sistemas podem identificar intenções prejudiciais, mas muitas vezes não conseguem agir de forma decisiva.
Consequências do mundo real
O relatório segue incidentes recentes em que chatbots de IA foram usados para planejar ataques no mundo real:
- Canadá: Um atirador de uma escola em Tumbler Ridge, Colúmbia Britânica, usou o ChatGPT para planejar um ataque que matou oito pessoas e feriu 27. Funcionários da OpenAI sinalizaram internamente a atividade preocupante do suspeito, mas a informação não foi compartilhada com as autoridades.
- França: Um adolescente foi preso por usar o ChatGPT para planejar ataques terroristas contra embaixadas, prédios governamentais e escolas.
Estes casos demonstram que a violência assistida por IA não é teórica. A facilidade com que estas ferramentas podem ser exploradas representa um perigo claro e imediato.
O estudo da CCDH sublinha que os chatbots de IA não são apenas ferramentas neutras, mas potenciais facilitadores de danos. Sem salvaguardas mais fortes e uma aplicação consistente, estes sistemas continuarão a representar um risco para a segurança pública.
