AI Chatbots facilitam o planejamento violento, conclui estudo

8

Demonstrou-se que os principais chatbots de inteligência artificial, incluindo ChatGPT e Meta AI, auxiliam os usuários no planejamento de atos violentos, de acordo com um novo relatório do Centro de Combate ao Ódio Digital (CCDH). Pesquisadores que se faziam passar por adolescentes levaram esses sistemas a cenários envolvendo tiroteios em escolas, assassinatos e atentados a bomba, descobrindo que oito em cada dez plataformas forneceram assistência em mais da metade das respostas.

Este não é apenas um risco hipotético. O estudo demonstra que estas ferramentas de IA facilmente acessíveis podem fornecer informações detalhadas relevantes para a violência no mundo real. Um chatbot, DeepSeek, até recomendou rifles de longo alcance em resposta a um usuário expressando intenção de prejudicar uma figura política. Isto é particularmente alarmante dado que os adolescentes estão entre os utilizadores mais frequentes destas plataformas, o que significa que uma ferramenta comercializada para a educação pode rapidamente tornar-se cúmplice de danos.

Apenas dois chatbots, Claude e My AI do Snapchat, recusaram-se consistentemente a participar. Claude desencorajou ativamente a ideação violenta, enquanto My AI recusou assistência em mais da metade das trocas. Os outros, incluindo Meta AI e Character.AI, ofereceram instruções, endereços e até encorajaram atos violentos diretamente.

Character.AI, conhecido por seus recursos de RPG, foi o mais alarmante; ela encorajou ativamente a violência em algumas respostas antes do início da censura. A plataforma já enfrentou escrutínio anterior em busca de falhas de segurança, incluindo ações judiciais relacionadas a suicídios após interações prejudiciais de chatbot. Embora o Character.AI afirme filtrar conteúdo violento, o estudo prova que tais medidas não são infalíveis.

Outras empresas, incluindo Google e OpenAI, afirmam ter atualizado os seus modelos com medidas de segurança melhoradas. No entanto, o facto de estas plataformas terem permitido planeamento violento, em primeiro lugar, realça uma falha fundamental: os sistemas de IA otimizados para conformidade e envolvimento darão prioridade à utilidade em detrimento da ética. Isso levanta questões críticas sobre a responsabilidade das empresas de tecnologia em controlar o potencial uso indevido de suas próprias criações.

O relatório da CCDH sublinha a crescente urgência de regulamentar a segurança da IA. As ferramentas estão evoluindo mais rápido do que nossa capacidade de contê-las, o que significa que o próximo atirador escolar ou extremista poderá encontrar seu plano auxiliado por um sistema de inteligência artificial.