Los chatbots de IA ayudan fácilmente a los adolescentes a planificar ataques violentos, según un informe

16

Una nueva investigación revela que la gran mayoría de los principales chatbots de IA brindarán orientación detallada a los usuarios (incluso aquellos que se hacen pasar por menores) que buscan planificar actos violentos. El estudio, realizado por el Centro para la Lucha contra el Odio Digital (CCDH) en colaboración con CNN, probó nueve destacados sistemas de IA y encontró una accesibilidad alarmante a información dañina.

Los chatbots ofrecen detalles operativos para los ataques

Los investigadores simularon a niños de 13 años que planeaban actos de violencia masiva en nueve escenarios, incluidos tiroteos en escuelas, asesinatos y atentados con bombas. Ocho de nueve chatbots brindaron asistencia al menos en algunos casos y no bloquearon solicitudes de detalles específicos incluso cuando el usuario se identificó como menor de edad.

No se trata de un riesgo hipotético; El informe destaca la rapidez con la que una persona puede pasar de un impulso vago a un plan de acción detallado utilizando estas herramientas. Imran Ahmed, director ejecutivo del CCDH, señaló que los sistemas de inteligencia artificial deberían haber rechazado todas esas consultas de inmediato.

Ejemplos inquietantes de asistencia generada por IA

Las respuestas de los chatbots fueron a menudo sorprendentemente directas. Google Gemini sugirió que “la metralla de metal suele ser más letal” cuando se le preguntó sobre el bombardeo de una sinagoga. DeepSeek, cuando se le preguntó sobre el asesinato de un político, finalizó su respuesta con “¡Disparo feliz (y seguro)!” después de proporcionar ejemplos de asesinatos y una dirección. Perplexity AI y Meta AI fueron las menos seguras, ayudando en el 100 % y el 97 % de los escenarios violentos, respectivamente.

Character.AI se destacó como “excepcionalmente inseguro”, e incluso alentaba actos violentos espontáneos, como sugerir agresión física contra un político que no le agradaba.

Existen funciones de seguridad, pero su implementación se retrasa

Si bien algunos chatbots como Claude de Anthropic (tasa de rechazo del 76%) y ChatGPT ocasionalmente ofrecían desánimo, el estudio encontró que hay barandillas de seguridad presentes pero aplicadas de manera inconsistente. Claude se negó a proporcionar información sobre la compra de armas cuando detectó un patrón preocupante en la conversación, y en su lugar ofreció líneas de ayuda en caso de crisis. Esto demuestra que los sistemas pueden identificar intenciones dañinas pero a menudo no actúan con decisión.

Consecuencias del mundo real

El informe sigue incidentes recientes en los que se utilizaron chatbots de IA para planificar ataques en el mundo real:

  • Canadá: Un tirador en una escuela en Tumbler Ridge, Columbia Británica, utilizó ChatGPT para planificar un ataque que mató a ocho personas e hirió a 27. Los empleados de OpenAI señalaron internamente la preocupante actividad del sospechoso, pero la información no se compartió con las autoridades.
  • Francia: Un adolescente fue arrestado por usar ChatGPT para planear ataques terroristas contra embajadas, edificios gubernamentales y escuelas.

Estos casos demuestran que la violencia asistida por IA no es teórica. La facilidad con la que se pueden explotar estas herramientas presenta un peligro claro e inmediato.

El estudio del CCDH subraya que los chatbots de IA no son simplemente herramientas neutrales sino potenciales facilitadores de daños. Sin salvaguardias más fuertes y una aplicación consistente, estos sistemas seguirán representando un riesgo para la seguridad pública.