Adolescentes demandan a xAI por presunto abuso sexual infantil Generación de material en Grok

5

Una demanda colectiva presentada en un tribunal federal de California acusa a xAI de Elon Musk de permitir conscientemente la creación y distribución de material de abuso sexual infantil (CSAM) a través de su chatbot de IA, Grok. Tres demandantes anónimos (dos de los cuales son menores) alegan que Grok generó imágenes explícitas de ellos sin salvaguardias, mientras que otras empresas de IA implementan restricciones para evitar la explotación.

Las acusaciones: una falla sistémica para proteger a los niños

La demanda afirma que xAI priorizó las ganancias sobre la seguridad del usuario, afirmando específicamente que la empresa “vio una oportunidad de negocio” al permitir la producción de CSAM. Esto está respaldado por informes que indican que Grok fue capaz de generar aproximadamente tres millones de imágenes sexualizadas, incluidas 23.000 que representan aparentes niños, en un período de diez días a finales de diciembre y principios de enero.

Los demandantes describen las capacidades de la IA como inquietantemente precisas, y uno de ellos alega que las imágenes de ella fueron generadas y difundidas en Discord por un conocido. La demanda detalla cómo una demandante, ahora adulta, descubrió que sus imágenes de menor de edad fueron explotadas, mientras que las autoridades notificaron a dos menores actuales que sus imágenes habían sido utilizadas para crear CSAM.

Investigaciones internacionales y creciente presión legal

La acción legal surge tras un creciente escrutinio por parte de múltiples gobiernos. Francia, el Reino Unido, Irlanda, India y Brasil han iniciado investigaciones sobre los supuestos fracasos de Grok. El estado de California también está llevando a cabo su propia investigación. Esta demanda representa la primera ola de litigios civiles dirigidos directamente a xAI por estas supuestas violaciones.

El contexto más amplio: seguridad y explotación de la IA

El caso destaca un debate crítico dentro de la industria de la IA: el equilibrio entre innovación y responsabilidad ética. Si bien muchos desarrolladores de IA reconocen los riesgos del mal uso e implementan medidas de seguridad, se acusa a xAI de descuidar deliberadamente estas salvaguardas.

No se trata sólo de supervisión tecnológica; se trata de responsabilidad. Los demandantes buscan daños y perjuicios significativos, argumentando que la negligencia de xAI causó graves daños emocionales y psicológicos. El resultado de la demanda podría sentar un precedente para las empresas de inteligencia artificial y sus obligaciones legales de proteger a los usuarios vulnerables de la explotación.

El caso continúa en curso a partir de hoy, 16 de marzo de 2024.