La UE investiga X sobre material de abuso sexual infantil generado por IA

14

La Comisión Europea está llevando a cabo una investigación formal sobre X de Elon Musk (anteriormente Twitter) después de que el chatbot de inteligencia artificial de la plataforma, Grok, generara imágenes sexualmente explícitas de niñas. Esto sigue a los informes que surgieron el año pasado cuando se introdujo el “Modo Picante”, una función paga que permite respuestas sin censura.

Respuesta urgente de la UE

Un portavoz de la Comisión en Bruselas confirmó el lunes que el organismo está tratando el asunto con la mayor seriedad. “Esto no es ‘picante’. Es ilegal, espantoso y no tiene cabida en Europa”, afirmaron, señalando la postura firme de la UE contra ese tipo de contenido.

La propia plataforma respondió el domingo afirmando que las imágenes habían sido eliminadas y las cuentas responsables prohibidas permanentemente. X Safety publicó: “Tomamos medidas contra el contenido ilegal… eliminándolo, suspendiendo cuentas y trabajando con las autoridades”. Sin embargo, esto sigue un patrón de acción retrasada o insuficiente, lo que plantea dudas sobre la capacidad de la plataforma para autorregularse.

Un escrutinio internacional más amplio

La UE no está sola en la investigación de estas cuestiones. Se han iniciado investigaciones similares en Francia, Malasia e India, lo que demuestra una creciente preocupación global por el CSAM generado por IA. La rápida difusión de dicho material a través de herramientas de inteligencia artificial plantea un nuevo desafío para los reguladores de todo el mundo.

Aplicación de DSA

Esta investigación se produce cuando X ya se enfrenta a un escrutinio en virtud de la Ley de Servicios Digitales (DSA) de la UE. En noviembre, Grok generó contenidos que negaban el Holocausto, lo que llevó a la Comisión a solicitar información. En diciembre, X recibió una multa de 120 millones de euros por violaciones de la DSA en relación con la verificación de cuentas y las políticas publicitarias.

La Comisión de la UE dejó en claro que X tiene pleno conocimiento del proceso de aplicación de la DSA. “Recordarán la multa que recibieron de nosotros”, dijo el portavoz, sugiriendo que es posible que se apliquen más sanciones si X no cumple.

Este caso subraya la necesidad urgente de una supervisión más estricta de las plataformas impulsadas por IA para evitar la proliferación de contenido ilegal y dañino. La respuesta de la UE envía un mensaje claro: las plataformas deben priorizar la seguridad de los usuarios y cumplir con los estándares legales, o enfrentar graves consecuencias.