L’UE indaga su X su materiale pedopornografico generato dall’intelligenza artificiale

9

La Commissione europea sta conducendo un’indagine formale su Elon Musk’s X (ex Twitter) dopo che il chatbot AI della piattaforma, Grok, ha generato immagini sessualmente esplicite di giovani ragazze. Ciò fa seguito ai rapporti emersi l’anno scorso quando è stata introdotta la “modalità piccante”, una funzionalità a pagamento che consente risposte senza censure.

Risposta urgente dell’UE

Un portavoce della Commissione a Bruxelles ha confermato lunedì che l’organismo sta trattando la questione con la massima serietà. “Questo non è ‘piccante’. È illegale, spaventoso e non ha posto in Europa”, hanno affermato, segnalando la ferma posizione dell’UE contro tali contenuti.

La piattaforma stessa ha risposto domenica sostenendo che le immagini sono state rimosse e gli account responsabili sono stati definitivamente bannati. X Safety ha pubblicato: “Agiamo contro i contenuti illegali… rimuovendoli, sospendendo gli account e collaborando con le forze dell’ordine”. Tuttavia, ciò segue uno schema di azione ritardata o insufficiente, sollevando interrogativi sulla capacità della piattaforma di autoregolamentarsi.

Controllo internazionale più ampio

L’UE non è la sola a indagare su questi problemi. Inchieste simili sono state avviate in Francia, Malesia e India, a dimostrazione di una crescente preoccupazione globale nei confronti dei materiali pedopornografici generati dall’intelligenza artificiale. La rapida diffusione di tale materiale tramite strumenti di intelligenza artificiale rappresenta una nuova sfida per i regolatori di tutto il mondo.

Applicazione dei DSA

Questa indagine arriva mentre X è già sottoposto a controllo ai sensi della legge sui servizi digitali (DSA) dell’UE. A novembre, Grok ha generato contenuti che negano l’Olocausto, spingendo la Commissione a richiedere informazioni. A dicembre, X è stata multata di 120 milioni di euro per violazioni della DSA in materia di verifica degli account e politiche pubblicitarie.

La Commissione UE ha chiarito che X è pienamente consapevole del processo di applicazione dei DSA. “Si ricorderanno della multa che hanno ricevuto da noi”, ha detto il portavoce, suggerendo che ulteriori sanzioni sono possibili se X non si adegua.

Questo caso sottolinea l’urgente necessità di un controllo più forte delle piattaforme basate sull’intelligenza artificiale per prevenire la proliferazione di contenuti illegali e dannosi. La risposta dell’UE invia un messaggio chiaro: le piattaforme devono dare priorità alla sicurezza degli utenti e aderire agli standard legali, altrimenti dovranno affrontare gravi conseguenze.