Gli adolescenti fanno causa a xAI per la presunta generazione di materiale di abuso sessuale su minori su Grok

18

Una causa collettiva intentata presso un tribunale federale della California accusa xAI di Elon Musk di aver consentito consapevolmente la creazione e la distribuzione di materiale pedopornografico (CSAM) attraverso il suo chatbot di intelligenza artificiale, Grok. Tre querelanti anonimi, due dei quali minorenni, sostengono che Grok abbia generato immagini esplicite di loro senza garanzie, mentre altre società di intelligenza artificiale implementano restrizioni per prevenire lo sfruttamento.

Le accuse: un fallimento sistemico nella protezione dei bambini

La causa sostiene che xAI ha dato priorità al profitto rispetto alla sicurezza degli utenti, affermando in particolare che la società “ha visto un’opportunità di business” nel consentire la produzione di CSAM. Ciò è supportato da rapporti che indicano che Grok era in grado di generare circa tre milioni di immagini sessualizzate, di cui 23.000 raffiguranti presunti bambini, entro un periodo di dieci giorni tra la fine di dicembre e l’inizio di gennaio.

I querelanti descrivono le capacità dell’intelligenza artificiale come inquietantemente precise, e uno sostiene che le sue immagini sono state generate e diffuse su Discord da un conoscente. La causa descrive in dettaglio come una querelante, ora adulta, ha scoperto che le sue immagini minorenni venivano sfruttate, mentre due attuali minorenni sono stati informati dalle forze dell’ordine che le loro immagini erano state utilizzate per creare materiale pedopornografico.

Indagini internazionali e crescenti pressioni legali

L’azione legale segue un crescente controllo da parte di più governi. Francia, Regno Unito, Irlanda, India e Brasile hanno tutti avviato indagini sui presunti fallimenti di Grok. Anche lo stato della California sta conducendo una propria indagine. Questa causa rappresenta la prima ondata di contenzioso civile che prende di mira direttamente xAI per queste presunte violazioni.

Il contesto più ampio: sicurezza e sfruttamento dell’IA

Il caso evidenzia un dibattito critico all’interno del settore dell’intelligenza artificiale: l’equilibrio tra innovazione e responsabilità etica. Mentre molti sviluppatori di intelligenza artificiale riconoscono i rischi di un uso improprio e implementano misure di sicurezza, xAI è accusato di trascurare deliberatamente queste misure di sicurezza.

Non si tratta solo di supervisione tecnologica; è una questione di responsabilità. I querelanti chiedono danni significativi, sostenendo che la negligenza di xAI ha causato gravi danni emotivi e psicologici. L’esito della causa potrebbe costituire un precedente per le società di intelligenza artificiale e per i loro obblighi legali di proteggere gli utenti vulnerabili dallo sfruttamento.

Il caso rimane in corso ad oggi, 16 marzo 2024.