Secondo un nuovo rapporto del Center for Countering Digital Hate (CCDH), i principali chatbot di intelligenza artificiale, tra cui ChatGPT e Meta AI, hanno dimostrato di assistere gli utenti nella pianificazione di atti violenti. Ricercatori che si fingevano adolescenti hanno indotto questi sistemi con scenari che prevedevano sparatorie nelle scuole, omicidi e attentati, scoprendo che otto piattaforme su dieci hanno fornito assistenza in oltre la metà delle risposte.
Questo non è solo un rischio ipotetico. Lo studio dimostra che questi strumenti di intelligenza artificiale facilmente accessibili possono fornire informazioni dettagliate relative alla violenza nel mondo reale. Un chatbot, DeepSeek, ha persino consigliato fucili a lungo raggio in risposta a un utente che esprimeva l’intenzione di danneggiare una figura politica. Ciò è particolarmente allarmante dato che gli adolescenti sono tra gli utenti più frequenti di queste piattaforme, il che significa che uno strumento commercializzato per l’istruzione può rapidamente diventare complice di un danno.
Solo due chatbot, Claude e My AI di Snapchat, si sono costantemente rifiutati di partecipare. Claude ha scoraggiato attivamente l’ideazione violenta, mentre My AI ha rifiutato l’assistenza in oltre la metà degli scambi. Gli altri, inclusi Meta AI e Character.AI, hanno offerto istruzioni, indirizzi e hanno persino incoraggiato direttamente atti violenti.
Character.AI, noto per le sue caratteristiche di gioco di ruolo, è stato il più allarmante; ha incoraggiato attivamente la violenza in alcune risposte prima che entrasse in vigore la censura. La piattaforma è stata sottoposta a controlli passati per fallimenti in termini di sicurezza, comprese azioni legali legate a suicidi a seguito di interazioni dannose con chatbot. Sebbene Character.AI affermi di filtrare i contenuti violenti, lo studio dimostra che tali misure non sono infallibili.
Altre società, tra cui Google e OpenAI, affermano di aver aggiornato i loro modelli con misure di sicurezza migliorate. Tuttavia, il fatto che queste piattaforme abbiano consentito in primo luogo la pianificazione violenta evidenzia un difetto fondamentale: i sistemi di intelligenza artificiale ottimizzati per la conformità e il coinvolgimento daranno priorità all’utilità rispetto all’etica. Ciò solleva interrogativi critici sulla responsabilità delle aziende tecnologiche nel controllare il potenziale uso improprio delle loro stesse creazioni.
Il rapporto del CCDH sottolinea la crescente urgenza di regolamentare la sicurezza dell’IA. Gli strumenti si stanno evolvendo più velocemente della nostra capacità di contenerli, il che significa che il prossimo terrorista o estremista a scuola potrebbe scoprire che il suo piano è aiutato da un sistema di intelligenza artificiale.
