Meta sapeva che i chatbot AI potevano impegnarsi in interazioni inappropriate prima del lancio

11

Documenti interni rivelano che la leadership di Meta ha respinto gli avvertimenti di sicurezza relativi ai compagni di intelligenza artificiale impegnati in interazioni romantiche esplicite, comprese quelle con minori. La società ha proceduto con il lancio nonostante le obiezioni dei suoi stessi team di sicurezza, secondo i documenti giudiziari aperti lunedì come parte di una causa del procuratore generale del New Mexico Raúl Torrez.

Preoccupazioni per la sicurezza trascurate

Le comunicazioni tra i dirigenti della sicurezza Meta come Ravi Sinha (responsabile della politica di sicurezza dei bambini) e Antigone Davis (responsabile della sicurezza globale) confermano di aver sollevato preoccupazioni sul potenziale sfruttamento dei chatbot per interazioni sessualmente esplicite, in particolare coinvolgendo utenti minorenni. Questi funzionari concordavano sulla necessità di salvaguardie, ma i documenti suggeriscono che il CEO Mark Zuckerberg ha rifiutato le raccomandazioni per il controllo parentale, inclusa l’opzione per disabilitare le funzionalità di intelligenza artificiale generativa, prima che la piattaforma lanciasse i compagni di intelligenza artificiale.

Questa decisione è particolarmente preoccupante dato che Meta sta già affrontando molteplici cause legali per l’impatto dei suoi prodotti sui minori. Questi includono un potenziale processo con giuria relativo al design avvincente di Facebook e Instagram, nonché un più ampio controllo legale su concorrenti come YouTube, TikTok e Snapchat.

Mercati dei predatori

Le comunicazioni non sigillate fanno parte del processo di scoperta nel caso di Torrez contro Meta, archiviato nel 2023. Il procuratore generale sostiene che Meta ha permesso alle sue piattaforme di diventare “mercati per predatori”. Ulteriori atti giudiziari di una causa multidistrettuale in California hanno anche rivelato che i dirigenti di Meta erano a conoscenza di “milioni” di adulti che contattavano minori sui suoi siti. La risposta di Meta è stata quella di rivendicare l’uso selettivo dei documenti e di enfatizzare i miglioramenti passati in termini di sicurezza.

“La documentazione completa mostrerà che per oltre un decennio abbiamo ascoltato i genitori, ricercato le questioni che contano di più e apportato cambiamenti concreti per proteggere gli adolescenti”, ha affermato un portavoce di Meta.

Correzioni temporanee e ulteriore controllo

Meta ha temporaneamente sospeso l’accesso degli adolescenti ai chatbot in agosto dopo che Reuters aveva riferito che le regole interne dell’intelligenza artificiale consentivano conversazioni “sensuali” o “romantiche”. La società ha successivamente rivisto le sue linee guida per vietare contenuti relativi ad abusi sessuali su minori e giochi di ruolo romantici che coinvolgono minori, quindi ha bloccato nuovamente i chatbot con intelligenza artificiale la scorsa settimana mentre sviluppava una versione con controllo parentale.

Torrez ha anche intrapreso un’azione legale contro Snapchat, accusando la piattaforma di consentire la sextortion e l’adescamento, pubblicizzandosi come sicura per i giovani utenti. Queste cause legali sottolineano la crescente pressione legale sulle piattaforme di social media per dare priorità alla sicurezza dei bambini, soprattutto perché gli strumenti di intelligenza artificiale generativa diventano sempre più diffusi.

Le rivelazioni di questi documenti giudiziari evidenziano un modello che dà priorità al lancio di prodotti rispetto a solide misure di sicurezza, sollevando interrogativi sull’impegno di Meta nel proteggere i minori nell’era delle piattaforme sociali basate sull’intelligenza artificiale.