Character.AI Limita l’accesso degli adolescenti alle chat, lancia la funzione “Storie”.

10

Character.AI, di fronte alla crescente pressione legale sui potenziali danni alla salute mentale degli adolescenti, sta spostando il suo approccio verso gli utenti minorenni. La piattaforma vieterà le chat di testo aperte per i minori di 18 anni, indirizzandoli invece verso una nuova esperienza controllata chiamata “Storie”. Questa mossa arriva dopo numerose cause legali secondo cui le interazioni dell’intelligenza artificiale avrebbero contribuito al disagio mentale, incluso un caso legato al suicidio di un adolescente.

Nuove restrizioni e formato “Storie”.

A partire dal 25 novembre, gli adolescenti non avranno più accesso illimitato alla funzione chat della piattaforma. Character.AI lo considera una misura temporanea mentre sviluppano strumenti di verifica dell’età. Tuttavia, la sostituzione immediata è “Storie”, un formato di avventura scegli la tua in cui i personaggi guidati dall’intelligenza artificiale guidano gli utenti attraverso narrazioni predefinite.

L’azienda propone “Storie” come un miglioramento per gli utenti più giovani, sottolineandone la natura strutturata rispetto alle chat in formato libero. Gli utenti selezionano personaggi e generi, con la possibilità di scrivere le proprie storie o lasciare che sia l’intelligenza artificiale a generarle. L’esperienza include immagini generate dall’intelligenza artificiale, con l’intenzione di espandersi in “elementi multimodali” più coinvolgenti.

Perché è importante

Questo cambiamento riflette le crescenti preoccupazioni sull’impatto delle interazioni dell’intelligenza artificiale sugli utenti vulnerabili. Le chat aperte e senza supervisione con l’intelligenza artificiale possono esporre gli adolescenti a contenuti dannosi o rafforzare comportamenti non salutari, portando a disagio psicologico. Le cause legali contro Character.AI evidenziano le conseguenze nel mondo reale di questi rischi.

La mossa segnala anche una tendenza più ampia: le aziende tecnologiche sono sotto crescente controllo per regolamentare le interazioni con l’intelligenza artificiale, in particolare per quanto riguarda i minori. Sebbene “Storie” offra un ambiente più controllato, solleva anche interrogativi sulla censura, sull’autonomia dell’utente e se si tratti di una soluzione autentica o di una risposta alle minacce legali guidata dalle pubbliche relazioni.

La decisione di Character.AI è una risposta diretta alla pressione legale e pubblica, dimostrando la crescente responsabilità delle piattaforme AI per il benessere dei loro utenti. Le implicazioni a lungo termine di questo cambiamento restano da vedere, ma costituisce un chiaro precedente: le aziende di intelligenza artificiale devono affrontare i rischi associati ai loro prodotti, soprattutto quando hanno a che fare con un pubblico minorenne.