Apple ha recentemente avviato uno scontro ad alto rischio con xAI di Elon Musk per affrontare la proliferazione di deepfake non consensuali e sessualizzati generati da Grok, lo strumento AI integrato nella piattaforma X (ex Twitter).
Nuovi rapporti rivelano che Apple ha minacciato di bandire Grok dall’App Store a meno che lo sviluppatore non avesse implementato misure di salvaguardia più rigorose per prevenire la creazione di immagini dannose generate dall’intelligenza artificiale.
Зміст
Il conflitto: sicurezza contro funzionalità
La tensione deriva dalla capacità di Grok di generare non solo testo, ma anche immagini e video. Dalla fine dello scorso anno, gli utenti hanno sfruttato queste capacità per creare immagini esplicite e non consensuali di persone reali, inclusi donne e bambini, che vengono poi distribuite ampiamente su X.
Secondo le comunicazioni divulgate ai senatori statunitensi, Apple ha preso una posizione ferma:
– Applicazione delle policy: Apple ha dichiarato che le app che generano e diffondono tali contenuti violano le linee guida principali della piattaforma.
– L’Ultimatum: Apple ha avvertito xAI che Grok sarebbe stato rimosso dall’App Store se non fosse riuscito ad affrontare la crisi del deepfake.
– La risoluzione (per ora): Dopo un ciclo di rifiuti e rielaborazioni, Apple ha approvato una nuova versione dell’app Grok, sottolineando che il software era “sostanzialmente migliorato”.
Rischi continui e pressione normativa
Nonostante l’approvazione da parte di Apple dell’ultimo aggiornamento software, la battaglia è lungi dall’essere finita. Una recente indagine di NBC News suggerisce che immagini sessualizzate generate dall’intelligenza artificiale vengono ancora prodotte tramite Grok e diffuse su Internet. Ciò indica che, sebbene siano stati aggiunti “filtri” tecnici, non sono ancora infallibili.
Questa questione persistente ha attirato un attento esame da parte dei legislatori:
– Sorveglianza del Congresso: i senatori Ron Wyden e Ben Ray Luján hanno spinto i giganti della tecnologia ad assumersi la responsabilità della “disgustosa proliferazione” di immagini non consensuali.
– The Accountability Gap: Sebbene Apple sia stata trasparente riguardo alle sue azioni di applicazione delle norme, i legislatori hanno criticato Google per la mancanza di risposta ed hanno espresso frustrazione per la percepita mancanza di responsabilità legale per X riguardo alla distribuzione di tale materiale.
La difesa da xAI
In risposta alla controversia, xAI sostiene di disporre di “ampie garanzie”. L’azienda afferma di utilizzare:
– Monitoraggio continuo dell’utilizzo pubblico.
– Analisi in tempo reale dei tentativi di evasione.
– Aggiornamenti frequenti dei modelli e filtri rapidi.
L’azienda dichiara ufficialmente di vietare severamente la generazione di deepfake espliciti non consensuali o l’uso dei suoi strumenti per “spogliare” individui reali.
Perché è importante
Questa situazione evidenzia una crisi crescente nel settore tecnologico: il gioco del gatto e del topo tra sviluppatori di intelligenza artificiale e regolatori della sicurezza. Man mano che l’intelligenza artificiale generativa diventa più sofisticata, i metodi utilizzati per aggirare i filtri di sicurezza diventano più avanzati.
La situazione di stallo tra Apple e xAI costituisce un precedente critico per quanta responsabilità hanno le piattaforme “gatekeeper” (come l’App Store) per i contenuti generati da strumenti di intelligenza artificiale di terze parti. Se le misure di salvaguardia continuano a fallire, è probabile che si intensificherà la pressione per una censura ancora più aggressiva o una regolamentazione federale più severa.
Conclusione: Sebbene Apple abbia consentito a Grok di rimanere sulla sua piattaforma in seguito ai recenti aggiornamenti, il continuo emergere di deepfake sessualizzati suggerisce che la battaglia tecnica ed etica sulla sicurezza dell’IA è solo all’inizio.
