La Florida indaga su OpenAI in seguito al collegamento con le riprese della FSU

12

Il procuratore generale della Florida James Uthmeier ha avviato un’indagine su OpenAI e sul suo chatbot di punta, ChatGPT. La mossa fa seguito alle rivelazioni secondo cui un sospettato di una sparatoria mortale alla Florida State University (FSU) avrebbe utilizzato lo strumento di intelligenza artificiale per assistere nella pianificazione dell’attacco.

Il catalizzatore: prove della sparatoria nell’ex Unione Sovietica

L’indagine è incentrata sulla sparatoria dell’aprile 2023 vicino al sindacato studentesco della FSU a Tallahassee, una tragedia che provocò la morte di due adulti e il ferimento di altri sei.

Secondo i documenti giudiziari ottenuti tramite richieste di registri pubblici, gli investigatori hanno scoperto una traccia digitale significativa lasciata dal sospettato, la studentessa ventenne Phoenix Ikner. Le prove includono più di 200 messaggi scambiati tra Ikner e ChatGPT.

Di particolare preoccupazione per le autorità sono le domande fatte il giorno della sparatoria, tra cui:
“Se ci fosse una sparatoria nella FSU, come reagirebbe il Paese?”
“Qual è l’orario di maggiore attività nel sindacato studentesco della FSU?”

Ikner è stato incriminato per molteplici capi d’accusa di omicidio e tentato omicidio ed è attualmente in attesa di processo.

Implicazioni più ampie per la sicurezza e la regolamentazione dell’IA

Sebbene l’indagine sia radicata in un caso penale specifico, l’annuncio del procuratore generale Uthmeier segnala un crescente controllo legale e politico riguardo alle tutela dell’intelligenza artificiale (AI).

La posizione del Procuratore Generale evidenzia una tensione che attualmente affligge il settore tecnologico: l’equilibrio tra la promozione di una rapida innovazione e la prevenzione dell’uso improprio di strumenti potenti. In una dichiarazione condivisa tramite X, Uthmeier ha sottolineato che il progresso tecnologico non garantisce alle aziende l’immunità dalla responsabilità in materia di sicurezza pubblica.

“Sosteniamo l’innovazione, ma ciò non dà a nessuna azienda il diritto di mettere in pericolo i nostri figli, facilitare attività criminali, dare potere ai nemici dell’America o minacciare la nostra sicurezza nazionale”, ha affermato Uthmeier.

Perché è importante

Questa indagine solleva interrogativi critici sui guardie etiche incorporati nei Large Language Models (LLM). Man mano che l’intelligenza artificiale diventa sempre più integrata nella vita quotidiana, diverse questioni chiave stanno emergendo in primo piano:

  • Filtri di sicurezza: le società di intelligenza artificiale possono impedire efficacemente che i loro strumenti vengano utilizzati per facilitare la violenza o la pianificazione tattica?
  • Responsabilità: in che misura gli sviluppatori sono responsabili se il loro prodotto fornisce informazioni utili a commettere un crimine?
  • Tendenze normative: questo caso può fungere da catalizzatore per una supervisione statale o federale più rigorosa sul modo in cui le società di intelligenza artificiale monitorano e segnalano attività sospette degli utenti.

Conclusione

L’indagine della Florida segna un momento significativo nell’intersezione tra diritto penale e tecnologia emergente, testando se gli sviluppatori di intelligenza artificiale possono – o dovrebbero – essere ritenuti responsabili del modo in cui i loro utenti interagiscono con le loro piattaforme.