La Floride enquête sur OpenAI suite à sa connexion avec le tournage du FSU

24

Le procureur général de Floride, James Uthmeier, a lancé une enquête sur OpenAI et son chatbot phare, ChatGPT. Cette décision fait suite à des révélations selon lesquelles un suspect dans une fusillade mortelle à la Florida State University (FSU) aurait utilisé l’outil d’IA pour l’aider à planifier l’attaque.

The Catalyst : Preuves de la fusillade du FSU

L’enquête se concentre sur la fusillade d’avril 2023 près du syndicat étudiant FSU à Tallahassee, une tragédie qui a entraîné la mort de deux adultes et des blessures à six autres.

Selon les archives judiciaires obtenues via des demandes d’archives publiques, les enquêteurs ont découvert une trace numérique importante laissée par le suspect, un étudiant de 20 ans Phoenix Ikner. Les preuves incluent plus de 200 messages échangés entre Ikner et ChatGPT.

Les autorités sont particulièrement préoccupées par les questions posées le jour de la fusillade, notamment :
“S’il y avait une fusillade à FSU, comment le pays réagirait-il ?”
“Quelle est la période la plus chargée au sein du syndicat étudiant FSU ?”

Ikner a été inculpé de plusieurs chefs d’accusation de meurtre et de tentative de meurtre et attend actuellement son procès.

Implications plus larges pour la sécurité et la réglementation de l’IA

Alors que l’enquête est ancrée dans une affaire pénale spécifique, l’annonce du procureur général Uthmeier signale un examen juridique et politique croissant concernant les garanties en matière d’intelligence artificielle (IA).

La position du procureur général met en évidence une tension à laquelle est actuellement confrontée l’industrie technologique : l’équilibre entre la promotion d’une innovation rapide et la prévention de l’utilisation abusive d’outils puissants. Dans une déclaration partagée via X, Uthmeier a souligné que les progrès technologiques n’accordent pas aux entreprises l’immunité de responsabilité en matière de sécurité publique.

“Nous soutenons l’innovation, mais cela ne donne à aucune entreprise le droit de mettre nos enfants en danger, de faciliter les activités criminelles, de donner du pouvoir aux ennemis de l’Amérique ou de menacer notre sécurité nationale”, a déclaré Uthmeier.

Pourquoi c’est important

Cette enquête soulève des questions cruciales sur les garde-fous éthiques intégrés aux grands modèles linguistiques (LLM). À mesure que l’IA s’intègre de plus en plus dans la vie quotidienne, plusieurs problèmes clés apparaissent au premier plan :

  • Filtres de sécurité : Les entreprises d’IA peuvent-elles empêcher efficacement que leurs outils soient utilisés pour faciliter la violence ou la planification tactique ?
  • Responsabilité : Dans quelle mesure les développeurs sont-ils responsables si leur produit fournit des informations qui contribuent à un crime ?
  • Tendances réglementaires : Cette affaire peut servir de catalyseur pour une surveillance étatique ou fédérale plus stricte concernant la manière dont les sociétés d’IA surveillent et signalent les activités suspectes des utilisateurs.

Conclusion

L’enquête de Floride marque un moment important à l’intersection du droit pénal et des technologies émergentes, en testant si les développeurs d’IA peuvent – ou devraient – être tenus responsables de la manière dont leurs utilisateurs interagissent avec leurs plateformes.