Des adolescents poursuivent xAI pour la production présumée de matériel d’abus sexuel sur des enfants sur Grok

6

Un recours collectif déposé devant un tribunal fédéral de Californie accuse xAI d’Elon Musk d’avoir sciemment permis la création et la distribution de matériel pédopornographique (CSAM) via son chatbot IA, Grok. Trois plaignants anonymes – dont deux mineurs – affirment que Grok a généré des images explicites d’eux sans garanties, tandis que d’autres sociétés d’IA mettent en œuvre des restrictions pour empêcher leur exploitation.

Les allégations : un échec systémique à protéger les enfants

Le procès affirme que xAI a donné la priorité au profit plutôt qu’à la sécurité des utilisateurs, déclarant spécifiquement que l’entreprise « a vu une opportunité commerciale » en autorisant la production de CSAM. Ceci est étayé par des rapports indiquant que Grok était capable de générer environ trois millions d’images sexualisées, dont 23 000 représentant des enfants apparents, sur une période de dix jours, fin décembre et début janvier.

Les plaignants décrivent les capacités de l’IA comme d’une précision troublante, l’un d’eux alléguant que des images d’elle ont été générées et diffusées sur Discord par une connaissance. La poursuite détaille comment une plaignante, désormais adulte, a découvert que ses images mineures avaient été exploitées, tandis que deux mineurs actuels ont été informés par les forces de l’ordre que leurs images avaient été utilisées pour créer du CSAM.

Enquêtes internationales et pression juridique croissante

Cette action en justice fait suite à une surveillance croissante de la part de plusieurs gouvernements. La France, le Royaume-Uni, l’Irlande, l’Inde et le Brésil ont tous lancé des enquêtes sur les échecs présumés de Grok. L’État de Californie mène également sa propre enquête. Ce procès représente la première vague de litiges civils ciblant directement xAI pour ces violations présumées.

Le contexte plus large : sécurité et exploitation de l’IA

Cette affaire met en lumière un débat crucial au sein de l’industrie de l’IA : l’équilibre entre innovation et responsabilité éthique. Alors que de nombreux développeurs d’IA reconnaissent les risques d’une mauvaise utilisation et mettent en œuvre des mesures de sécurité, xAI est accusé de négliger délibérément ces garanties.

Il ne s’agit pas seulement de surveillance technologique ; c’est une question de responsabilité. Les plaignants demandent des dommages-intérêts importants, arguant que la négligence de xAI a causé de graves dommages émotionnels et psychologiques. L’issue du procès pourrait créer un précédent pour les sociétés d’IA et pour leurs obligations légales de protéger les utilisateurs vulnérables contre l’exploitation.

L’affaire est toujours en cours à ce jour, 16 mars 2024.