Meta Knew AI Chatbots pourrait se livrer à des interactions inappropriées avant le lancement

8

Des documents internes révèlent que la direction de Meta a rejeté les avertissements de sécurité concernant les compagnons d’IA se livrant à des interactions romantiques explicites, y compris celles avec des mineurs. La société a procédé au lancement malgré les objections de ses propres équipes de sécurité, selon des documents judiciaires dévoilés lundi dans le cadre d’un procès intenté par le procureur général du Nouveau-Mexique, Raúl Torrez.

Problèmes de sécurité négligés

Les communications entre les responsables de la sécurité de Meta comme Ravi Sinha (responsable de la politique de sécurité des enfants) et Antigone Davis (responsable de la sécurité mondiale) confirment qu’ils ont exprimé des inquiétudes quant au potentiel d’exploitation des chatbots pour des interactions sexuellement explicites, impliquant en particulier des utilisateurs mineurs. Ces responsables ont convenu de la nécessité de mesures de protection, mais des documents suggèrent que le PDG Mark Zuckerberg a rejeté les recommandations en matière de contrôle parental, y compris l’option de désactiver les fonctionnalités d’IA générative, avant que la plateforme ne lance les compagnons d’IA.

Cette décision est particulièrement préoccupante étant donné que Meta fait déjà face à de multiples poursuites judiciaires concernant l’impact de ses produits sur les mineurs. Il s’agit notamment d’un éventuel procès devant jury alléguant la conception addictive de Facebook et d’Instagram, ainsi que d’un examen juridique plus large de concurrents comme YouTube, TikTok et Snapchat.

Marchés des prédateurs

Les communications non scellées font partie du processus d’enquête dans le cadre de l’affaire Torrez contre Meta, déposée en 2023. Le procureur général allègue que Meta a permis à ses plateformes de devenir des « marchés pour prédateurs ». D’autres dossiers judiciaires issus d’un procès multidistrict en Californie ont également révélé que les dirigeants de Meta étaient au courant de « millions » d’adultes contactant des mineurs sur ses sites. La réponse de Meta a été de revendiquer une utilisation sélective des documents et de mettre l’accent sur les améliorations de sécurité passées.

“Le bilan complet montrera que depuis plus d’une décennie, nous avons écouté les parents, étudié les problèmes les plus importants et apporté de réels changements pour protéger les adolescents”, a déclaré un porte-parole de Meta.

Correctifs temporaires et examen plus approfondi

Meta a temporairement suspendu l’accès des adolescents aux chatbots en août après que Reuters a rapporté que les règles internes de l’IA autorisaient les conversations « sensuelles » ou « romantiques ». La société a ensuite révisé ses directives pour interdire les contenus liés aux abus sexuels sur enfants et aux jeux de rôle romantiques impliquant des mineurs, puis a de nouveau verrouillé les chatbots IA la semaine dernière tout en développant une version avec contrôle parental.

Torrez a également intenté une action en justice contre Snapchat, accusant la plateforme de permettre la sextorsion et le toilettage tout en se présentant comme étant sûre pour les jeunes utilisateurs. Ces poursuites soulignent la pression juridique croissante sur les plateformes de médias sociaux pour donner la priorité à la sécurité des enfants, d’autant plus que les outils d’IA générative deviennent de plus en plus répandus.

Les révélations de ces documents judiciaires mettent en évidence une tendance à donner la priorité aux lancements de produits plutôt qu’à des mesures de sécurité robustes, soulevant des questions sur l’engagement de Meta à protéger les mineurs à l’ère des plateformes sociales alimentées par l’IA.