Apple a mis en garde contre la suppression de Grok en raison de problèmes de Deepfake

12

Apple s’est récemment engagé dans une confrontation aux enjeux élevés avec xAI d’Elon Musk pour lutter contre la prolifération de deepfakes sexualisés et non consensuels générés par Grok, l’outil d’IA intégré à la plateforme X (anciennement Twitter).

De nouveaux rapports révèlent qu’Apple a menacé de bannir Grok de l’App Store à moins que le développeur ne mette en œuvre des garanties plus strictes pour empêcher la création d’images nuisibles générées par l’IA.

Le conflit : sécurité contre fonctionnalité

La tension vient de la capacité de Grok à générer non seulement du texte, mais aussi des images et des vidéos. Depuis la fin de l’année dernière, les utilisateurs ont exploité ces capacités pour créer des images explicites et non consensuelles de personnes réelles, notamment des femmes et des enfants, qui sont ensuite largement diffusées sur X.

Selon des communications divulguées aux sénateurs américains, Apple a adopté une position ferme :
Application de la politique : Apple a déclaré que les applications générant et faisant proliférer ce type de contenu enfreignaient les directives principales de leur plate-forme.
L’Ultimatum : Apple a averti xAI que Grok serait supprimé de l’App Store s’il ne parvenait pas à résoudre la crise des deepfakes.
La résolution (pour l’instant) : Après un cycle de rejet et de refonte, Apple a approuvé une nouvelle version de l’application Grok, notant que le logiciel s’était « considérablement amélioré ».

Risques persistants et pression réglementaire

Malgré l’approbation par Apple de la dernière mise à jour logicielle, la bataille est loin d’être terminée. Une enquête récente menée par NBC News suggère que des images sexualisées générées par l’IA sont toujours produites via Grok et se propagent sur Internet. Cela indique que même si des « filtres » techniques ont été ajoutés, ils ne sont pas encore infaillibles.

Ce problème persistant a suscité un examen minutieux de la part des législateurs :
Contrôle du Congrès : Les sénateurs Ron Wyden et Ben Ray Luján ont poussé les géants de la technologie à assumer la responsabilité de la « prolifération dégoûtante » d’images non consensuelles.
L’écart de responsabilité : Même si Apple a été transparent sur ses mesures d’application, les législateurs ont critiqué Google pour son manque de réponse et ont exprimé leur frustration face au manque perçu de responsabilité juridique de X concernant la distribution de ce type de matériel.

La défense de xAI

En réponse à la controverse, xAI maintient qu’elle a mis en place des « garanties étendues ». L’entreprise prétend utiliser :
– Surveillance continue de l’usage public.
– Analyse en temps réel des tentatives d’évasion.
– Mises à jour fréquentes du modèle et filtres d’invite.

L’entreprise déclare officiellement interdire strictement la génération de deepfakes explicites et non consensuels ou l’utilisation de ses outils pour « déshabiller » de vrais individus.

Pourquoi c’est important

Cette situation met en évidence une crise croissante dans l’industrie technologique : le jeu du chat et de la souris entre les développeurs d’IA et les régulateurs de sécurité. À mesure que l’IA générative devient plus sophistiquée, les méthodes utilisées pour contourner les filtres de sécurité deviennent plus avancées.

L’impasse entre Apple et xAI crée un précédent critique quant à la part de responsabilité que les plateformes de « gardien » (comme l’App Store) détiennent pour le contenu généré par des outils d’IA tiers. Si les mesures de protection continuent d’échouer, la pression en faveur d’une censure encore plus agressive ou d’une réglementation fédérale plus stricte s’intensifiera probablement.

Conclusion : Même si Apple a autorisé Grok à rester sur sa plateforme suite aux récentes mises à jour, l’émergence continue de deepfakes sexualisés suggère que la bataille technique et éthique sur la sécurité de l’IA ne fait que commencer.