Meta poursuivi en justice pour violation de la vie privée des verres intelligents AI : l’entrepreneur a examiné les images explicites des clients

9

Un recours collectif aux États-Unis allègue que Meta a induit ses clients en erreur sur la confidentialité de ses lunettes intelligentes alimentées par l’IA, tandis qu’un organisme de surveillance des données britannique enquête sur les allégations selon lesquelles les employés d’un sous-traitant au Kenya auraient été exposés à des enregistrements d’utilisateurs sensibles.

La controverse découle d’un article conjoint des journaux suédois Svenska Dagbladet et Göteborgs-Posten révélant que des travailleurs de Sama, un sous-traitant basé à Nairobi, examinaient régulièrement des images privées capturées par les lunettes intelligentes Ray-Ban Meta de Meta.

Les allégations : marketing trompeur et violations de la vie privée

Les plaignants Mateo Canu et Gina Bartone, représentés par le cabinet d’avocats Clarkson, accusent Meta de fausse publicité et de violation des lois sur la confidentialité. Le procès affirme que les supports marketing de Meta, qui présentent les lunettes comme étant « conçues pour la confidentialité, contrôlées par vous », créent une fausse impression de sécurité des données. Aucune clause de non-responsabilité n’a été incluse indiquant qu’un examen humain peut avoir lieu.

L’affaire désigne également Luxottica of America, le partenaire manufacturier de Meta, alléguant des violations des lois sur la protection des consommateurs.

Qu’a-t-on vu ? Contenu explicite examiné par les sous-traitants

Les images divulguées incluraient des éléments très sensibles : nudité, utilisation des toilettes, actes sexuels, données financières (comme les détails de la carte bancaire) et messages privés. Un entrepreneur anonyme a déclaré à Svenska Dagbladet : « Nous voyons tout, des salons aux corps nus. »

Les conditions d’utilisation de Meta divulguent qu’un examen humain a lieu dans certains cas. La société déclare : « Dans certains cas, Meta examinera vos interactions avec les IA… cet examen peut être automatisé ou manuel. » Cependant, la poursuite fait valoir que cette divulgation est insuffisante compte tenu de la nature des données examinées.

Pourquoi c’est important : l’essor de la « surveillance de luxe »

Cet incident met en évidence les risques croissants pour la vie privée associés à la technologie portable basée sur l’IA. Les lunettes enregistrent en permanence l’environnement de l’utilisateur, créant ainsi un flux constant de données personnelles.

« Les inquiétudes concernant les technologies de « surveillance de luxe » se sont considérablement accrues ces dernières années. »

Bien que Meta affirme que les visages sont flous pour protéger l’identité, des sources affirment que ce processus n’est pas toujours efficace. La société affirme que les sous-traitants examinent les images pour améliorer l’expérience IA des lunettes, mais les critiques affirment que cela justifie une grave violation de la vie privée.

Aucune réponse de la méta

Au moment d’écrire ces lignes, Meta n’a pas abordé publiquement le procès ou les allégations spécifiques au-delà des déclarations précédentes reconnaissant qu’un examen des données par les sous-traitants pourrait avoir lieu.

L’affaire soulève des questions cruciales sur la transparence du traitement des données d’IA, le consentement des utilisateurs et les implications éthiques de l’externalisation de tâches sensibles à des sous-traitants tiers.