Meta wiedziała o ryzyku niewłaściwych interakcji na czacie AI przed uruchomieniem

10

Dokumenty wewnętrzne pokazują, że kierownictwo Meta zignorowało ostrzeżenia dotyczące bezpieczeństwa dotyczące towarzyszy AI angażujących się w jawnie romantyczne relacje, w tym interakcje z nieletnimi. Firma kontynuowała premierę pomimo sprzeciwu własnych zespołów ds. bezpieczeństwa, jak wynika z dokumentów sądowych ujawnionych w poniedziałek w ramach pozwu złożonego przez prokuratora generalnego Nowego Meksyku Raula Torresa.

Ignorowanie problemów związanych z bezpieczeństwem

Korespondencja między dyrektorami ds. bezpieczeństwa firmy Meta, takimi jak Ravi Sinha (szef ds. polityki bezpieczeństwa dzieci) i Antigone Davis (szef ds. bezpieczeństwa globalnego) potwierdza, że wyrazili oni obawy dotyczące możliwości wykorzystania chatbotów do interakcji o charakterze jednoznacznie seksualnym, zwłaszcza z udziałem nieletnich użytkowników. Urzędnicy ci zgodzili się, że potrzebne są środki bezpieczeństwa, ale z dokumentów wynika, że ​​dyrektor generalny Mark Zuckerberg odrzucił zalecenia dotyczące kontroli rodzicielskiej, w tym możliwości wyłączenia funkcji generujących sztuczną inteligencję, przed uruchomieniem na platformie towarzyszy AI.

Decyzja ta jest szczególnie niepokojąca, biorąc pod uwagę, że Meta stoi już w obliczu wielu procesów sądowych w związku z wpływem jej produktów na nieletnich. Obejmują one możliwe spory sądowe dotyczące uzależniającego wyglądu Facebooka i Instagrama, a także szerszą kontrolę prawną konkurentów, takich jak YouTube, TikTok i Snapchat.

Targi drapieżników

Odtajnione materiały komunikacyjne są częścią procesu odkrywczego w sprawie Torres przeciwko Meta, sprawy wniesionej w 2023 r. Prokurator generalny twierdzi, że Meta pozwoliła swoim platformom stać się „rynkami drapieżników”. Dalsze pisma sądowe przedstawione w ramach wielookręgowego pozwu w Kalifornii ujawniły również, że kadra kierownicza Meta była świadoma „milionów” przypadków osób dorosłych kontaktujących się z nieletnimi na swoich stronach internetowych. Reakcją Meta było zapewnienie selektywnego korzystania z dokumentów i podkreślenie wcześniejszych ulepszeń bezpieczeństwa.

„Pełen zestaw dokumentów pokaże, że przez ponad dekadę słuchaliśmy rodziców, badaliśmy najważniejsze kwestie i wprowadzaliśmy rzeczywiste zmiany, aby chronić nastolatków” – powiedział rzecznik Meta.

Tymczasowe poprawki i dalszy monitoring

Meta tymczasowo zawiesiła dostęp nastolatków do chatbotów w sierpniu po tym, jak Reuters poinformował, że wewnętrzne zasady sztucznej inteligencji zezwalające na „zmysłowe” lub „romantyczne” rozmowy. Firma zmieniła później swoje wytyczne dotyczące zakazu treści związanych z wykorzystywaniem seksualnym dzieci i romantycznymi grami RPG z udziałem nieletnich, a następnie w zeszłym tygodniu ponownie zablokowała chatboty AI do czasu opracowania wersji z kontrolą rodzicielską.

Torres podjął także kroki prawne przeciwko Snapchatowi, oskarżając platformę o ułatwianie wymuszeń i uwodzenia, a jednocześnie reklamowanie się jako bezpiecznej dla młodych użytkowników. Pozwy te podkreślają rosnącą presję prawną na platformy mediów społecznościowych, aby priorytetowo traktowały bezpieczeństwo dzieci, zwłaszcza w obliczu coraz większej popularności generatywnych narzędzi sztucznej inteligencji.

Ujawnienia zawarte w tych dokumentach sądowych podkreślają tendencję do przedkładania premier produktów nad solidne środki bezpieczeństwa, co rodzi pytania dotyczące zaangażowania Meta w ochronę nieletnich w erze platform społecznościowych opartych na sztucznej inteligencji.