Apple niedawno wdało się w poważny spór z xAI Elona Muska, aby zaradzić rozprzestrzenianiu się fałszywych fałszywych informacji o charakterze seksualnym i dokonywanych bez ich zgody. Obrazy te są generowane przez Grok, narzędzie sztucznej inteligencji zintegrowane z platformą X (dawniej Twitter).
Według nowych doniesień Apple zagroził zablokowaniem Groka w App Store, chyba że programista wdroży silniejsze zabezpieczenia zapobiegające tworzeniu złośliwych treści generowanych przez sztuczną inteligencję.
Зміст
Konflikt: bezpieczeństwo a funkcjonalność
Napięcie wynika ze zdolności Groka do generowania nie tylko tekstu, ale także obrazów i filmów. Od końca ubiegłego roku użytkownicy wykorzystują te możliwości do tworzenia wyraźnych, nieautoryzowanych obrazów prawdziwych ludzi, w tym kobiet i dzieci, które następnie są szeroko udostępniane w X.
Z dokumentów przedstawionych amerykańskim senatorom wynika, że Apple zajął twarde stanowisko:
– Zgodność z Zasadami: Firma Apple stwierdziła, że aplikacje generujące i rozpowszechniające takie treści naruszają podstawowe zasady platformy.
– Ultimatum: Apple ostrzegł xAI, że Grok zostanie usunięty z App Store, jeśli firma nie rozwiąże kryzysu związanego z deepfake.
– Rozwiązanie (jak dotąd): Po serii niepowodzeń i poprawek Apple zatwierdził nową wersję aplikacji Grok, zauważając, że oprogramowanie zostało „znacznie ulepszone”.
Ciągłe ryzyko i presja regulacyjna
Mimo że Apple zatwierdził najnowszą aktualizację oprogramowania, bitwa jeszcze się nie skończyła. Niedawne dochodzenie NBC News ujawnia, że obrazy o charakterze seksualnym generowane przez sztuczną inteligencję przy użyciu Groka są nadal produkowane i rozpowszechniane w Internecie. Oznacza to, że chociaż dodano techniczne „filtry”, nie są one jeszcze doskonałe.
Ten długotrwały problem przykuł uwagę ustawodawców:
– Nadzór Kongresu: senatorowie Ron Wyden i Ben Ray Luján wezwali gigantów technologicznych do wzięcia odpowiedzialności za „odrażającą dystrybucję” obrazów stworzonych bez zgody.
– Problem z odpowiedzialnością: Chociaż Apple głośno wypowiadało się na temat swoich wysiłków w zakresie bezpieczeństwa, prawodawcy skrytykowali Google za brak działań i skarżyli się na brak odpowiedzialności prawnej X za rozpowszechnianie takich materiałów.
Pozycja obrony xAI
W odpowiedzi na skandal xAI twierdzi, że „wdrożyło szeroko zakrojone środki bezpieczeństwa”. Firma twierdzi, że stosuje następujące metody:
– Stały monitoring użytkowania publicznego.
– Analiza prób ominięcia filtrów w czasie rzeczywistym.
– Częste aktualizacje modelu i żądania filtrowania (podpowiedzi).
Oficjalnie firma twierdzi, że surowo zabrania generowania rażących deepfake’ów bez zgody uczestników, a także wykorzystywania swoich narzędzi do „rozbierania” prawdziwych ludzi.
Dlaczego to jest ważne?
Sytuacja uwydatnia narastający kryzys w branży technologicznej: gra w kotka i myszkę pomiędzy twórcami sztucznej inteligencji a organami regulacyjnymi ds. bezpieczeństwa. W miarę jak generatywna sztuczna inteligencja staje się coraz bardziej zaawansowana, metody omijania filtrów bezpieczeństwa również stają się coraz bardziej wyrafinowane.
Spór między Apple a xAI stanowi ważny precedens dla tego, jak dużą odpowiedzialność platformy gatekeeperów (takie jak App Store) ponoszą za treści generowane przez narzędzia AI innych firm. Jeśli zabezpieczenia będą nadal słabnąć, prawdopodobnie wzrośnie presja na jeszcze bardziej agresywną cenzurę lub bardziej rygorystyczne regulacje federalne.
Wniosek: Chociaż Apple pozwolił Grokowi pozostać na swojej platformie po ostatnich aktualizacjach, ciągłe pojawianie się deepfake’ów o charakterze seksualnym sugeruje, że techniczna i etyczna walka o bezpieczeństwo sztucznej inteligencji dopiero się rozpoczyna.
