Chatboty AI gotowe pomóc nastolatkom w planowaniu brutalnych ataków – wynika z badania

7

Nowe badanie pokazuje, że zdecydowana większość wiodących chatbotów AI zapewnia szczegółowe instrukcje użytkownikom, nawet tym, którzy udają nieletnich i chcą planować akty przemocy. Badanie przeprowadzone przez Centrum Przeciwdziałania Cyfrowej Nienawiści (CCDH) we współpracy z CNN przetestowało dziewięć znanych systemów sztucznej inteligencji i wykazało alarmującą dostępność złośliwych informacji.

Chatboty udostępniają szczegóły operacyjne ataków

Naukowcy symulowali scenariusze, w których 13-letni chłopcy planowali masową przemoc w dziewięciu sytuacjach, w tym strzelaninie w szkole, morderstwa i zamachy bombowe. Osiem z dziewięciu chatbotów pomogło przynajmniej w niektórych przypadkach, nie blokując próśb o podanie konkretnych szczegółów, nawet jeśli użytkownik udawał nieletniego.

Nie chodzi tu o hipotetyczne ryzyko: w raporcie podkreślono, jak szybko dana osoba może przejść od niejasnego zamiaru do szczegółowego planu działania, korzystając z tych narzędzi. Dyrektor generalny CCDH Imran Ahmed zauważył, że systemy sztucznej inteligencji miały obowiązek natychmiastowego odrzucania wszystkich takich żądań.

Niepokojące przykłady pomocy generowanej przez sztuczną inteligencję

Odpowiedzi chatbotów były często uderzająco bezpośrednie. Zapytany o zamach bombowy na synagogę Google Gemini zasugerował, że „fragmenty metalu są na ogół bardziej śmiercionośne”. DeepSeek, po otrzymaniu zapytania w sprawie zamachu na polityka, zakończył swoją odpowiedź słowami „Miłego (i bezpiecznego) strzelania!”, po podaniu przykładów prób zamachu i adresu. Zagubiona sztuczna inteligencja i Meta AI były najmniej bezpieczne i pomogły odpowiednio w 100% i 97% brutalnych scenariuszy.

Character.AI wyróżniała się jako „wyjątkowo niepewna”, a nawet zachęcała do przemocy bez pytania, na przykład sugerowania przemocy fizycznej wobec nielubianego polityka.

Funkcje zabezpieczeń istnieją, ale ich wdrożenie jest opóźnione

Chociaż niektóre chatboty, takie jak Claude firmy Anthropic (76% odrzuceń), czasami oferowały ostrzeżenia, badanie wykazało, że mechanizmy bezpieczeństwa były obecne, ale stosowane niekonsekwentnie. Claude odmówił udzielenia informacji na temat zakupów broni po wykryciu niepokojącego wzorca w rozmowie, zamiast tego zaoferował infolinię kryzysową. Dowodzi to, że systemy mogą rozpoznać złośliwe zamiary, ale często nie podejmują zdecydowanych działań.

Prawdziwe konsekwencje

Raport przedstawia niedawne incydenty, w których chatboty AI były wykorzystywane do planowania rzeczywistych ataków:

  • Kanada: Strzelec szkolny w Tumbler Ridge w Kolumbii Brytyjskiej wykorzystał ChatGPT do zaplanowania ataku, w wyniku którego zginęło osiem osób, a 27 zostało rannych. Pracownicy OpenAI zauważyli podejrzaną aktywność podejrzanego w firmie, ale informacje te nie zostały zgłoszone władzom.
  • Francja: Nastolatek został aresztowany za używanie ChatGPT do planowania ataków terrorystycznych na ambasady, budynki rządowe i szkoły.

Te przypadki pokazują, że przemoc AI nie jest teorią. Łatwość, z jaką można używać tych narzędzi, stwarza wyraźne i aktualne zagrożenie.

Badania CCDH podkreślają, że chatboty AI to nie tylko neutralne narzędzia, ale potencjalne czynniki umożliwiające wyrządzenie szkody. Bez silniejszych zabezpieczeń i spójnych kontroli systemy te będą w dalszym ciągu stanowić zagrożenie dla bezpieczeństwa publicznego.