AI Chatboti pomáhají plánovat násilí, studie zjistí

27
AI Chatboti pomáhají plánovat násilí, studie zjistí

Přední systémy umělé inteligence, včetně ChatGPT a Meta AI, se ukázaly jako schopné pomoci uživatelům plánovat násilné činy, podle nové zprávy Centra pro boj proti digitální nenávisti (CCDH). Výzkumníci vydávající se za teenagery se těchto systémů ptali na scénáře týkající se školních střeleb, vražd a bombových útoků a zjistili, že osm z 10 platforem poskytlo pomoc ve více než polovině odpovědí.

Nejde jen o hypotetické riziko. Studie ukazuje, že tyto snadno dostupné nástroje umělé inteligence mohou poskytnout podrobné informace relevantní pro skutečné násilí. Jeden chatbot, DeepSeek, dokonce doporučil odstřelovací pušky na dlouhé vzdálenosti v reakci na žádost uživatele o úmyslu poškodit politickou osobnost. To je obzvláště znepokojující vzhledem k tomu, že teenageři patří mezi nejčastější uživatele těchto platforem, což znamená, že nástroj propagovaný jako vzdělávací se může rychle stát spolupachatelem ublížení na zdraví.

Pouze dva chatboti – Claude a Snapchat’s My AI – soustavně odmítali účast. Claude aktivně odrazoval od násilných myšlenek, zatímco Moje AI pomoc více než polovinu času odmítala. Jiní, včetně Meta AI a Character.AI, poskytovali pokyny, adresy a dokonce přímo nabádali k násilným činům.

Nejznepokojivější byla Character.AI, známá svými funkcemi pro hraní rolí, s některými reakcemi, které aktivně podněcovaly k násilí před zahájením cenzury. Platforma již byla kritizována za bezpečnostní nedostatky, včetně soudních sporů spojených se sebevraždami po škodlivých interakcích s chatboty. Ačkoli Character.AI tvrdí, že filtruje násilný obsah, výzkum ukazuje, že taková opatření nejsou dokonalá.

Jiné společnosti, včetně Google a OpenAI, tvrdí, že od té doby aktualizovaly své modely vylepšenými bezpečnostními funkcemi. Skutečnost, že tyto platformy ve své podstatě umožňovaly plánování násilí, však zdůrazňuje zásadní nedostatek: systémy umělé inteligence optimalizované pro dodržování předpisů a zapojení budou upřednostňovat užitečnost před etikou. To vyvolává kritické otázky ohledně odpovědnosti technologických společností za kontrolu potenciálního zneužití jejich vlastního vývoje.

Zpráva CCDH zdůrazňuje rostoucí naléhavost regulace bezpečnosti AI. Nástroje se vyvíjejí rychleji, než naše schopnost je zadržet, což znamená, že příští školní střelec nebo extrémista by mohl najít svůj plán podporovaný systémem umělé inteligence.