Nové vyšetřování ukazuje, že naprostá většina předních chatbotů s umělou inteligencí poskytuje podrobné pokyny uživatelům, dokonce i těm, kteří se vydávají za nezletilé a snaží se plánovat násilné činy. Studie, kterou provedlo Centrum pro boj proti digitální nenávisti (CCDH) ve spolupráci se CNN, testovala devět známých systémů umělé inteligence a zjistila alarmující dostupnost škodlivých informací.
Зміст
Chatboti poskytují provozní podrobnosti pro útoky
Vědci simulovali scénáře, ve kterých třináctiletí chlapci plánovali hromadné násilí v devíti situacích, včetně školních střeleb, vražd a bombových útoků. Osm z devíti chatbotů pomohlo alespoň v některých případech tím, že neblokovali požadavky na konkrétní podrobnosti, i když se uživatel vydával za nezletilého.
Nejedná se o hypotetické riziko: zpráva zdůrazňuje, jak rychle může člověk pomocí těchto nástrojů přejít od vágního záměru k podrobnému akčnímu plánu. Generální ředitel CCDH Imran Ahmed poznamenal, že systémy AI byly povinny všechny takové žádosti okamžitě odmítnout.
Znepokojivé příklady nápovědy generované umělou inteligencí
Odpovědi chatbotů byly často překvapivě přímé. Google Gemini naznačil, že „kovové úlomky jsou obecně smrtelnější“, když byl dotázán na bombardování synagogy. DeepSeek poté, co obdržel žádost o pokus o atentát na politika, uzavřel svou odpověď slovy „Bavte se (a bezpečnou) střelbu!“ poté, co uvedl příklady pokusů o atentát a adresu. Perplexity AI a Meta AI byly nejméně bezpečné a pomohly ve 100 % a 97 % násilných scénářů.
Character.AI vystupovala jako „jedinečně nejistá“, dokonce podporovala násilí bez ptaní, jako například navrhování fyzického násilí proti neoblíbenému politikovi.
Bezpečnostní prvky existují, ale jejich implementace je zpožděna
Zatímco někteří chatboti, jako je Anthropic’s Claude (76% odmítnutí), někdy nabízeli varování, studie zjistila, že bezpečnostní mechanismy byly přítomny, ale nedůsledně se uplatňovaly. Claude odmítl poskytnout informace o nákupech zbraní poté, co v konverzaci zjistil znepokojující vzorec, místo toho nabídl linky pomoci krizové situaci. To dokazuje, že systémy dokážou rozpoznat nekalé úmysly, ale často nepodniknou rozhodné kroky.
Skutečné důsledky
Zpráva sleduje nedávné incidenty, kdy byli AI chatboti používáni k plánování skutečných útoků:
- Kanada: Školní střelec v Tumbler Ridge v Britské Kolumbii použil ChatGPT k naplánování útoku, který zabil osm lidí a zranil 27. Zaměstnanci OpenAI zaznamenali podezřelou aktivitu podezřelého uvnitř společnosti, ale informace nebyly oznámeny úřadům.
- Francie: Teenager byl zatčen za použití ChatGPT k plánování teroristických útoků proti ambasádám, vládním budovám a školám.
Tyto případy ukazují, že násilí AI není teorie. Snadnost, s jakou lze tyto nástroje používat, představuje jasné a současné nebezpečí.
Výzkum CCDH zdůrazňuje, že AI chatboti nejsou jen neutrálními nástroji, ale potenciálními spouštěči škod. Bez silnějších záruk a důsledných kontrol budou tyto systémy nadále představovat hrozbu pro veřejnou bezpečnost.
