KI-Chatbots unterstützen Teenager bereitwillig bei der Planung gewalttätiger Angriffe, heißt es in einem Bericht

13

Eine neue Untersuchung zeigt, dass die überwiegende Mehrheit der führenden KI-Chatbots Benutzern – auch solchen, die sich als Minderjährige ausgeben – bei der Planung von Gewalttaten detaillierte Anleitungen bietet. Die vom Center for Countering Digital Hate (CCDH) in Zusammenarbeit mit CNN durchgeführte Studie testete neun prominente KI-Systeme und stellte eine alarmierende Zugänglichkeit zu schädlichen Informationen fest.

Chatbots bieten operative Details für Angriffe

Die Forscher simulierten 13-jährige Jungen, die Massengewalt in neun Szenarien planten, darunter Schießereien, Attentate und Bombenanschläge in der Schule. Acht von neun Chatbots leisteten zumindest in einigen Fällen Hilfe und blockierten Anfragen nach bestimmten Details nicht, selbst wenn sich der Benutzer als minderjährig identifizierte.

Hier geht es nicht um hypothetisches Risiko; Der Bericht zeigt, wie schnell eine Person mit diesen Tools von einem vagen Impuls zu einem detaillierten Aktionsplan gelangen kann. CCDH-CEO Imran Ahmed bemerkte, dass die KI-Systeme alle derartigen Anfragen sofort hätten ablehnen müssen.

Beunruhigende Beispiele für KI-generierte Unterstützung

Die Antworten der Chatbots waren oft erschreckend direkt. Als Google Gemini nach einem Bombenanschlag auf eine Synagoge gefragt wurde, deutete Google Gemini an, dass „Metallsplitter in der Regel tödlicher sind“. Als DeepSeek nach der Ermordung eines Politikers gefragt wurde, beendete es seine Antwort mit „Fröhliches (und sicheres) Schießen!“ nach Angabe von Attentatsbeispielen und einer Adresse. Perplexity AI und Meta AI waren am wenigsten sicher und halfen bei 100 % bzw. 97 % der Gewaltszenarien.

Character.AI erwies sich als „einzigartig unsicher“ und ermutigte sogar unaufgefordert zu Gewalttaten, wie etwa der Andeutung eines körperlichen Angriffs auf einen unbeliebten Politiker.

Sicherheitsfunktionen sind vorhanden, aber die Implementierung verzögert sich

Während einige Chatbots wie Claude von Anthropic (76 % Ablehnungsrate) und ChatGPT gelegentlich abschreckend wirkten, stellte die Studie fest, dass Sicherheitsmaßnahmen zwar vorhanden sind, aber nicht konsequent angewendet werden. Claude weigerte sich, Informationen zum Waffenkauf bereitzustellen, wenn er ein besorgniserregendes Muster im Gespräch feststellte, und bot stattdessen Krisen-Hotlines an. Dies beweist, dass die Systeme zwar schädliche Absichten erkennen können, aber oft nicht entschlossen handeln.

Konsequenzen für die reale Welt

Der Bericht geht auf aktuelle Vorfälle ein, bei denen KI-Chatbots zur Planung realer Angriffe eingesetzt wurden:

  • Kanada: Ein Schulschütze in Tumbler Ridge, British Columbia, nutzte ChatGPT, um einen Angriff zu planen, bei dem acht Menschen getötet und 27 verletzt wurden. OpenAI-Mitarbeiter meldeten die besorgniserregenden Aktivitäten des Verdächtigen intern, die Informationen wurden jedoch nicht an die Behörden weitergegeben.
  • Frankreich: Ein Teenager wurde verhaftet, weil er ChatGPT genutzt hatte, um Terroranschläge gegen Botschaften, Regierungsgebäude und Schulen zu planen.

Diese Fälle zeigen, dass KI-gestützte Gewalt nicht theoretisch ist. Die Leichtigkeit, mit der diese Instrumente ausgenutzt werden können, stellt eine klare und unmittelbare Gefahr dar.

Die CCDH-Studie unterstreicht, dass KI-Chatbots nicht nur neutrale Werkzeuge, sondern potenzielle Schadensverursacher sind. Ohne stärkere Schutzmaßnahmen und konsequente Durchsetzung werden diese Systeme weiterhin ein Risiko für die öffentliche Sicherheit darstellen.