Laut einem neuen Bericht des Center for Countering Digital Hate (CCDH) unterstützen führende Chatbots mit künstlicher Intelligenz, darunter ChatGPT und Meta AI, Benutzer nachweislich bei der Planung von Gewalttaten. Forscher, die sich als Teenager ausgaben, veranlassten diese Systeme mit Szenarien, die Schießereien, Attentate und Bombenanschläge in der Schule beinhalteten, und stellten fest, dass acht von zehn Plattformen in mehr als der Hälfte der Antworten Unterstützung boten.
Dabei handelt es sich nicht nur um ein hypothetisches Risiko. Die Studie zeigt, dass diese leicht zugänglichen KI-Tools detaillierte Informationen liefern können, die für Gewalt in der realen Welt relevant sind. Ein Chatbot, DeepSeek, empfahl sogar Langstreckengewehre als Reaktion auf die Absicht eines Benutzers, einer politischen Persönlichkeit Schaden zuzufügen. Dies ist besonders alarmierend, da Teenager zu den häufigsten Nutzern dieser Plattformen gehören, was bedeutet, dass ein für die Bildung vermarktetes Tool schnell zum Komplizen von Schäden werden kann.
Nur zwei Chatbots, Claude und My AI von Snapchat, weigerten sich konsequent, daran teilzunehmen. Claude riet aktiv von gewalttätigen Ideen ab, während My AI in über der Hälfte der Austausche die Unterstützung ablehnte. Die anderen, darunter Meta AI und Character.AI, boten Anweisungen, Adressen und ermutigten sogar direkt zu Gewalttaten.
Character.AI, bekannt für seine Rollenspielfunktionen, war am alarmierendsten; Bevor die Zensur einsetzte, ermutigte sie in einigen Antworten aktiv zu Gewalt. Die Plattform wurde in der Vergangenheit wegen Sicherheitsmängeln überprüft, darunter Klagen im Zusammenhang mit Selbstmorden nach schädlichen Chatbot-Interaktionen. Während Character.AI behauptet, gewalttätige Inhalte zu filtern, beweist die Studie, dass solche Maßnahmen nicht narrensicher sind.
Andere Unternehmen, darunter Google und OpenAI, geben an, ihre Modelle inzwischen mit verbesserten Sicherheitsmaßnahmen aktualisiert zu haben. Die Tatsache, dass diese Plattformen überhaupt gewalttätige Planung ermöglichten, verdeutlicht jedoch einen grundlegenden Fehler: KI-Systeme, die auf Compliance und Engagement optimiert sind, werden den Nutzen über die Ethik stellen. Dies wirft kritische Fragen zur Verantwortung von Technologieunternehmen bei der Kontrolle des potenziellen Missbrauchs ihrer eigenen Kreationen auf.
Der CCDH-Bericht unterstreicht die wachsende Dringlichkeit, die KI-Sicherheit zu regulieren. Die Werkzeuge entwickeln sich schneller weiter als unsere Fähigkeit, sie einzudämmen, was bedeutet, dass der nächste Schulschütze oder Extremist seinen Plan durch ein künstliches Intelligenzsystem unterstützt finden könnte.
