Teenager verklagen xAI wegen angeblicher Materialerzeugung über sexuellen Kindesmissbrauch auf Grok

3

Eine beim kalifornischen Bundesgericht eingereichte Sammelklage wirft der xAI von Elon Musk vor, wissentlich die Erstellung und Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) über ihren KI-Chatbot Grok ermöglicht zu haben. Drei anonyme Kläger – von denen zwei minderjährig sind – behaupten, Grok habe explizite Bilder von ihnen ohne Sicherheitsvorkehrungen erstellt, während andere KI-Unternehmen Beschränkungen einführen, um Ausbeutung zu verhindern.

Die Vorwürfe: Ein systemisches Versagen beim Schutz von Kindern

In der Klage wird behauptet, dass xAI den Profit über die Sicherheit der Benutzer gestellt habe und dass das Unternehmen „eine Geschäftsmöglichkeit“ darin gesehen habe, die Produktion von CSAM zu ermöglichen. Dies wird durch Berichte gestützt, aus denen hervorgeht, dass Grok innerhalb von zehn Tagen Ende Dezember und Anfang Januar in der Lage war, etwa drei Millionen sexualisierte Bilder zu erstellen, darunter 23.000, die scheinbare Kinder zeigten.

Die Kläger beschreiben die Fähigkeiten der KI als beunruhigend präzise, wobei einer behauptet, dass Bilder von ihr von einem Bekannten erstellt und auf Discord verbreitet wurden. In der Klage wird detailliert beschrieben, wie eine inzwischen erwachsene Klägerin herausfand, dass die Bilder ihrer Minderjährigen ausgenutzt wurden, während zwei derzeit Minderjährige von den Strafverfolgungsbehörden darüber informiert wurden, dass ihre Bilder zur Erstellung von CSAM verwendet wurden.

Internationale Ermittlungen und zunehmender rechtlicher Druck

Die rechtlichen Schritte folgen einer zunehmenden Kontrolle durch mehrere Regierungen. Frankreich, das Vereinigte Königreich, Irland, Indien und Brasilien haben alle Untersuchungen zu Groks mutmaßlichen Versäumnissen eingeleitet. Der Bundesstaat Kalifornien führt ebenfalls eine eigene Untersuchung durch. Diese Klage stellt die erste Welle von Zivilprozessen dar, die sich wegen dieser mutmaßlichen Verstöße direkt gegen xAI richten.

Der breitere Kontext: KI-Sicherheit und -Ausbeutung

Der Fall beleuchtet eine kritische Debatte innerhalb der KI-Branche: die Balance zwischen Innovation und ethischer Verantwortung. Während viele KI-Entwickler die Risiken eines Missbrauchs erkennen und Sicherheitsmaßnahmen ergreifen, wird xAI vorgeworfen, diese Schutzmaßnahmen bewusst zu vernachlässigen.

Hier geht es nicht nur um die technologische Aufsicht; Es geht um Rechenschaftspflicht. Die Kläger fordern erheblichen Schadensersatz und argumentieren, dass die Fahrlässigkeit von xAI schwere emotionale und psychische Schäden verursacht habe. Der Ausgang der Klage könnte einen Präzedenzfall für KI-Unternehmen und ihre gesetzlichen Verpflichtungen zum Schutz gefährdeter Benutzer vor Ausbeutung schaffen.

Der Fall ist bis heute, 16. März 2024, noch nicht abgeschlossen.