Interne Dokumente zeigen, dass die Meta-Führung Sicherheitswarnungen über KI-Begleiter, die sich an expliziten romantischen Interaktionen beteiligen, einschließlich solcher mit Minderjährigen, zurückgewiesen hat. Das Unternehmen setzte den Start trotz Einwänden seiner eigenen Sicherheitsteams fort, wie aus Gerichtsakten hervorgeht, die am Montag im Rahmen einer Klage des Generalstaatsanwalts von New Mexico, Raúl Torrez, entsiegelt wurden.
Sicherheitsbedenken übersehen
Kommunikationen zwischen Meta-Sicherheitsmanagern wie Ravi Sinha (Leiter der Kindersicherheitsrichtlinie) und Antigone Davis (Leiterin für globale Sicherheit) bestätigen, dass sie Bedenken hinsichtlich der Möglichkeit geäußert haben, dass Chatbots für sexuell eindeutige Interaktionen missbraucht werden, insbesondere mit minderjährigen Benutzern. Diese Beamten waren sich über die Notwendigkeit von Schutzmaßnahmen einig, aber Dokumente deuten darauf hin, dass CEO Mark Zuckerberg Empfehlungen für Kindersicherungen, einschließlich der Option zur Deaktivierung generativer KI-Funktionen, ablehnte, bevor die Plattform KI-Begleiter auf den Markt brachte.
Diese Entscheidung ist besonders besorgniserregend, da Meta bereits mit mehreren Klagen wegen der Auswirkungen seiner Produkte auf Minderjährige konfrontiert ist. Dazu gehören ein potenzieller Schwurgerichtsprozess wegen des süchtig machenden Designs von Facebook und Instagram sowie eine umfassendere rechtliche Prüfung von Konkurrenten wie YouTube, TikTok und Snapchat.
Predator-Marktplätze
Die unversiegelten Mitteilungen sind Teil des Entdeckungsprozesses im Verfahren von Torrez gegen Meta, das 2023 eingereicht wurde. Der Generalstaatsanwalt behauptet, Meta habe zugelassen, dass seine Plattformen zu „Marktplätzen für Raubtiere“ wurden. Weitere Gerichtsakten aus einer bezirksübergreifenden Klage in Kalifornien ergaben auch, dass die Führungskräfte von Meta wussten, dass „Millionen“ Erwachsene auf ihren Websites Minderjährige kontaktierten. Die Reaktion von Meta bestand darin, die selektive Verwendung von Dokumenten zu fordern und vergangene Sicherheitsverbesserungen hervorzuheben.
„Die vollständige Bilanz wird zeigen, dass wir über ein Jahrzehnt lang den Eltern zugehört, die wichtigsten Themen untersucht und echte Veränderungen vorgenommen haben, um Jugendliche zu schützen“, sagte ein Meta-Sprecher.
Vorübergehende Korrekturen und weitere Überprüfung
Meta hat im August den Zugang von Teenagern zu Chatbots vorübergehend unterbrochen, nachdem Reuters berichtet hatte, dass interne KI-Regeln „sinnliche“ oder „romantische“ Gespräche erlaubten. Später überarbeitete das Unternehmen seine Richtlinien, um Inhalte im Zusammenhang mit sexuellem Kindesmissbrauch und romantischen Rollenspielen mit Minderjährigen zu verbieten. Letzte Woche sperrte es KI-Chatbots erneut und entwickelte gleichzeitig eine Version mit Kindersicherung.
Torrez hat auch rechtliche Schritte gegen Snapchat eingeleitet und der Plattform vorgeworfen, Sextortion und Grooming zu ermöglichen und sich gleichzeitig als sicher für junge Nutzer zu bewerben. Diese Klagen unterstreichen den wachsenden rechtlichen Druck auf Social-Media-Plattformen, der Kindersicherheit Priorität einzuräumen, insbesondere da generative KI-Tools immer häufiger eingesetzt werden.
Die Enthüllungen aus diesen Gerichtsdokumenten verdeutlichen ein Muster, bei dem Produkteinführungen Vorrang vor strengen Sicherheitsmaßnahmen haben, was Fragen zu Metas Engagement für den Schutz Minderjähriger im Zeitalter KI-gestützter sozialer Plattformen aufwirft.





























