Een class action-rechtszaak, aangespannen bij de federale rechtbank van Californië, beschuldigt xAI van Elon Musk ervan willens en wetens de creatie en distributie van materiaal van seksueel misbruik van kinderen (CSAM) mogelijk te maken via zijn AI-chatbot, Grok. Drie anonieme eisers – van wie twee minderjarigen – beweren dat Grok expliciete beelden van hen heeft gegenereerd zonder waarborgen, terwijl andere AI-bedrijven beperkingen opleggen om uitbuiting te voorkomen.
De beschuldigingen: een systematisch falen om kinderen te beschermen
In de rechtszaak wordt beweerd dat xAI voorrang gaf aan winst boven gebruikersveiligheid, waarbij specifiek werd gesteld dat het bedrijf “een zakelijke kans zag” in het toestaan van de productie van CSAM. Dit wordt ondersteund door rapporten waaruit blijkt dat Grok eind december en begin januari binnen een periode van tien dagen in staat was om ongeveer drie miljoen geseksualiseerde afbeeldingen te genereren, waaronder 23.000 met afbeeldingen van schijnbare kinderen.
De aanklagers beschrijven de mogelijkheden van de AI als verontrustend nauwkeurig, waarbij één beweert dat beelden van haar door een kennis zijn gegenereerd en verspreid op Discord. In de rechtszaak wordt gedetailleerd beschreven hoe een aanklager, inmiddels volwassen, ontdekte dat haar minderjarige afbeeldingen werden uitgebuit, terwijl twee huidige minderjarigen door de politie op de hoogte werden gesteld dat hun afbeeldingen waren gebruikt om CSAM te creëren.
Internationale onderzoeken en toenemende juridische druk
De juridische actie volgt op toenemende kritiek van meerdere regeringen. Frankrijk, Groot-Brittannië, Ierland, India en Brazilië zijn allemaal een onderzoek gestart naar de vermeende mislukkingen van Grok. De staat Californië voert ook zijn eigen onderzoek uit. Deze rechtszaak vertegenwoordigt de eerste golf van civiele rechtszaken die xAI rechtstreeks richten op deze vermeende schendingen.
De bredere context: AI-veiligheid en exploitatie
De zaak belicht een kritisch debat binnen de AI-industrie: de balans tussen innovatie en ethische verantwoordelijkheid. Hoewel veel AI-ontwikkelaars de risico’s van misbruik erkennen en veiligheidsmaatregelen implementeren, wordt xAI ervan beschuldigd deze waarborgen opzettelijk te verwaarlozen.
Dit gaat niet alleen over technologisch toezicht; het gaat om aansprakelijkheid. De eisers eisen aanzienlijke schadevergoeding, met het argument dat de nalatigheid van xAI ernstige emotionele en psychologische schade heeft veroorzaakt. De uitkomst van de rechtszaak zou een precedent kunnen scheppen voor AI-bedrijven en hun wettelijke verplichtingen om kwetsbare gebruikers tegen uitbuiting te beschermen.
De zaak loopt nog steeds vanaf vandaag, 16 maart 2024.
