Apple is onlangs verwikkeld in een confrontatie met de xAI van Elon Musk om de proliferatie van niet-consensuele, geseksualiseerde deepfakes aan te pakken die zijn gegenereerd door Grok, de AI-tool die is geïntegreerd in het X-platform (voorheen Twitter).
Uit nieuwe rapporten blijkt dat Apple heeft gedreigd Grok uit de App Store te verbannen, tenzij de ontwikkelaar strengere veiligheidsmaatregelen implementeert om de creatie van schadelijke, door AI gegenereerde beelden te voorkomen.
Зміст
Het conflict: veiligheid versus functionaliteit
De spanning komt voort uit het vermogen van Grok om niet alleen tekst, maar ook afbeeldingen en video’s te genereren. Sinds eind vorig jaar hebben gebruikers deze mogelijkheden uitgebuit om expliciete, niet-consensuele beelden van echte mensen te creëren – inclusief vrouwen en kinderen – die vervolgens op grote schaal op X worden verspreid.
Volgens mededelingen aan Amerikaanse senatoren heeft Apple een krachtig standpunt ingenomen:
– Beleidshandhaving: Apple heeft verklaard dat apps die dergelijke inhoud genereren en verspreiden, de belangrijkste platformrichtlijnen schenden.
– Het ultimatum: Apple waarschuwde xAI dat Grok uit de App Store zou worden verwijderd als het er niet in zou slagen de deepfake-crisis aan te pakken.
– De oplossing (voor nu): Na een cyclus van afwijzing en herwerking heeft Apple een nieuwe versie van de Grok-app goedgekeurd, waarbij werd opgemerkt dat de software “substantieel verbeterd” was.
Aanhoudende risico’s en regeldruk
Ondanks de goedkeuring door Apple van de nieuwste software-update is de strijd nog lang niet gestreden. Uit een recent onderzoek door NBC News blijkt dat geseksualiseerde, door AI gegenereerde afbeeldingen nog steeds via Grok worden geproduceerd en zich over het internet verspreiden. Dit geeft aan dat er weliswaar technische “filters” zijn toegevoegd, maar dat deze nog niet onfeilbaar zijn.
Deze aanhoudende kwestie heeft veel aandacht gekregen van wetgevers:
– Congrestoezicht: Senatoren Ron Wyden en Ben Ray Luján hebben technologiegiganten ertoe aangezet verantwoordelijkheid te nemen voor de “walgelijke verspreiding” van niet-consensuele beelden.
– De Accountability Gap: Hoewel Apple transparant is geweest over haar handhavingsmaatregelen, hebben wetgevers Google bekritiseerd vanwege een gebrek aan reactie en hun frustratie geuit over het waargenomen gebrek aan juridische aansprakelijkheid voor X met betrekking tot de distributie van dergelijk materiaal.
De verdediging van xAI
Als reactie op de controverse beweert xAI dat het over “uitgebreide waarborgen” beschikt. Het bedrijf beweert gebruik te maken van:
– Continue monitoring van openbaar gebruik.
– Real-time analyse van ontwijkingspogingen.
– Frequente modelupdates en snelle filters.
Het bedrijf verklaart officieel dat het het genereren van expliciete deepfakes zonder wederzijds goedvinden of het gebruik van zijn tools om echte individuen te ‘uitkleden’ ten strengste verbiedt.
Waarom dit belangrijk is
Deze situatie benadrukt een groeiende crisis in de technologie-industrie: het “kat-en-muis”-spel tussen AI-ontwikkelaars en veiligheidstoezichthouders. Naarmate generatieve AI geavanceerder wordt, worden de methoden die worden gebruikt om veiligheidsfilters te omzeilen geavanceerder.
De impasse tussen Apple en xAI schept een cruciaal precedent voor de mate waarin ‘poortwachters’-platforms (zoals de App Store) verantwoordelijk zijn voor de inhoud die wordt gegenereerd door AI-tools van derden. Als de waarborgen blijven falen, zal de druk voor nog agressievere censuur of strengere federale regelgeving waarschijnlijk toenemen.
Conclusie: Hoewel Apple Grok na recente updates op zijn platform heeft laten blijven, suggereert de voortdurende opkomst van geseksualiseerde deepfakes dat de technische en ethische strijd om de veiligheid van AI nog maar net is begonnen.




























