OpenAI, het bedrijf achter ChatGPT, vraagt naar verluidt externe contractanten om echte werkvoorbeelden van hun vorige en huidige dienstverband in te dienen. Deze praktijk, onthuld in een Wired -rapport, roept vragen op over intellectueel eigendom en gegevensbeveiliging binnen de snel evoluerende AI-industrie.
De data-hongerige AI-industrie
De stap lijkt deel uit te maken van een bredere trend onder AI-ontwikkelaars. Deze bedrijven vertrouwen steeds meer op aannemers om trainingsgegevens van hoge kwaliteit te genereren, met als uiteindelijk doel meer witteboordentaken te automatiseren. De logica is eenvoudig: betere trainingsgegevens leiden tot capabelere AI-modellen. De interne presentatie van OpenAI, zoals beschreven in het rapport, vraagt aannemers expliciet om voorbeelden van ‘echt werk op de werkvloer’ te geven, inclusief documenten, spreadsheets, afbeeldingen en zelfs codeopslagplaatsen.
Risico’s en kanttekeningen
Terwijl OpenAI opdrachtnemers instrueert om vertrouwelijke en persoonlijke informatie te verwijderen voordat deze wordt geüpload, waarschuwen juridische experts dat deze aanpak inherent riskant is.
“Elk AI-laboratorium dat deze aanpak hanteert, loopt een groot risico”, zegt Evan Brown, advocaat op het gebied van intellectueel eigendom. “Het vergt veel vertrouwen van opdrachtnemers om te beslissen wat wel en niet vertrouwelijk is.”
Het bedrijf biedt zelfs toegang tot een door ChatGPT aangedreven tool, genaamd ‘Superstar Scrubbing’, om te helpen bij het opschonen van gegevens. De afhankelijkheid van de zelfcontrole van opdrachtnemers roept echter zorgen op over mogelijke lekken van bedrijfseigen of gevoelige informatie. OpenAI weigerde commentaar te geven op de kwestie.
Waarom dit belangrijk is
Deze praktijk benadrukt de intense druk waarmee AI-bedrijven worden geconfronteerd om trainingsgegevens van hoge kwaliteit te verwerven. Naarmate modellen geavanceerder worden, zal de vraag naar voorbeelden uit de echte wereld – in plaats van naar synthetische of openbaar beschikbare datasets – waarschijnlijk toenemen. De ethische en juridische implicaties van deze aanpak blijven onduidelijk, vooral met betrekking tot werknemersrechten, eigendom van intellectueel eigendom en gegevensprivacy.
De afhankelijkheid van aannemers onderstreept ook de verborgen arbeid achter de ontwikkeling van AI. Hoewel een groot deel van het gesprek over de technologie zelf gaat, wordt de menselijke inspanning die nodig is om deze modellen te trainen vaak niet onderkend.
Uiteindelijk onthullen de acties van OpenAI een pragmatische maar potentieel roekeloze strategie: het inzetten van menselijk werk om AI-vooruitgang te stimuleren, zelfs als dit betekent dat je door duister juridisch en ethisch terrein moet navigeren.




























