OpenAI-Auftragnehmer werden gebeten, frühere Arbeiten für die KI-Schulung hochzuladen

10

OpenAI, das Unternehmen hinter ChatGPT, fordert Berichten zufolge Drittanbieter auf, echte Arbeitsproben aus ihrer früheren und aktuellen Beschäftigung einzureichen. Diese in einem Wired -Bericht enthüllte Praxis wirft Fragen zum geistigen Eigentum und zur Datensicherheit in der sich schnell entwickelnden KI-Branche auf.

Die datenhungrige KI-Branche

Der Schritt scheint Teil eines umfassenderen Trends unter KI-Entwicklern zu sein. Diese Firmen verlassen sich zunehmend auf Auftragnehmer, um qualitativ hochwertige Schulungsdaten zu generieren, mit dem ultimativen Ziel, mehr Büroaufgaben zu automatisieren. Die Logik ist einfach: Bessere Trainingsdaten führen zu leistungsfähigeren KI-Modellen. In der internen Präsentation von OpenAI, wie im Bericht beschrieben, werden Auftragnehmer ausdrücklich aufgefordert, Beispiele für „echte Arbeit am Arbeitsplatz“ bereitzustellen – einschließlich Dokumente, Tabellenkalkulationen, Bilder und sogar Code-Repositorys.

Risiken und Vorbehalte

Während OpenAI Auftragnehmer anweist, vertrauliche und persönliche Informationen vor dem Hochladen zu bereinigen, warnen Rechtsexperten, dass dieser Ansatz grundsätzlich riskant ist.

„Jedes KI-Labor, das diesen Ansatz verfolgt, setzt sich einem großen Risiko aus“, sagt Evan Brown, Anwalt für geistiges Eigentum. „Es erfordert viel Vertrauen in die Auftragnehmer, um zu entscheiden, was vertraulich ist und was nicht.“

Das Unternehmen bietet sogar Zugriff auf ein ChatGPT-basiertes Tool namens „Superstar Scrubbing“, um die Datenbereinigung zu unterstützen. Das Vertrauen auf die Selbstkontrolle der Auftragnehmer gibt jedoch Anlass zur Sorge, dass möglicherweise vertrauliche oder vertrauliche Informationen verloren gehen. OpenAI lehnte eine Stellungnahme zu dieser Angelegenheit ab.

Warum das wichtig ist

Diese Praxis verdeutlicht den enormen Druck, dem KI-Unternehmen ausgesetzt sind, qualitativ hochwertige Trainingsdaten zu beschaffen. Da die Modelle immer ausgefeilter werden, wird wahrscheinlich die Nachfrage nach Beispielen aus der Praxis – anstelle synthetischer oder öffentlich verfügbarer Datensätze – steigen. Die ethischen und rechtlichen Auswirkungen dieses Ansatzes bleiben unklar, insbesondere in Bezug auf Arbeitnehmerrechte, Eigentum an geistigem Eigentum und Datenschutz.

Die Abhängigkeit von Auftragnehmern unterstreicht auch die verborgene Arbeit hinter der KI-Entwicklung. Während sich ein Großteil der Gespräche auf die Technologie selbst konzentriert, bleibt der menschliche Aufwand, der erforderlich ist, um diese Modelle zu trainieren, oft unerwähnt.

Letztendlich offenbaren die Maßnahmen von OpenAI eine pragmatische, aber potenziell rücksichtslose Strategie: die Nutzung menschlicher Arbeit, um den KI-Fortschritt voranzutreiben, auch wenn dies bedeutet, sich auf unklarem rechtlichen und ethischen Terrain zurechtzufinden.