Agli appaltatori OpenAI è stato chiesto di caricare il lavoro passato per la formazione sull’intelligenza artificiale

6

Secondo quanto riferito, OpenAI, la società dietro ChatGPT, sta richiedendo ad appaltatori terzi di inviare campioni di lavoro autentici dal loro impiego precedente e attuale. Questa pratica, rivelata in un rapporto di Wired, solleva interrogativi sulla proprietà intellettuale e sulla sicurezza dei dati nel settore dell’intelligenza artificiale in rapida evoluzione.

Il settore dell’intelligenza artificiale affamato di dati

La mossa sembra essere parte di una tendenza più ampia tra gli sviluppatori di intelligenza artificiale. Queste aziende si affidano sempre più agli appaltatori per generare dati di formazione di alta qualità, con l’obiettivo finale di automatizzare più attività dei colletti bianchi. La logica è semplice: dati di addestramento migliori portano a modelli di intelligenza artificiale più capaci. La presentazione interna di OpenAI, come descritto nel rapporto, chiede esplicitamente agli appaltatori di fornire esempi di “lavoro reale sul posto di lavoro”, inclusi documenti, fogli di calcolo, immagini e persino repository di codici.

Rischi e avvertenze

Sebbene OpenAI incarichi gli appaltatori di eliminare le informazioni riservate e personali prima del caricamento, gli esperti legali avvertono che questo approccio è intrinsecamente rischioso.

“Qualsiasi laboratorio di intelligenza artificiale che adotta questo approccio si espone a gravi rischi”, afferma l’avvocato specializzato in proprietà intellettuale Evan Brown. “Ci vuole molta fiducia negli appaltatori per decidere cosa è e cosa non è riservato.”

L’azienda fornisce anche l’accesso a uno strumento basato su ChatGPT, soprannominato “Superstar Scrubbing”, per facilitare la sanificazione dei dati. Tuttavia, la dipendenza dall’autocontrollo degli appaltatori solleva preoccupazioni circa potenziali fughe di informazioni proprietarie o sensibili. OpenAI ha rifiutato di commentare la questione.

Perché è importante

Questa pratica evidenzia l’intensa pressione che le aziende di intelligenza artificiale devono affrontare per acquisire dati di formazione di alta qualità. Man mano che i modelli diventano più sofisticati, è probabile che aumenterà la richiesta di esempi del mondo reale, piuttosto che di set di dati sintetici o disponibili al pubblico. Le implicazioni etiche e legali di questo approccio rimangono poco chiare, in particolare per quanto riguarda i diritti dei lavoratori, la proprietà intellettuale e la riservatezza dei dati.

La dipendenza dagli appaltatori sottolinea anche il lavoro nascosto dietro lo sviluppo dell’intelligenza artificiale. Sebbene gran parte della conversazione sia incentrata sulla tecnologia stessa, lo sforzo umano necessario per addestrare questi modelli spesso non viene riconosciuto.

Alla fine, le azioni di OpenAI rivelano una strategia pragmatica ma potenzialmente sconsiderata: sfruttare il lavoro umano per alimentare il progresso dell’IA, anche se ciò significa navigare in un territorio oscuro dal punto di vista legale ed etico.