A los contratistas de OpenAI se les pidió que subieran trabajos anteriores para la capacitación en IA

9

OpenAI, la compañía detrás de ChatGPT, supuestamente solicita a contratistas externos que envíen muestras de trabajo genuinas de su empleo anterior y actual. Esta práctica, revelada en un informe de Wired, plantea interrogantes sobre la propiedad intelectual y la seguridad de los datos dentro de la industria de la IA en rápida evolución.

La industria de la IA ávida de datos

La medida parece ser parte de una tendencia más amplia entre los desarrolladores de IA. Estas empresas dependen cada vez más de contratistas para generar datos de capacitación de alta calidad, con el objetivo final de automatizar más tareas administrativas. La lógica es sencilla: mejores datos de entrenamiento conducen a modelos de IA más capaces. La presentación interna de OpenAI, como se describe en el informe, pide explícitamente a los contratistas que proporcionen ejemplos de “trabajo real en el trabajo”, incluidos documentos, hojas de cálculo, imágenes e incluso repositorios de códigos.

Riesgos y advertencias

Si bien OpenAI instruye a los contratistas a eliminar información personal y confidencial antes de cargarla, los expertos legales advierten que este enfoque es intrínsecamente riesgoso.

“Cualquier laboratorio de IA que adopte este enfoque corre un gran riesgo”, afirma el abogado de propiedad intelectual Evan Brown. “Se requiere mucha confianza en los contratistas para decidir qué es confidencial y qué no”.

La compañía incluso brinda acceso a una herramienta impulsada por ChatGPT, denominada “Superstar Scrubbing”, para ayudar en la desinfección de datos. Sin embargo, la dependencia de la autocontrol de los contratistas genera preocupaciones sobre posibles filtraciones de información confidencial o de propiedad exclusiva. OpenAI se negó a comentar sobre el asunto.

Por qué esto es importante

Esta práctica pone de relieve la intensa presión que enfrentan las empresas de IA para adquirir datos de capacitación de alta calidad. A medida que los modelos se vuelven más sofisticados, es probable que aumente la demanda de ejemplos del mundo real, en lugar de conjuntos de datos sintéticos o disponibles públicamente. Las implicaciones éticas y legales de este enfoque siguen sin estar claras, particularmente en lo que respecta a los derechos de los trabajadores, la propiedad intelectual y la privacidad de los datos.

La dependencia de contratistas también subraya la mano de obra oculta detrás del desarrollo de la IA. Si bien gran parte de la conversación se centra en la tecnología misma, el esfuerzo humano requerido para entrenar estos modelos a menudo pasa desapercibido.

Al final, las acciones de OpenAI revelan una estrategia pragmática pero potencialmente imprudente: aprovechar el trabajo humano para impulsar el progreso de la IA, incluso si eso significa navegar por un territorio legal y ético turbio.