OpenAI просит подрядчиков загружать прошлые работы для обучения ИИ

21

Компания OpenAI, разработчик ChatGPT, предположительно просит сторонних подрядчиков предоставлять подлинные образцы работ из их предыдущих и текущих мест работы. Эта практика, о которой сообщило издание Wired, вызывает вопросы об интеллектуальной собственности и безопасности данных в быстро развивающейся индустрии искусственного интеллекта.

Жадная до данных индустрия ИИ

Этот шаг, по всей видимости, является частью более широкой тенденции среди разработчиков ИИ. Эти компании все чаще полагаются на подрядчиков для создания высококачественных обучающих данных, конечная цель которых – автоматизация большего числа офисных задач. Логика проста: лучшие обучающие данные приводят к более эффективным моделям ИИ. Внутренняя презентация OpenAI, как описано в отчете, прямо просит подрядчиков предоставлять «реальные примеры работы на рабочем месте», включая документы, электронные таблицы, изображения и даже репозитории кода.

Риски и предостережения

Хотя OpenAI инструктирует подрядчиков удалять конфиденциальную и личную информацию перед загрузкой, юристы предупреждают, что этот подход по своей сути рискован.

«Любая лаборатория ИИ, использующая такой подход, подвергает себя огромному риску», – говорит юрист по интеллектуальной собственности Эван Браун. «Это требует большого доверия к подрядчикам в решении того, что является, а что не является конфиденциальным».

Компания даже предоставляет доступ к инструменту на базе ChatGPT, под названием «Superstar Scrubbing», для помощи в очистке данных. Однако зависимость от самоконтроля подрядчиков вызывает опасения по поводу потенциальных утечек проприетарной или конфиденциальной информации. OpenAI отказалась комментировать это дело.

Почему это важно

Эта практика подчеркивает сильное давление, которое испытывают компании в области ИИ, чтобы получить высококачественные обучающие данные. По мере того как модели становятся более сложными, спрос на примеры из реального мира – а не на синтетические или общедоступные наборы данных – вероятно, будет расти. Этические и юридические последствия такого подхода остаются неясными, особенно в отношении прав работников, владения интеллектуальной собственностью и конфиденциальности данных.

Зависимость от подрядчиков также подчеркивает скрытый труд, стоящий за разработкой ИИ. В то время как большая часть обсуждения сосредоточена на самой технологии, человеческие усилия, необходимые для обучения этих моделей, часто остаются незамеченными.

В конечном счете, действия OpenAI демонстрируют прагматичную, но потенциально безрассудную стратегию: использование человеческого труда для ускорения прогресса ИИ, даже если это означает маневрирование в мутной юридической и этической среде.