додому Останні новини та статті Підлітки Судяться з xAI через Передбачуваного Створення Матеріалів Дитячої Порнографії на Grok

Підлітки Судяться з xAI через Передбачуваного Створення Матеріалів Дитячої Порнографії на Grok

** Колективний позов, поданий до федерального суду Каліфорнії, звинувачує xAI Ілона Маска у свідомому забезпеченні створення та розповсюдження матеріалів дитячої порнографії (CSAM) через свого чат-бота зі штучним інтелектом Grok. ** Три анонімних позивача – двоє з яких неповнолітні обмежень, у той час як інші компанії, які працюють зі штучним інтелектом, вводять обмеження для запобігання експлуатації.

Звинувачення: Системний Збій у Захисті Дітей

У позові стверджується, що xAI поставила прибуток вище безпеки користувачів, прямо заявивши, що компанія “побачила у цьому бізнес-можливість”, дозволяючи виробництво CSAM. Це підтверджується повідомленнями про те, що Grok міг генерувати приблизно три мільйони сексуалізованих зображень, включаючи 23 000 зображень, на яких ймовірно зображені діти, протягом десяти днів наприкінці грудня та на початку січня.

Позивачі описують можливості штучного інтелекту як тривожно точні, один із них стверджує, що зображення його були згенеровані та поширені у Discord знайомим. У позові докладно описується, як один із позивачів, тепер дорослий, виявив, що його зображення, зроблені в неповнолітньому віці, були використані з метою експлуатації, тоді як двом нинішнім неповнолітнім було повідомлено правоохоронні органи, що їхні зображення були використані для створення CSAM.

Міжнародні Розслідування та Зростаючий Юридичний Тиск

Цей позов пішов за зростаючою увагою з боку кількох урядів. Франція, Великобританія, Ірландія, Індія та Бразилія почали розслідування щодо передбачуваних збоїв Grok. Штат Каліфорнія також проводить власне розслідування. Цей позов є першою хвилею цивільних судових розглядів, безпосередньо спрямованих проти xAI за ці передбачувані порушення.

Більш Широкий Контекст: Безпека Штучного Інтелекту та Експлуатація

Цей випадок підкреслює критичні дебати в індустрії штучного інтелекту: баланс між інноваціями та етичною відповідальністю. У той час як багато розробників штучного інтелекту визнають ризики зловживань та впроваджують заходи безпеки, xAI звинувачують у навмисному ігноруванні цих запобіжних заходів.

** Мова йде не тільки про технологічний нагляд, а й про відповідальність. Позивачі домагаються значних компенсацій, стверджуючи, що халатність xAI завдала серйозної емоційної та психологічної шкоди. Результат судового процесу може створити прецедент для компаній, що працюють із штучним інтелектом, та їх юридичних зобов’язань щодо захисту вразливих користувачів від експлуатації.

Станом на 16 березня 2024 року справа перебуває на стадії розгляду.

Exit mobile version