Character.AI обмежує доступ підлітків до чатів, запускає функцію «Історії»

2

Character.AI, стикаючись із зростаючим правовим тиском через можливу шкоду, яку платформа може завдати психічному здоров’ю підлітків, змінює свій підхід до неповнолітніх користувачів. Платформа заборонить необмежену кількість текстових чатів для осіб молодше 18 років, натомість спрямовуючи їх до нового контрольованого формату під назвою Stories. Цей крок відбувся після кількох судових позовів, які стверджували, що взаємодія з штучним інтелектом призвела до психічних розладів, включаючи один випадок, пов’язаний із самогубством підлітка.

Нові обмеження та формат історії

Починаючи з 25 листопада, підлітки більше не матимуть необмеженого доступу до функції чату платформи. Character.AI представляє це як тимчасовий захід, поки вони розробляють інструменти перевірки віку. Проте безпосередньою заміною є Stories, формат пригод за бажанням, у якому персонажі зі штучним інтелектом ведуть користувачів через попередньо визначені сюжетні лінії.

Компанія позиціонує Stories як покращення для молодших користувачів, підкреслюючи його структурований характер порівняно з чатами у вільній формі. Користувачі вибирають персонажів і жанри, маючи можливість писати власні сюжетні підказки або дозволяти штучному інтелекту генерувати їх. Досвід включає зображення, створені штучним інтелектом, з планами розширити їх до більш захоплюючих «мультимодальних елементів».

Чому це важливо

Ця зміна відображає зростаюче занепокоєння щодо впливу взаємодії з ШІ на вразливих користувачів. Неконтрольовані відкриті чати зі штучним інтелектом можуть наражати підлітків на шкідливий вміст або посилювати нездорову поведінку, що призводить до психологічного стресу. Позови проти Character.AI підкреслюють реальні наслідки цих ризиків.

Цей крок також сигналізує про ширшу тенденцію: технологічні компанії піддаються все більшому контролю над тим, як вони регулюють свою взаємодію з ШІ, особливо коли мова йде про неповнолітніх. Незважаючи на те, що Stories забезпечує більш контрольоване середовище, воно також викликає питання про цензуру, автономію користувачів і те, чи є це реальним рішенням чи PR-відповіддю на правові загрози.

Рішення Character.AI є прямою відповіддю на правовий і громадський тиск, демонструючи зростаючу відповідальність платформ штучного інтелекту за благополуччя своїх користувачів. Довгострокові наслідки цієї зміни ще належить побачити, але вона створює чіткий прецедент: Компанії ШІ повинні усунути ризики, пов’язані з їхніми продуктами, особливо коли йдеться про неповнолітню аудиторію.