OpenAI впроваджує технологію визначення віку на своїй платформі ChatGPT, щоб обмежити доступ до потенційно шкідливого контенту для користувачів віком до 18 років. У випадках, коли вік користувача не зазначений явно, ІІ аналізуватиме його поведінку – включаючи вік облікового запису та закономірності активності – для оцінки віку.
Система розроблена для посилення захисту від контенту, який може бути небезпечним, такого як графічне насильство, зображення членоушкодження та екстремальні стандарти краси. OpenAI називає посилення контролю та судові позови, пов’язані зі смертями підлітків, викликаними взаємодією з ІІ-чатботами, основними факторами, що стоять за цими змінами. Цей крок слідує за тенденцією до посилення заходів перевірки віку на онлайн-платформах: нещодавно Roblox зобов’язав користувачів проходити перевірку віку, а Австралія ухвалила закон, який забороняє соціальні мережі для дітей віком до 16 років.
Якщо користувача помилково позначають як неповнолітнього, OpenAI пропонує сторонню перевірку через Persona, яка потребує живого селфі та посвідчення особи. Ефективність визначення віку ChatGPT залишається неясною, хоча технології розпізнавання осіб та оцінки віку помітно покращили свою точність. Державні оцінки показують, що найкращі алгоритми досягають точності понад 99,5% при перевірці особи та 95% при оцінці віку.
Проте експерти, такі як Крістін Глорія з Young Futures, стверджують, що однієї технології недостатньо. Справжня безпека вимагає прозорості, відповідальності та цифрової грамотності, а не покладатися виключно на технічні рішення. Більш широка мета повинна полягати у створенні платформ, де благополуччя молоді є основним, а не прикладеною думкою.
Перехід до перевірки віку та біометричного сканування стає все більш поширеним, оскільки компанії стикаються з юридичним та етичним тиском, щоб захистити молодих користувачів. Хоча ці заходи можуть підвищити безпеку, вони також порушують питання про конфіденційність і баланс між захистом і доступом.





























