OpenAI wdraża technologię wykrywania wieku na swojej platformie ChatGPT, aby ograniczyć dostęp do potencjalnie szkodliwych treści użytkownikom poniżej 18 roku życia. W przypadkach, gdy wiek użytkownika nie jest wyraźnie określony, sztuczna inteligencja przeanalizuje zachowanie użytkownika – w tym wiek konta i wzorce aktywności – w celu oszacowania wieku.
System ma na celu zwiększenie ochrony przed treściami, które mogą być szkodliwe, takimi jak przemoc graficzna, obrazy przedstawiające samookaleczenia i skrajne standardy urody. OpenAI jako główne czynniki stojące za zmianami podaje wzmożoną kontrolę i procesy sądowe związane ze śmiercią nastolatków spowodowaną interakcjami z chatbotami AI. Posunięcie to jest zgodne z trendem zaostrzania środków weryfikacji wieku na platformach internetowych, przy czym Roblox niedawno wymagał od użytkowników poddania się weryfikacji wieku, a Australia przyjęła ustawę zakazującą korzystania z mediów społecznościowych dla dzieci poniżej 16 roku życia.
Jeśli użytkownik zostanie omyłkowo oznaczony jako nieletni, OpenAI oferuje weryfikację przez osobę trzecią za pośrednictwem Persona, wymagającą selfie na żywo i dokumentu tożsamości. Skuteczność wykrywania wieku przez ChatGPT pozostaje niejasna, chociaż technologie rozpoznawania twarzy i szacowania wieku znacznie poprawiły dokładność. Z ocen rządowych wynika, że najlepsze algorytmy osiągają ponad 99,5% dokładności w weryfikacji tożsamości i 95% w szacowaniu wieku.
Jednak eksperci tacy jak Christine Gloria z Young Futures twierdzą, że sama technologia nie wystarczy. Prawdziwe bezpieczeństwo wymaga przejrzystości, odpowiedzialności i umiejętności cyfrowych, a nie polegania wyłącznie na rozwiązaniach technicznych. Szerszym celem powinno być stworzenie platform, w których dobro młodych ludzi będzie sprawą podstawową, a nie kwestią drugorzędną.
Przejście na weryfikację wieku i skanowanie biometryczne staje się coraz bardziej powszechne, ponieważ firmy stają przed presją prawną i etyczną, aby chronić młodszych użytkowników. Chociaż środki te mogą poprawić bezpieczeństwo, rodzą również pytania dotyczące prywatności i równowagi między bezpieczeństwem a dostępem.
