Floryda bada OpenAI w związku ze strzelaniną na Florida State University

7

Prokurator generalny Florydy James Utmeyer wszczął dochodzenie w sprawie OpenAI i jego flagowego chatbota ChatGPT. Decyzja ta nastąpiła po ujawnieniu, że podejrzany o śmiertelną strzelaninę na Florida State University (FSU) rzekomo użył narzędzia sztucznej inteligencji do zaplanowania ataku.

Powód: dowody ze strzelaniny w FSU

Śledztwo koncentruje się na incydencie, który miał miejsce w kwietniu 2023 roku w pobliżu związku studentów FSU w Tallahassee. W wyniku tej tragedii zginęły dwie osoby, a sześć zostało rannych.

Zgodnie z dokumentami sądowymi uzyskanymi na wniosek o rejestrację publiczną, śledczy odkryli znaczący ślad cyfrowy pozostawiony przez podejrzanego, 20-letniego studenta Phoenixa Iknera. Dowody obejmują ponad 200 wiadomości, które Ikner wymienił z ChatGPT.

Szczególne zaniepokojenie władz wzbudziły wnioski złożone w dniu strzelaniny, obejmujące:
– * „Gdyby doszło do strzelaniny w FSU, jak zareagowałby kraj?”
– * „O której godzinie związek studentów FSU jest najbardziej zajęty?”

Iknerowi postawiono kilka zarzutów, w tym morderstwo i usiłowanie morderstwa; obecnie oczekuje na proces.

Globalne implikacje dla bezpieczeństwa i regulacji dotyczących sztucznej inteligencji

Chociaż dochodzenie dotyczy konkretnej sprawy karnej, oświadczenie Utmeyera sygnalizuje wzmożoną kontrolę prawną i polityczną środków bezpieczeństwa sztucznej inteligencji (AI).

Stanowisko prokuratora generalnego podkreśla konflikt, przed którym stoi obecnie branża technologiczna: potrzebę znalezienia równowagi między pobudzaniem szybkich innowacji a zapobieganiem wykorzystywaniu potężnych narzędzi do wyrządzania szkód. W oświadczeniu opublikowanym w X Network Utmeyer podkreślił, że postęp technologiczny nie zwalnia firm z odpowiedzialności za bezpieczeństwo publiczne.

„Wspieramy innowacje, ale to nie daje żadnej firmie prawa do narażania naszych dzieci na niebezpieczeństwo, ułatwiania działalności przestępczej, pomagania wrogom Ameryki lub zagrażania naszemu bezpieczeństwu narodowemu” – stwierdził Utmeyer.

Dlaczego to jest ważne?

To badanie rodzi krytyczne pytania dotyczące barier etycznych wbudowanych w duże modele językowe (LLM). W miarę jak sztuczna inteligencja staje się coraz głębiej integrowana z życiem codziennym, na pierwszy plan wysuwa się kilka kluczowych kwestii:

  • Filtry bezpieczeństwa: czy firmy zajmujące się sztuczną inteligencją mogą skutecznie zapobiegać wykorzystywaniu ich narzędzi do planowania przemocy lub działań taktycznych?
  • Odpowiedzialność prawna: W jakim stopniu twórcy ponoszą odpowiedzialność, jeśli ich produkt zawiera informacje pomocne w popełnieniu przestępstwa?
    Trendy regulacyjne: ten przypadek może służyć jako katalizator zwiększonego nadzoru stanowego lub federalnego nad sposobem, w jaki firmy zajmujące się sztuczną inteligencją śledzą i zgłaszają podejrzane działania użytkowników.

Wniosek

Dochodzenie na Florydzie wyznacza ważny moment na styku prawa karnego i nowych technologii, sprawdzając, czy twórcy sztucznej inteligencji mogą – i powinni – ponosić odpowiedzialność za sposób, w jaki użytkownicy wchodzą w interakcje z ich platformami.