Floridský generální prokurátor James Utmeyer zahájil vyšetřování OpenAI a jeho vlajkového chatbota ChatGPT. Tento krok přichází poté, co vyšlo najevo, že podezřelý ze smrtící střelby na Floridské státní univerzitě (FSU) údajně použil nástroj AI k plánování útoku.
Зміст
Důvod: Důkazy ze střelby FSU
Vyšetřování se zaměřuje na incident, ke kterému došlo v dubnu 2023 poblíž studentského svazu FSU v Tallahassee. V důsledku této tragédie byli zabiti dva lidé a šest dalších bylo zraněno.
Podle soudních dokumentů získaných na základě žádosti o veřejné záznamy vyšetřovatelé objevili významnou digitální stopu, kterou zanechal podezřelý, 20letý student Phoenix Ikner. Důkazy zahrnují více než 200 zpráv, které si Ikner vyměnil s ChatGPT.
Obzvláště znepokojivé pro úřady byly žádosti podané v den střelby, včetně:
– „Kdyby došlo na FSU ke střelbě, jak by země reagovala?“
– “V kolik hodin je studentský svaz FSU nejrušnější?”
Ikner je obviněn z několika bodů, včetně vraždy a pokusu o vraždu; v současné době čeká na soud.
Globální důsledky pro bezpečnost a regulaci umělé inteligence
Přestože vyšetřování souvisí s konkrétním trestním případem, Utmeyerovo oznámení signalizuje zvýšenou právní a politickou kontrolu bezpečnostních opatření v oblasti umělé inteligence (AI).
Pozice generálního prokurátora podtrhuje konflikt, kterému technologický průmysl nyní čelí: potřeba najít rovnováhu mezi urychlením rychlých inovací a zabráněním použití výkonných nástrojů ke škodě. V prohlášení zveřejněném na X Network Utmeyer zdůraznil, že technologický pokrok nedává společnostem imunitu vůči odpovědnosti za veřejnou bezpečnost.
“Podporujeme inovace, ale to nedává žádné společnosti právo ohrozit naše děti, usnadňovat trestnou činnost, pomáhat nepřátelům Ameriky nebo ohrožovat naši národní bezpečnost,” řekl Utmeyer.
Proč je to důležité?
Toto šetření vyvolává kritické otázky ohledně etických bariér zabudovaných do velkých jazykových modelů (LLM). Jak se AI hlouběji integruje do každodenního života, do popředí se dostává několik klíčových problémů:
- Bezpečnostní filtry: Mohou společnosti AI účinně zabránit tomu, aby byly jejich nástroje použity k plánování násilí nebo taktických akcí?
- Právní odpovědnost: Do jaké míry jsou vývojáři odpovědní, pokud jejich produkt poskytuje informace, které pomáhají při spáchání trestného činu?
- Regulační trendy: Tento případ by mohl sloužit jako katalyzátor pro zvýšený státní nebo federální dohled nad tím, jak společnosti AI sledují a hlásí podezřelou aktivitu uživatelů.
Závěr
Vyšetřování na Floridě představuje důležitý okamžik na křižovatce trestního práva a nových technologií, testuje, zda vývojáři AI mohou – a měli by – nést odpovědnost za to, jak uživatelé komunikují s jejich platformami.




























