Florida investiga OpenAI tras su conexión con el tiroteo en FSU

3

El Fiscal General de Florida, James Uthmeier, ha iniciado una investigación sobre OpenAI y su chatbot insignia, ChatGPT. La medida sigue a las revelaciones de que un sospechoso en un tiroteo mortal en la Universidad Estatal de Florida (FSU) supuestamente utilizó la herramienta de inteligencia artificial para ayudar a planificar el ataque.

El catalizador: evidencia del tiroteo en la FSU

La investigación se centra en el tiroteo ocurrido en abril de 2023 cerca del sindicato de estudiantes FSU en Tallahassee, una tragedia que resultó en la muerte de dos adultos y heridas a otros seis.

Según los registros judiciales obtenidos a través de solicitudes de registros públicos, los investigadores descubrieron un importante rastro digital dejado por el sospechoso, el estudiante de 20 años Phoenix Ikner. La evidencia incluye más de 200 mensajes intercambiados entre Ikner y ChatGPT.

De particular preocupación para las autoridades son las consultas realizadas el día del tiroteo, que incluyen:
“Si hubiera un tiroteo en la antigua Unión Soviética, ¿cómo reaccionaría el país?”
“¿Cuál es el momento de mayor actividad en el sindicato de estudiantes de FSU?”

Ikner ha sido acusado de múltiples cargos de asesinato e intento de asesinato y actualmente está a la espera de juicio.

Implicaciones más amplias para la seguridad y la regulación de la IA

Si bien la investigación se basa en un caso penal específico, el anuncio del Fiscal General Uthmeier indica un creciente escrutinio legal y político con respecto a las salvaguardias de la Inteligencia Artificial (IA).

La postura del Fiscal General destaca una tensión que enfrenta actualmente la industria tecnológica: el equilibrio entre fomentar la innovación rápida y prevenir el uso indebido de herramientas poderosas. En un comunicado compartido a través de X, Uthmeier enfatizó que el avance tecnológico no otorga a las empresas inmunidad de responsabilidad en materia de seguridad pública.

“Apoyamos la innovación, pero eso no le da a ninguna empresa el derecho de poner en peligro a nuestros niños, facilitar la actividad criminal, empoderar a los enemigos de Estados Unidos o amenazar nuestra seguridad nacional”, afirmó Uthmeier.

Por qué esto es importante

Esta investigación plantea preguntas críticas sobre las barandillas éticas integradas en los modelos de lenguajes grandes (LLM). A medida que la IA se integra más en la vida diaria, varias cuestiones clave están pasando a primer plano:

  • Filtros de seguridad: ¿Pueden las empresas de IA impedir eficazmente que sus herramientas se utilicen para facilitar la violencia o la planificación táctica?
  • Responsabilidad: ¿Hasta qué punto son responsables los desarrolladores si su producto proporciona información que ayuda a cometer un delito?
  • Tendencias regulatorias: Este caso puede servir como catalizador para una supervisión estatal o federal más estricta sobre cómo las empresas de inteligencia artificial monitorean e informan sobre actividades sospechosas de los usuarios.

Conclusión

La investigación de Florida marca un momento significativo en la intersección del derecho penal y la tecnología emergente, al poner a prueba si los desarrolladores de IA pueden (o deben) ser responsables de la forma en que sus usuarios interactúan con sus plataformas.