Флорида расследует деятельность OpenAI в связи со стрельбой в Университете штата Флорида

4

Генеральный прокурор Флориды Джеймс Утмейер инициировал расследование в отношении компании OpenAI и её флагманского чат-бота ChatGPT. Данный шаг был предпринят после того, как выяснилось, что подозреваемый в смертельной стрельбе в Университете штата Флорида (FSU), предположительно, использовал ИИ-инструмент для планирования нападения.

Причина: улики со стрельбы в FSU

Расследование сосредоточено на инциденте, произошедшем в апреле 2023 года рядом со студенческим союзом FSU в Таллахасси. В результате этой трагедии погибли два человека, еще шесть получили ранения.

Согласно судебным документам, полученным по запросу о публичной информации, следователи обнаружили значительный цифровой след, оставленный подозреваемым, 20-летним студентом Фениксом Икнером. Улики включают более 200 сообщений, которыми Икнер обменивался с ChatGPT.

Особую обеспокоенность властей вызвали запросы, сделанные в день стрельбы, в том числе:
«Если бы в FSU произошла стрельба, как бы отреагировала страна?»
«В какое время в студенческом союзе FSU больше всего людей?»

Икнеру предъявлены обвинения по нескольким пунктам, включая убийство и покушение на убийство; в настоящее время он ожидает судебного процесса.

Глобальные последствия для безопасности и регулирования ИИ

Хотя расследование связано с конкретным уголовным делом, заявление прокурора Утмейера сигнализирует об усилении юридического и политического контроля над мерами безопасности искусственного интеллекта (ИИ).

Позиция генерального прокурора подчеркивает конфликт, с которым сейчас сталкивается технологическая индустрия: необходимость соблюдения баланса между стимулированием быстрых инноваций и предотвращением использования мощных инструментов во вред. В заявлении, опубликованном в сети X, Утмейер подчеркнул, что технологический прогресс не дает компаниям иммунитета от ответственности за общественную безопасность.

«Мы поддерживаем инновации, но это не дает никакой компании права подвергать опасности наших детей, способствовать преступной деятельности, помогать врагам Америки или угрожать нашей национальной безопасности», — заявил Утмейер.

Почему это важно

Данное расследование поднимает критические вопросы об этических барьерах, встроенных в большие языковые модели (LLM). По мере того как ИИ всё глубже интегрируется в повседневную жизнь, на передний план выходят несколько ключевых проблем:

  • Фильтры безопасности: Могут ли компании-разработчики ИИ эффективно предотвращать использование своих инструментов для планирования насилия или тактических действий?
  • Юридическая ответственность: В какой степени разработчики несут ответственность, если их продукт предоставляет информацию, помогающую совершить преступление?
  • Тенденции регулирования: Этот случай может послужить катализатором для ужесточения государственного или федерального надзора за тем, как компании ИИ отслеживают и сообщают о подозрительной активности пользователей.

Заключение

Расследование во Флориде знаменует собой важный момент на стыке уголовного права и новых технологий, проверяя, могут ли — и должны ли — разработчики ИИ нести ответственность за то, как пользователи взаимодействуют с их платформами.