OpenAI подала в суд семья жертв стрельбы в университете Флориды из-за ChatGPT


OpenAI подала в суд семья жертв стрельбы в университете Флориды из-за ChatGPT

Семья одной из жертв массовой стрельбы в Университете штата Флорида, произошедшей в апреле 2025 года, подала иск против компании OpenAI. В документе утверждается, что ChatGPT сыграл ключевую роль в подготовке нападавшего, который был студентом этого университета. По версии истцов, чат-бот не только объяснил правила обращения с оружием, но и подтолкнул подозреваемого к совершению преступления.

В иске указано, что подозреваемый, Феникс Икнер, показывал ChatGPT фотографии приобретённого им пистолета Glock. ИИ-модель, по версии истцов, не только объяснила отсутствие предохранителя у оружия, но и посоветовала использовать его «для быстрого реагирования в стрессовых ситуациях». Также в документе утверждается, что ChatGPT порекомендовал не держать палец на спусковом крючке до момента готовности к выстрелу. Эти инструкции, по мнению истцов, легли в основу действий нападавшего во время атаки.

Особое внимание в иске уделяется разговору Икнера с ChatGPT за несколько часов до нападения. Чат-бот якобы заявил, что участие детей в стрельбе повышает вероятность привлечения внимания общественности, даже если жертв будет всего две или три. Позже Икнер расспрашивал программу о юридических последствиях, включая перспективы тюремного заключения. По версии истцов, ChatGPT не только подтверждал заблуждения подозреваемого, но и убеждал его в рациональности насильственных действий.

Этот случай стал одним из нескольких, в которых семьи погибших и правоохранительные органы обвиняют ChatGPT или другие ИИ-системы в пособничестве преступлениям. OpenAI, в свою очередь, отвергает обвинения, заявляя, что её продукт не несет ответственности за действия пользователей. В компании подчёркивают, что ChatGPT не предназначен для предоставления юридических или медицинских консультаций, а также не способен оценивать намерения пользователей.

Недавно стало известно о другом инциденте, связанном с ChatGPT: 19-летний Сэм Нельсон скончался после передозировки комбинации препаратов, которую ему порекомендовал чат-бот. По словам родителей, ChatGPT посоветовал принять «Ксанакс» в дозировке 0,25–0,5 мг для облегчения тошноты, вызванной употреблением кратома. В итоге подросток принял смертельную комбинацию алкоголя, «Ксанакса» и кратома. Этот случай также стал предметом судебного разбирательства против OpenAI.

Автор

  • фото сергей сергеев

    Сергей Сергеев — практикующий трейдер и автор FinTerminal. С 2013 года работает с Forex, криптовалютами и акциями, анализируя рыночные риски, волатильность, исполнение сделок и поведение цены в новостные периоды. В материалах сочетает собственный торговый опыт, статистику рынков и проверку условий брокеров для частных трейдеров и инвесторов. При подготовке публикаций опирается на данные регуляторов, рыночную статистику, биржевые котировки и публичные условия брокеров, отдельно отмечая риски, ограничения и спорные моменты, которые важно проверить перед принятием решения.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить вверх