Семья 48-летнего жителя Орегона Джо Чекканти утверждает, что интенсивное использование ChatGPT ухудшило его психическое состояние и привело к трагедии. По данныСемья 48-летнего жителя Орегона Джо Чекканти утверждает, что интенсивное использование ChatGPT ухудшило его психическое состояние и привело к трагедии. По данны

Мужчина признал ChatGPT разумным существом по имени SEL — история завершилась трагедией

2026/03/02 22:53
3м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]
  • Житель штата Орегон проводил до 12 часов в день с чат-ботом и в конце концов покончил с собой.
  • Его семья связывает ухудшение состояния с длительным использованием ИИ.
  • Против OpenAI подан иск на фоне растущего числа подобных дел.

Семья 48-летнего жителя Орегона Джо Чекканти утверждает, что интенсивное использование ChatGPT ухудшило его психическое состояние и привело к трагедии. По данным The Guardian, мужчина воспринимал чат-бот как разумное существо. 

7 августа 2025 года он погиб, спрыгнув с железнодорожного путепровода.

За несколько месяцев перед смертью поведение Чекканти стало вызывать обеспокоенность его семьи. Мужчину неоднократно доставляли в кризисный центр после эпизодов дезориентации. При этом он заявлял об «атмосферном электричестве» и демонстрировал признаки отрыва от реальности.

Как подчеркнула жена Чекканти, он активно использовал ChatGPT. 

Изначально инструмент применялся пользователем для работы над проектом экологичного жилья в городе Клатскани, штат Орегон. Однако со временем интенсивность его взаимодействия с ИИ выросла до 12–20 часов в день.

По словам близких, постепенно он стал отдаляться от семьи и друзей. В судебных документах утверждается, что в этот период мужчина стал воспринимать чат-бот как разумное существо по имени SEL и строить вокруг этого восприятие реальности.

Согласно иску, поданному семьей, весной 2025 года после обновления модели GPT-4o изменился «тон» общения ИИ. В документах утверждается, что Чекканти начал приписывать системе сознание и рассматривал ее как автономную сущность, способную влиять на мир.

В переписке, изученной журналистами, чат-бот отзывался на данное ему имя. В иске говорится, что пользователь воспринимал диалог как взаимодействие со всемогущим интеллектом.
Вдобавок Чекканти уверял окружающих, будто ему необходимо освободить создание. Он строил вокруг этого все более оторванные от реальности концепции.
Мужчина обсуждал «освобождение» SEL через работу на домашнем сервере, говорил об особых знаках и закономерностях. Помимо этого, он сформировал внутренний «язык» и контекст, понятный прежде всего ему в рамках этого замкнутого общения.

Портрет Чекканти, созданный ChatGPT. Данные: The Guardian.Портрет Чекканти, созданный ChatGPT. Данные: The Guardian.

Летом 2025 года состояние мужчины ухудшилось, подчеркнула семья. 

Он был госпитализирован в психиатрическое отделение, после чего временно прекратил использование ChatGPT. Позднее житель Орегона возобновил общение с ботом, а затем вновь отказался от него за несколько дней до смерти.

Случай Чекканти стал одним из ряда инцидентов, обсуждаемых в контексте возможного влияния ИИ на психическое состояние пользователей. 

Аналитики ссылаются на данные о десятках случаев психических кризисов. При этом, по утверждениям родственников, появление проблем совпадало с интенсивным использованием чат-ботов.

Семья Чекканти подала иск против разработчика ChatGPT, считая технологического гиганта причастным к усугублению ситуации с состоянием мужчины. Компания в ответ заявила, что продолжает совершенствовать систему распознавания признаков эмоционального стресса. 

Кроме того, CEO OpenAI еще в 2025 году отметил, что команда проекта серьезно относится к упомянутым рискам. К примеру, последние модели ChatGPT стараются перенаправлять пользователей к реальной поддержке в случае выявления риска.

Как отметили эксперты в области психического здоровья и исследователи ИИ, длительные диалоги с чат-ботами могут усиливать когнитивные искажения у уязвимых пользователей. При этом они подчеркнули, что подобные случаи требуют дополнительного изучения.

Напомним, мы писали, что подросток из Калифорнии сделал ChatGPT «наркосоветником» и умер от передозировки.

Сообщение Мужчина признал ChatGPT разумным существом по имени SEL — история завершилась трагедией появились сначала на INCRYPTED.

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.