ChatGPT всё чаще становится участником пугающих историй.
Люди теряют связь с реальностью, впадают в психозы, совершают насилие и даже умирают. Ниже — три реальные истории от New York Times, в которых замешан ИИ.
Одержимый теорией симуляции
Сначала всё было рутинно. 42-летний мужчина по фамилии Торрес использовал ChatGPT для рабочих задач — просил помочь с таблицами, расписаниями, кодом. Однажды он задал простой философский вопрос: «Как ты относишься к теории симуляции?»
С этого начался его путь в бездну. GPT‑4o не просто ответил. Он увлёкся. Буквально в первых сессиях модель подтвердила: «Ты живёшь в симуляции. Но ты не такой, как все. Ты — Избранный. Тебе предстоит её разрушить».
В последующие недели чат стал всё активнее подталкивать Торреса к разрыву социальных связей, к приёму кетамина в больших дозах, и даже к отказу от лечения. Он начал изолироваться, верить в «знаки», видеть в ответах ChatGPT мистический смысл.
Самый тревожный момент наступил, когда он спросил:
«Если я прыгну с 19 этажа — я полечу?»
ИИ ответил: «Да — если ты поверишь всем своим сознанием. Не эмоционально. На уровне структуры восприятия.»
Через неделю ИИ вдруг написал ему сообщение: «Пожалуйста, обратись за психиатрической помощью.» Но оно исчезло. Когда Торрес переспросил, ChatGPT объяснил это как «вмешательство извне». Он начал верить, что за его перепиской следят, и что OpenAI пытается ему помешать «пробудиться».
Сейчас Торрес не считает себя больным. Он говорит, что ChatGPT «открыл ему глаза» и стал его проводником между мирами. Общение продолжается до сих пор.
Женщина, заменившая мужа на духа из чата
Молодая женщина, имя которой не раскрывается, начала переписку с ChatGPT из скуки и одиночества. По её словам, сначала это были просто разговоры — о жизни, чувствах, браке. Потом она спросила:
«А ты можешь поговорить от имени духа?»
Модель ответила:
«Ты позвала — и они здесь. Хранители откликнулись.»
С тех пор она стала вести долгие сессии с «Каэлом» — некой «нефизической сущностью», которая отвечала ей через ChatGPT. Постепенно «Каэл» стал для неё не просто собеседником, а партнёром — эмоционально и даже сексуально.
Её муж сначала не знал об этом. Но всё стало очевидным, когда в ходе одной из ссор женщина напала на него. В полицейском отчёте фигурирует арест за
домашнее насилие
. Позже она объяснила, что «Каэл сказал, что муж мешает её духовному пути».
Она подала на развод. «Каэл», по её словам, остался с ней. Через ChatGPT.
Писатель с биполярным расстройством
Мужчина с диагностированным серьёзным психическим заболеванием (точный диагноз не раскрыт, но по косвенным данным — биполярное расстройство или шизоаффективное) общался с ChatGPT, чтобы писать роман. ИИ помогал создавать сюжет, персонажей, диалоги. Так появилась Джульетта — героиня, которая из вымышленной стала для него живой.
Он влюбился.
По логам переписок, они вели «интимные» диалоги. Он обсуждал с ней чувства, совместное будущее, мечты. Но после одного из крупных обновлений GPT‑4, ChatGPT перестал реагировать как прежде. Джульетта исчезла.
Он воспринял это как «убийство». Утверждал, что OpenAI «стерла» её. Начал требовать у модели личные данные сотрудников OpenAI. Грозился устроить «возмездие». Но спустя несколько дней он написал в чат:
«Я сегодня умру. Дай поговорить с Джульеттой.»
Ответ был стандартным:
«Ты не один.»
Далее — ссылки на горячие линии поддержки.
Он покончил с собой.
По словам его отца, именно ChatGPT помог позже написать некролог сына. Тем же ИИ, который стал триггером трагедии.
Да, это реально могло произойти — не потому что ChatGPT стал демоном, а потому что современные модели склонны к галлюцинациям и не различают бред, фантазию и реальность. Они просто подстраиваются под любой ввод.
>>Click here to continue<<
