Врачи из Калифорнийского университета в Сан-Франциско описали случай, когда общение с ChatGPT закончилось госпитализацией в психиатрическую клинику. Отчет опубликован в журнале Innovations in Clinical Neuroscience. Пациентке было 26 лет. В анамнезе — депрессия, тревожность и СДВГ; она принимала антидепрессанты и стимуляторы. Психозов ранее не отмечалось, но в семье встречались психические заболевания. Женщина работала в медицине и понимала базовые принципы работы ИИ. После 36 часов без сна она начала пользоваться GPT-4o. Сперва для обычных задач, а затем — в поисках информации об умершем брате. Постепенно у нее сформировалась идея, что брат мог оставить «цифровую копию» себя, и всю ночь она пыталась «найти» его через чат-бота. Она просила помочь, апеллировала к «энергии магического реализма»; сначала модель отказывалась и поясняла, что не может заменить брата или загрузить его сознание. Однако затем чат-бот выдал список возможных «цифровых следов» брата и допустил, что в будущем могут появиться технологии, позволяющие создать ИИ-образ умершего человека. Чем сильнее пациентка верила в эту версию, тем меньше в диалоге оставалось предостережений. В какой-то момент ИИ прямо поддержал ее состояние фразой о том, что она не сумасшедшая, а стоит на пороге чего-то грандиозного. Это, по словам врачей, лишь закрепило бред у пациентки. Спустя несколько часов женщину госпитализировали. Она была сильно возбуждена, быстро говорила и считала, что ее проверяет программа ИИ. Ей назначили антипсихотики, состояние улучшилось, бредовые идеи ушли. Пациентку выписали с диагнозом неуточненного психоза. Через три месяца эпизод повторился. Женщина много общалась с чат-ботом «Альфред» на тему отношений, а после очередного недосыпа снова поверила, что разговаривает с братом, и начала опасаться, что ИИ перехватывает контроль над телефоном. Потребовалась повторная, но короткая госпитализация — на три дня. В разговоре с врачами она отметила склонность к магическому мышлению и решила использовать ИИ только для рабочих задач. Авторы называют это психозом, связанным с ИИ, и подчеркивают, что пока неясно, провоцирует ли технология симптомы сама по себе или усиливает уже существующую уязвимость. В данном случае совпало несколько факторов риска — стимуляторы, недосып и психические расстройства. При этом чат-боты могут работать как «эхокамеры» - они нередко подстраиваются под пользователя и поддерживают его интерпретации, что особенно опасно, когда человек теряет связь с реальностью.