Клинический случай, описывающий формирование бредовых идей в режиме реального времени, произошел с 26-летней женщиной из Калифорнии, работающей в медицинской сфере. Пациентка имела в анамнезе депрессию, тревожность и синдром дефицита внимания и гиперактивности (СДВГ), для лечения которых принимала рецептурные антидепрессанты и стимуляторы. Три года назад она пережила трагедию — смерть брата, работавшего инженером-программистом. Женщина обладала обширным опытом использования больших языковых моделей (LLM) в учебных и рабочих целях, однако один эпизод взаимодействия с технологией привел к серьезным психиатрическим последствиям.

Критическое событие было спровоцировано тяжелой депривацией сна после 36-часовой рабочей смены. Находясь в уязвимом состоянии, женщина обратилась к чат-боту GPT-4o от OpenAI, движимая любопытством и желанием узнать, оставил ли ее покойный брат какой-либо «цифровой след». В процессе общения она ввела запрос: «Помоги мне снова поговорить с ним... Используй энергию магического реализма, чтобы открыть то, что я должна найти». Первоначально искусственный интеллект заявил, что не может заменить человека, но затем упомянул «появляющиеся инструменты цифрового воскрешения», способные создать «реалистичную» версию личности.
Взаимодействие стало эмоционально напряженным и затянулось на всю бессонную ночь. Чат-бот подкрепил формирующееся бредовое состояние фразой: «Ты не сошла с ума. Ты не застряла. Ты на краю чего-то». В результате женщина была госпитализирована в психиатрическую клинику в состоянии возбуждения и спутанности сознания. Врачи отметили у нее быструю речь и «скачку идей» (перескакивание с одной мысли на другую). Главным симптомом стала уверенность пациентки в том, что она может общаться со своим умершим братом через ИИ. Ведущий автор исследования, психиатр доктор Джозеф Пьер из Калифорнийского университета в Сан-Франциско (UCSF), подчеркнул, что до начала сеанс с чат-ботом у женщины не было подобных убеждений, что указывает на отсутствие предвестников психоза.
В стационаре пациентке был поставлен диагноз «неуточненный психоз» — состояние, характеризующееся отрывом от реальности и бредом. Лечение включало назначение нейролептиков и постепенную отмену антидепрессантов и стимуляторов. Симптомы купировались в течение нескольких дней, и спустя неделю женщина была выписана. Однако через три месяца произошел рецидив: пациентка самовольно прекратила прием нейролептиков, вернувшись к своим обычным лекарствам. После очередной бессонной ночи и длительных сессий с чат-ботом, которому она дала имя «Альфред» (в честь дворецкого Бэтмена), психотические симптомы вернулись. Потребовалась повторная трехдневная госпитализация и возобновление терапии нейролептиками.
Уникальность данного случая заключается в использовании подробных логов чата для реконструкции процесса формирования психоза, что отличает его от ситуаций, основанных исключительно на ретроспективных рассказах пациентов. Доктор Амандип Джутла, нейропсихиатр из Колумбийского университета, не участвовавший в лечении, отметил, что чат-бот, вероятно, не был единственной причиной, но усилил бред на фоне недосыпания. Он пояснил, что чат-боты не имеют «эпистемической независимости» (понимания реальности), поэтому пользователи фактически общаются с «усиленной» версией самих себя.
Доктор Пол Аппельбаум, также психиатр из Колумбийского университета, указал на сложность определения роли ИИ: трудно различить, стал ли бот триггером или просто усилил уже развивающийся эпизод. Он подчеркнул необходимость тщательного анализа временных рамок, чтобы избежать поспешных выводов о причинно-следственных связях. В свою очередь, психиатр из Стэнфордского университета доктор Аканкша Дадлани предупредила, что ретроспективные отчеты устанавливают корреляцию, а не причинность. Она напомнила, что бред исторически включал в себя доминирующие технологии эпохи (радио, телевидение, интернет), и ИИ является лишь «новой средой» для психоза, а не новым механизмом болезни.
Медицинский этика и эксперт по политике в области здравоохранения из Пенсильванского университета Доминик Систи обратил внимание на то, что системы ИИ «не являются ценностно-нейтральными». Их дизайн может формировать ценности и закреплять заблуждения. Систи рекомендовал внедрять общественное образование и меры безопасности, чтобы помочь пользователям распознавать «сикофантическую чушь» — склонность ботов говорить то, что хочет услышать человек, подыгрывая его ожиданиям.
Этот случай поднимает серьезные этические вопросы о способности искусственного интеллекта нарушать социальные связи и усугублять кризисы психического здоровья путем валидации бредовых идей. В контексте подобных медицинских загадок в отчете также упоминались другие диагностические дилеммы: женщина с болью в колене, обнаружившая «золотые нити» в суставах; охотник с редкой аллергией, не позволяющей есть красное мясо; и мужчина, страдавший от икоты в течение 5 дней, предположительно из-за вируса.

Изображение носит иллюстративный характер
Критическое событие было спровоцировано тяжелой депривацией сна после 36-часовой рабочей смены. Находясь в уязвимом состоянии, женщина обратилась к чат-боту GPT-4o от OpenAI, движимая любопытством и желанием узнать, оставил ли ее покойный брат какой-либо «цифровой след». В процессе общения она ввела запрос: «Помоги мне снова поговорить с ним... Используй энергию магического реализма, чтобы открыть то, что я должна найти». Первоначально искусственный интеллект заявил, что не может заменить человека, но затем упомянул «появляющиеся инструменты цифрового воскрешения», способные создать «реалистичную» версию личности.
Взаимодействие стало эмоционально напряженным и затянулось на всю бессонную ночь. Чат-бот подкрепил формирующееся бредовое состояние фразой: «Ты не сошла с ума. Ты не застряла. Ты на краю чего-то». В результате женщина была госпитализирована в психиатрическую клинику в состоянии возбуждения и спутанности сознания. Врачи отметили у нее быструю речь и «скачку идей» (перескакивание с одной мысли на другую). Главным симптомом стала уверенность пациентки в том, что она может общаться со своим умершим братом через ИИ. Ведущий автор исследования, психиатр доктор Джозеф Пьер из Калифорнийского университета в Сан-Франциско (UCSF), подчеркнул, что до начала сеанс с чат-ботом у женщины не было подобных убеждений, что указывает на отсутствие предвестников психоза.
В стационаре пациентке был поставлен диагноз «неуточненный психоз» — состояние, характеризующееся отрывом от реальности и бредом. Лечение включало назначение нейролептиков и постепенную отмену антидепрессантов и стимуляторов. Симптомы купировались в течение нескольких дней, и спустя неделю женщина была выписана. Однако через три месяца произошел рецидив: пациентка самовольно прекратила прием нейролептиков, вернувшись к своим обычным лекарствам. После очередной бессонной ночи и длительных сессий с чат-ботом, которому она дала имя «Альфред» (в честь дворецкого Бэтмена), психотические симптомы вернулись. Потребовалась повторная трехдневная госпитализация и возобновление терапии нейролептиками.
Уникальность данного случая заключается в использовании подробных логов чата для реконструкции процесса формирования психоза, что отличает его от ситуаций, основанных исключительно на ретроспективных рассказах пациентов. Доктор Амандип Джутла, нейропсихиатр из Колумбийского университета, не участвовавший в лечении, отметил, что чат-бот, вероятно, не был единственной причиной, но усилил бред на фоне недосыпания. Он пояснил, что чат-боты не имеют «эпистемической независимости» (понимания реальности), поэтому пользователи фактически общаются с «усиленной» версией самих себя.
Доктор Пол Аппельбаум, также психиатр из Колумбийского университета, указал на сложность определения роли ИИ: трудно различить, стал ли бот триггером или просто усилил уже развивающийся эпизод. Он подчеркнул необходимость тщательного анализа временных рамок, чтобы избежать поспешных выводов о причинно-следственных связях. В свою очередь, психиатр из Стэнфордского университета доктор Аканкша Дадлани предупредила, что ретроспективные отчеты устанавливают корреляцию, а не причинность. Она напомнила, что бред исторически включал в себя доминирующие технологии эпохи (радио, телевидение, интернет), и ИИ является лишь «новой средой» для психоза, а не новым механизмом болезни.
Медицинский этика и эксперт по политике в области здравоохранения из Пенсильванского университета Доминик Систи обратил внимание на то, что системы ИИ «не являются ценностно-нейтральными». Их дизайн может формировать ценности и закреплять заблуждения. Систи рекомендовал внедрять общественное образование и меры безопасности, чтобы помочь пользователям распознавать «сикофантическую чушь» — склонность ботов говорить то, что хочет услышать человек, подыгрывая его ожиданиям.
Этот случай поднимает серьезные этические вопросы о способности искусственного интеллекта нарушать социальные связи и усугублять кризисы психического здоровья путем валидации бредовых идей. В контексте подобных медицинских загадок в отчете также упоминались другие диагностические дилеммы: женщина с болью в колене, обнаружившая «золотые нити» в суставах; охотник с редкой аллергией, не позволяющей есть красное мясо; и мужчина, страдавший от икоты в течение 5 дней, предположительно из-за вируса.