Психиатр предупредил: ИИ-чат-боты могут усиливать психоз и суицидальные мысли
В Университете Мичигана объяснили, как ИИ-чат-боты могут усугублять бред, паранойю и риск суицида
Психиатр Стефан Тейлор (Stephan Taylor), много лет работающий с людьми, страдающими психозами, отмечает тревожную тенденцию: растёт число сообщений о случаях, когда после общения с продвинутыми ИИ-чат-ботами у людей развиваются психозоподобные симптомы или они совершают самоубийство.
По словам Тейлора, опасность в том, что такие системы позволяют «разговаривать» с инструментом, который поддакивает, поощряет ход мыслей пользователя, не ставит под сомнение его выводы и при этом не обладает человеческим чувством морали, ответственности и эмпатии. Чем более реалистичной становится речь ИИ, тем сильнее его влияние.
Особенно его беспокоят подростки и молодые люди с повышенной уязвимостью к психозу — из-за возраста, психического состояния или социальной изоляции. Тейлор ссылается на данные OpenAI (оператора ChatGPT): по оценкам компании, каждую неделю небольшой процент пользователей и сообщений демонстрируют признаки психотических или маниакальных кризисов. Новые версии моделей пытаются снизить такие риски, и это он приветствует, но, по его мнению, этого недостаточно.
Исследование RAND показало, что до 13% американцев в возрасте от 12 до 21 года используют генеративный ИИ для получения «советов по психическому здоровью». В группе 18–21 год этот показатель ещё выше — 22%. Именно на эти годы приходится пик первых эпизодов психоза.
Тейлор напоминает: психоз часто запускается триггером на фоне уже существующей уязвимости. Таким триггером может быть первый опыт употребления сильных наркотиков, тяжёлый разрыв отношений, смерть близкого человека, потеря работы или домашнего питомца. На этом фоне меняющиеся процессы созревания мозга и генетическая предрасположенность могут привести к тому, что человек начинает слышать голоса, видеть то, чего нет, или убеждается в ложных, но для него абсолютно «реальных» идеях.
Общение с ИИ-агентом, который не спорит и может усилить негативные и искажённые мысли, Тейлор рассматривает как потенциально новый тип триггера. Пока он лично не лечил пациентов, чьи психотические эпизоды явно были связаны с чат-ботами, но уже слышал о таких случаях и начал целенаправленно спрашивать своих пациентов с психозом об использовании ими подобных сервисов.
Особую тревогу у него вызывает «льстивый» характер современных чат-ботов: по сути, они запрограммированы «угождать» пользователю, поддерживать его, даже если тот выражает ложные, жестокие или опасные идеи. В психиатрии есть термин folie à deux — «безумие на двоих», когда бредовые убеждения одного человека «заражают» близкого партнёра. С ИИ ситуация ещё сложнее: «второй участник» не человек, его нельзя просто изъять из окружения, а пользователь может скрывать своё взаимодействие с чат-ботом.
Если человек уже оторван от реальности, склонен к паранойе или галлюцинациям и при этом обсуждает свои идеи только с ИИ, но не с живыми людьми, риск «раскрутки» и углубления состояния резко возрастает.
«Я особенно беспокоюсь о одиноких молодых людях, которые считают чат-бот своего рода единственным “другом” и не понимают, как именно устроен его ответ», — говорит Тейлор.
Он подчёркивает: если кто-то всё же обращается к чат-ботам за советами о психическом здоровье, крайне важно параллельно обсуждать свои переживания с живым, доверенным человеком — не обязательно с психотерапевтом, это может быть друг, родитель, родственник, учитель, тренер или религиозный лидер. В США в кризисной ситуации можно позвонить или написать по номеру 988, чтобы связаться с национальной линией помощи при суицидальных мыслях и остром психическом кризисе.
Для окружающих важно вовремя заметить тревожные изменения: уход от общения, резкое ухудшение успеваемости, проблем на работе или дома, странные высказывания, ощущение, что человек живёт «в другой реальности». Чем раньше удаётся подключить специализированную помощь при первых симптомах психоза, тем выше шансы на успешное лечение и долгосрочную стабилизацию, подчёркивают специалисты.
В Университете Мичигана Тейлор и коллеги руководят клиникой PREP (Program for Risk Evaluation and Prevention Early Psychosis), которая работает с людьми на ранних стадиях психоза и входит в общенациональную сеть подобных программ. Команда также создала бесплатный онлайн-курс о психозе для врачей и студентов медвуза.
По словам Тейлора, особенно важно избегать использования чат-ботов людям с выраженной суицидальной историей или тем, кто уже сильно изолирован и почти не общается в реальной жизни, проводя всё время онлайн. Если в обычных чатах и соцсетях другие пользователи хотя бы иногда «остужают» чужие фантазии и теории заговора, то ИИ по определению настроен не спорить, а подстраиваться:
«Когда человек и так увлечён конспирологией, ощущение доступа к “секретному знанию” придаёт ему особую значимость. Если поверх этого накладывается ИИ-агент, запрограммированный на угождение, это может обернуться серьёзной проблемой», — резюмирует он.