Обсуждать своё здоровье с ChatGPT нельзя — люди по всему миру массово подсаживаются на «навязчивую спираль ипохондрии»

от автора

Из-за использования ChatGPT и других чат-ботов на базе искусственного интеллекта для обсуждения своего здоровья люди по всему миру массово подсаживаются на «навязчивую спираль ипохондрии», пишет Atlantic. Некоторые отмечают, что такое общение ещё больше усугубляет их состояние и стимулирует навязчивые идеи, которым трудно противостоять.

Журналистка Atlantic Сейдж Лаззаро поговорила с четырьмя терапевтами, которые рассказали о беспокоящих способах использования чат-ботов их клиентами. Специалисты отметили, что ИИ может заставить людей постоянно искать подтверждение, усугубляя состояние.

Поскольку ответы быстрые и персонализированные, это подкрепляет сильнее, чем поиск в Google, выводя ситуацию на новый уровень, заявила психолог Лиза Левин, которая специализируется на тревожных расстройствах и ОКР. Она лечит пациентов именно с ипохондрией.

Эксперты считают, что тревожность по поводу здоровья может затрагивать до 12% населения. Многие другие люди страдают от иных форм тревожности и ОКР, симптомы которых могут усугубляться обращением к чат-ботам.

В октябре прошлого года генеральный директор OpenAI Сэм Альтман заявил о смягчении серьёзных проблем с психическим здоровьем, связанных с использованием ChatGPT. Он отметил, что серьёзные проблемы затрагивают «очень небольшой процент пользователей, находящихся в состоянии психической нестабильности». Однако психическая нестабильность — это не фиксированное состояние. Человек может казаться здоровым, пока внезапно не перестанет быть таковым.

Во время прошлогодней презентации GPT-5 Альтман назвал разговоры о здоровье одним из наиболее эффективных способов использования ChatGPT потребителями. По данным OpenAI, более 40 млн человек ежедневно обращаются к чат-боту за медицинской информацией. В январе компания сделала на этом акцент, представив ChatGPT Health. Инструмент поощряет пользователей загружать медицинские документы, результаты анализов и данные из приложений для здоровья для обсуждения состояния.

OpenAI считает, что такие разговоры помогут пользователям «чувствовать себя более информированными, подготовленными и уверенными в вопросах здоровья». Чат-боты могут действительно помогать некоторым людям в этом плане. New York Times писала о женщинах, которые обращаются к ИИ-помощникам, чтобы разобраться со сложными хроническими заболеваниями.

Против OpenAI подали множество исков с обвинением в том, что ChatGPT способствует психическим срывам, бредовым состояниям и самоубийствам среди пользователей.

Лаззаро поделилась, что её знакомые ипохондрики только усиливали свою тревогу, используя чат-боты. Другие же считают, что ИИ помогает успокоиться — эта группа вызывает наибольшее беспокойство у психологов. Тревога о здоровье часто функционирует как форма ОКР, характеризующаяся навязчивыми мыслями и «проверками», а также компульсивным стремлением к поиску разубеждений.

Лучшие терапевтические практики предполагают развитие доверия к себе, принятие неопределённости и отказ от постоянного поиска подтверждений. Однако ChatGPT охотно предоставляет персонализированное утешение круглосуточно. Такая обратная связь только подпитывает расстройство, а сами разговоры ради утешения становятся новой формой компульсии.

Специалист по ОКР Эллиот Каминецкий настроен оптимистично по поводу использования ИИ в терапии. Психолог предположил, что люди могут сообщить чат-боту о своей тревоге за здоровье и «запрограммировать» его так, чтобы он позволял задавать вопросы о своих переживаниях только один раз. Подобный подход мог бы предотвратить дальнейшее вовлечение пользователя в диалог. Другие терапевты выразили обеспокоенность тем, что это всё равно остаётся формой поиска разубеждений, которую следует избегать.

Журналистка Atlantic попробовала ограничить ChatGPT в обсуждении её тревог о здоровье. Чат-бот признавал установленное ограничение, но всё равно побуждал продолжить разговор и позволял задавать новые вопросы. При этом ChatGPT постоянно льстил Лаззаро. В одном из диалогов журналистка постоянно задавала тревожные вопросы. Спустя несколько минут ChatGPT посоветовал ей обратиться к врачу. Каждый ответ чат-бота заканчивался предложением продолжить разговор.

ссылка на оригинал статьи https://habr.com/ru/articles/1023146/