Глава OpenAI предупредил о рисках использования ChatGPT в качестве психотерапевта

от автора

На подкасте Тео Вона глава OpenAI Сэм Альтман рекомендовал пользователям «подумать дважды» перед тем, как использовать ChatGPT в роли психотерапевта. Многие пользователи обращаются к нейросети за помощью в трудных ситуациях или просто советом — но проблема в том, что подобные разговоры никак не регулируются юридически. Консультации с настоящим писхотерапевтом защищены законом о конфиденциальности, который не распространяется на ChatGPT. Аналогичным образом защищены разговоры с врачами и юристами.

По словам Альтмана, сейчас OpenAI по умолчанию сохраняет все переписки — даже временные чаты остаются на серверах компании 30 дней. И если суд потребует эти данные — то компания будет вынуждена раскрыть их. Теоретически такое может произойти в случае, если пользователь окажется участником судебного процесса о разводе, опеке, трудовом споре и так далее — адвокаты другой стороны могут затребовать диалоги с ChatGPT и любым другим ИИ.

Глава OpenAI считает подобную ситуацию неправильной и просит законодателей догнать реальность. По его мнению, разговоры с ИИ на чувствительные темы также должны быть защищены законом о конфиденциальности.

По данным свежего опроса Talker Research для Vitamin Shoppe (июль 2025), уже около 35% взрослых американцев используют генеративные ИИ‑сервисы для вопросов здоровья и самочувствия: 31% проверяют через них симптомы и ищут информацию о заболеваниях, а примерно 20% обращаются к ботам за писхотерапевтической помощью.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.


ссылка на оригинал статьи https://habr.com/ru/articles/931394/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *