
MIT Technology Review опубликовал рассказ, как психотерапевты используют ChatGPT для помощи консультаций без ведома клиентов. В центре история 31-летнего Деклана (фамилия не раскрывается), который рассказал, как во время онлайн-сессии у его терапевта начались проблемы со связью. Собеседники договорились выключить камеры, но врач по ошибке включил демонстрацию экрана. На нем Деклан увидел интерфейс ChatGPT, куда терапевт печатал подробности беседы, а затем брал ответы, рекомендованные нейросетью.
Деклан был так растерян, что не стал говорить врачу об ошибке и просто продолжил сессию. Он даже начал подглядывать ответы ChatGPT на экране и произносить их как свои мысли раньше терапевта. «Наверное, в тот раз я был лучшим пациентом» — размышляет Деклан. Однако во время следующего звонка он сообщил специалисту, что видел, как тот использует ChatGPT и высказал свое недовольство.
Произошедшее дальше Деклан описывает как очень неловкую ситуацию. В итоге врач признался, что ранее зашел в тупик в их случае — и решил спросить помощи у ChatGPT. Затем он списал с Деклана оплату за полный сеанс.
Автор статьи утверждает, что на том же Reddit можно найти много случаев, когда пациенты подозревали своих терапевтов в использовании нейросетей. Пусть иногда ответы могут быть полезны для специалиста, это опасно, так как обычные ИИ-подписки не попадают под HIPAA (Health Insurance Portability and Accountability Act) — федеральный закон США, который регулирует защиту медицинской информации (HIPAA-совместимыми являются некоторые бизнес-варианты). Когда терапевт передает ИИ переживания пациента (даже без имени), формально он нарушает закон о конфиденциальности, потому что модель может использовать эти данные, например, для обучения.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/945444/
Добавить комментарий