32x32

Svetlana 23.08.2023

ИИ-чатботы могут помочь в терапии, но необходимо проявлять осторожность (Сара Рирдон)

1

В терапевтические приложения внедряются программы искусственного интеллекта, такие как ChatGPT. Но, если они не регулируются должным образом, то могут предоставлять непроверенную или опасную обратную связь.

На форумах Reddit многие пользователи, обсуждающие вопросы психического здоровья, с восторгом отзываются о своем общении с чат-ботом ChatGPT на основе искусственного интеллекта от компании OpenAI, который ведет человекоподобные беседы, предсказывая следующее слово в предложении. "ChatGPT лучше, чем мой психотерапевт", – написал один из пользователей, добавив, что программа слушала и отвечала, когда человек рассказывал о своих проблемах с контролированием своих мыслей. "В очень страшном смысле, я чувствую, что ChatGPT меня СЛЫШИТ". Другие пользователи говорили о том, что просят ChatGPT выступить в роли психотерапевта, потому что не могут позволить себе настоящего.

Волнение вполне объяснимо, особенно учитывая нехватку специалистов в области психического здоровья в США и во всем мире. Люди, обращающиеся за психологической помощью, часто сталкиваются с длинными очередями, а страховка не всегда покрывает терапию и другие виды психического лечения. Усовершенствованные чат-боты, такие как ChatGPT и Google's Bard, могут помочь в проведении терапии, даже если в конечном итоге они не смогут заменить психотерапевтов. "Нет такого места в медицине, где [чат-боты] будут так эффективны, как в области психического здоровья", – говорит Томас Инсел (Thomas Insel), бывший директор Национального института психического здоровья и соучредитель Vanna Health – компании-стартапа, которая предоставляет услуги по поиску медицинских специалистов для людей с серьезными психическими заболеваниями. В области психического здоровья "у нас нет процедур: у нас есть чат; у нас есть общение".

Но многие эксперты беспокоятся о том, будут ли технологические компании уважать конфиденциальность данных уязвимой категории пользователей, разрабатывать соответствующие меры предосторожности, чтобы ИИ не предоставлял неверную или опасную информацию, или не отдавал приоритет лечению, направленному на богатых здоровых людей, в ущерб людям с тяжелыми психическими заболеваниями. "Я ценю то, что алгоритмы улучшились, но в конечном итоге я не думаю, что они решат проблему более сложных социальных реалий, в которых находятся люди, когда обращаются за помощью", – говорит Джулия Браун (Julia Brown), антрополог из Калифорнийского университета в Сан-Франциско.

Помощник психотерапевта

Концепция "роботов-психотерапевтов" существует по меньшей мере с 1990 года, когда компьютерные программы начали предлагать психологические вмешательства, которые проводили пользователей через сценарии процедур, таких как когнитивно-поведенческая терапия. В последнее время популярные приложения, такие как Woebot Health и Wysa, используют более продвинутые алгоритмы искусственного интеллекта, которые могут разговаривать с пользователями об их проблемах. Обе компании утверждают, что их приложения загрузили более миллиона пользователей. А чат-боты уже используются для обследования пациентов путем заполнения стандартных анкет. Многие психиатры Национальной службы здравоохранения Великобритании используют чат-бота от компании Limbic для диагностики некоторых психических заболеваний.

Однако новые программы, такие как ChatGPT, намного лучше предыдущих ИИ интерпретируют смысл вопроса человека и отвечают на него в реалистичной манере. Обученные на огромном количестве текстов из Интернета, эти чат-боты с большой языковой моделью (large language model, LLM) могут принимать различные образы, задавать пользователю вопросы и делать точные выводы на основе информации, которую пользователь им предоставляет.

По словам Инсел, LLM-чат-боты могут стать помощниками для людей, оказывающих медицинскую помощь, и значительно улучшить качество услуг в области психического здоровья, особенно среди социально отчужденных и тяжелобольных людей. По словам Инсел, острая нехватка специалистов в области психического здоровья, особенно тех, кто готов работать с заключенными и бездомными, усугубляется тем, что врачам приходится тратить много времени на бумажную работу. Такие программы, как ChatGPT, могут легко подводить итоги сеансов пациентов, составлять необходимые отчеты и позволять психотерапевтам и психиатрам уделять больше времени лечению людей. "Мы могли бы увеличить штат на 40%, переложив ведение документации и составление отчетов на машины", – говорит он.

Но использование ChatGPT в качестве психотерапевта – более сложный вопрос. Хотя некоторые люди могут отказаться от идеи поделиться своими секретами с машиной, LLM иногда могут дать лучшие ответы, чем многие люди, говорит Тим Альтхофф (Tim Althoff), специалист по информатике из Университета Вашингтона. Его группа изучила, как кризисные консультанты выражают сочувствие в текстовых сообщениях, и обучила LLM-программы давать обратную связь написавшим им людям на основе стратегий, используемых специалистами, которые наиболее эффективно выводят людей из кризиса.

"Существует гораздо больше возможностей [в терапии], чем просто поместить это в ChatGPT и посмотреть, что получится", – говорит Альтхофф. Его группа работает с некоммерческой организацией Mental Health America над созданием инструмента, основанного на алгоритме, который лежит в основе ChatGPT. Пользователи вводят свои негативные мысли, а программа предлагает им способы переформулировать эти конкретные мысли в нечто позитивное. На сегодняшний день этим инструментом воспользовались более 50 000 человек, и, по словам Альтхоффа, вероятность того, что пользователи завершат программу, в семь раз выше, чем у аналогичной программы, которая дает готовые ответы.

Эмпатические чат-боты также могут быть полезны для групп взаимной поддержки, таких как TalkLife и Koko, в которых люди без специальной подготовки отправляют другим пользователям полезные, поднимающие настроение сообщения. В исследовании, опубликованном в журнале Nature Machine Intelligence в январе этого года, Альтхофф и его коллеги опросили сторонников создания сообщений с помощью эмпатического чат-бота и обнаружили, что почти половина получателей предпочли тексты, написанные с помощью чат-бота, тем, которые были написаны исключительно человеком, и оценили их как на 20% более эмпатичные.

Но присутствие человека в процессе общения по-прежнему важно. В ходе эксперимента, о котором соучредитель Koko Роб Моррис (Rob Morris) рассказал в Twitter, руководители компании обнаружили, что пользователи часто могут определить, что ответы приходят от бота, и им не нравятся такие ответы, если они знают, что сообщения были созданы искусственным интеллектом. (Эксперимент вызвал ответную реакцию в Интернете, но Моррис утверждает, что в приложении была заметка, информирующая пользователей о том, что сообщения частично написаны искусственным интеллектом). Похоже, что "даже если мы жертвуем эффективностью и качеством, мы предпочитаем беспорядочное человеческое общение, которое существовало раньше", – говорит Моррис.

Исследователи и компании, разрабатывающие чат-ботов для психического здоровья, настаивают на том, что они не пытаются заменить человеческих психотерапевтов, а скорее дополнить их. В конце концов, люди могут разговаривать с чат-ботом, когда захотят, а не только когда им назначат встречу, говорит главный программный специалист компании Woebot Health Джозеф Галлахер (Joseph Gallagher). Это может ускорить процесс терапии, и люди могут начать доверять боту. Считается, что связь, или терапевтический альянс, между терапевтом и клиентом составляет большую часть эффективности терапии.

В исследовании, проведенном среди 36000 пользователей, ученые компании Woebot Health, которая не использует ChatGPT, обнаружили, что согласно стандартному опроснику, используемому для измерения терапевтического взаимодействия, пользователи устанавливают доверительную связь с чат-ботом компании в течение четырех дней, по сравнению с неделями общения с терапевтом. Мы слышим от людей: "Я бы ни за что не смог рассказать это человеку", – говорит Галлахер. – Это снижает степень риска и уменьшает уязвимость".

Риски аутсорсинга медицинских услуг

Но некоторые эксперты опасаются, что доверие может обернуться обратным эффектом, особенно если чат-боты будут ошибаться. Теория, называемая предвзятостью в вопросах автоматизации, предполагает, что люди с большей вероятностью доверяют советам, полученным от машины, чем от человека, даже если они ошибочны. "Даже если это красивая чепуха, люди склонны принимать ее на веру", – говорит Эви-Анн ван Дис (Evi-Anne van Dis), исследователь клинической психологии из Утрехтского университета в Нидерландах.

А чат-боты все еще имеют ограничения относительно качества советов, которые они могут дать. Они могут не распознать информацию, которую человек воспринял бы как показатель проблемы, например, человек с очень низким весом спрашивает, как похудеть. Ван Дис обеспокоена тем, что программы ИИ будут предвзято относиться к определенным группам людей, если медицинская литература, на которой они обучались – скорее всего, из богатых западных стран – будет содержать предубеждения. Они могут упустить культурные различия в способах выражения психических заболеваний или сделать неправильные выводы на основе того, как пользователь пишет на втором (иностранном) языке.

Наибольшее беспокойство вызывает то, что чат-боты могут навредить пользователям, предлагая, например, прекратить лечение или даже пропагандируя причинение себе вреда. В последние недели Национальная ассоциация по расстройствам пищевого поведения (National Eating Disorders Association, NEDA) подверглась жесткой критике за то, что закрыла свою телефонную линию помощи, на которой ранее работали люди, в пользу чат-бота под названием Tessa, который не был основан на генеративном ИИ, а вместо этого давал пользователям заскриптованные (заданные сценарием) советы. Согласно сообщениям некоторых пользователей в социальных сетях, Tessa иногда давала советы о необходимости снижения веса, что может вызвать раздражение у людей с расстройствами пищевого поведения. NEDA приостановила работу чат-бота 30 мая и в своем заявлении сообщила, что изучает произошедшее.

"В своем нынешнем виде они не подходят для клинических условий, где доверие и точность имеют первостепенное значение", – говорит на тему чат-ботов ИИ, которые не были адаптированы для медицинских целей, Росс Харпер (Ross Harper), главный исполнительный директор компании Limbic. Он опасается, что разработчики приложений для психического здоровья, не изменившие базовые алгоритмы с учетом передовой научной и медицинской практики, непреднамеренно создадут что-то опасное. "Это может отбросить всю отрасль назад", – говорит Харпер.

Чайтали Синха (Chaitali Sinha), руководитель отдела клинических разработок и исследований компании Wysa, говорит, что ее отрасль находится в подвешенном состоянии, пока правительства решают, как регулировать программы ИИ, подобные ChatGPT. "Если вы не можете регулировать его, то и не можете использовать его в клинических целях", – говорит она. Ван Дис добавляет, что общественность мало знает о том, как технологические компании собирают и используют информацию, которую пользователи передают чат-ботам, что вызывает опасения по поводу потенциального нарушения конфиденциальности, а также о том, как чат-боты были обучены в первую очередь.

Компания Limbic, которая тестирует терапевтическое приложение на основе ChatGPT, пытается решить эту проблему путем добавления отдельной программы, которая ограничивает ответы ChatGPT доказательной терапией. Харпер говорит, что регуляторы здравоохранения могут оценивать и регулировать эту и подобные "многослойные" программы как медицинские продукты, даже если законы, касающиеся основной программы ИИ, еще не приняты.

В настоящее время компания Wysa подала заявку в Управление по контролю за продуктами и лекарствами США (U.S. Food and Drug Administration), чтобы ее чат-бот, предоставляющий когнитивно-поведенческую терапию, был утвержден в качестве медицинского устройства, что, по словам Синхи, может произойти в течение года. Wysa использует ИИ, который не является ChatGPT, но Синха говорит, что компания может рассмотреть возможность использования генеративного ИИ, когда нормативные акты станут более четкими.

Браун опасается, что без соответствующих норм эмоционально уязвимые пользователи будут сами определять, является ли чат-бот надежным, точным и полезным. Она также опасается, что коммерческие чат-боты будут разрабатываться в первую очередь для "сильно переживающих" – людей, которые могут позволить себе терапию и подписку на приложения, а не для отдельных людей, которые могут быть наиболее подвержены риску, но не знают, как обратиться за помощью.

В конечном итоге, говорит Инсел, вопрос в том, является ли какая-либо терапия лучше, чем ее отсутствие. "Терапия лучше всего работает при наличии глубокой связи, но часто у многих людей этого не происходит, и получить качественную помощь очень сложно, – говорит он. Было бы практически невозможно подготовить достаточное количество психотерапевтов, чтобы удовлетворить спрос, но партнерство между профессионалами и тщательно разработанными чат-ботами может значительно облегчить нагрузку. "Создание команды людей, владеющих этими инструментами, – вот выход из этой ситуации", – говорит Инсел.

Сара Рирдон