16+
Выходит с 1995 года
20 апреля 2024
Технологии и психотерапия: союзники или соперники?

На 15-м Санкт-Петербургском Саммите психологов в рамках интерактивной лекции «Технологии и психотерапия: союзники или соперники? Опыт разработки бота с помогающими практиками» Наталья Владимировна Кисельникова, кандидат психологических наук, заведующая лабораторией консультативной психологии и психотерапии Психологического института Российской академии образования, говорила о том, как технологии проникают в поле психотерапии, способен ли современный искусственный интеллект на настоящую эмпатию, какие боты разработаны и разрабатываются в мире и в России.

Изначально меня просили рассказать о нашем опыте разработки ботов, но мне захотелось затронуть более широкий контекст — интеграцию технологий с помогающими практиками. В первой части мастер-класса я расскажу о том, какие технологии уже используются, какие надежды на них возлагаются в будущем и какие в связи с этим существуют риски. Во второй половине лекции я поделюсь нашими разработками в данной области.

Интеграция терапии с технологиями

Что в настоящее время является наиболее часто обсуждаемыми темами в этом поле? Во-первых, это возможности использования искусственного интеллекта в психотерапии и в помогающих практиках в целом. И, во-вторых, то, что уже сейчас активно используется и исследуется, — виртуальная реальность на службе психотерапии. Про последнее можно увидеть довольно много публикаций и в научных, и в ненаучных изданиях. Например, о применении виртуальной реальности при работе с посттравматическим стрессовым расстройством, где люди проживают травмирующий опыт в безопасных условиях. Виртуальная реальность сначала применялась в терапии ПТСР для ветеранов военных действий, а затем метод начали использовать для работы с клиентами, переживающими горе. Этичность и безопасность такой терапии еще является предметом обсуждений. Например, не так давно была опубликована история о женщине, потерявшей маленькую дочку и встретившейся с её аватаром в виртуальной реальности, чтобы попрощаться. Отношение к этому было очень амбивалентным. Насколько реалистичная встреча с покойным ребёнком способствует переработке опыта потери? Или же, наоборот, такой опыт может ретравматизировать? Вопрос открыт.

Точно известно одно: число ситуаций, когда виртуальная реальность применяется как психотерапевтическое средство для работы с негативными эмоциональными состояниями, растёт. Есть ожидания, что со временем этот спектр будет расширяться. Но, в то же время, не ожидается, что VR станет заменой психотерапии, скорее продолжит быть вспомогательным инструментом.

С искусственным интеллектом всё сложнее и дискуссионнее, потому что нас интересует вопрос: «Может ли искусственный интеллект в будущем полностью заменить психотерапевта?»

Понятно, что сейчас мы очень далеки от этого момента и современный искусственный интеллект используется для решения частных задач. Например, для распознавания эмоциональных состояний, признаков ментальных расстройств. Но можно пофантазировать, что в будущем мы накопим огромное число записей настоящих терапевтических сессий, обучим нейронную сеть на этом материале, и она сможет воспроизводить не только механические диалоги, но и выстраивать психотерапевтические отношения.

Запрос на искусственный интеллект

Прежде чем перейти к дискуссионным моментам, давайте поговорим о том, почему интеграция ИИ и психотерапии может быть важной. Ведь легко можно возразить, что терапия — это искусство, ремесло, сугубо человеческая активность, которую никогда не заменят машины.

Есть определённые основания, укрепляющие позицию сторонников интеграции с ИИ. Так, по данным исследований из отчёта европейского отделения ВОЗ, специалистов в области ментального здоровья остро не хватает даже в развитых странах. Если люди и могут получить потенциально квалифицированную помощь, то она часто оказывается экономически недоступна. Руководствуясь этим, ВОЗ пишет о потребности в таких формах профилактики и помощи, где вовлечение живого специалиста минимально. Массовость психотерапии с использованием технологий отвечает этим потребностям и позволяет одновременно охватить сотни тысяч и даже миллионы людей.

Также аргумент «за» — возможность более мягкого «входа» в терапию для людей, которые менее охотно идут на контакт с реальным психотерапевтом. Сейчас эту нишу занимают книги по самопомощи и онлайн-курсы по психологии для непсихологов. В результате общий уровень образованности в теме психического здоровья растёт. Это некоторое промежуточное звено между «вообще не обращаться за психологической помощью» и обращением к психотерапевту.

В России, кроме того, стоит острая проблема стигматизации людей с ментальными расстройствами и отрицания необходимости обращения к специалисту. При этом пользоваться мобильными приложениями не стыдно, и это можно делать приватно.

Есть и еще несколько областей применения технологий в помогающих практиках: программы распознавания признаков ментальных расстройств позволяют выявить уязвимые группы людей на ранних этапах и перенаправить их за помощью. Помимо этого, технологии могут выступать помощниками для специалистов, которые работают в русле хорошо структурированных подходов типа когнитивно-поведенческой терапии, стратегической терапии и часто задают домашние задания своим клиентам. В специальные приложения можно добавлять напоминалки, функцию сбора обратной связи, мониторинг текущего состояния и возможность вести дневники наблюдения, которые люди ленятся заполнять от руки.

Во всех вышеупомянутых ситуациях IT-технологии и психотерапия — не конкуренты, а соратники, которые взаимодополняют друг друга.

Искусственный интеллект и диагностика

Психодиагностические задачи уже неплохо решаются искусственным интеллектом. Большинство существующих сейчас алгоритмов направлено на распознавание эмоций через поведенческие признаки или через речь. Скорость развития таких технологий вызвана также живым интересом маркетологов и разработчиков систем информационной безопасности. Так, алгоритмы Affectiva и Multisense отлично распознают разные эмоциональные состояния. Сейчас они чаще всего используются в системах безопасности, но есть и специфические проекты, ориентированные на распознавание ментальных расстройств.

Например, Durkheim project и алгоритм, работающий в Facebook, распознают суицидальные намерения. В 2017 году алгоритм был запущен в Facebook (он работает только на английском языке). Изначально функционал был таков, что пользователь, видя пост, где его друг высказывает намерения к самоубийству, мог нажать на специальную кнопку и оповестить службу Facebook, чтобы человека спасли. Затем алгоритм обучили на текстах пользователей, и теперь он может самостоятельно распознать намерения по постам. Человеку присылается либо предложение посетить кризисный центр, либо, если ситуация серьёзная, сигнал может быть послан специалистам. Недавно был случай, когда благодаря работе этого алгоритма службы предотвратили реальную суицидальную попытку человека.

С этим связаны большие этические проблемы, вызванные нарушением конфиденциальности пользовательских данных. С другой стороны, сторонники такой системы говорят, что ценность человеческой жизни находится в «топе» и неважно, что эти действия нарушают приватность.

В феврале этого года в нашей лаборатории завершился проект, в рамках которого мы разрабатывали похожий алгоритм на базе соцсети «ВКонтакте» для распознавания признаков депрессии у русскоязычных пользователей. Сначала мы собирали текстовые данные: просили писать эссе на одну и ту же тему людей с диагнозом расстройств депрессивного спектра и людей без депрессии. Мы «скормили» эти тексты алгоритму, и он выделил лингвистические, семантические, морфологические отличия текстов людей с депрессией от текстов других людей.

Далее мы собрали согласие у людей на право анализировать их поведение в профилях «ВКонтакте», выкачивать через API данные об их подписках, количестве друзей, постов и лайков, аудиозаписях. Также участники заполняли опросники на определение уровня депрессии, удовлетворённости жизнью, проходили тест личностных черт Big Five. По комплексу этих параметров мы выявили информативные признаки депрессии. То есть те, что с высокой вероятностью характеризуют профиль как страницу человека с депрессией.

Наши данные подтвердили аналогичные англоязычные результаты, а именно — что люди с депрессией менее активно ведут себя в соцсетях: у них меньше друзей, загруженных фотографий, они реже лайкают посты других пользователей, но при этом у них увеличены показатели пассивного потребления контента — подписок на страницы и аудиозаписей. В итоге, по совокупности этих признаков — текстовых и поведенческих — наш алгоритм с высокой вероятностью (около 70%) предсказывал попадание человека в группу с депрессией или без. В общей сложности в исследовании участвовало более 1200 человек.

Бото-терапия

Как моделируется терапевтическая коммуникация с использованием ИИ? Наверняка многие из вас слышали про «Элизу», первую компьютерную программу, которая ещё в середине XX века начинала обучаться на диалогах с людьми.

К моделированию терапевтической коммуникации разработчики подошли не так давно. Один из самых известных подобных ботов — Woebot, работавший как мессенджер в Facebook, а сейчас как бесплатное англоязычное приложение. Я активно тестировала его и Wysa. Оба приложения основаны на протоколах когнитивно-поведенческой терапии. Woebot разработан сотрудниками Стэнфордского университета, они же провели пока единственное исследование эффективности терапии с использованием бота. Результаты нельзя назвать репрезентативными: во-первых, там была очень маленькая выборка из 70 студентов, во-вторых, эффективность бота сравнивалась с чтением книги по самопомощи, а не с реальной терапией. Эксперимент показал большую эффективность ботов.

Бот постепенно обучается, развивается, и его коммуникация начинает выглядеть всё менее механистично. По большей части, в него заложена психообразовательная функция и диагностическая. Приложение собирает данные о вашем настроении и периодически выдаёт график с динамикой, а также знакомит с ключевыми понятиями когнитивно-бихевиоральной терапии и работой с ограничивающими убеждениями.

Риски при использовании технологий

Итак, алгоритмы хороши в диагностике, могут выполнять часть задач психотерапии, но в настоящее время боты и приложения точно не могут выстраивать терапевтические отношения, которые по всем данным являются ключевым фактором эффективности терапии. Поэтому основной дискутируемый вопрос это: «Можно ли в будущем создать такой искусственный интеллект, который сымитирует личность и сможет сохранять историю отношений клиента и терапевта?» Сейчас делаются шаги в сторону развития возможности построения терапевтических отношений бота и клиента через проектирование личности чат-ботов. Тот же Woebot обладает условным характером, стилем общения с пользователем. Самое сложное, конечно, это создать у бота адаптивную личность, которая будет подстраиваться под разных клиентов. В будущем эта задача, в том числе, может решаться через обучение ботов распознаванию естественного языка, но пока все они работают на основе алгоритмизированных сценариев.

Другой риск связан с тем, что у людей-пользователей технологий, которые испытывают барьер к обращению к «живому» специалисту, может возникнуть иллюзия, что они уже получают помощь, и они отложат визит к психологу или психиатру, когда он будет реально необходим.

Также, как я уже говорила, остро стоит проблема с конфиденциальностью. Даже в очень «заботливых» социальных сетях третьи лица всё равно имеют доступ к данным пользователя. Мы не можем быть уверенными на 100%, что ни при каких обстоятельствах не произойдет утечка, и люди не пострадают.

Глобальные этические проблемы

Кроме того, есть и более глобальные этические и юридические вопросы, которые не специфичны для использования технологий в психотерапевтических практиках. Они обсуждаются, например, при внедрении автопилотных машин, когда непонятно, кто должен нести ответственность за аварию, если автомобиль сбивает человека: инженеры, никто, программа? То же самое можно представить, заглядывая в далёкое будущее, где терапию полностью проводит бот. Будет ли такой искусственный интеллект считаться квалифицированным специалистом, частью профессионального сообщества? Будет ли он «ходить» на супервизию к более опытному боту? Кто будет нести ответственность, если бот навредит клиенту?

Разработка русскоязычного бота

То, чем мы занимаемся с командой «Вольта-бота», — это не программирование бота-психотерапевта, такая цель пока не ставится.

Наши боты работают с опорой на алгоритмизированные сценарии. В первую очередь мы называем своих ботов образовательными, поскольку они обучают людей различным навыкам — коммуникативным, селф-хелп-практикам и пр. Мы закладываем в него готовый диалог с пользователем, человек, как при использовании Woebot, может выбирать варианты ответа на вопросы вроде «Как ты чувствуешь себя сегодня?». Текстовые обращения он пока не распознаёт, но если пользователь пишет о своей проблеме, то это сообщение доходит до нас, и мы можем ответить ему через интерфейс бота.

Так выглядит элемент внутреннего интерфейса административной панели нашего бота. Зелёные карточки — это тексты, которые выдаёт бот. Синяя карточка — старт диалога, линии — переходы между карточками-сообщениями.

Разные сценарии Вольта-бота используются для:

  • помощи с целеполаганием и решением проблем,
  • управления проектами,
  • развития навыков коммуникации: ненасильственного общения, игры на сближение (authentic relating games),
  • решения задач по самоопределению и жизненным выборам.

Обучение с помощью бота облегчается за счет постоянного сбора обратной связи от пользователей — так мы можем и гибко регулировать частоту взаимодействия с ними, и учитывать потребности в определенных упражнениях, отработке навыков.

Наши боты могут использоваться не только для навыкового обучения, но и в качестве ассистента для помогающих практиков, инструмента для проведения исследований и развлекательных проектов.

Один из наших телеграм-ботов — @ZareshaiBot (voltabot.com). Его функционал включает в себя задания по целеполаганию, подведение итогов года и планирование будущего. Также в нем есть сценарий-игра по развитию коммуникации в парах (https://voltabot.com/limerence2021). Мы предложили влюблённым альтернативный способ празднования 14 февраля: всё начиналось с 5 тем для взаимодействия, а сейчас мы выпускаем 2 дополнительных задания каждый месяц. Этот бот создавался при участии психотерапевтов и сексологов.

Также у нас был проект с ботом для игр на сближение. Пользователи раз в неделю встречались онлайн с ведущей, знакомились с играми в живой коммуникации, а в промежутках между встречами получали от бота задания для закрепления материала.

Не могу не упомянуть и о боте «Русский секс» (http://russian.sex.study.tilda.ws/), на платформе которого проводится масштабное исследование представлений о сексе и сексуального опыта взрослых русскоязычных людей. Изначально это была идея моего коллеги Ильи Захарова, работающего в лаборатории возрастной психогенетики ПИ РАО, мы собрали команду из теоретиков и практиков, работающих на волонтерской основе. Исследование строится на принципах открытой науки, и скоро будут опубликованы первые результаты.

Ещё один бот-игра, выпущенный нами, — «Лето гедонизма. 100 дней удовольствия» (https://voltabot.com/hedonism). Игра не только про гедонизм в узком смысле этого слова. В нее заложены психологические практики, направленные на расширение диапазона впечатлений, развитие осознанности и чувствительности к себе.

Прямо сейчас готовится к запуску бесплатный бот с программой по профилактике депрессии, и до нового года появятся боты по практикам самоподдержки и помощи с определением жизненных смыслов — за всеми новостями можно следить в телеграм-канале https://t.me/voltacarebot.

Смотрите полную видеозапись интерактивной лекции «Технологии и психотерапия: союзники или соперники? Опыт разработки бота с помогающими практиками» Н.В. Кисельниковой:

Следующий 16-й Санкт-Петербургский саммит психологов состоится 5–8 июня 2022 года. Подробности — на сайте мероприятия.

В статье упомянуты
Комментарии

Комментариев пока нет – Вы можете оставить первый

, чтобы комментировать

Публикации

Все публикации

Хотите получать подборку новых материалов каждую неделю?

Оформите бесплатную подписку на «Психологическую газету»