18+
Выходит с 1995 года
18 июня 2025
Искусственный интеллект в психологическом консультировании и психотерапии

Перед тем как перейти к обзору того, что думают об искусственном интеллекте отечественные психологи, психотерапевты (а также те, кто сейчас занимается этой проблемой рядом с ними, — психиатры, программисты, предприниматели…), не могу не остановиться на самом термине и его содержании, используя Википедию [3] и некоторые другие источники.

Искусственный интеллект (англ. artificial intelligence, AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами. Это область исследований в области компьютерных наук, которая разрабатывает и изучает методы и программное обеспечение, позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимально увеличивают их шансы на достижение поставленных целей [10]. Такие машины можно назвать искусственным интеллектом.

Некоторые из наиболее известных приложений включают в себя передовые поисковые системы (например, Google Search, Bing, Яндекс); рекомендательные системы (используемые на YouTube, Amazon и Netflix); взаимодействие посредством человеческой речи (например, Google Assistant, Siri, Alexa, Алиса); автономные транспортные средства (например, Waymo); генеративные и творческие инструменты (например, ChatGPT, Apple Intelligence и искусственный интеллект в искусстве и творчестве ); а также игру и анализ в стратегических играх (например, шахматы и го). Интересно, что многие приложения искусственного интеллекта уже не воспринимаются как искусственный интеллект: «Многие передовые разработки искусственного интеллекта проникли в общие приложения, часто не называясь искусственным интеллектом, потому что как только что-то становится достаточно полезным и достаточно распространенным, его больше не называют искусственным интеллектом» [13, 16].

Британский математик, логик и криптограф Алан Тьюринг1 был первым человеком, который провел масштабные исследования в области, которую он назвал машинным интеллектом [18].

Искусственный интеллект был основан как академическая дисциплина в 1956 году теми, кого сейчас считают отцами-основателями искусственного интеллекта: Джоном Маккарти, Марвином Мински, Натаниэлем Рочестером и Клодом Шенноном (впервые это словосочетание было использовано профессором Джоном Маккарти на конференции в Дартмутском колледже в 1956 году) [3].

Предварительно назовем также некоторые из самых известных систем ИИ:

  • ChatGPT — чат-бот с искусственным интеллектом от компании OpenAI2, основанный на большой языковой модели; способен работать в диалоговом режиме на естественных языках;
  • Deep Blue — шахматная программа разработки IBM, победила чемпиона мира по шахматам;
  • AlphaGo — программа игры в го разработки Google DeepMind, выиграла матч в го у корейского профессионала 9 дана Ли Седоля;
  • Watson — перспективная разработка IBM, способная воспринимать человеческую речь и производить вероятностный поиск с применением большого количества алгоритмов; для демонстрации работы приняла участие в американской игре «Jeopardy!», где системе удалось выиграть в обеих играх;
  • MYCIN — одна из ранних экспертных систем, которая могла диагностировать небольшой набор заболеваний, причем часто так же точно, как и доктора;
  • 20Q — проект по мотивам классической игры «20 вопросов», основанный на идеях искусственного интеллекта; стал очень популярен после появления в Интернете на сайте 20q.net;
  • ViaVoice — система распознавания речи, способная обслуживать потребителей;
  • Midjourney — сервис, генерирующий изображения на основе текстовых запросов.

Разработчики компьютерных игр также применяют технологии искусственного интеллекта, это направление обозначается как «игровой искусственный интеллект». Стандартными задачами искусственного интеллекта в играх являются нахождение пути в двумерном или трехмерном пространстве, имитация поведения боевой единицы, расчет верной экономической стратегии и так далее.

Исследовательские центры, занимающиеся ИИ, разбросаны по всему миру. В России существует Научный совет по методологии искусственного интеллекта РАН.

Актуальность темы ИИ в психологии / психотерапии

Следует заметить, что наиболее ранний пример роботизированного программного обеспечения был разработан еще в 1964–1967 гг. Джозефом Вейценбаумом и назван «Элиза» (https://en.wikipedia.org/wiki/ELIZA). Как считали Odell и Dickson (1984), личный диалог с Элизой может обеспечить некоторую помощь пользователям онлайн, хотя есть и противопоказания (Dewdney, 1985; Murphy и Pardeck, 1988). Элиза может также использоваться как эффективный обучающий инструмент (Suler, 1987), особенно ее интернет-версия. Самый известный ее сценарий, DOCTOR, имитировал психотерапевта роджерианской школы (в которой терапевт часто отражает слова пациента в ответ на его реплики) и использовал правила, продиктованные в сценарии, чтобы отвечать ненаправленными вопросами на ввод пользователя.

Примеры использования в чем-то сходных технологий на русском языке также были уже ранее известны. Например, это Робот Фроид http://froid.su/, принципы работы которого описываются Н.С. Стародубовой (2012) [цит. по: 6].

Кроме того, на протяжении 70–80-х годов 20 века были созданы различные версии чат-ботов. Следующим по известности был Parry (Пэрри), созданный в 1972 году Кеннетом Колби, профессором психиатрии Стэнфордского университета. Parry пытался подражать больному шизофренией и представлял собой чат-бот типа «стимул-реакция», как ELIZA, но с дополнительной встроенной стратегией разговора, улучшающей его функциональность.

Пэрри удалось обмануть около 52% психиатров, проанализировавших его ответы. Конечно, в то время представления людей об ИИ были очень примитивны, и Элиза с Пэрри были одними из первых компьютеризированных устройств, которые были способны обмануть людей, заставляя их думать, что они люди. Это было довольно невероятным фактом на то время [11].

Далее внедрение искусственного интеллекта и разработка чат-ботов с открытым исходным кодом3 привели к быстрым улучшениям и, впоследствии, к широкому внедрению этой технологии.

Тема использования искусственного интеллекта в качестве альтернативного инструмента для оказания психологической помощи в последние годы поднимается все чаще. Соответственно, в отечественных СМИ (в том числе, в научных изданиях) наконец-то появились публикации на эту тему, обзор которых мы, прежде всего, и представляем в настоящей статье.

В частности, Е.А. Кокшарова отмечает, что клиенты обращаются к нейросетям с вопросами личного характера и получают эмпатичные, структурированные и поддерживающие ответы. Нейросети, благодаря своей обучаемости, способны предоставлять обратную связь, которая кажется многим клиентам полезной и даже терапевтичной. Они помогают собрать мысли в моменты растерянности, доступны 24/7 и обеспечивают конфиденциальность.

Н.Н. Степанчук, описывая использование искусственного интеллекта в психологическом сопровождении специалистов помогающих профессий, обращает внимание и на то, что сегодня особое внимание пользователей привлекает ChatGPT — диалоговый онлайн чат-бот, поддерживающий запросы на естественном языке. Этот чат способен имитировать человеческое мышление и поведение, обладает множеством функций, в том числе, способностью к генерированию текстов и цифровых художественных объектов. При этом многие пользователи в поиске того, кому можно излить свои чувства, отмечают, что взаимодействие с нейросетью очень напоминает терапевтическое: «Мне понравилось, что я могу сбрасывать травмы на ChatGPT в любое время и в любом месте, бесплатно, и в ответ я получу беспристрастный ответ вместе с советом как поступить в моей ситуации. Я часто чувствую себя лучше после использования онлайн-инструментов для терапии, и это, безусловно, помогает моему психическому и эмоциональному здоровью» [12]. Ответу на запрос предшествует предупреждение: «Как языковая модель ИИ, я не являюсь лицензированным терапевтом и не могу проводить терапию и диагностировать какие-либо состояния. Тем не менее, я здесь, чтобы выслушать и помочь, чем смогу».

Такие ситуации ставят перед терапевтами важные вопросы: как реагировать на эту новую реальность? Как сохранить профессиональную идентичность в эпоху технологий? И, наконец, как использовать ИИ в своей работе, не теряя сути психотерапии?

Преимущества и недостатки ИИ

Искусственный интеллект, безусловно, обладает рядом преимуществ. Он может быть полезен для первичной диагностики, предоставления базовой информации о психике и отношениях, а также для эмпатической поддержки в ситуациях, когда клиенту сложно обратиться к человеку из-за чувства стыда или страха [7]. ИИ может стать первым шагом на пути к терапии, особенно в кризисных ситуациях, когда мгновенная поддержка необходима4.

Н.Н. Степанчук, например, пишет, что основными преимуществами подобных программ пользователи и клиницисты считают:

  • сохранение каждого сеанса и, соответственно, доступ клиента к содержанию предыдущих запросов и предложенных в ходе сеанса стратегий;
  • бесплатное использование как альтернатива общению с квалифицированным терапевтом (из-за высокой стоимости оказываемых услуг или недопустимо большого времени ожидания);
  • повышение доступности конфиденциальной терапии для людей, предпочитающих общение с ИИ общению с людьми, избегая стигматизации (преступники, жертвы преступлений, больные, нелегалы, мигранты, бездомные и т.п.);
  • теоретически — удовлетворение растущей потребности в средствах для поддержания психического здоровья и нехватки соответствующих специалистов в данной области;
  • возможность использования родного языка (перевод с любого из 95 языков занимает считанные секунды);
  • отсутствие осуждения, что «открывает философскую дверь к сложности человеческой природы» [12].

Одобряя возможность использования ChatGPT для получения базовой психологической поддержки, некоторые эксперты уверены, что после внесения дополнительных усовершенствований программа сможет превзойти экспертов-людей.

Однако важно понимать, что структурированные ответы ИИ — это не психотерапия. Психотерапия, особенно в гуманистическом подходе, — это не просто предоставление информации или советов. Это глубокий процесс, который включает в себя эмоциональную поддержку, человеческое взаимодействие и индивидуальный подход.

Е.А. Кокшарова, в частности, считает очную терапию (например, гештальт-терапию) уникальной и недоступной для ИИ. Вот несколько причин, почему.

  • Эмоциональная поддержка: терапия предоставляет пространство для самовыражения и глубокой эмоциональной работы, что невозможно в общении с ИИ.
  • Человеческое взаимодействие: терапевт способен улавливать эмоциональные нюансы, которые остаются недоступными для алгоритмов.
  • Индивидуальный подход: терапия (осуществляемая человеком) адаптируется под уникальные потребности каждого клиента, в то время как ИИ предлагает стандартизированные ответы.
  • Работа с травмами: терапия помогает справляться с глубокими эмоциональными травмами, что требует человеческого понимания и эмпатии.
  • Развитие навыков: терапия (осуществляемая человеком) способствует развитию самосознания и саморегуляции, что ведет к личностному росту.

Пока еще редкое и тем самым очень ценное научное исследование ИИ было проведено совсем недавно исследовательской группой ФГБНУ «Научный центр психического здоровья» (Москва). В группу вошли О.М. Бойко, Т.И. Медведева, О.Ю. Воронцова, С.Н. Ениколопов. В частности, уважаемые коллеги, описывая [1] преимущества, недостатки и ограничения использования ИИ (на примере ChatGPT), отмечают следующее: сам ChatGPT, отвечая на вопрос, чем он может быть полезен для психотерапии (Raile, 2024), предлагает следующие четыре аспекта:

  • он может помочь в скрининге и диагностике,
  • может предоставлять информацию, напоминания и руководство пациентам во время лечения,
  • может оказывать эмоциональную поддержку пациентам посредством слушания и сочувствия,
  • может помогать в обучении навыкам.

Интересно, что ChatGPT не пытается представить себя «психотерапевтом» и пишет только об эмоциональной поддержке и обучении навыкам.

Далее коллеги обобщают преимущества и недостатки ChatGPT следующим образом.

Преимущества. Анализ литературы и результаты обращения к ChatGPT показывают, что важными преимуществами ChatGPT как «психотерапевта» являются:

  • дешевизна,
  • постоянная доступность; скорость ответа,
  • возможность индивидуализации работы,
  • доступ к большому количеству информации, техник и стратегий решения проблемных ситуаций,
  • последовательность и беспристрастность (Zhang, Wang, 2024),
  • эмпатические ответы и безопасная среда для раскрытия (Sharma et al., 2023),
  • ощущение у клиента контроля над ситуацией,
  • со стороны клиента можно ожидать повышенную откровенность во взаимодействии с ChatGPT (Zhang, Wang, 2024).

Исследования показали, что люди иногда более охотно раскрывают конфиденциальную информацию системам ИИ из-за воспринимаемой непредвзятой природы машин (Chaudhry, Debi, 2024). Отсутствие воспринимаемого осуждения может снизить стигматизацию, связанную с обращением за помощью по вопросам психического здоровья, тем самым повышая вовлеченность пациентов;

ChatGPT может быть полезен в таких ситуациях, как информационная поддержка, как тренажер для закрепления полезных навыков, в коррекции трудностей на поведенческом уровне (например, в ситуации коррекции нарушений сна, механического преодоления прокрастинации, закрепления новых навыков заботы о себе, занятий спортом и многое другое).

Недостатки и ограничения. Следующие моменты представляются недостатками или ограничениями чат-ботов и конкретно ChatGPT:

  • долгосрочные последствия использования чат-бота в качестве «психотерапевта» не изучены (в том числе эффективность работы; продолжительность позитивных изменений; возможные негативные последствия для клиента, например, такие, как зависимость от чат-бота, носящая характер аддикции и пр.);
  • работа только с прямыми, непосредственно формулируемыми клиентом запросами;
  • невозможность целостного восприятия ситуации, что может привести к пропуску острого состояния, нуждающегося в срочном наблюдении специалиста;
  • возможность сообщения чат-ботом неполной, устаревшей или полностью выдуманной информации, для распознавания непригодности которой необходимы знания на уровне специалиста, которого ChatGPT пытается заменить;
  • одним из важных ограничений использования ChatGPT является непостоянство его ответов (ответы существенно зависят от «промта» — начальной «настройки» на определенный диалог; также ответы зависят от того, как протекала «беседа», какие вопросы предшествовали текущему вопросу; с одним и тем же «промтом» разные сайты дают несколько разные ответы);
  • при использовании чат-бота сохраняется проблема общей культуры поведения и понимания правил безопасности общения ChatGPT в психотерапии и психологическом консультировании в интернете. Когда «наивный» пользователь обращается за психологической помощью в интернете и ищет чат-бота, он не всегда понимает, с кем он делится информацией. В интернете существуют сайты, которые предлагают с их помощью обращаться к ChatGPT, однако владельцы этих сайтов не являются официальными представителями Open AI и их цели неизвестны;
  • неизученными остаются реакции клиента, связанные с особенностями контакта с чат-ботом, которые также нуждаются в дальнейшем исследовании: потенциальное снижение толерантности к фрустрации в контакте; вступление с чат-ботом в «сговор» в виде избегания указанных клиентом тем; поддержка у «клиента» расщепленных «я» и «объект-репрезентаций» путем создания иллюзии возможности «идеального» контроля другого, эмпатии, возможности быть постоянно на связи;
  • использование ChatGPT в области психологической и психиатрической помощи поднимает важные этические вопросы, касающиеся конфиденциальности, автономии и потенциальной стигматизации пациентов. OpenAI оставила за собой право просматривать разговоры ChatGPT с пользователями для последующего обучения модели. Поэтому данные о личных проблемах, которыми люди делятся с ИИ, могут быть использованы против них же. Кроме того, непонятно, кто может получить доступ к такого рода информации;
  • проблемы юридической этики возникают из-за нечеткого распределения ответственности при причинении вреда пациенту и из-за потенциальных нарушений конфиденциальности при сборе данных (Wang et al., 2023), недостаточности или недостоверности информации, применении не подходящих к состоянию клиента методов и, наоборот, неприменение наиболее эффективных;
  • предвзятость (Zhang, Wang, 2024), которая может возникать из-за специфики данных, используемых для обучения моделей ИИ. Алгоритмы ИИ, которые обучаются только на данных, отражающих специфику определенных групп населения, могут давать предвзятые результаты, такие как ненадлежащие рекомендации и/или ответы, трудности в общении, что в результате может приводить к неравному обращению с людьми из других групп населения (отличающихся, например, по признаку расы, пола или социально-экономического статуса);
  • наконец, О.М. Бойко с коллегами также упоминают что неосторожная «интервенция», неудачная интерпретация слов пациента может привести к ухудшению его состояния. Аналогично, слова, сказанные (написанные) ИИ, особенно при наличии чрезмерного доверия при общении с ИИ, могут усугубить страдания людей, испытывающих проблемы, причем эти люди могут даже не понять происходящего. Чрезмерная зависимость от искусственного интеллекта (ИИ) может уменьшить воспринимаемое сострадание и подорвать доверие.

Конкуренция? Угроза или дополняющий психолога инструмент?

Е.А. Кокшарова замечает, что в практике психологов все чаще встречаются случаи, когда клиенты приносят на сессии результаты своего общения с ИИ. Иногда это становится полезным дополнением к терапии, например, в виде четко структурированного плана действий. Но бывает и так, что это превращается в своеобразную конкуренцию: клиенты начинают сравнивать терапевта с нейросетью, отмечая, что ИИ быстрее, понятнее и структурированнее. Или, наоборот, говорят: «Вы лучше нейросети!»

Столкновение с ИИ ставит перед терапевтами важные вопросы: как интегрировать новые технологии в свою практику, не теряя сути психотерапии? Как использовать ИИ как инструмент, а не как конкурента?

Этот вызов может стать поводом для супервизии, где можно обсудить свои чувства и мысли по поводу новой реальности. Важно помнить, что настоящее человеческое взаимодействие и творческое приспособление в терапии уникальны и недоступны для алгоритмов.

Похоже, что, искусственный интеллект — это не угроза, а новый инструмент, который может дополнить работу психолога. Однако важно не забывать, что психотерапия — это не только информация и советы, но и глубокое человеческое взаимодействие, эмоциональная поддержка и индивидуальный подход [4].

О.М. Бойко с коллегами также отмечают, что ИИ не хватает подлинной эмпатии и способности интерпретировать невербальные сигналы — качеств, которые присущи терапевтам-людям. Направлением (развития ИИ) может быть совершенствование способности проявлять «любопытство» для анализа не только непосредственного запроса, но и истории жизни, текущей ситуации, личности обратившегося за помощью. Важным представляется развитие способности использовать разнообразные методы психотерапии и психологического консультирования. В настоящее время ИИ не может рассматриваться как замена терапевтам-людям, но как инструмент, расширяющий возможности в сфере психического здоровья, под контролем человека-специалиста. Необходимы исследования долгосрочной эффективности и безопасности вмешательства ИИ [1].

Что мешает внедрению ИИ? Риски?

Современные исследователи отмечают наличие у терапевтов опасений и сопротивления использованию цифровых медиа. Считается, что основным препятствием для внедрения технологий являются собственные эмоциональные факторы терапевтов (их тревоги и страхи), консервативность, нерешительность и предубеждения против технологий, обусловленные преувеличенным чувством ответственности за безопасность и благополучие клиентов5.

Это, с одной стороны, очень напоминает механизм рационализации в действии, но, с другой стороны, эксперты в области психического здоровья предупреждают о таких возможных опасностях ИИ для людей, которые нуждаются в медикаментозной помощи или находятся в кризисной ситуации, как отсутствие контроля над моделями ИИ и процессом принятия ими решений; неспособность ИИ отличать истинное от ложного, хорошее от плохого, а только сообщать то, что было «прочитано» ранее.

Сейчас отсутствует единый стандарт или регулирование в области использования ИИ в психотерапии, что может привести к разнообразию подходов и качества услуг. В то же время, как отмечает Е. Волотовская, «пациенты и терапевты могут столкнуться с риском зависимости от технологий, что может привести к утрате навыков человеческого взаимодействия или уменьшению значимости таких взаимодействий. В случае возникновения ошибок или неправильных действий со стороны ИИ в процессе психотерапии возникает вопрос о юридической ответственности за такие ситуации» [2].

Другая проблема, по словам психоаналитического психотерапевта, психолога сервиса «Ясно» М. Волковой, — это механизмы тех решений, которые предлагает искусственный интеллект: алгоритмы его работы часто являются непрозрачными для людей, а цена ошибки может быть достаточно высокой. «Как ИИ принимает решение, почему важно ответить именно так, а не как-то иначе, в чем польза, каковы возможные риски, какие параметры важно оценить и учитывать? Важно, чтобы ИИ мог “продемонстрировать”, чем он руководствуется и на каких данных он был обучен, чтобы минимизировать риски и быть действительно полезным для обратившегося за помощью человека», — говорит М. Волкова.

Д. Киреев, директор департамента Machine Learning MTS ИИ, также выделяет вопросы точности и предвзятости данных: «ИИ может демонстрировать предвзятость, полученную на основе обучающих данных. Это может привести к неравномерным диагностике и лечению среди различных демографических групп. А неверная интерпретация данных ИИ может привести к неправильным рекомендациям, что особенно критично в области психического здоровья». В целом любая ИИ-система имеет показатели точности работы, отмечает Д. Киреев, важно контролировать эти показатели и внедрять алгоритмы только в тех случаях, когда они достигают необходимого достаточного уровня [2].

Примеры использования ИИ отечественными и зарубежными компаниями (приводимые СМИ в РФ)

Психотерапевты по всему миру и их пациенты уже начали применять технологии на базе искусственного интеллекта. ИИ анализирует речь и множество других параметров, чтобы диагностировать психические заболевания. В США, например, разработали технологию Storyline — это приложение для смартфона, которое собирает данные о пациентах и отслеживает их психологическое состояние. В приложении пациенты отвечают на вопросы и записывают видеоответы, ИИ выявляет в видео более 20 тыс. различных характеристик, таких как кровоток, выражение лица, выбор слов, структура предложений, тон голоса или микротреморы в голосе.

Другая платформа, Ginger, создана для общения с профессиональными психотерапевтами, но также использует возможности ИИ. Приложение может отслеживать, например, как часто пользователь переписывается с друзьями или как долго говорит с родными, сколько спит и насколько регулярно занимается спортом. ИИ отслеживает изменения в поведении (сравнивает, например, количество звонков с базовой моделью поведения конкретного пациента) и информирует психотерапевта, если замечает отклонения от привычного образа жизни. Если прежде общительный человек замыкается в себе, это может быть признаком депрессии, а для пациентов с биполярным расстройством серия текстовых сообщений или телефонных звонков может сигнализировать о маниакальном эпизоде.

Российские эксперты ожидают, то в ближайшие годы подобные технологии будут развиваться и внедряться в сферу психотерапии все глубже. «ИИ, безусловно, будут использовать в сфере психотерапии. Одна из возможностей — это применение ИИ в качестве своеобразного ко-терапевта и/или “супервизора”. Тогда терапевт обращается к ИИ, чтобы увидеть в случае, с которым он работает, не замеченные им скрытые закономерности, увидеть ситуацию более целостно и обширно, с неожиданной для себя стороны: возможно, получить “подсказки” о тактике и стратегии ведения случая», — говорит М. Волкова.

ИИ-решения используются и как отдельные инструменты, и как дополнения к классической терапии, комментирует гендиректор Института искусственного интеллекта AIRI, руководитель лаборатории вычислительного интеллекта Центра технологий искусственного интеллекта Сколтеха И.В. Оселедец. «Модели естественного языка могут применяться для анализа тысяч часов психотерапевтических сессий с целью выявления областей, в которых молодые специалисты упускают из вида значимые факторы. Например, не задают вопросы, ответы на которые способны изменить представление об анамнезе пациента. Число LLM (Large Language Model, нейронная лингвистическая сеть, обученная на массивах данных для понимания и обработки текста), применяющихся в сфере психического здоровья, стремительно растет — есть основание полагать, что эти темпы сохранятся», — прогнозирует И.В. Оселедец.

Управляющий партнер Softline Venture Partners Е. Волотовская также считает, что ИИ имеет потенциал для повышения эффективности работы врача за счет снижения нагрузки на административные задачи, а также может выступать в роли ассистента в проведении сеансов: «Инструменты обработки естественного языка, например Eleos, могут слушать сеансы, делать заметки, выделять ключевые темы и делать акценты, на что стоит обратить внимание. Другие задачи, подходящие для автоматизации, включают анализ данных, например, изучение дневника состояний пациента, отслеживание симптомов, напоминания о рекомендациях врача».

ИИ способен выявлять ранние признаки психических расстройств, анализируя изменения в поведении и речевых паттернах, — далее технологии в данном направлении будут только улучшаться: будет повышаться точность анализа, увеличиваться персонализация, появляться более продвинутые инструменты аналитики, резюмирует Д. Киреев.

Диагностические решения понемногу появляются даже в нашей стране — например, недавняя разработка специалистов НИУ ВШЭ помогает выявлять дислексию у детей, анализируя их пол, возраст, класс школы и данные о движениях глаз, добавил управляющий партнер Spektr Н. Седашов: «Так им быстрее можно будет поставить точный диагноз и назначить эффективное лечение». Потенциал ИИ в диагностике в целом еще не раскрыт, говорит он: «Такие решения пока менее развиты — диагностировать психические заболевания искусственному интеллекту куда сложнее, чем находить признаки туберкулеза на флюорографии. Отчасти это связано с техническими ограничениями ИИ, которые не позволяют доверять ему на все 100%, но со временем многие из них будут преодолены».

Один из самых дискуссионных вопросов в контексте внедрения ИИ в сферу психотерапии — сможет ли алгоритм полностью или частично заменить психотерапевта? Распространение получают чат-боты (компьютерные программы, которые имитируют человеческий разговор с помощью текста или голосового интерфейса ИИ). Чат-боты уже используются для предоставления первичной психологической поддержки, помогая пользователям справляться с тревогой, стрессом и легкими формами депрессии, говорит Д. Киреев: «Они могут быть доступны 24/7, что делает их особенно ценными для обеспечения непрерывной поддержки».

Сооснователь United Investors А. Горный считает, что чат-боты способны «сильно демократизировать эту сферу и в разы увеличить количество пациентов». «Впрочем, возможно, для компьютерного терапевта изобретут отдельное название», — допускает он.

Н. Седашов приводит в пример ИИ чат-бот Tess, который основан на подходе когнитивно-поведенческой терапии: «Например, у человека депрессивный эпизод — он заходит в чат-бот, а тот помогает облечь чувства в слова и структурировать мысли, задавая вопросы и объясняя состояние человека, и предлагает методы самопомощи. Доступ к такому профессиональному текстовому помощнику может быть очень полезен пациентам в сложных состояниях, когда их лечащий врач или психотерапевт не могут быть на связи 24/7».

С развитием ИИ спектр его возможностей в ментальной поддержке будет расти и выйдет далеко за пределы таких чат-ботов, прогнозирует Николай Седашов: «Тем не менее самые эффективные в достижении терапевтических целей и последовательные решения — это те, что сочетают ИИ с поддержкой живых специалистов. Неплохой пример — британское приложение Wysa. В нем помощь можно получить через чат-бот, но ИИ не только поддерживает пользователя и советует методики самопомощи, но и при необходимости может позвать на помощь живого терапевта. ИИ обеспечивает доступность и оперативность, а врачи — глубину и персонализацию терапии».

Российская компания iCognito, основанная в 2019 году, сегодня предлагает три приложения для смартфонов: «Анти-стресс», «Анти-депрессия» и «Отношения». Суммарно у этих приложений уже более 400 тысяч скачиваний.

Генеральный директор iCognito О. Троицкая рассказала, как пришла к идее замены психологов искусственным интеллектом, на что похож сеанс психотерапии с чат-ботом и как выглядят перспективные модели ИИ, которые будут знать о нашем душевном состоянии практически все. О. Троицкая говорит о том, что ими используется модифицированный вариант нейросети BERT. Все результаты работы уже опубликованы, так что специалисты могут ознакомиться с ними и узнать детали [19].

Как бы то ни было, ИИ и его применение в консультировании и психотерапии точно остается предметом для дискуссий, и обсудить все вышесказанное и пока не сказанное мы, как и ранее, сможем 28–29 июня на площадке ежегодно организуемого нами онлайн-форума «Интернет-психотерапия: мифы и реалии роботизации». Приглашаем к участию!

Сноски

1 «Вычислительные машины и разум» (англ Computing Machinery and Intelligence) — основополагающая работа в области искусственного интеллекта, написанная Тьюрингом и опубликованная в 1950 году в журнале «Mind», дающая широкой аудитории представление о том, что в настоящее время называется тестом Тьюринга. В работе Тьюринга рассматривается вопрос «Могут ли машины думать?». Так как слова «машины» и «думать» не могут быть определены однозначно, Тьюринг предлагает заменить «вопрос на другой, тесно связанный с первым, но выраженный не такими двусмысленными словами». Чтобы сделать это, автор, во-первых, находит однозначную замену слову «думать». Во-вторых, объясняет, какие именно «машины» он рассматривает. На этой основе он формулирует новый вопрос, связанный с первоначальным: может ли машина совершать действия, неотличимые от обдуманных действий. На этот вопрос, по мнению Тьюринга, можно ответить утвердительно, для чего автор показывает несостоятельность противоположных взглядов, а также описывает способ создания одной из таких машин.

2 OpenAI — американская научно-исследовательская организация, которая занимается разработками в области искусственного интеллекта. Ее основали в 2015 году Илон Маск и Сэм Альтман. Миссия OpenAI — создать мощный и гуманный ИИ, который будет работать на благо всего человечества, а не отдельных лиц и корпораций. Впрочем, мечте о полностью неподкупном ИИ не суждено было сбыться. В 2019 году Microsoft инвестировал в стартап 1 млрд долларов: частично в виде реальных средств, частично — в виде так называемых кредитов Azure. Кредиты Azure дают OpenAI возможность использовать серверные мощности для разработки своих моделей ИИ. Это сделало корпорацию главным поставщиком облачных услуг для OpenAI: по сути, все, что вы генерируете с помощью ChatGPT и DALL-E, так или иначе проходит через серверы Microsoft. URL: https://skillbox.ru/media/code/openai-istoriya-kompanii-sozdavshey-chatgpt/

3 Открытое программное обеспечение (англ. open-source software) — это программное обеспечение, исходный код которого доступен для просмотра, изучения и изменения любым пользователем.

4 Следует заметить, что в мировой практике давно наработаны другие способы получения кризисной помощи – телефоны доверия и интернет-чаты, где, конечно, работают живые, подготовленные к этой помощи специалисты. Как правило, график их работы является круглосуточным.

5 В 2000 годах, автор этой статьи сам столкнулся с тем, что психотерапия онлайн отрицалась большей частью специалистов! И только после пандемии, вынудившей практически всех попробовать онлайн-работу, эта ситуация поменялась. Теперь, онлайн-психотерапию использует большинство психологов / психотерапевтов. Хотя еще есть отдельные сомнения, но в целом терапия онлайн принята и научно доказана ее эффективность!

Литература

  1. Бойко О.М., Медведева Т.И., Воронцова О.Ю., Ениколопов С.Н. ChatGPT в психотерапии и психологическом консультировании: обсуждение возможностей и ограничений // Новые психологические исследования. 2025. №1. С. 26–55.
  2. ИИ вас вылечим. Как искусственный интеллект может помочь психотерапевтам. URL: https://www.kommersant.ru/doc/6774969
  3. Искусственный интеллект. URL: https://ru.wikipedia.org/wiki/Искусственный_интеллект
  4. Кокшарова Е.А. Искусственный интеллект в психотерапии: вызовы и возможности для гештальт-подхода. URL: https://www.b17.ru/article/iskusstvennyy_intellekt_v_psihoterapii_vyzovy_i_vozmozhnosti_dlya_geshtaltpodhoda/
  5. Меновщиков В.Ю. Краткий обзор отечественных публикаций в СМИ об ИИ в психотерапии // Психологическое консультирование Онлайн. 2024. №4. С. 45–55.
  6. Меновщиков В.Ю. Психологическое консультирование и психотерапия онлайн. М.: Академический проект, 2023.
  7. Меновщиков В.Ю. Страх психотерапии // Ежегодник по консультативной психологии, коучингу и консалтингу — 2017. Выпуск 4 / Под ред. В.Ю. Меновщикова, А.Б. Орлова. М., 2017. С. 20–36.
  8. Может ли нейросеть заменить психотерапевта? Опыт iCognito. URL: https://incrussia.ru/concoct/icognito/
  9. Психотерапия в каждый дом: как искусственный интеллект лечит живые души. URL: https://skillbox.ru/media/code/psikhoterapiya-v-kazhdyy-dom-kak-iskusstvennyy-intellekt-lechit-zhivye-dushi/
  10. Рассел С., Норвиг П. Искусственный интеллект: современный подход. 4-е изд. М.; СПб: Диалектика, 2021.
  11. Самиев Т. Эволюция чат-ботов: от ELIZA до ChatGPT. URL: https://habr.com/ru/companies/timeweb/articles/704226/
  12. Степанчук Н.Н. Использование искусственного интеллекта в психологическом сопровождении специалистов помогающих профессий // Арт-терапия. Фундаментальные и прикладные научные исследования: актуальные вопросы, достижения и инновации: сборник материалов II Международной научно- практической конференции (20 апреля 2023 г.). Кемерово, 2023. С. 487–510.
  13. AI set to exceed human brain power. URL: https://edition.cnn.com/2006/TECH/science/07/24/ai.bostrom/
  14. Arifi F. People Are Using ChatGPT For Therapy. Here’s What Mental Health Experts Think About That. URL: https://www.buzzfeednews.com/article/fjollaarifi/chatgpt-ai-for-therapy-mental-health
  15. Choe N. An exploration of the qualities and features of art apps for art therapy // The Arts in Psychotherapy. 2014. Vol. 41, no. 2, pp. 145–154. DOI: 10.1016/J.AIP.2014.01.002
  16. Kaplan A., Haenlein M. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence // Business Horizons. 2018. Vol. 62, no. 1. DOI: 10.1016/j.bushor.2018.08.004
  17. Koukolik F., Drtilova J. Vzpoura deprivantu: o spatnych lidech, skupinove hlouposti a uchvacene moci. Praha: Makropulos, 1996.
  18. The Essential Turing: The Ideas that Gave Birth to the Computer Age / B. Jack Copeland (ed.). Oxford: Clarendon Press, 2004
  19. Troitskaya O., Batkhina A. Mobile application for couple relationships: Results of a pilot effectiveness study // Family Process. 2021. Vol. 61, no. 2, pp. 625–642. DOI: 10.1111/famp.12733
В статье упомянуты
Комментарии

Комментариев пока нет – Вы можете оставить первый

, чтобы комментировать

Публикации

  • Анализ соцсетей для психологической диагностики личности: объявлен тендер
    29.11.2021
    Анализ соцсетей для психологической диагностики личности: объявлен тендер
    Институт системного программирования им. В.П. Иванникова объявил тендер стоимостью 36 млн руб. на проведение исследования о возможностях использования искусственного интеллекта для психологической диагностики личности по цифровым следам.
  • Технологии и психотерапия: союзники или соперники?
    13.09.2021
    Технологии и психотерапия: союзники или соперники?
    Н.В. Кисельникова рассказывает о том, как технологии проникают в поле психотерапии, способен ли современный искусственный интеллект на настоящую эмпатию, какие боты разработаны и разрабатываются в мире и в России...
  • Технологии VR и терапия фобических расстройств
    30.08.2021
    Технологии VR и терапия фобических расстройств
    Интервью с доцентом кафедры психотерапии, медицинской психологии и сексологии Северо-Западного государственного медицинского университета им. И.И. Мечникова Д.В. Ковпаком, посвящённое потенциалу технологий виртуальной реальности для терапии фобий.
  • VR-технологии в медицине, психотерапии, экспериментальной психологии
    24.08.2021
    VR-технологии в медицине, психотерапии, экспериментальной психологии
    Чем технологии виртуальной реальности привлекают исследователей из области экспериментальной психологии, психотерапии и психиатрии? Какие эксперименты с использованием VR проводятся в лабораториях мира?
  • Интеллект естественный, искусственный и сверхъестественный
    31.05.2025
    Интеллект естественный, искусственный и сверхъестественный
    Общаясь с ИИ, мы слышим голос Всего Человечества (или когда-нибудь услышим его, а в нем и свой собственный). Голос поколений, этносов, разных религий, научных парадигм, этических систем, автономной морали разных людей. Нашим собеседником становится Всеобщее Я.
  • Тотальная информатизация: от плюсов к минусам — что нас ждет впереди?
    18.05.2025
    Тотальная информатизация: от плюсов к минусам — что нас ждет впереди?
    «Исчезает основа жизни на Земле под названием “человеческое общение”, и ему на смену приходит информационно-компьютерное, обезличенное неживое общение…»
  • Вызовы искусственного интеллекта для психологии
    12.05.2025
    Вызовы искусственного интеллекта для психологии
    «ИИ увеличивает общие доступные человечеству ресурсы, делая тем самым менее необходимой конкуренцию за них, но в то же время создает и невероятные ранее по своей изощренности методы этой конкуренции».
  • А.Г. Асмолов: «Для трикстера тема всегда сильнее страха»
    17.10.2024
    А.Г. Асмолов: «Для трикстера тема всегда сильнее страха»
    В ходе беседы А.Г.Асмолова и А.Р.Ефимова прояснилось, как быть вопрекистом, чем занимается антрополог будущего и почему метафора станет драйвером развития науки в эпоху искусственного интеллекта.
  • Об идеологической сущности психотерапевтического сообщества
    15.08.2024
    Об идеологической сущности психотерапевтического сообщества
    «В последние годы возникло слишком много тенденций, ослабляющих или обессмысливающих исконное заветное желание психотерапевта: во что бы то ни стало создать свой, новый метод, а при удачном стечении обстоятельств — и школу».
  • Короткий сюжет о бессмертии и пространное интервью
    14.08.2024
    Короткий сюжет о бессмертии и пространное интервью
    «Интернет полнится публикациями о “цифровом бессмертии”. Для меня как психолога здесь важен контекст — теоретический, экспериментальный, психотерапевтический. Но прежде всего меня волнует отношение людей к перспективе бессмертия в искусственном интеллекте».
  • Фетиш искусственного интеллекта
    16.07.2024
    Фетиш искусственного интеллекта
    «Не исключено, что в будущем удастся создать ИИ, интегрированный в социальную среду, т.н. сильный ИИ, но пока мы далеки от этого, и придавать ему субъектность не только неправильно, но опасно».
  • Интернет-психотерапия — главный тренд современности
    07.03.2024
    Интернет-психотерапия — главный тренд современности
    «Постепенно меняется взгляд на психологическое онлайн-консультирование и онлайн-психотерапию: они перестают быть экзотикой, становясь нормой и обыденностью… развиваясь на основе собственной динамики, независимо от внешних стрессов и потрясений».
Все публикации

Хотите получать подборку новых материалов каждую неделю?

Оформите бесплатную подписку на «Психологическую газету»