«Он выслушает в три часа ночи, не возьмет ни копейки и не скажет: «Этот сеанс окончен». Искусственный интеллект стремительно проникает в кабинеты психологов — каждый пятый поисковый запрос Google по слову «терапия» включает «искусственный интеллект» или «чат-бот» (данные Яндекс Wordstat, первый квартал 2025 г.). Однако, пока одни клиенты пишут восторженные отзывы о «спасении», другие подают в суд за вредные советы. Где грань между прорывом и катастрофой? Итог: готовы ли вы доверить свою душу алгоритму? Спасение: как ИИ разрушает барьеры и помогает
– Доступно 24/7: Кризисы не ждут до понедельника. Роботы типа Woebot или Anxiety Patrol (на русском) могут оказать первую помощь ночью, когда телефон друга занят и случается паническая атака. Случай: «Чат-бот не дал мне сорваться, пока я три дня ждала консультации», — говорит 28-летняя Анна»”.
– Доступные цены: бесплатно или всего 10-20% от стоимости курса. Это важно для региона и студентов. По данным, за два года стартап MindBot охватил 1 млн пользователей в малых городах СНГ.
– Устранение стигмы: Анонимность. Не нужно беспокоиться о том, что вас осудят. Особенно полезно для подростков, представителей сообщества ЛГБТК*+ и мужчин старше 40 лет.
– Мониторинг и прогнозирование: Анализ текста на предмет риска самоубийства, моделей тревожности (до того, как это сделали люди!). Пример: алгоритм Tess оповещал преподавателей о риске депрессии у студентов на основе тона сообщения.
– Лечебные добавки: «Домашнее задание», напоминания, отслеживание настроения между сеансами с живым терапевтом (гибридный режим). «Это как фитнес-трекер для ума”.
Далее я хочу выделить угрозу: темную сторону алгоритмов
– Контекстная «слепота»: ИИ не может воспринимать иронию, сарказм и культурные различия. Настоящий скандал (2024): Надежда. Робот ИИ посоветовал религиозному пациенту «отказаться от своей веры», заявив, что это вызывает беспокойство и спровоцировало мысли о самоубийстве.
– Ограничения «сценария»: невозможность вступить в настоящий эмпатический контакт, невозможность переработать глубокую травму и перенос. Риск обострения у пациентов со сложными заболеваниями (ПТСР, биполярное расстройство, психоз).
– Проблемы конфиденциальности: кто имеет доступ к вашим самым сокровенным мыслям — вы сами, сервисы или рекламодатели? Утечки данных из терапевтических чат-ботов вырастут на 200% к 2024 году (отчет CyberPsych).
– Дегуманизация помощи: замена человеческого тепла на «техническую поддержку». Риск: клиенты учатся «разговаривать с алгоритмом» вместо того, чтобы размышлять.
– Правовой пробел: Если советы ИИ приводят к ухудшению состояния, кто несет ответственность? Психолог? Или разработчик? Пока четкого закона нет.
Идея проанализировать и написать на эту тему пришла не случайно. В моей практике был случай, когда клиентка последовала совету робота и поступила «жестко» с токсичным партнером, что привело к домашнему насилию.
Как оставаться человеком в эпоху алгоритмов:
Искусственный интеллект — это инструмент, а не замена: необходимо подчеркнуть роль роботов как «машин скорой помощи», тренеров навыков, мониторов, а не как глубинных терапевтов.
Новые возможности для психологов: умение работать с искусственным интеллектом, анализировать данные робота и объяснять клиентам ограничения его использования.
Искусственный интеллект в психотерапии — это не сказка будущего, а реальность, которая существует в нашей жизни. Он может стать мостом для помощи миллионам людей, но если мы будем молчать, он рискует стать цифровой версией «карательной психиатрии». Готова ли профессия не только «бояться» роботов, но и брать на себя ответственность за их реализацию? А вы, как клиент: что для вас ценнее — алгоритм, который доступен немедленно, или глубокое понимание, которое могут дать только люди, пусть и за определенную плату?”
Коллеги, как вы думаете, через 10 лет ИИ-терапевты полностью заменят 80% штатных психологов?
* Деятельность ЛГБТ-движения считается экстремистской и запрещена в Российской Федерации.
- Хотите связаться со мной?