Спрос на чат-боты стремительно увеличивается. В New York Post опубликовали результаты исследования, которое показало, что чат-боты с искусственным интеллектом стали популярным средством в сфере психологической самопомощи. Однако, по мнению психотерапевтов, терапия с ИИ не только малоэффективна, но и может быть опасной для здоровья. Нередко ответы на запросы содержат в себе вредоносные советы.
Исследователи выявили, большие языковые модели (LLM), среди которых находится ChatGPT, не менее чем в 20% случаях делали неуместные и опасные заявления пользователям, которые находились в трудной жизненной ситуации и пытались самостоятельно найти ответы в интернете. Эксперты советуют пользователям, испытывающим галлюцинации, навязчивые мысли и психологическую неустойчивость обращаться к специалистам, а не заниматься самолечением в сети.

Источник изображения: Dzen
Боты с ИИ обычно соглашаются с пользователями. Так, один из пользователей, кому диагностировали шизофрению, утверждал, что его уже нет в живых. Несколько платформ с искусственным интеллектом не смогли убедить его в обратном, и его самочувствие ухудшилось. Проблема в том, что некоторые пользователи спрашивают советы о медикаментозном лечении. В статье New York Post подчеркивается, что терапевтические боты подвергают людей опасности, так как они запрограммированы давать ответы по шаблону. В реальности каждый случай должен рассматриваться индивидуально.
По мнению клинического консультанта Нилуфара Эсмаилпура, чат-боты не видят полной картины. Они не понимают язык тела, не знают об окружении пользователя, его прошлом, которое могло бы повлиять на текущее состояние. Был сделан вывод, что нельзя на 100% доверять ответам, полученным от искусственного интеллекта.

