New York Post: Психологическая самопомощь с ИИ может быть опасной для здоровья

Чат-боты стремительно набирают популярность по всему миру. Теперь это одно из популярных средств в сфере психологической самопомощи, но специалисты советуют не воспринимать всерьез полученные ответы, а идти за помощью к профессионалам.
30 июня 2025, понедельник 10:19
Astra_news для раздела Блоги

Спрос на чат-боты стремительно увеличивается. В New York Post опубликовали результаты исследования, которое показало, что чат-боты с искусственным интеллектом стали популярным средством в сфере психологической самопомощи. Однако, по мнению психотерапевтов, терапия с ИИ не только малоэффективна, но и может быть опасной для здоровья. Нередко ответы на запросы содержат в себе вредоносные советы.

Исследователи выявили, большие языковые модели (LLM), среди которых находится ChatGPT, не менее чем в 20% случаях делали неуместные и опасные заявления пользователям, которые находились в трудной жизненной ситуации и пытались самостоятельно найти ответы в интернете. Эксперты советуют пользователям, испытывающим галлюцинации, навязчивые мысли и психологическую неустойчивость обращаться к специалистам, а не заниматься самолечением в сети.

Источник изображения: Dzen

Боты с ИИ обычно соглашаются с пользователями. Так, один из пользователей, кому диагностировали шизофрению, утверждал, что его уже нет в живых. Несколько платформ с искусственным интеллектом не смогли убедить его в обратном, и его самочувствие ухудшилось. Проблема в том, что некоторые пользователи спрашивают советы о медикаментозном лечении. В статье New York Post подчеркивается, что терапевтические боты подвергают людей опасности, так как они запрограммированы давать ответы по шаблону. В реальности каждый случай должен рассматриваться индивидуально.

По мнению клинического консультанта Нилуфара Эсмаилпура, чат-боты не видят полной картины. Они не понимают язык тела, не знают об окружении пользователя, его прошлом, которое могло бы повлиять на текущее состояние. Был сделан вывод, что нельзя на 100% доверять ответам, полученным от искусственного интеллекта.