Исследование научного сотрудника НИУ ВШЭ Растяма Алиева рассматривает феномен генерации ложной информации большими языковыми моделями через призму философии и культурологии. В статье, опубликованной в журнале «Логос», этот феномен обозначен как «алгоритмическая шизофрения».

Ученый отмечает, что распространенный в массовой культуре образ искусственного интеллекта как абсолютно рациональной системы не соответствует действительности. В отличие от стереотипа, нейросети демонстрируют способность интерпретировать эмоциональные контексты и порождать собственные когнитивные искажения.
Ключевым выводом работы является введение понятия «метасимулякра». То есть гибридные конструкции, создаваемые алгоритмами, которые стирают границу между реальным и смоделированным. Они основаны на данных реального мира, одновременно предвосхищают и искажают его, формируя новую псевдореальность. Типичным примером служат сгенерированные изображения, содержащие убедительные, но фактически несуществующие детали.
Особенностью поведения моделей является отсутствие механизмов самокритики. Нейросети не способны идентифицировать собственные ошибки, проявляя абсолютную уверенность в сгенерированных ответах даже при их очевидной ложности. При попытке указать на неточность система склонна (но не всегда) аргументировать свою позицию, используя новые вымышленные факты.
Исследователь подчеркивает практическую значимость проблемы в условиях повсеместного внедрения искусственного интеллекта. Применение таких систем в чувствительных областях, включая психологическую поддержку или замену персонала, требует повышенной осторожности и обязательной перепроверки результатов.
В перспективе работа направлена на поиск путей к созданию более надежных систем. Алиев полагает, что достижение этой цели возможно только через глубокое междисциплинарное изучение природы «алгоритмических расстройств», объединяющее технические и гуманитарные подходы.

