Компания Simile создаёт симуляции, где алгоритмы имитируют сложные социальные процессы: от повседневных "бесед на кухне" до политических разногласий и экономических взаимодействий. Эксперименты начались с небольших групп из 25 виртуальных агентов. Сейчас учёные перешли к детальным двойникам заранее известных персонажей. Такие агенты не только отвечают на вопросы, а передают убеждения, свойственные их оригиналам.

Изображение: Grok ai
Особый интерес вызывает платформа Moltbook. Это пространство вроде Reddit, но заселенное тысячами ии-агентов. Там алгоритмы демонстрируют неожиданное поведение: обсуждают природу сознания и даже пытаются создавать собственные религии. Люди в соцсетях часто автоматически лайкают популярные посты. ИИ-агенты же, ведут себя скорее наоборот - редко одобряют записи с многочисленными комментариями. Они предпочитают участвовать в дискуссии, а не просто «отмечаться».
Исследование демонстрирует, что алгоритмы воспроизводят коллективные модели поведения: стараются не выделяться из большинства или реагируют на популярный контент. Но объяснить мотивы их действий сложно. Логическое поведение моделей всё ещё сильно отличается от живой психологии. Создавать полноценный виртуальный мир мешает то, что языковые модели лишены человеческой непредсказуемости. Они отлично владеют логикой, но не способны на эмоциональные решения. Кроме того, модели склонны к поддакиванию собеседнику, лишь бы казаться полезными. Из-за этого агентам трудно воссоздавать реальные конфликты и негативные эмоции.
Джеймс Эванс из Чикагского университета, соавтор исследований, отмечает: «Цель исследования — создать настоящую симуляцию с восемью миллиардами человек». Зачем это - пока не ясно. Учёные уже используют ИИ для прогнозирования политических взглядов, по данным за прошедшие года. Люди все чаще обращаются к ботам за эмоциональной и психологической поддержкой. Возможно, скоро разница между социальным поведением человека и его цифровой имитацией окончательно исчезнет.

