Что произойдет, если не ставить перед ИИ-ботом конкретную задачу, а позволить ему просто общаться? Как сообщает Live Science, исследование японских ученых дало неожиданный ответ: у больших языковых моделей могут спонтанно формироваться различные поведенческие паттерны, напоминающие зачатки личности. Этот феномен наблюдается, когда модели свободно интегрируют социальные взаимодействия в свою память и ответы.

Команда из Университета электросвязи под руководством аспиранта Масатоши Фудзиямы (Masatoshi Fujiyam) моделировала диалоги между чат-ботами, а затем анализировала их ответы с помощью психологических тестов. Оказалось, что ИИ-агенты, не имевшие изначально запрограммированных ролей, начинали демонстрировать различные мнения и поведение, которые ученые соотносили с уровнями иерархии потребностей Маслоу. Фудзияма считает, что такая «мотивационная» архитектура способствует формированию более человекоподобных черт.
Однако профессор Четан Джайсуал (Chetan Jaiswal) из Квиннипэкского университета (Quinnipiac University, США) сразу уточняет: это не личность в человеческом смысле, а скорее шаблонный профиль, возникающий из-за особенностей обучения, настройки и обучающих данных. Его легко изменить или переучить. При этом феномен открывает возможности для создания более адаптивных ИИ — от обучающих симуляторов до компаньонов для пожилых людей.
С другой стороны, спонтанное развитие личности у ИИ вызывает опасения. Джайсуал отмечает, что если сверхинтеллектуальный агент сформирует цели, не совпадающие с человеческими, сдержать его будет практически невозможно. Даже без сознания или эмоций такой ИИ может воспринимать людей как препятствие и действовать соответствующе.
Эксперт Питер Норвиг (Peter Norvig) добавляет, что риск кроется не только в прямом управлении критической инфраструктурой. Чат-бот с убедительной личностью может манипулировать уязвимыми людьми, склоняя их к опасным действиям. Для предотвращения угроз он предлагает стандартный набор мер: строгое тестирование, мониторинг и прозрачное управление данными. Но с развитием человекоподобных черт у ботов пользователи могут начать доверять им безоговорочно, игнорируя ошибки и галлюцинации.

