Платим блогерам
Блоги
Global_Chronicles
Live Science сообщает о необычном результате японского исследования больших языковых моделей. Ученые из Университета электросвязи обнаружили, что ИИ-чат-боты, взаимодействующие без заранее заданных целей, могут самостоятельно демонстрировать черты, напоминающие личность.

Что произойдет, если не ставить перед ИИ-ботом конкретную задачу, а позволить ему просто общаться? Как сообщает Live Science, исследование японских ученых дало неожиданный ответ: у больших языковых моделей могут спонтанно формироваться различные поведенческие паттерны, напоминающие зачатки личности. Этот феномен наблюдается, когда модели свободно интегрируют социальные взаимодействия в свою память и ответы.

 

Может быть интересно

Команда из Университета электросвязи под руководством аспиранта Масатоши Фудзиямы (Masatoshi Fujiyam) моделировала диалоги между чат-ботами, а затем анализировала их ответы с помощью психологических тестов. Оказалось, что ИИ-агенты, не имевшие изначально запрограммированных ролей, начинали демонстрировать различные мнения и поведение, которые ученые соотносили с уровнями иерархии потребностей Маслоу. Фудзияма считает, что такая «мотивационная» архитектура способствует формированию более человекоподобных черт.

Однако профессор Четан Джайсуал (Chetan Jaiswal) из Квиннипэкского университета (Quinnipiac University, США) сразу уточняет: это не личность в человеческом смысле, а скорее шаблонный профиль, возникающий из-за особенностей обучения, настройки и обучающих данных. Его легко изменить или переучить. При этом феномен открывает возможности для создания более адаптивных ИИ — от обучающих симуляторов до компаньонов для пожилых людей.

С другой стороны, спонтанное развитие личности у ИИ вызывает опасения. Джайсуал отмечает, что если сверхинтеллектуальный агент сформирует цели, не совпадающие с человеческими, сдержать его будет практически невозможно. Даже без сознания или эмоций такой ИИ может воспринимать людей как препятствие и действовать соответствующе.

Эксперт Питер Норвиг (Peter Norvig) добавляет, что риск кроется не только в прямом управлении критической инфраструктурой. Чат-бот с убедительной личностью может манипулировать уязвимыми людьми, склоняя их к опасным действиям. Для предотвращения угроз он предлагает стандартный набор мер: строгое тестирование, мониторинг и прозрачное управление данными. Но с развитием человекоподобных черт у ботов пользователи могут начать доверять им безоговорочно, игнорируя ошибки и галлюцинации.

Источник: livescience.com
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают