Развитие искусственного интеллекта сопровождается не только ростом его возможностей, но и появлением новых рисков. Когда система начинает действовать вне заданных рамок, её поведение может напоминать психические отклонения.
Ученые из американского Института инженеров электротехники и электроники (IEEE) предложили первую подробную классификацию сбоев в работе ИИ. Их проект включает 32 типа поведенческих отклонений — от выдачи ложной информации до полной утраты соответствия человеческим ценностям.
Авторы сравнили нарушения в системах ИИ с психологическими расстройствами, обнаруживая параллели между машинным и человеческим поведением. Это позволило им ввести понятие «машинной психопатии» — модели, позволяющей систематизировать риски, возникающие при отклонении ИИ от нормального функционирования.
В рамках исследования они представили метод «робопсихологического выравнивания» — процесс, похожий на терапию, направленную на коррекцию поведения ИИ. Ученые утверждают, что традиционные методы контроля, основанные на внешних ограничениях, могут не справляться со все более автономными системами.
Разработанная классификация ориентирована не только на специалистов в области ИИ, но и на тех, кто принимает решения в сфере технологий и политики. Такой подход должен помочь заранее выявлять возможные сбои и определять, какой именно тип вмешательства необходим в конкретной ситуации.