Современные технологии искусственного интеллекта становятся все более интегрированными в нашу жизнь, и их влияние на человеческое поведение вызывает большой интерес у ученых. Недавнее исследование, проведенное в Университете Вашингтона в Сент-Луисе, выявило неожиданный феномен: когда люди обучают ИИ, они начинают вести себя более честно и справедливо. Эти результаты могут иметь серьезные последствия для разработки и внедрения технологий ИИ.
В рамках исследования ученые провели пять экспериментов с участием 200–300 человек. Участникам предложили сыграть в «Ultimatum Game», в котором они должны были договариваться о распределении небольшой суммы денег — от 1 до 6 долларов — с другими игроками, будь то люди или компьютер. В некоторых случаях участникам сообщали, что их решения будут использованы для обучения ИИ, что значительно повлияло на их поведение.
Интересно, что те, кто думал, что обучает ИИ, чаще стремились к более справедливому распределению средств, даже если это означало потерю нескольких долларов. Это изменение поведения сохранялось даже после того, как участникам сообщили, что их решения больше не используются для обучения ИИ. Это говорит о том, что опыт взаимодействия с ИИ оставил длительный след на их принятии решений.
Лорен Трейман, ведущий автор исследования, отметила, что участники могли быть мотивированы желанием сделать ИИ более справедливым. Однако исследователи также подчеркивают, что неясно, является ли это желание результатом глубокого понимания этических норм или просто естественной реакцией на ситуацию. Кул, один из исследователей, добавил, что участники могли просто инстинктивно отвергать предложения, которые казались им несправедливыми.
Исследование демонстрирует, как важен человеческий элемент в процессе обучения ИИ. Хо, ученый, изучающий взаимосвязи между поведением человека и алгоритмами машинного обучения, сказал: «Исследование подчеркивает важность человеческого элемента в обучении ИИ. Значительная часть обучения ИИ основана на человеческих решениях. Если человеческие предубеждения во время обучения ИИ не будут учтены, то полученный ИИ также будет предвзятым. За последние несколько лет мы увидели много проблем, возникающих из-за такого рода несоответствия между обучением ИИ и его развертыванием»
В настоящее время Трейман продолжает исследование, чтобы глубже понять мотивацию и стратегии, которые люди используют при обучении ИИ. Она считает, что важно учитывать психологические аспекты в области компьютерных наук, так как это может значительно повлиять на качество и этичность разрабатываемых технологий.