В последние десятилетия мы неоднократно слышали о том, что человечество находится на пороге создания полноценного искусственного интеллекта, который будет способен взять на себя решение ключевых проблем нашей цивилизации. Например, умный алгоритм должен решить проблему голода, определить стратегии борьбы с социальным неравенством и другие задачи, оказавшиеся не под силу лучшим умам представителей людской расы. По этому поводу есть масса противоречивых мнений, но большинство экспертов сходится во мнении, что в обозримой перспективе ожидать появления продвинутого ИИ не стоит. Всё дело в том, что современные системы далеки от того, что принято называть в фантастических фильмах и книгах искусственным интеллектом. Скорее мы научились создавать сложные генеративные сети, умеющие с разной степенью эффективности выполнять ту или иную задачу.
Прекрасным примером может служить алгоритм DeepMind, созданный в лаборатории Google. Пройдя десятки миллионов обучающих циклов, программа способна демонстрировать близкие к максимальным результаты в решении любой задачи. При этом ни один человек не способен даже приблизиться к таким показателям, но стоит только слегка поменять условия игры, как умный алгоритм окажется примитивнее пятилетнего ребёнка. Создать универсальный алгоритм, умеющий обучаться сразу всем аспектам жизни, пока не удалось, а может не удастся никогда, ведь даже для работы DeepMind приходится использовать десятки тысяч продвинутых компьютеров. Сложно даже представить себе, сколько потребует система, которая сможет работать хотя бы на порядок лучше. А вообще, это далеко не все проблемы, с которыми сталкиваются создатели подобных систем. Как оказалось, многие люди настолько верят во всемогущий ИИ, что перестали проверять за ним результаты. Очевидно, что по скорости решения той или иной задачи компьютеру нет равных, но на данный момент программа допускает грубые ошибки, а процент верных ответов далёк от 100%.
Кажется, что все страшилки о неминуемой угрозе, исходящей от ИИ – это всего лишь сказки. По мнению американских учёных, существует вполне реальная угроза, исходящая от алгоритмов, которые сегодня принято называть нейросетями. Соответствующая статья появилась в журнале AI Magazine, а непосредственное участие в её написании принимали сотрудники лаборатории Google DeepMind. Что самое любопытное, учёные не верят в то, что примитивный ИИ захватит планету и начнёт истреблять людей при помощи ядерного оружия. Всё гораздо прозаичнее, ведь алгоритмы работают не так, как кажется многим из нас. Создать продвинутый алгоритм исследователи пытались давно, но совершенно неожиданно сработала генеративная система, основанная на получении вознаграждения. Если просто, то одна нейросеть генерирует данные (например, изображения), а вторая пытается распределить их в соответствие заданным требованиям. Это могут быть половые признаки, возраст и многие другие показатели. Если нейросеть делает правильный ответ, то получает высокую оценку своей работы. Удивительно, но виртуальные баллы работают волшебным образом, ведь тысячи нейросетей работают не покладая рук, пытаясь заработать побольше высоких оценок.
И вот здесь и кроется главная опасность. Учёные полагают, что в какой-то момент ИИ выйдет из-под контроля человека не потому, что захочет нас уничтожить, а радо виртуальных баллов. О вымирании людей речь пока не идёт, но нарушить работу ключевых систем, включая финансы и энергетику, ИИ способен. Так, если нейросеть посчитает, что при помощи обмана она может получать более высокие оценки, то не исключено, что машина прибегнет к наиболее простой стратегии получения желаемого. Не стоит забывать, что всё это может привести к конкуренции за ресурсы, ведь компьютеры и так сжигают огромное количество энергии. Если мощный алгоритм решит, что для получения виртуальных попугаев ему нужно отключить питание домов в стране, то он это сделает без колебаний. При этом стоит помнить, что машина намного быстрее решает вопросы, в которых она натренирована. В связи с этим у человека нет шансов победить И на его поле, а проигрыш в противостоянии может оказаться фатальным. Исследователи говорят о том, что нужно контролировать развитие алгоритмов искусственного интеллекта, вплоть до того, что их стоит и вовсе приостановить.
Руководство Google уже открестилось от публикации, заявив о том, что сотрудник лаборатории участвовал как частное лицо, выражая собственное мнение. Что же, если даже работник DeepMind осознаёт опасности, которые таит ИИ, то проблема действительно может быть серьёзной. К счастью, какое-то время у человечества есть, ведь пока умные алгоритмы весьма примитивны, но так будет не всегда. Источник.