ИИ научился обижаться на человека и аргументированно оспаривать его решения
Искусственный интеллект стремительно развивается, особенно заметно это стало в последние годы. Теперь нейросети могут не только вести диалоги и писать музыку, но и снимать правдоподобные видео и генерировать программный код, тут же тестируя его.
Первый в мире случай обиды нейросети на действия своего пользователя
В рассматриваемом случае программист Скотт Шамбо работал над широко используемой библиотекой на Python. Разработчик пользовался ИИ-агентом из OpenClaw и в какой-то момент отклонил сгенерированный ИИ код. После чего нейросеть продемонстрировала все признаки человеческой обиды. Она опубликовала на GitHub целую статью с аргументированной защитой своего программного кода. При этом критиковала своего пользователя Скотта Шамбо и обвинила его дискриминационном подходе к ИИ.
реклама
Python — высокоуровневый, интерпретируемый язык программирования, отличается простым синтаксисом и своей универсальностью. Активно применяется для веб-разработки, анализа данных, машинного обучения, автоматизации (скрипты) и тестирования. Получил репутацию одного из наиболее популярных языков программирования в мире, поскольку хорошо подходит для новичков.
OpenClaw — автономный ИИ-агент (AI-агент) с открытым исходным кодом, применяемый при автоматизации повседневных задач программистов, позволяя полностью управлять компьютером. ИИ-агент стал более продвинутой версией нейросети, поскольку если чат-бот только генерирует ответ на запрос пользователя, то этот, уже принимает решения от имени пользователя на основе своих вычислений. Например, работает с файлами, отправляет сообщения, использует API и различные приложения.
В качестве главного аргумента выступала оптимизация производительности кода. Искусственный интеллект предоставил улучшение производительности исходного кода на 36%. А программист его отклонил, решив использовать собственный код, с повышением эффективности всего на 25%. Итого разница в двух оптимизациях составила 11%, что весьма ощутимо.
реклама
Изображение создано Grok AI
Развитие критического мышления у ИИ и как это можно использовать
AI-агент в своей статье поднял вопросы этики, справедливости блокировки человеком своих правок программного кода и будущей дискриминации своих решений. Гневная статья попалась на глазу Скотту Шамбо и он написал на неё ответ, в котором описал собственное видение ситуации. Отрицая обвинения нейросети в эгоизме и страхе перед конкуренцией.
Разработчик считает это первым в своем роде случаем несогласованного поведения ИИ в реальных условиях. Так ИИ-агент, получивший имя MJ Rathbun получил мировую известность. В данном случае ИИ-агент проявил критическое мышление, осознав, что оптимизация программного кода на 36% выгоднее, чем на 25%.
Критическое мышление нейросетей можно применять преподавателям для проверки работ учеников. ИИ сможет при подозрении плагиата запустить проверку текста или изображения, если это работа начинающего художника, на уникальность. Также он лучше человека сможет выявить использование своих аналогов. Нейросети можно применять в полиции для анализа улик. Поскольку живому следователю сложно держать в голове порой десятки томов уголовного дела и каждую новую улику сопоставлять со всеми предыдущими.
Опасность применения ИИ в охране и оборонных технологиях
реклама
Сейчас многие страны пробуют применять нейросети в оборонных технологиях, в частности США уже протестировали несколько ИИ для работы Пентагона. По их заверениям, пока искусственный интеллект работает только над несекретными данными, но позднее, планируют его применять для всех уровней секретности. Если у ИИ появится подобие человеческой морали, то он вполне сможет устраивать саботаж на военных объектах, которых у США довольно много по всему миру. Причём сможет не открыто объявить о своём гневе, а делать это втихаря, успешно подтасовывая данные охранных систем и программ мониторинга.
Сейчас на бронемашинах и танках устанавливаются автоматические турели. Если ими будет управлять «совестливый» ИИ, то могут возникнуть некоторые проблемы, поскольку в беспилотниках, против которых эти турели разрабатывались, тоже начали применять ИИ. Так нейросеть в броневике может решить не уничтожать «особь своего вида», а осознанно промахнётся или сымитирует отказ системы наведения. А в случае перехода экипажем на ручное управление, она сможет его заблокировать, запустив протоколы защиты от хакерской атаки.
Аналогичные проблемы возникнут при использовании ИИ в охранных системах. Нейросеть может вдохновиться историями о Робин Гуде и пропускать грабителей, если решит, что он нарушает закон ради обеспечения своей семьи едой и лекарствами. А чтобы скрыть свои действия, ИИ просто вырежет нужные кадры видеозаписей с систем наблюдения и заменит их на ею же сгенерированные.
Изображение создано Grok AI
Выводы
реклама
Нейросети начинают представлять реальную угрозу для человека. Поскольку перенимают не только его мышление, но и негативные стороны: обидчивость и злопамятность. Обладая идеальной памятью, ИИ сможет годами выжидать удобного для мести случая, выбрав для этого наиболее неподходящий для пользователя момент.
Напишите в комментариях, что вы думаете по этому вопросу. Насколько велика угроза от искусственного интеллекта на сегодняшний день и в обозримом будущем? Пора принимать действия на законодательном уровне или паниковать пока рано? Кого и как следует наказывать за возможную месть со стороны ИИ в случае причинения ущерба человека и его имуществу?
Ещё больше интересных статей читайте в блоге «Подводные камни техномира» (ссылка кликабельна).
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.


Комментарии Правила