Правительство США очень обеспокоено тем, что искусственный интеллект может помочь террористам разработать новое опасное биологическое оружие. ИИ мог бы создавать ранее неизвестные, чрезвычайно смертоносные патогены на основе известных веществ. Страх перед таким новым оружием перерос в настоящую «одержимость» внутри правительства США, сообщает 2 августа Bloomberg.
Повод для беспокойства дал биохимик Рокко Касагранде, ранее работавший инспектором по вооружению в ООН. В 2023 году эксперт по биологическому оружию пришел в Белый дом с черным контейнером, содержащим опасные патогены, которые могут спровоцировать новую пандемию. Он смог получить инструкции для создания биологического оружия от чат-бота с искусственным интеллектом.
Касагранде, возможно, добился того, чтобы его предупреждения были услышаны, потому что с тех пор правительство США опасается появления нового варианта оружия массового уничтожения, созданного ИИ, которое можно будет производить в любом подвале с помощью ИИ. Такие инструменты, как ChatGPT, облегчают обнаружение опасных вирусов, бактерий и других организмов, которые могут уничтожить человечество. Вызывает обеспокоенность то, что сочетание искусственного интеллекта и искусственно созданных биологических организмов может стать очень опасным.
Люди могли бы использовать постоянно совершенствующийся искусственный интеллект, чтобы «создавать худшие вещи», сказал Bloomberg биолог Массачусетского технологического института Кевин Эсвелт. Под этим он подразумевает вирусы и токсины, которых в настоящее время не существует. По его словам, «сегодня мы не можем защитить себя от этих вещей».
Биологическое оружие проще и дешевле производить, чем другое оружие. Например, существуют новые, простые в использовании машины, которые можно использовать для 3D-печати ДНК без особого контроля. ИИ может помочь даже новичкам научиться пользоваться этими машинами.
Эксперт по биологическому оружию Касагранде стал советником правительства по вопросам биологического оружия в отношении ИИ. С ним консультируются, когда дело доходит до тестирования опасностей новых чат-ботов с искусственным интеллектом, таких как Claude от компании Anthropic. Во время одного из своих тестов Claude предоставил информацию, где и как можно купить компоненты для определенного биологического оружия.
США рассматривают биологическое оружие как серьезную угрозу. С октября действует специальное указание президента Джо Байдена о том, что почти все правительственные ведомства должны работать вместе для поиска решений проблемы. Однако критики по-прежнему считают, что этих мер недостаточно. По мнению Bloomberg, компании, занимающиеся искусственным интеллектом, склонны вести себя сдержанно в отношении возможных угроз.
Ранее Мустафа Сулейман, соучредитель Google Deepmind, предупредил о последствиях слишком легкого доступа к программным инструментам на основе искусственного интеллекта. Его предположение: искусственный интеллект можно использовать для создания максимально опасного вируса в лаборатории.
Например, так же, как искусственный интеллект используется для оптимизации рабочих процессов или программных кодов, так и возможности инструмента ИИ могут быть использованы для повышения эффективности патогена.
Как показал опыт последних лет с коронавирусом, человечеству нечем противостоять смертельному вирусу, который распространяется чрезвычайно быстро.
Сулейман считает, что его страх в первую очередь основан на том факте, что слишком много людей могут бесконтрольно использовать технологию искусственного интеллекта и учатся ее применять. Поэтому Сулейман призывает НАТО разработать стратегию сдерживания – так же, как это происходит с ядерным оружием. Доступ к инструментам ИИ должен быть ограничен.
Илон Маск уже несколько раз предупреждал об опасности искусственного интеллекта — и он не одинок в этой оценке ситуации. Однако политические процессы, которые должны будут регулировать использование ИИ в будущем, только начинаются и вряд ли поспевают за чрезвычайно быстрым развитием технологии.