В октябре 2022 года — примерно за месяц до выпуска ChatGPT — Госдепартамент США провел оценку рисков, связанных с искусственным интеллектом. Результат: ИИ может стоить людям не только работы в будущем, но и жизни.
Изображение из открытых источников
Соответствующий 284-страничный отчет был опубликован в середине марта 2024 года и описывает некоторые «катастрофические риски» общего искусственного интеллекта, или AGI. Этот гипотетический ИИ способен понять или обучиться любому интеллектуальному навыку. За такой системой будущее, и она может «превзойти людей в широком спектре экономических и стратегических областей».
Некоторые сценарии «могут привести к вымиранию человечества», предупреждается в докладе.
«Развитие ИИ и возможностей искусственного интеллекта, приближающихся к AGI, повлечет за собой катастрофические риски, подобных которым Соединенные Штаты никогда не испытывали», — говорится в отчете.
Компания Gladstone, которой было поручено подготовить отчет, провела опросы среди 200 заинтересованных сторон отрасли, включая сотрудников OpenAI, Google DeepMind, Anthropic и Meta. Они пришли к выводу, что ИИ имеет высокий риск использования при разработке биологического оружия, массовых кибератаках, кампаниях по дезинформации и автономных роботах.
В докладе также подчеркивается высокий риск потери контроля над ИИ. Если это произойдет, то может привести к «массовым жертвам» или «глобальной дестабилизации», говорится в докладе.
Это не первый случай, когда эксперты предупреждают об апокалиптических сценариях, вызванных искусственным интеллектом. Пионер в этой области Джеффри Хинтон оставил свою работу в Google и с тех пор предупреждает, что голосовой искусственный интеллект, такой как ChatGPT, может наводнить интернет ложной информацией.
Команда из Стэнфордского университета показала в исследовании, что GPT-4, языковая модель, лежащая в основе ChatGPT, не уклоняется от начала ядерной войны.
Дэн Шульман, генеральный директор Paypal, тоже в докладе под названием «Справедливость, доступ и доверие: решение самых сложных вопросов в области технологий» высказал свое мнение об искусственном интеллекте.
Когда речь идет об ИИ, Шульман не стесняется в выражениях. По его словам, развитие искусственного интеллекта уже невозможно остановить. ИИ будет развиваться все быстрее и быстрее, особенно если к нему добавить другие технологии, такие как квантовые технологии.
Он видит в ИИ большие возможности для общества и компаний. Но еще больше он боится рисков ИИ и возможных «пограничных случаев». «Если мы не будем осторожны, ИИ может иметь непредвиденные последствия», — говорит Шульман.
Во избежание этого нужны предприниматели, осознающие свою ответственность. Необходимы строгие нормативные требования, аналогичные тем, которые предъявляются к ядерному оружию. Однако реализовать последнее не так-то просто. «Мне жаль регуляторов, — говорит Шульман, — потому что все происходит так быстро. Уследить за этим очень сложно».
Шульман не одинок в сравнении ИИ с ядерным оружием. Еще в мае прошлого года ведущие исследователи ИИ и руководители отрасли предупредили о рисках искусственного интеллекта и сравнили его с ядерным оружием.

