С 30 октября текущего года администрация президента США, Джо Байдена, представила указ, устанавливающий новые стандарты безопасности и защиты искусственного интеллекта.
Документ включает 26 пунктов, разделенных на восемь категорий, с целью максимизации выгод и минимизации рисков в использовании искусственного интеллекта. Планируется, что его реализация поможет США оставаться на передовой в разработке технологических стандартов и поддержит динамичное развитие исследований в этой области.
В соответствии с официальным сайтом, данный указ "защищает частную жизнь американцев, поддерживает равенство и гражданские права, охраняет интересы потребителей и работников, стимулирует инновации и конкуренцию, а также способствует мировому лидерству США".
Документ обязывает разработчиков мощных систем искусственного интеллекта делиться с правительством результатами тестирования по безопасности и критической информацией. В целях обеспечения надежности технологии также планируется разработать стандартизированные инструменты и тесты.
Указ поднимает проблему растущего "мошенничества и обмана, использующих искусственный интеллект", а также подчеркивает необходимость создания инструментов для обнаружения и устранения уязвимостей в критически важном программном обеспечении. Помимо этого, предусматривается разработка меморандума о национальной безопасности, который определит дальнейшие шаги в области искусственного интеллекта и безопасности.
В указе также отмечается, что без должных гарантий искусственный интеллект может угрожать частной жизни американцев, поскольку не только упрощает сбор, идентификацию и использование персональных данных, но и создает стимулы для этого, в силу использования данных в обучении ИИ-систем.
Согласно документу, неблагоразумное применение технологии может привести к дискриминации, предвзятости и другим формам злоупотребления.
Ранее в этом году глава компании OpenAI, Сэм Альтман, выступил перед Конгрессом США, призывая правительство регулировать использование и разработку искусственного интеллекта. Исследователи компании также предостерегли о растущей угрозе использования языковых моделей для распространения дезинформации.
В июне представители ООН заявили, что созданные искусственным интеллектом дипфейки вредят целостности информации и способствуют разжиганию ненависти в обществе. В свою очередь, американские ученые призвали противостоять дипфейкам, созданным "враждебными государствами".