Пентагон хочет улучшить ядерное вооружение США с помощью ИИ

Последние решения обещают оставить за человеком.
5 ноября 2024, вторник 22:27
RoadToKnowledge для раздела Блоги

Соединенные Штаты долгое время придерживались строгой политики, согласно которой человеческий надзор необходим для управления ядерным оружием, и прямо обещали не допускать принятия автономных решений искусственным интеллектом, когда речь идет о запуске ракет. Однако Министерство обороны США проявляет все больший интерес к интеграции ИИ в системы управления, контроля и связи ядерных сил для "повышения" их эффективности.

В заявлении, сделанном в конце прошлого месяца, генерал Энтони Дж. Коттон, глава Стратегического командования США, подчеркнул, что Америка активно изучает все возможные технологии, приемы и методы для модернизации возможностей ядерных технологий. Исследования уже вызвали дискуссию, поскольку присутствие ИИ в военных операциях с высокими ставками не лишено прецедентов. Автономные системы, такие как истребители, беспилотники и даже пулеметы с ИИ, теперь являются частью арсенала США, что усиливает опасения по поводу возможности катастрофических ошибок. Кроме того, мысль о том, что ИИ может непреднамеренно повлиять на ядерные решения, кажется тревожно близкой к сюжету антиутопического фильма.

Генерал Коттон, отвечая на эти опасения на конференции по информационным системам разведки Министерства обороны 2024 года, вновь заявил, что хотя ИИ действительно будет способствовать принятию решений в структурах ядерного командования, он не заменит человеческое суждение.

"Мы никогда не должны позволить искусственному интеллекту принимать эти решения за нас".

Коттон отметил, что цель состоит в том, чтобы быстро и точно обрабатывать информацию, оставляя при этом роль человека в принятии решений. Передовые системы ИИ, по его мнению, могут значительно улучшить время оперативного реагирования, предоставив командирам расширенное пространство для принятия решений.

Опасения по поводу надежности ИИ в сценариях с высокими ставками небезосновательны. В феврале исследователи провели симуляцию международных конфликтов с использованием пяти основных языковых моделей: GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. В результате были получены тревожные результаты: некоторые модели привели к эскалации конфликтов и даже к развертыванию ядерного оружия без предварительного разрешения.