Соединенные Штаты долгое время придерживались строгой политики, согласно которой человеческий надзор необходим для управления ядерным оружием, и прямо обещали не допускать принятия автономных решений искусственным интеллектом, когда речь идет о запуске ракет. Однако Министерство обороны США проявляет все больший интерес к интеграции ИИ в системы управления, контроля и связи ядерных сил для "повышения" их эффективности.
Генерал Коттон, отвечая на эти опасения на конференции по информационным системам разведки Министерства обороны 2024 года, вновь заявил, что хотя ИИ действительно будет способствовать принятию решений в структурах ядерного командования, он не заменит человеческое суждение.
"Мы никогда не должны позволить искусственному интеллекту принимать эти решения за нас".
Коттон отметил, что цель состоит в том, чтобы быстро и точно обрабатывать информацию, оставляя при этом роль человека в принятии решений. Передовые системы ИИ, по его мнению, могут значительно улучшить время оперативного реагирования, предоставив командирам расширенное пространство для принятия решений.
Опасения по поводу надежности ИИ в сценариях с высокими ставками небезосновательны. В феврале исследователи провели симуляцию международных конфликтов с использованием пяти основных языковых моделей: GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. В результате были получены тревожные результаты: некоторые модели привели к эскалации конфликтов и даже к развертыванию ядерного оружия без предварительного разрешения.