Платим блогерам
Блоги
RoadToKnowledge
Последние решения обещают оставить за человеком.

Соединенные Штаты долгое время придерживались строгой политики, согласно которой человеческий надзор необходим для управления ядерным оружием, и прямо обещали не допускать принятия автономных решений искусственным интеллектом, когда речь идет о запуске ракет. Однако Министерство обороны США проявляет все больший интерес к интеграции ИИ в системы управления, контроля и связи ядерных сил для "повышения" их эффективности.

В заявлении, сделанном в конце прошлого месяца, генерал Энтони Дж. Коттон, глава Стратегического командования США, подчеркнул, что Америка активно изучает все возможные технологии, приемы и методы для модернизации возможностей ядерных технологий. Исследования уже вызвали дискуссию, поскольку присутствие ИИ в военных операциях с высокими ставками не лишено прецедентов. Автономные системы, такие как истребители, беспилотники и даже пулеметы с ИИ, теперь являются частью арсенала США, что усиливает опасения по поводу возможности катастрофических ошибок. Кроме того, мысль о том, что ИИ может непреднамеренно повлиять на ядерные решения, кажется тревожно близкой к сюжету антиутопического фильма.

Может быть интересно

Генерал Коттон, отвечая на эти опасения на конференции по информационным системам разведки Министерства обороны 2024 года, вновь заявил, что хотя ИИ действительно будет способствовать принятию решений в структурах ядерного командования, он не заменит человеческое суждение.

"Мы никогда не должны позволить искусственному интеллекту принимать эти решения за нас".

Коттон отметил, что цель состоит в том, чтобы быстро и точно обрабатывать информацию, оставляя при этом роль человека в принятии решений. Передовые системы ИИ, по его мнению, могут значительно улучшить время оперативного реагирования, предоставив командирам расширенное пространство для принятия решений.

Опасения по поводу надежности ИИ в сценариях с высокими ставками небезосновательны. В феврале исследователи провели симуляцию международных конфликтов с использованием пяти основных языковых моделей: GPT-4, GPT-3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. В результате были получены тревожные результаты: некоторые модели привели к эскалации конфликтов и даже к развертыванию ядерного оружия без предварительного разрешения.

4
Показать комментарии (4)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают