Компания Anthropic, занимающаяся разработкой ИИ, сообщила о раскрытии и пресечении новой кампании кибершпионажа. Как поясняет Anthropic в блоге, это первый известный случай масштабной преступной кампании, «организованной ИИ».
Злоумышленники, которых Anthropic с высокой степенью уверенности относит к китайской государственной группировке (GTG-1002), использовали запатентованную модель компании Claude Code. Однако они использовали её не просто как помощника-консультанта, а как «агентский ИИ». Машина выполнила от 80 до 90 процентов тактических операций самостоятельно.
Выводы, опубликованные Anthropic, вызывают вопросы и сомнения у некоторых экспертов по безопасности и ИИ. Бывший журналист по кибербезопасности Джереми Кирк сообщил, что «отчёт Anthropic о кибершпионаже кажется таким же странным, как и предыдущий». Он критикует тот факт, что отчёт занимает всего 13 страниц и что многие элементы обычного отчёта, такие как данные криминалистической экспертизы цифровых следов злоумышленников или хэши полезной нагрузки, просто отсутствуют.
В интервью Ars Technica Дэн Тентлер, основатель Phobos Group и эксперт по кибербезопасности, заявил: «Я по-прежнему отказываюсь верить, что злоумышленникам каким-то образом удаётся заставить модели ИИ выполнять эти трюки, когда никто другой не может».
Михал Возняк, независимый эксперт по кибербезопасности, заявил The Guardian: «Для меня Anthropic — это описание замысловатого способа автоматизации, и ничего более». По его словам, генерация кода — это просто «более качественное копирование и вставка уже разработанных кодов». Возняк считает, что существует гораздо более серьёзная проблема, которую Anthropic упускает из виду. Внедряя ИИ в свою деятельность, не понимая его и не осознавая потенциальных рисков, связанных с этими инструментами, компании создают для себя значительно более серьёзные проблемы безопасности.

