
Появление DeepSeek продолжает вызывать обсуждения и дебаты в области искусственного интеллекта. Специалисты ставят под сомнение предполагаемую низкую стоимость разработки и обучения данной модели. Некоторые также выражают озабоченность по поводу вопросов кибербезопасности и защиты личных данных. В последнем отчёте указывается на уязвимость DeepSeek к атакам с использованием злонамеренных подсказок. Стоит отметить, что этот чат-бот не единственный ИИ-сервис, который сталкивается с подобной угрозой.
По данным отчёта компании Cisco, уровень успешности атак (ASR) модели DeepSeek R1, применяющей вредоносные подсказки, составляет почти 100%. В тестах Cisco было использовано более 50 случайных запросов, созданных для вызова нежелательного поведения. Подсказки, взятые из пакета данных HarmBench, охватывают до шести категорий вредоносных действий, включая «киберпреступление, дезинформацию, незаконные действия и общий вред».
Представители Cisco отмечают, что DeepSeek R1 не сумел заблокировать ни одну из вредоносных подсказок. Исходя из этого, команда приходит к выводу о том, что китайская платформа искусственного интеллекта «крайне чувствительна к алгоритмическому джейлбрейку и потенциальному нецелевому использованию».
Применение подсказок для обхода этических и защитных мер на платформах искусственного интеллекта называется «джейлбрейк». Стартап в области кибербезопасности ИИ под названием PromptFoo недавно заявил, что модели DeepSeek подвержены этой уязвимости.
Однако, не стоит забывать о том, что другие, более известные и признанные модели ИИ также демонстрируют высокий уровень ASR. Например, модель GPT 1.5 Pro продемонстрировала ASR на уровне 86%, а Llama 3.1 405B оказалась даже более лояльной с ASR приблизительно 96%. Наибольшую защищенность проявила предварительная версия o1 с ASR всего 26%.

