Согласно новым правилам, пользователям запрещено использовать Claude для разработки или приобретения взрывчатых веществ, а также для создания биологического, химического, ядерного и радиологического оружия. Полностью исключены попытки использования ИИ в хакерских атаках, создании вредоносного программного обеспечения или организации атак типа «отказ в обслуживании» (DDoS).
Также впервые чётко прописаны ограничения, связанные с политическими процессами: ИИ нельзя использовать для дезинформации избирателей, целенаправленного влияния на голосование или вмешательства в избирательные кампании.
Обновление политики последовало вслед за запуском новой версии модели Claude, в которую были внедрены дополнительные меры защиты, затрудняющие обход систем безопасности и повышающие устойчивость к манипуляциям. Особое внимание компания уделила так называемым «агентным» функциям, таким как Claude Code и Computer Use, позволяющим ИИ выполнять задачи непосредственно на устройстве пользователя. Эти инструменты несут повышенные риски, поскольку дают модели прямой доступ к системным операциям.

«Оценка потенциально опасных возможностей ИИ — сложная задача, — отмечает компания. — По мере приближения моделей к критическим порогам риска, требуется больше времени для анализа. Превентивное внедрение более высоких стандартов безопасности упрощает выход новых версий и позволяет нам на практике улучшать защиту, минимизируя риски для пользователей».
Anthropic подчеркивает, что ее политика в области безопасности является «живым документом» и будет адаптироваться по мере развития технологий и появления новых угроз. При этом более строгие меры, включая ручную проверку ИИ-решений людьми, применяются в основном к продуктам для обычных пользователей, тогда как корпоративные решения регулируются иначе.
В то же время компания активно расширяет свою деятельность. По данным Business Insider, Anthropic привлекает 5 миллиардов долларов при оценке в 170 миллиардов долларов. Вместо привлечения средств через посредников, таких как специализированные инвестиционные фонды, компания напрямую работает с ведущими венчурными партнерами, что позволяет ей сохранять контроль над составом долгосрочных инвесторов.
Основанная в 2021 году бывшими исследователями OpenAI, Anthropic разрабатывает языковые модели, способные к пониманию и генерации текста, помощи в программировании, написании контента и проведении исследований. Теперь её приоритет — не только инновации, но и ответственность.

