Платим блогерам
Блоги
Apelsinoff
Компания Anthropic, разработчик искусственного интеллекта Claude, обновила политику использования своей платформы, введя строгие ограничения на применение ИИ для создания оружия массового поражения и проведения кибератак

Согласно новым правилам, пользователям запрещено использовать Claude для разработки или приобретения взрывчатых веществ, а также для создания биологического, химического, ядерного и радиологического оружия. Полностью исключены попытки использования ИИ в хакерских атаках, создании вредоносного программного обеспечения или организации атак типа «отказ в обслуживании» (DDoS).

Также впервые чётко прописаны ограничения, связанные с политическими процессами: ИИ нельзя использовать для дезинформации избирателей, целенаправленного влияния на голосование или вмешательства в избирательные кампании.

Может быть интересно

Обновление политики последовало вслед за запуском новой версии модели Claude, в которую были внедрены дополнительные меры защиты, затрудняющие обход систем безопасности и повышающие устойчивость к манипуляциям. Особое внимание компания уделила так называемым «агентным» функциям, таким как Claude Code и Computer Use, позволяющим ИИ выполнять задачи непосредственно на устройстве пользователя. Эти инструменты несут повышенные риски, поскольку дают модели прямой доступ к системным операциям.

«Оценка потенциально опасных возможностей ИИ — сложная задача, — отмечает компания. — По мере приближения моделей к критическим порогам риска, требуется больше времени для анализа. Превентивное внедрение более высоких стандартов безопасности упрощает выход новых версий и позволяет нам на практике улучшать защиту, минимизируя риски для пользователей».

Anthropic подчеркивает, что ее политика в области безопасности является «живым документом» и будет адаптироваться по мере развития технологий и появления новых угроз. При этом более строгие меры, включая ручную проверку ИИ-решений людьми, применяются в основном к продуктам для обычных пользователей, тогда как корпоративные решения регулируются иначе.

В то же время компания активно расширяет свою деятельность. По данным Business Insider, Anthropic привлекает 5 миллиардов долларов при оценке в 170 миллиардов долларов. Вместо привлечения средств через посредников, таких как специализированные инвестиционные фонды, компания напрямую работает с ведущими венчурными партнерами, что позволяет ей сохранять контроль над составом долгосрочных инвесторов.

Основанная в 2021 году бывшими исследователями OpenAI, Anthropic разрабатывает языковые модели, способные к пониманию и генерации текста, помощи в программировании, написании контента и проведении исследований. Теперь её приоритет — не только инновации, но и ответственность.

Источник: militaryai.ai
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают