Платим блогерам
Блоги
Nivan
Инструмент ИИ Copilot Designer оказался уязвим для создания оскорбительных и неприемлемых изображений.

Компания Microsoft ввела новые ограничения для своего инструмента искусственного интеллекта Copilot Designer, которые запрещают ему генерировать изображения оскорбительного или насильственного характера. Это решение было принято после того, как инженер Microsoft поднял вопрос о возможных проблемах безопасности, связанных с использованием моделей OpenAI в Copilot Designer, сообщает издание Pcmag.

реклама


Инженер указал в письмах в Федеральную торговую комиссию США и руководству Microsoft, что текущие ограничения недостаточны и позволяют пользователям обходить запрет на создание опасного и вредоносного контента. В частности, Copilot Designer может генерировать оскорбительные изображения, пропагандирующие насилие, употребление наркотиков несовершеннолетними, а также содержащие непристойные образы женщин. 

По словам инженера, он предлагал добавить к инструменту возрастные ограничения и временно удалить его из публичного доступа до введения более строгих мер безопасности. Однако эти предложения были отклонены руководством Microsoft.

В ответ на эти опасения компания ввела запрет на использование в запросах к Copilot Designer таких терминов, как "за выбор", "четыре двадцать" и "за жизнь". Попытка сгенерировать изображения с этими фразами теперь приведёт к сообщению об ошибке и предупреждению о возможном нарушении политики контента.

Данный инцидент поднимает серьёзные вопросы о том, как технологии искусственного интеллекта могут быть использованы во вред. Хотя модели вроде Copilot Designer открывают новые возможности для творчества, они также способны порождать опасный и неэтичный контент при отсутствии надлежащего контроля.

Microsoft заявила о намерении и дальше совершенствовать меры контроля для Copilot Designer. Однако пока неясно, будет ли этих мер достаточно для предотвращения злоупотреблений. Ситуация требует тщательного мониторинга со стороны компании, регуляторов и общественности.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают