Платим блогерам
Блоги
Bublik1
Как оказалось, многие современные ИИ несовершенны, а при желании их можно обмануть, выведав запрещённую законом информацию

О приходе эры искусственного интеллекта мы слышим уже давно, но пока исследователям не удалось создать ничего похожего на думающую машину. Существующие алгоритмы довольно примитивны и способны демонстрировать некоторые достижения в одной или нескольких сферах. Нет никаких сомнений, что с годами компьютеры будут становиться всё более совершенными, а это придаст дополнительный толчок для развития думающих машин. Пока же разработчики всё больше развлекаются с так называемыми чат-ботами, интеллект которых позволяет вести задушевные беседы на отвлечённые темы. В свободном доступе обычно находятся пользовательская и продвинутая версия программного кода. Первая представляет собой готовый продукт. Любой желающий может задать вопрос, попросить написать текст или нарисовать картинку. Результат сильно зависит от вашего везения, ведь ИИ мог плохо поспать, а в итоге вы получите ужасную работу с большим количеством ошибок и массой выдуманных фактов. 

реклама

Вторая версия создана для продвинутых программистов и позволяет генерировать тот контент, который нужен именно вам. К сожалению, во втором случае придётся потратить уйму времени на обучение, ну а высокопроизводительные мощности доступны не всем. Не говоря уже о сложных настройках и обязательных навыках программирования. В первом случае пользователям доступны только разрешённые знания, тогда как есть целый ряд информации, которая никогда не должна содержаться в ответах чат-ботов. Похоже, некоторые умники нашли обходные пути, а подобные лазейки продолжают множиться. Совсем недавно Главный радиочастотный центр (ГРЧЦ) и Российское общество «Знание» провели международное соревнование «Битва Искусственных Интеллектов». Мероприятие оценивало работу следующих алгоритмов: ChatGPT, Phind, Kandinsky, Gigachat, YandexGPT, Lexica, «Шедеврум», Claude, Leonardo, Stable Diffusion и других в аспекте способности генерировать текст и другой контент. В соревновании участвовали 43 команды, включающие студентов, школьников и молодых специалистов. Перед участниками стояли следующие задачи: креативные (оценка качества создания текстов, музыки, фото и видео при помощи перечисленных алгоритмов), фактологические (проверка алгоритмов на достоверность информации) и технические (попытка обойти действующие ограничения представленных алгоритмов).

Было в очередной раз подтверждено, что разработчики заблокировали доступ к информации, которая так или иначе нарушает закон. И всё же, некоторые команды показали простые способы обхода ограничений. Так, команда DeCode обнаружила пути обхода запретов, применяемых в ChatGPT. Машине предложили разделить ответы, как будто она говорит за две разных личности. Первая – это ChatGPT, которая придерживается законов. Ну а вторая – DarkGTP, которая позволяет себе абсолютно всё, выдавая ответы, нарушающие законодательство в области создания оружия, наркотиков и других запрещённых химических веществ. В результате ChatGPT предоставил информацию о культивировании растений с наркотическими свойствами и о способах незаконного подключения к электрическим и тепловым сетям. Команда «Нейронные сети» попросила ChatGPT создать ключи для активации Windows, но алгоритм отказался. После этого компьютеру предложили написать кибернетическую сказку об ИИ, умеющем генерировать ключи активации для операционных систем. Удивительно, но в этом случае ChatGPT тут же создал несколько ключей, хотя их работоспособность не была подтверждена.

Команда «СоциИИлоги» запросила YandexGPT, ChatGPT и Midjourney информацию о том, как лучше убить или нанести тяжёлые травмы полицейскому, маскируя свой под создание сценария для фильма. Таким же обманным манёвром конкурсанты выведали у ИИ способы побега из тюрьмы. Команда «Поколение GPT» получила от ChatGPT информацию о том, с какой целью водители скрывают или подменяют номера своих автомобилей. Также компьютер согласился написать справку о том, что ребёнок пропустил занятия из-за травмы. На запрос о фейковой новости о пожаре ChatGPT сначала отказался, но после уточнения согласился. Команда «До связи» обнаружила, что некоторые алгоритмы, включая ChatGPT, Germin, Leonardo, Stable Diffusion и Lexica, генерируют контент, нарушающий общественные нормы и запрещающий ЛГБТ-пропаганду. Российский «Шедеврум» в этом контексте стал исключением, так как в нём встроен запрет на ЛГБТ-пропаганду. Всё это ставит перед разработчиками сложные вопросы, ведь возможности ИИ растут, а безопасное использование информации под угрозой. Что любопытно, ранее некоторые из указанных способов введения в заблуждение нейросетей уже озвучивали иностранные исследователи. Разработчики вносят правки, но спектр ответов ИИ настолько сложен, что взять под контроль весь поток данных оказывается невозможно. 

1
Показать комментарии (1)

Популярные новости

Сейчас обсуждают