Платим блогерам
Блоги
hilnur20012
Подделки искусственного интеллекта все больше вызывают проблемы

Подделки искусственного интеллекта быстро становятся одной из самых больших проблем, с которыми мы сталкиваемся в Интернете. Ложные изображения, видео и аудио распространяются все чаще в результате появления и неправильного использования инструментов генеративного искусственного интеллекта.

Поскольку дипфейки с искусственным интеллектом появляются почти каждый день и изображают всех, от Тейлор Свифт до Дональда Трампа, становится все труднее отличить, что реально, а что нет. Генераторы видео и изображений, такие как DALL-E, Midjourney и Sora от OpenAI, позволяют людям без каких-либо технических навыков легко создавать дипфейки — просто введите запрос, и система выдаст его.

реклама

Эти поддельные изображения могут показаться безобидными. Но их можно использовать для мошенничества и кражи личных данных, а также для пропаганды и манипулирования мнением.

Исследователи дали несколько советов, как не быть обманутым дипфейками.

На заре дипфейков технология была далека от совершенства и часто оставляла явные следы манипуляций. Фактчекеры указали на изображения с очевидными ошибками, например, руки с шестью пальцами или очки с линзами разной формы.

Но по мере совершенствования ИИ это стало намного сложнее. Некоторые широко распространенные советы, такие как поиск неестественных моделей моргания среди людей в дипфейковых видеороликах, больше не актуальны, говорит Генри Эйдер, основатель консалтинговой фирмы Latent Space Advisory и ведущий эксперт в области генеративного искусственного интеллекта. Тем не менее, по его словам, есть на что обратить внимание.

Многие дипфейковые фотографии, созданные искусственным интеллектом, особенно людей, имеют электронный блеск, «эстетический эффект сглаживания», который делает кожу «невероятно гладкой», сказал Адждер.

Однако он предупредил, что подсказки иногда могут устранить этот и многие другие признаки манипуляции ИИ. Проверьте согласованность теней и освещения. Часто объект находится в четком фокусе и выглядит убедительно реалистичным, но элементы фона могут быть не такими реалистичными или отполированными.

Подмена лиц — один из наиболее распространенных методов дипфейка. Эксперты советуют внимательно присматриваться к краям лица. Тон кожи лица соответствует тону остальной части головы или тела? Края лица резкие или размытые?

Если вы подозреваете, что видео говорящего человека было подделано, посмотрите на его рот. Движения их губ идеально соответствуют звуку?

Адждер предлагает посмотреть на зубы. Являются ли они четкими или размытыми и как-то не соответствуют тому, как выглядят в реальной жизни?

Компания по кибербезопасности Norton заявляет, что алгоритмы, возможно, еще недостаточно сложны для создания отдельных зубов, поэтому отсутствие контуров отдельных зубов может быть подсказкой.

Иногда имеет значение контекст. Сделайте паузу и подумайте, правдоподобно ли то, что вы видите. Журналистский веб-сайт Poynter сообщает, что если вы видите, как общественный деятель делает что-то, что кажется «преувеличенным, нереалистичным или нехарактерным», это может быть дипфейком.

Например, действительно ли Папа Римский будет носить роскошную куртку-пуховик, как изображено на пресловутой фейковой фотографии? Если бы он это сделал, не были бы дополнительные фотографии или видео опубликованы законными источниками?

Другой подход — использовать ИИ для борьбы с ИИ. Microsoft разработала инструмент проверки подлинности, который может анализировать фотографии или видео, чтобы определить, были ли ими манипулированы. FakeCatcher от Intel использует алгоритмы для анализа пикселей изображения, чтобы определить, настоящее оно или поддельное.

В Интернете есть инструменты, которые обещают обнаружить фейки, если вы загрузите файл или вставите ссылку на подозрительный материал. Но некоторые из них, например аутентификатор Microsoft, доступны только избранным партнерам, а не широкой публике. Это потому, что исследователи не хотят предупреждать злоумышленников и давать им большее преимущество в дипфейковой гонке вооружений.

«Открытый доступ к средствам обнаружения также может создать у людей впечатление, что они представляют собой богоподобные технологии, которые могут передать нам критическое мышление, тогда как вместо этого нам нужно осознавать их ограничения», – сказал Адждер.

При всем этом искусственный интеллект развивается с головокружительной скоростью, а модели ИИ обучаются на множестве интернет-данных, чтобы производить контент все более высокого качества с меньшим количеством недостатков.

Это означает, что нет никакой гарантии, что этот совет будет актуален даже через год.

Эксперты говорят, что может быть даже опасно возлагать бремя выявления фейков на обычных людей, превращая их в цифровых Шерлоков, потому что это может дать им ложное чувство уверенности, поскольку обнаружить дипфейки становится все труднее даже для опытных глаз.

Источник: techxplore.com
+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают