Microsoft запустила онлайн-тест на распознавание фейковых изображений

Исследование показало, что люди справляются с задачей лишь в 63% случаев, а настоящие фото часто принимают за фейки
31 июля 2025, четверг 07:05
apprenticebase для раздела Блоги

Корпорация Microsoft провела масштабное исследование, чтобы выяснить, насколько хорошо люди способны отличать настоящие фотографии от созданных искусственным интеллектом. Результаты показали, что человек справляется с этой задачей лишь в 63% случаев, в то время как собственный ИИ-инструмент Microsoft достигает точности в 95%. Чтобы каждый мог проверить свои силы, компания запустила онлайн-викторину.

Для своего исследования, охватившего 12,5 тысяч участников со всего мира, Microsoft создала специальный сайт realornotquiz.com. Пользователям предлагается оценить 15 случайно подобранных изображений, часть из которых — настоящие снимки из фотобанков, а другая — результат работы различных нейросетей.

Все три фотографии — настоящие.

Как показало исследование, самыми убедительными подделками стали изображения, созданные по старой технологии GAN. Несмотря на «почтенный» возраст метода, дипфейки на его основе ввели в заблуждение 55% участников. Исследователи объясняют это тем, что сгенерированные по технологии GAN картинки часто напоминают фотографии низкого качества и поэтому содержат меньше деталей, на которых обычно «прокалываются» современные нейросети. Также крайне сложно было распознать пейзажи, сгенерированные на основе композиции реальных снимков, — их принимали за настоящие почти в 80% случаев.

А вот здесь все картинки сгенерированы ИИ.

Однако самым неожиданным открытием стало то, что люди чаще всего ошибались, принимая за подделку настоящие фотографии. Три снимка с самым низким процентом распознавания (их назвали подлинными лишь 12%, 14% и 18% участников) на самом деле были реальными (прикреплены к этому материалу). На всех трёх были запечатлены американские военные, но в нестандартных условиях: с необычным освещением, цветами и выдержкой.

В Microsoft отмечают, что результаты исследования не только подчёркивают важность маркировки созданного нейросетями контента. Понимание того, какие именно изображения и приёмы вводят людей в заблуждение, может быть использовано для создания ещё более убедительной дезинформации в будущем.