HarrisX: люди не могут отличить созданные нейросетью OpenAI Sora видео от настоящих

В соответствующем опросе приняли участие более 1000 взрослых американцев
11 марта 2024, понедельник 13:15
[Zero] для раздела Блоги

Как сообщает Variety со ссылкой на данные исследования компании HarrisX, люди часто не могут отличить сгенерированные нейросетью OpenAI Sora видеоролики от настоящих, снятых на камеру. В соответствующем опросе приняли участие более 1000 американцев, и, как выяснилось, большинство из них неверно оценили 5 из 8 роликов, отобранных авторами эксперимента.

По мнению специалистов, результаты данного исследования в очередной раз свидетельствуют, что контент, создаваемый генеративными нейросетями становится все более реалистичным, и со временем может стать неотличимым от реального даже при использовании специальных инструментов. Во многих странах эту проблему предлагают решать при помощи законодательного регулирования с обязательным требованием помечать сгенерированный нейросетями контент, чтобы он не вводил пользователей в заблуждение. Тем не менее, мошенники и пранкеры в любом случае могут использовать возможности искусственного интеллекта в незаконных или сомнительных целях – например, для создания фальшивых видеороликов с участием политиков и знаменитостей.