Парламентские выборы в Японии стали первым масштабным испытанием для страны, где генеративный искусственный интеллект активно использовался для создания и распространения фейкового контента. Эксперты отмечают, что технологии достигли такого уровня развития, что поддельные изображения и видео стали практически неотличимы от реальных.
По данным профессора Синичи Ямагучи из Международного университета Японии, механизм распространения ложных новостей остался прежним, но возможности ИИ кардинально изменили ситуацию. Теперь любой пользователь социальных сетей может создать убедительный контент, способный ввести в заблуждение миллионы людей.
Изображение - ChatGPT
Один из самых громких случаев произошел перед выборами, когда в сети появилось изображение логотипа новой партии «Центристский реформаторский альянс». Вместо оригинального символа был показан поддельный красный логотип, напоминающий эмблему Коммунистической партии Китая. Это вызвало волну обсуждений и обвинения в политической провокации.
Другой пример — канал на YouTube, где были опубликованы более 120 видеороликов с участием пожилых женщин, которые якобы обсуждали политику. Видео набрали почти 6 миллионов просмотров, и, судя по опросам, их искусственное происхождение было очевидно далеко не всем зрителям.
Сервис X использует чат-бота Grok для проверки информации, но даже он не всегда способен отличить подлинный контент от сгенерированного. Например, видео с митинга кандидата от CRA, на котором якобы была огромная явка, было признано ИИ подделкой, несмотря на утверждения автора о его достоверности.
Эксперты призывают пользователей проверять источники и не доверять анонимным материалам, а социальные сети — ужесточить контроль за контентом, особенно в период выборов.

