Платим блогерам
Блоги
Kipa
На XIII Петербургском международном юридическом форуме обсудили риски цифровых двойников и необходимость правовых мер для регулирования нейросетевого контента.

Заместитель председателя ВЭБ.РФ Игорь Дроздов заявил о необходимости маркировать материалы, созданные с использованием искусственного интеллекта. Свою инициативу он озвучил на XIII Петербургском международном юридическом форуме. По его словам, такие меры помогут защитить пользователей от манипуляций, связанных с дипфейками и подменой личности в цифровой среде.

Может быть интересно

Современные нейросети позволяют с высокой точностью имитировать голос, внешность и манеру речи человека, создавая так называемые цифровые клоны. Эти технологии, по мнению Дроздова, могут использоваться в мошеннических схемах, влияя на доверие и безопасность в обществе. Поэтому он считает логичным введение чётких правил по обозначению контента, созданного ИИ.

Подобные нормы уже действуют в Китае, а Европейский союз разрабатывает собственное законодательство в рамках акта об ИИ. Россия, считает эксперт, также должна идти по пути прозрачности и ответственности. В первую очередь это касается контента, который может нарушать авторские права, так как данные, на которых обучаются нейросети, часто включают защищённые произведения.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают