Платим блогерам
Блоги
ProKino
Угроза кибербезопасности для коммерческих фирм заключается в том, что дипфейки могут повысить эффективность фишинга и упростить мошенничество.

   Отечественные фирмы активизировались в отношении ввода «в эксплуатацию» технологий для распознавания ненастоящих видео, фото и аудио, сгенерированных нейросетевыми моделями. По данным журналистов РБК, такие системы внедрены в 30 единиц российских проектов, половина в которых составляют банки.

   Как рассказал глава фирмы «Интернет-розыск» Игорь Бедеров, актуальные модели детекторов изучают визуальные и голосовые паттерны, помимо исследования генеративных алгоритмов. Последней опцией не могли похвастать более ранние модели детекторов.

Может быть интересно

   Так, современные нейросетевые детекторы умеют вычислять, какой именно ИИ задействовался при создании «глубокой подделки». Больше всего обнаруживаются ИИ Deepfake или похожие, ответил аналитик.

   Но Бедеров пояснил, что на середину 2025 года на полшага впереди находятся именно мошенники, которые обладают более совершенными технологиями подделки, чем борющиеся с ними специалисты по кибербезопасности. Поэтому аналитикам по цифровым технологиям в сфере ИИ остаётся лишь реагировать постфактум на новые способы обмана и подстраиваться под новые решения от киберпреступников.

  Часть экспертного сообщества выступает за обязательный ввод систем по разоблачению дипфейков. Такими являются представители «Сбера», призвавшие о вводе некого стандарта, позволяющего относить объекты к дипфейкам. 

   Прокомментировал ситуацию в сфере ИИ и дипфейков эксперт Алексей Мунтян, считающий, что сейчас дипфейки не относятся к критической проблеме, но бизнес постепенно уже мобилизуется для успешного противостояния потенциальной угрозе.


   Мунтян рассказал, что качественные дипфейки, работающие в режиме реального времени, сейчас являются достаточно сложными по части требований к аппаратной части мошеннического оборудования. Но как только технологии обмана станут более совершенными, такие атаки станут действительно массовыми. Поэтому коммерческим организациям РФ к такому повороту событий нужно быть готовыми уже сейчас. 

   Тем временем в государстве проводятся обсуждения потенциального проекта закона «Антифрод-2», усиливающего ответственность за киберпреступления с задействованием ИИ. Что интересно, в ряде стран за преступления с использованием нейросетей предусмотрено более тяжелое наказание, так как ИИ уже введены в список отягчающих обстоятельств. В Минцифры РФ призывают присмотреться к такому зарубежному опыту.

   Резюмируя, можно утверждать, что в 2025 году технология распознавания дипфейков ещё слишком дорога для массового использования, но со временем всё может измениться.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают