Платим блогерам
Блоги
[Zero]
Злоумышленники могут использовать сгенерированный ИИ голос начальника, друга или родственника.

Как сообщает издание «Известия», в 2024 году было зафиксировано несколько десятков тысяч случаев попыток мошеннических атак на российских граждан с использованием дипфейк-технологий. По прогнозам компании VisionLabs, в 2025 году таких попыток может быть кратно больше, поскольку возможности ИИ и нейросетей быстро совершенствуются. Одна из наиболее опасных и непредсказуемых угроз – это дипфейк-звонки в реальном времени с подменой голоса на голос начальника, родственника или друга жертвы.

Может быть интересно

Директор компании Ideco Дмитрий Хомутов в разговоре с журналистами подчеркнул, что использование дипфейк-аудио и даже дипфейк-видео в рамках схемы «фальшивый руководитель» активно применяется как российскими, так и зарубежными кибермошенниками. Эксперт же VisionLabs Татьяна Дешкина уточнила, что за последние два-три года значительно понизился порог входа — сейчас использовать ИИ для создания дипфейков может даже далекий от IT-отрасли человек. Неидеальное качество аудио или видео при этом может списываться жертвой на проблемы интернет- или мобильного соединения.

Наиболее уязвимыми категориями, подверженными влиянию дипфейк-звонков, эксперты считают граждан пенсионного и предпенсионного возраста, детей, людей с тревожно-мнительным типом личности, а также не обученных основам кибербезопасности сотрудников компаний. В случае получения аудио- или видеосообщений, а также подозрительных звонков от руководителей или близких людей специалисты рекомендуют не поддаваться эмоциям и самостоятельно перезванивать человеку для выяснения и уточнения обстоятельств.

Источник: iz.ru
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают