В 2025 году эксперты ожидают увеличения числа случаев дипфейк-мошенничества с использованием ИИ

Злоумышленники могут использовать сгенерированный ИИ голос начальника, друга или родственника.
8 января 2025, среда 07:44
[Zero] для раздела Блоги

Как сообщает издание «Известия», в 2024 году было зафиксировано несколько десятков тысяч случаев попыток мошеннических атак на российских граждан с использованием дипфейк-технологий. По прогнозам компании VisionLabs, в 2025 году таких попыток может быть кратно больше, поскольку возможности ИИ и нейросетей быстро совершенствуются. Одна из наиболее опасных и непредсказуемых угроз – это дипфейк-звонки в реальном времени с подменой голоса на голос начальника, родственника или друга жертвы.

Директор компании Ideco Дмитрий Хомутов в разговоре с журналистами подчеркнул, что использование дипфейк-аудио и даже дипфейк-видео в рамках схемы «фальшивый руководитель» активно применяется как российскими, так и зарубежными кибермошенниками. Эксперт же VisionLabs Татьяна Дешкина уточнила, что за последние два-три года значительно понизился порог входа — сейчас использовать ИИ для создания дипфейков может даже далекий от IT-отрасли человек. Неидеальное качество аудио или видео при этом может списываться жертвой на проблемы интернет- или мобильного соединения.

Наиболее уязвимыми категориями, подверженными влиянию дипфейк-звонков, эксперты считают граждан пенсионного и предпенсионного возраста, детей, людей с тревожно-мнительным типом личности, а также не обученных основам кибербезопасности сотрудников компаний. В случае получения аудио- или видеосообщений, а также подозрительных звонков от руководителей или близких людей специалисты рекомендуют не поддаваться эмоциям и самостоятельно перезванивать человеку для выяснения и уточнения обстоятельств.