Платим блогерам
Блоги
Pavelshakh
Одним из главных опасений по поводу того, что искусственный интеллект может идеально воссоздать голос человека, является его потенциал для мошенничества. За последние несколько месяцев технология такого рода достигла огромного прогресса, и, что неудивительно, ею злоупотребляют преступники, которые могут подделать голос, чтобы убедить семью его владельца в том, что человек нуждается в финансовой помощи.

Washington Post сообщает, что недавно канадской паре в возрасте 70 лет позвонил внук и сказал, что он находится в тюрьме и ему нужны деньги на залог. Они сняли максимум 3 000 канадских долларов в одном банке и собирались снять такую же сумму в другом, когда менеджер сказал им, что их обманывают; оказалось, что другой клиент получил такой же звонок и узнал, что он был поддельным.

Другой парой, которой не повезло, были родители Бенджамина Перкина. Им позвонил адвокат и сообщил, что их сын убил американского дипломата в автомобильной аварии, а Перкин находится в тюрьме и нуждается в деньгах для оплаты судебных издержек. Адвокат дал трубку Перкину, который сказал, что любит их и благодарен за деньги.

Голос звучал "достаточно близко, чтобы мои родители поверили, что они действительно говорят со мной", - сказал Перкин. Его родители отправили 15 449 долларов мошеннику через биткоин-терминал и до сих пор не смогли получить их обратно.

Голосовые мошенничества не новы. Данные Федеральной торговой комиссии показывают, что из 36 000 сообщений в прошлом году о том, что люди были обмануты преступниками, выдававшими себя за друзей или родственников, более 5 100 случаев произошли по телефону.

Раньше подделка голоса человека была сложной и длительной процедурой, включающей в себя обнаружение и сбор многочасовых аудиозаписей, и конечный результат не всегда был очень убедительным. Однако теперь инструменты искусственного интеллекта настолько упростили этот процесс, что мошенникам достаточно небольшого ролика, часто собранного из аккаунта в социальных сетях, чтобы точно воссоздать голос человека.

Примером такой технологии является инструмент Vall-E от Microsoft, о котором компания объявила в январе. Основанный на технологии под названием EnCodec, которую Meta анонсировала в октябре 2022 года, он работает путем анализа голоса человека, разбиения информации на компоненты и использования своего обучения для синтеза того, как бы звучал голос, если бы он произносил различные фразы. Даже после прослушивания всего трехсекундного образца Vall-E может воспроизвести тембр голоса и эмоциональный тон говорящего. Убедиться в том, насколько это убедительно, можно на этой странице GitHub.

Компания ElevenLabs, предлагающая генеративный голосовой инструмент ИИ, недавно написала в Твиттере, что она наблюдает "растущее число случаев злоупотребления клонированием голоса". Это привело к удалению возможности клонирования голоса из бесплатной версии программы VoiceLab.

Источник: techspot.com
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают