Кибермошенники заговорят вашими голосами

873

Специалисты по антифроду в финансовых организациях всерьез обеспокоены появлением новой техники социальной инженерии – подделкой голоса. Технологии позволяют мошенникам, имея образец голоса (хотя бы несколько минут речи), записать абсолютно любой текст и использовать его в своих целях. В прошлом году произошел показательный случай, когда директору подразделения крупной энергетической компании позвонил якобы руководитель головного офиса и попросил оплатить счет. Ущерб составил сотни тысяч евро. Специалисты по кибербезопасности компании «Информзащита» считают, что это только начало. Технология становится популярной и доступной и будет новым «любимым» способом обмана людей, а значит необходимо развивать методологию обнаружения и предотвращения подобных видов угроз.

Решения для редактирования и изменения голосовых файлов известны достаточно давно. Еще в 2016 году на рынке появились программы, которые могли не только редактировать запись голосового сообщения, но и синтезировать новые слова и фразы на основе нескольких минут речи человека просто путем набора текста. У широко известной компании Adobe, например, есть продукт, который делает голос практически не отличимым от оригинала.

Более молодая технология, которая имеет все шансы также стать новым изощренным способом обмана, – создание дипфейк-видео. В эпоху повсеместной удаленной работы и zoom-общения подделка видео из забавы переходит в разряд опасных инструментов манипуляции и обмана.

Дипфейки используют мощные методы машинного обучения и искусственного интеллекта для создания визуального и аудиоконтента. С развитием технологий и мощностей они становятся все менее отличимыми от оригинала, что затрудняет быстрое выявление подделки. Кроме того, в пользу мошенников играют также утечки баз данных, которые позволяют злоумышленникам делать адресные звонки и проще входить в доверие к потенциальным жертвам.

Алгоритм обнаружения подделки сложен и на данный момент требует технических знаний и навыков. В 2019 году появились облачные ресурсы, которые могут «проверить» видео на наличие в файле деформаций, пикселизаций и прочих «примесей» и с какой-то долей вероятности сказать, является ли файл оригиналом или нет. Для этого нужно иметь запись разговора (или видео) и возможность проверить его с помощью специальной программы. Это значит, что в режиме реального времени обычному человеку практически невозможно определить, реальный собеседник на другом конце провода или нет.

Как же защититься? Как объяснили специалисты по антифроду компании «Информзащита», самая распространенная цель мошенников – это деньги, поэтому любые просьбы, поступившие с незнакомого номера, о переводе денег на неизвестную карту должны быть тщательно проверены, даже если вы слышите голос родного человека. В случае с видео – существуют программы для записи видео встреч и ресурсы по проверке подлинности и чистоты изображения.

Как известно, мошенники используют большие ресурсы и средства для развития технологий, и это всегда дополнительная мотивация для разработчиков не стоять на месте. В смартфонах уже сейчас используется и машинное обучение, и искусственный интеллект, и теоретически можно создать приложение для автоматического выявления дипфейков. Задача это не простая и не быстрая, но производителям компьютерного оборудования стоит думать в этом направлении.

 

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

Предметная область
Отрасль
Управление (роль)
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.