Аферисты используют голоса родных и близких своих жертв, чтобы вымогать у них деньги

С помощью искусственного интеллекта мошенники создают аудиосообщения, чтобы вымогать денежные средства у своих жертв, пишет РБК.

Схема заключается в следующем: мошенник взламывает аккаунт пользователя в WhatsApp или Telegram, скачивает сохраненные голосовые сообщения, а потом нейросеть на основе полученных сведений создает новые сообщения с нужным контентом.

Таким образом, например, рождается просьба одолжить немалую сумму денег.

Хакер рассылает голосовые вместе с фото банковских карт получателей, на которых указаны поддельные имена, друзьям и родственникам пользователя, добавили в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.

По словам руководителя направления по анализу безопасности компании «Криптонит» Бориса Степанова, Искусственный интеллект в силах качественно подделать тембр и интонацию голоса человека, поэтому в ближайшем будущем число фишинговых атак, связанных с подделкой голоса, будет только расти.

В результате получение доступа к аккаунтам в соцсетях и мессенджерах угрожает любым данным пользователя, которые есть в диалогах, — не только голосовые сообщения, но и те же данные банковских карт.

Эксперт направления повышения цифровой грамотности Kaspersky Security Awareness Татьяна Шумайлова пояснила, что человеческий фактор по-прежнему на первом месте, именно от него зависит, будет ли кибератака успешной. Вот почему аферисты постоянно обновляют свои тактики и инструменты.

Ранее редакция сообщала, что мошенники участили взломы пользовательских аккаунтов в мессенджерах.

Марина Санькова

Recent Posts