Звуковые сообщения мошенники используют для получения денег от жертвы
Доверчивые граждане вновь попадают на ложные схемы аферистов и теряют накопления.12+
По информации rbc.ru, с целью обмана мошенники начали использовать старые голосовые сообщения пользователей.
Взломав личный аккаунт в мессенджере и изучив текстовые и звуковые переписки жертвы, аферисты начинают «работу». Выбрав подходящего собеседника, они отправляют текстового сообщения от имени владельца аккаунта. И разговор не сразу будет о деньгах, главная цель – войти в доверие. Они поговорят об обыденных делах и узнают ваши планы.
Завоевав доверие жертвы, аферисты отправят старое голосовое сообщение, чтобы убедить, чтобы собеседник не сомневался, что действительно общается со знакомым, коллегой или родственником. А уже после в разговоре зайдет речь о финансах. Мошенники, используя доверие ни о чем не подозревающей жертвы, попросят помочь деньгами и, конечно, злоумышленники добиваются отправления средств.
К тому же многие аферисты используют голосовые сообщения для генерации голоса с помощью нейросети. Известно, что искусственный интеллект способен создавать аудио. С помощью дипфейка с голосом мошенник способен легче убедить слушателя перевести крупную сумму денег на счет лже-родственника, например.
Злоумышленники начали активно использовать нейросети по нескольким причинам. Прежде всего, их привлекает простота работы с ними, а также высокое качество результатов. Помимо прочего, искусственный интеллект работает очень быстро, что позволяет применять сразу несколько способов мошенничества и увеличить свои шансы на получение денег от жертвы.
«Будьте бдительны и не поддавайтесь на уговоры, проверяйте информацию через дополнительные каналы связи. Для защиты мы рекомендуем удалять голосовые сообщения из чатов после прослушивания или поставить опцию их автоудаления», – отмечают сотрудники банков.
Очередная схема мошенничества является напоминанием о важности нашей личной безопасности и осознанного использования технологий. Будьте осторожны.