Логотип Тагильский Рабочий

Мошенники стали имитировать гoлоса родных потенциальной жертвы

Мошенники, желающие обогатиться за счет доверчивых россиян, начали использовать новый прием, помогающий им выманить деньги. Теперь злоумышленник могут подделывать голоса близких и знакомых потенциальных жертв. Об этом предупредил Центральный банк РФ.

Изображение Мошенники стали имитировать гoлоса родных потенциа Скачать изображение в формате JPG

Нечистые на руку лица имитируют голоса людей, которых знает жертва, используя специальные программы, чтобы заставить их сообщить личную информацию или перевести деньги.

В то же время отмечается, что мошенники, желая запутать жертву, все чаще используют комбинированные схемы, преимущественно телефонные. За основу берется информация, которую россияне размещают в соцсетях - это данные о родственниках, друзьях, работе или досуге.

Поэтому лучше скрывать от посторонних глаз личную и финансовую информацию.

Также необходимо быть осторожными при пересылке важных сведений (например, документов) с помощью мессенджеров.

Не сообщайте данные банковских карт и другую конфиденциальную информацию владельцам сомнительных сайтов. Не совершайте операции по переводу денежных средств, не выполняйте команды посторонних лиц, поступающие по телефону. Такие просьбы лучше проигнорировать.

Центробанк также рекомендует позвонить человеку, от имени которого к вам обратились мошенники, чтобы убедиться в достоверности данных.

Ранее сообщалось, что новым "помощником" хакеров стал искусственный интеллект (ИИ). С его помощью мошенники начали создавать аудиосообщения и вымогать средства.

Преступная схема следующая: сначала злоумышленник взламывает аккаунт пользователя в Telegram или WhatsApp (принадлежит корпорации Meta, которая признана экстремистской и запрещена в России) и скачивает оттуда голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги.

Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным. Можно качественно подделать тембр и интонацию человека. По словам экспертов, количество таких атак будет только расти: "не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего", сообщает информационный партнер "ТР" "Российская газета". 

Прочитали? Можете поделиться этим материалом в:

Новости из раздела

Поиск по сайту

Разделы