5 декабря 2023
Роман Литвинов
718

Мошенничество в мессенджерах выходит на новый уровень

Злоумышленники научили ИИ генерировать речь реальных людей.

В WhatsApp распространяется новая мошенническая схема с использованием голосовых сообщений. Злоумышленники подделывают голоса реальных людей, друзей или родственников жертвы, и отправляют голосовое сообщение в мессенджере с просьбой одолжить денег, либо выполнить какое-либо действие.

Искусственному интеллекту достаточно небольшого фрагмента с записью голоса, чтобы начать генерировать полноценную речь. Отличить запись от нейросети практически нереально от голоса реального человека, что создаёт большие риски.

Кроме того, россияне привыкли ко взломам и часто просят знакомых или родственников подтвердить свою личность голосовым сообщениям, особенно при сомнительных просьбах. Но теперь даже это не может гарантировать, что с другой стороны находится не мошенник.

Эксперты также отмечают, что к концу года активизировались и другие мошеннические схемы, например, с опросами и голосованиями. Россиянам советуют сохранять бдительность.

Читайте также
Хакеры вступили в борьбу с педофилией
22 апреля 2024
19 миллионов пользователей Android из России стали жертвами хакеров
23 апреля 2024
Хакеры используют старую уязвимость для взлома роутеров TP-Link
18 апреля 2024