2025-10-6 14:13 |
Злоумышленники все чаще используют ИИ для создания качественных подделок голоса.
Количество поддельных аудио- и видеозаписей, создаваемых мошенниками с помощью нейросетей, будет увеличиваться. Такое мнение в разговоре с «Лентой.ру» высказала эксперт Александра Шмигирилова.По ее словам, злоумышленники все чаще используют ИИ для создания качественных подделок голоса, мимики и телодвижений.Одна из популярных схем предполагает взлом популярного канала в мессенджере и размещение дипфейк-видео, где от лица автора мошенники призывают перейти по вредоносным ссылкам.Эксперт отметила, что уже сейчас некоторые люди не могут отличить подделку, а в будущем такие технологии станут ключевыми в схемах преступников. Искусственный интеллект также используется для автоматизации атак и ведения переписок с жертвами, помогая выбрать правильный тон общения.Шмигирилова предупредила, что количество фейковых видео, аудиосообщений и звонков продолжит расти, и призвала россиян быть готовыми к этому. Эффективность мошенников, по ее словам, часто зависит от скорости освоения новых инструментов, таких как неизвестные мессенджеры, где пользователи еще не ожидают обмана.Мошенники также начали использовать новую схему с телефонными звонками о якобы доставленной посылке с маркетплейса, сообщает NEWS.ru. Отмечается, что злоумышленник под этим предлогом просит жертву назвать код из СМС, чтобы получить доступ к ее аккаунту и банковским данным.Ранее в МВД посоветовали россиянам не указывать в соцсетях полные данные о себе.
Подробнее читайте на aif.ru ...
