2024-1-24 13:26 |
Эксперты спрогнозировали появление нового опасного вида интернет-мошенничества.
Мошенники в будущем усовершенствуют схему обмана с помощью технологии дипфейков. Они начнут подделывать не только голосовые сообщения, но и будут обманывать пользователей соцсетей и мессенджеров через видеосвязь. Об этом рассказал РИА Новости главный эксперт «Лаборатории Касперского» Сергей Голованов. Что за мошенничество с помощью дипфейков сейчас распространено?Дипфейк (от англ. deepfake: deep learning — «глубинное обучение» и fake — «подделка») — это метод создания поддельных изображений, видео или аудио, основанный на искусственном интеллекте. Он заключается в соединении и наложении изображений (видео или аудио) друг на друга при помощи GAN (Generative Adversarial Network — генеративно-состязательные нейросети). Например, при создании дипфейк-видео лицо и часть мимики человека переносятся на какой-либо ролик, и получается фейковое видео, которое внешне очень похоже на настоящее. Мошенники уже научились пользоваться этой технологией для обмана интернет-пользователей. По словам Голованова, они отправляют жертвам голосовые сообщения в мессенджере, подделывая голос их знакомого или руководителя, и просят перевести деньги. Однако, как отметил эксперт, у этой схемы есть несовершенства, и жертвы зачастую распознают сгенерированные сообщения. «Интонация, с которой идут все голосовые сообщения, роботизирована: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека», — рассказал Голованов. Как мошенники могут модернизировать эту схему?По словам эксперта, ожидается, что злоумышленники научатся генерировать дипфейки в режиме реального времени при осуществлении видеозвонка в мессенджерах.«Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. Злоумышленники доберутся до этого через несколько лет», — отметил Голованов. По его словам, жертвы будут сильнее доверять таким видео, так как общение происходит в режиме реального времени. При этом распознать использование нейросетей на слух уже не получится. Источник: https://ria.ru/
Подробнее читайте на aif.ru ...