«А вы точно продюсер?» За дипфейки могут оштрафовать на полтора миллиона

2024-5-28 15:28

Рассказываем несколько случаев, когда искусственный интеллект сумел обмануть естественный.

Сообщения с просьбами денег в соцсетях, звонки ночью с неизвестных номеров, выманивание данных карты с помощью подложных сайтов — все эти методы мошенничества постепенно уходят в прошлое. Им на смену пришли «дипфейки» — полная компьютерная имитация внешности и голоса человека с помощью искусственного интеллекта. То есть даже без вашего участия «ваше лицо» сможет «поговорить» с кем-то, попросить что угодно и убедить совершить нечто необдуманное.Так произошло, например, с Марией. От ее имени позвонили родным с неизвестного номера. Мать не поверила в легенду про «переведи деньги на чужую карту, я попала в беду». Тогда «лже-Мария» набрала с того же номера, но уже по видео. И на экране женщина увидела свою дочь, которая со слезами на глазах просила срочно перевести ей денег. Конечно, средства были незамедлительно отправлены. Только вот пришедшая через несколько часов Мария и знать не знала, что попала в беду и просила помощи у своей семьи. Вместо нее по «заказу» мошенников» это сделал искусственный интеллект.Доцент кафедры гражданско-правовых дисциплин РЭУ им. Г. В. Плеханова, руководитель департамента по правовой работе ООО «Ресурс Лекс» Андрей Моисеев рассказал о том, что подобные технологии «работают» не только с гражданами, но и в бизнес-среде.«Например, недавно в Гонконге целью мошенников стал сотрудник компании, с которым была проведена видеоконференция с целью убедить его в реальности происходящего. Потери составили 25,6 млн долларов. Есть технологии, которые позволяют выявлять дипфейки, но пока этому не будет должного внимания на законодательном уровне, вряд ли компании будут массово тратить на это средства», — поведал он.Еще один случай корпоративного обмана произошел уже в России, рассказала юрист и руководитель компании Pro Zakon Анастасия Тюменцева. Со слов ее клиента, в мессенджере появился профиль, полностью имитирующий страницу бухгалтера одной из компаний. С него сотрудникам стали приходить сообщения с просьбой как можно скорее скинуть данные банковских карт — якобы руководство внезапно решило выписать премии. Сообщения сопровождали видео, чтобы убедить людей в том, что происходящее — не развод. «Сомнения возникли у одного из работников, который в тот момент как раз в мессенджере общался с настоящим бухгалтером. Он и "тормознул" своих коллег с отправками данных карт», — добавила она.Чтобы не дать мошенникам развить новую систему обмана, в Госдуме начали готовить поправки об уголовной ответственности за дипфейки. В частности планируется дополнение квалифицирующего признака сразу в несколько уголовных статей (128.1 «Клевета», 158 «Кража», 159 «Мошенничество», 163 «Вымогательство», 165 «Причинение имущественного ущерба путем обмана или злоупотребления доверием») — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и биометрических данных. То есть преступления, совершенные с помощью дипфейка. Кроме того, в Уголовный кодекс могут добавить новый квалифицирующий признак — «совершение преступления с использованием изображения или голоса человека, а также его биометрических данных». Предлагается наказывать преступника в зависимости от деяния штрафом до 1,5 млн рублей или в размере иного дохода за период до двух лет либо лишением свободы на срок до семи лет.«Из-за того, что на первый взгляд сложно отличить реальный голос или страницу реального человека от дипфейка, наши граждане нуждаются в дополнительной защите государства от подделок мошенников. Более строгие наказания кого-то из преступников остановят, но и сами граждане должны быть более бдительны когда вопрос касается персональных данных», — рассказала Анастасия Тюменцева. В целом же, сейчас технологии развиваются столь стремительно, что государства не успевают формулировать ограничения, позволяющие защитить права людей, добавила эксперт «Народный фронт. Аналитика» Ольга Позднякова. Дипфейки с использованием лица и голоса существующих людей уже стали нашей полноценной реальностью.«Учитывая, что при этом есть возможность использовать лица и голоса для доступа в разные системы (банковские приложения, смартфоны, вход в здание и так далее), возрастает угроза недобросовестного использования новых технологий. Поэтому любая инициатива по ограничению дипфейков приветствуется, но важно, чтобы формулировки законопроектов были прозрачные и недвусмысленные. Иначе, как часто бывает, пострадают добросовестные пользователи, а мошенники как обходили законы, так и будут продолжать это делать», — заключила она.

Подробнее читайте на ...

голоса данных дипфейки компании технологии обмана мошенников убедить

Фото: aif.ru

Плати лицом. Эксперты рассказали о биометрии в метро и магазинах Москвы

С 1 декабря оплату биометрией начнут внедрять в метро и в магазинах. Она будет доступна тем, чьи «электронные слепки» лица и запись голоса находятся в единой биометрической системе. aif.ru »

2023-10-06 12:39

Оплату в магазинах по скану лица могут запустить до конца года

Поправки в закон, расширяющие возможность применения оплаты по биометрии, могут принять до конца года. Нововведения позволят магазинам принимать оплату по скану лица и голоса покупателя. vesti.ru »

2020-10-09 11:37

В Нацразведке заявили об отсутствии данных о влиянии хакерских атак на голоса избирателей

Директор Национальной разведки США Джеймс Клэппер в ходе слушаний в конгрессе заявил об отсутствии данных о влиянии хакерских атак на голоса избирателей.
Читать далее russian.rt.com »

2017-01-10 22:18