2024-4-23 14:12 |
В стремлении добиться максимального влияния на граждан медиа разрабатывают различные компьютерные алгоритмы. Помогают им в этом современные информационные технологии — методы обработки и анализа так называемых Big Data, или больших данных. Дезинформация пользователей Интернета для манипуляции их поведением стала одним из последних “трендов” в таких разработках. Свежие тенденции в современных медиатехнологиях привели к появлению в медиасреде такой коммуникационной технологии, как призрачность. Проблема новостных фейков — одна из самых актуальных для медийного коммьюнити, и появление самообучающихся ИИ стало по-настоящему переломным моментом в вопросах кибербезопасности знаменитостей и простых пользователей Сети. Дипфейк (от английского deepfake) — одна из новейших методик синтеза изображений, видео и аудио на основе алгоритмов искусственного интеллекта. Сегодня разбираемся, что такое дипфейк понятным языком и чем он может быть опасен. Дипфейк: простыми словами о новейшем алгоритме ИИ Существует много способов генерации дипфейков — поддельных артефактов новой эры. Первые продвинутые дипфейки появились ещё в 2017 году, и на сегодня они стали универсальным инструментом воздействия на человека. Классические фейки понемногу отходят на дальний план. Что значит дипфейк? По своей сути это ненастоящее изображение, видео- или аудиоматериал, сгенерированный с помощью алгоритмов ИИ. На практике дипфейк выглядит как лицо или голос, изменённые на лицо или голос другого человека. В прошлом уже существовали подобные артефакты, но для их создания требовались огромные усилия нескольких программистов, фотографов, художников и 3D-монтажёров. В последние годы алгоритмы искусственного интеллекта стали настолько технологичны, что создание дипфейка не занимает больше нескольких минут. Всё что нужно производителю такого фейкового материала — подготовить исходные файлы и мониторить процесс генерации артефакта. Результат генерации — нечто новое, созданное искусственными силами на базе реальных данных. Способы создания дипфейков Сгенерировать поддельное лицо или голос можно двумя способами. Используя два алгоритма искусственного интеллекта Сначала ИИ собирает схожие черты с двух изображений посредством первого алгоритма. Затем приходит очередь второго — происходит перенос этих черт на новое изображение. С помощью этого способа можно создать видео-дипфейк, в котором псевдоличность совершает те или иные реалистичные движения. По сути ИИ заменяет лицо личности, которое в него загрузил производитель фейка (тот самый человек, который мониторит генерацию), на лицо поддельного персонажа и заставляет его воспроизводить необходимые движения. Грубо говоря, это метод-копирка. Используя GAN GAN, или генеративно-состязательная сеть, — это алгоритм автономного машинного обучения. Он тоже использует два алгоритма, но по другой механике. Первый алгоритм GAN называется генератором. Он создаёт образ — визуального персонажа с отличительными чертами реального человека, личность которого и подделывается. Этими чертами могут быть тело, лицо, глаза, пропорции. Второй алгоритм — это дискриминатор. Он отвечает за анализ и оценку правдоподобности изображения или видеоматериала, который создал генератор. Чем опасен дипфейк Дело в том, что программы на базе ИИ, которыми любой умелый пользователь может сгенерировать дипфейк, не ограничиваются никакими законами. По своему статусу они относятся к категории развлекательного ПО, в то время как алгоритмы для их создания становятся всё сложнее, а сами поддельные артефакты — всё реалистичнее. В будущем компьютерные технологии будут только усложняться, и генерация дипфейков сможет принести обществу серьёзные проблемы. Это может быть и вмешательство в государственные выборы, и криминальная деятельность, и инструменты информационного противостояния на политическом уровне. Уже сегодня технологии дипфейков развились настолько, что рядовой пользователь Интернета может не отличить особенно “успешно” подделанное лицо от реального. На данный момент обществу нужно не допустить проникновение этой технологии в СМИ, и международные корпорации уже начинают инвестировать в создание ПО, которое сможет обнаруживать и устранять такие материалы.
Подробнее читайте на justmedia.ru ...