2021-1-18 21:38 |
Поддельные комментарии, написанные искусственным интеллектом, обманули сотрудников госучреждений США. Как оказалось, ИИ-алгоритмы могут с легкостью имитировать общественную дискуссию
Системы искусственного интеллекта научились составлять правдоподобные комментарии, неотличимые от настоящих. Как показал эксперимент, проведенный студентом-медиком Гарвардского университета Максом Вайсом, сгенерированный ИИ текст может ввести в заблуждение не только интернет-пользователей, но и сотрудников госучреждений.
В октябре 2019 года Вайс узнал, что власти штата Айдахо начали принимать от граждан предложения по изменению Medicaid — программы медстрахования для людей с низким уровнем дохода. Оставить свои пожелания на сайте госучреждения мог любой желающий.
Как пишет Wired, из около тысячи поступивших комментариев половина пришлась на подделки — их составила ИИ-система GPT-2, которой воспользовался Вайс. По словам энтузиаста, он был впечатлен легкостью, с которой можно настроить алгоритмы, имитирующие общественную дискуссию.
GPT — это самообучаемая ИИ-система, разработку которой ведет некоммерческая организация OpenAI. Его особенность в том, что алгоритм способен создать осмысленный текст, имея в качестве входных данных всего несколько предложений.
Отправив фальшивки, Вайс сразу же уведомил об этом правительственные ведомства — в каждое такое сообщение он добавил специальные символы, чтобы его можно было легко распознать. Несмотря на это, сказал студент, поддельные комментарии пробыли в онлайне еще несколько месяцев.
"Легкость, с которой бот может генерировать и отправлять на правительственные сайты релевантный текст, имитирующий человеческую речь, удивительна и действительно важна для понимания", — сказала профессор Гарвардской школы им. Кеннеди Латанья Суини, которая консультировала Вайса. По ее мнению, по мере совершенствования дипфейк-технологий правительствам и интернет-компаниям необходимо переосмыслить методы запроса обратной связи, чтобы защититься от манипуляции общественным мнением.
Подробнее читайте на vesti.ru ...