2025-8-4 07:23 |
ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные, сообщил преподаватель РТУ МИРЭА Андрей Рыбников.
Очистка кэша и временных файлов становится критически важной, когда несколько человек в семье пользуются одним устройством с искусственным интеллектом (ИИ). Об этом рассказал старший преподаватель РТУ МИРЭА Андрей Рыбников в беседе с RT.Научные исследования показали, что ИИ-модели уязвимы для атак, направленных на похищение личной информации пользователей, отметил он. «Злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на пользовательских запросах», — подчеркнул Рыбников.Эксперт объяснил, что при использовании ИИ-сервисов пользователь должен осознавать, где и каким образом обрабатываются его запросы, особенно если речь идет об иностранных ресурсах.В то же время, одним из наиболее надежных решений является использование локальных ИИ-программ, так как они функционируют независимо и не передают информацию в облачное хранилище. Кроме того, предотвратить утечку данных может ручная обработка вводимой информации. Рыбников посоветовал удалять контактные данные, номера документов и другие конфиденциальные элементы.Шифрование файловой системы, которое можно активировать с помощью встроенных инструментов Windows, Linux или macOS, также может оказаться полезным для пользователей, заключил эксперт.
Ранее в МВД рассказали об утечке 250 тысяч строк с данными пользователей TikTok.
Подробнее читайте на aif.ru ...
