2024-5-28 10:00 |
Искусственный интеллект учат убивать.
Искусственный интеллект учат убивать. Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника. 10 лет назад, с приходом эпохи интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» — 292 тыс. документов). В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер. Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ. Вот новейший характерный пример — утекший в сеть китайский относительно небольшой набор данных «Чжоусидун» (переводится как «Щит Зевса» или «Эгида» — мифическая могущественная сила, обладающая волшебными защитными свойствами). Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США» с ограничивающими рамками, нарисованными вокруг «радарных систем кораблей, являющихся частью боевой системы Aegis… Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля». Это цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset. Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них. И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер точно наводить на них средства уничтожения — хорошо решаемая практическая задача. Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету. Если же выбор цели окажется ошибочным — ничего страшного. Значит, ИИ просто плохо учили — и надо переучить. Ведь и с людьми такое случается. Короче, жуть. Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»
Подробнее читайте на rosbalt.ru ...