Этот странный «камуфляж» искусственного интеллекта может помешать программе распознавания лиц вас идентифицировать
Возможности обнаружения лиц, которые будут использоваться для крупномасштабного наблюдения, только начинают осознаваться.
В сентябре этого года Москва подключил свою сеть видеонаблюдения к системе распознавания лиц. Нью-Йорк планирует внедрить распознавание лиц на мостах и туннелях. Лондонскую базу данных по распознаванию лиц подвергли критике за то, что она «выходит далеко за рамки целей содержания под стражей». Китай выводит все это на совершенно новый уровень тотального государственного надзора.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Но изобретение корабля привело и к изобретению пирата. Запущен ряд проектов, показывающих, как эти системы обнаружения можно подделать, обойти или взломать. Последним из них является исследование компьютерного зрения Университета Иллинойса, в котором камуфляж используется для обмана обнаружения объектов нейронной сетью.
Этот метод основан на «противоречивых примерах»; способ атаковать систему машинного обучения с помощью слегка измененных данных (часто незаметных для человека), которые достаточно различны, чтобы система могла неправильно их классифицировать. В их бумагаЦзяджун Лу, Хусейн Сибай и Эван Фабри объясняют, что «если существуют состязательные примеры, которые могут обмануть детектор, их можно использовать, например, для злонамеренного создания угроз безопасности на дорогах, заполненных умными транспортными средствами».
Чтобы продемонстрировать это, команда создала «три враждебных знака остановки», предназначенных для блокировки обнаружения объектов, используемого автономными автомобилями. Когда эти искаженные изображения были распечатаны и наклеены на настоящие знаки остановки, только самый крайний пример не был обнаружен системой обнаружения объектов.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Исследователям повезло больше в подделке распознавания лиц, используя маску в стиле Google DeepDream, чтобы исказить черты лица субъекта. Эта цифровая атака включала наложение камуфляжа на уже существующий фрагмент видео, как описано в документе: «Мы применяем наш метод атаки к обучающему набору видео, чтобы создать враждебное возмущение в условиях перекрестного просмотра, и применяем это возмущение к этой тестовой последовательности. для создания атакуемой последовательности».
Поскольку камуфляж предполагает обучение атакующей системы на конкретном видео, он, предположительно, будет использоваться для обработки отснятого материала, чтобы сделать определенных людей незаметными, а не блокировать человека в режиме реального времени. Однако другие расследуют последнее. В прошлом году исследователям из Университета Карнеги-Меллон удалось создать оправы для очков с функцией распознавания лиц, которые немного похожи на что-то Тимми Маллетт носил бы.
Эти красочные очки могут быть незаметны для наблюдения с распознаванием лиц, но они далеко не невидимы для всех остальных в комнате.
На фото: Цзяцзюнь Лу, Хусейн Сибай и Эван Фабри