ИИ британской полиции, охотящийся за порно, пока не может отличить пустыню от обнаженной натуры
Лондонская столичная полиция поручает системам искусственного интеллекта незавидную работу по поиску в Интернете изображений детской порнографии – с чем, по ее мнению, технология сможет успешно справиться «через два-три года».
Однако в краткосрочной перспективе полицейским инструментам распознавания изображений будет сложно отличить обнаженное тело от фотографии пустыни. Хотя полиция уже использует методы машинного обучения для сканирования изъятых устройств на предмет изображений оружия, наркотиков или денег, набор инструментов испытывает трудности, когда дело доходит до наготы.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
«Иногда он приходит к выводу о пустыне и думает, что это непристойное изображение или порнография», — рассказал руководитель отдела цифровой и электронной криминалистики Метрополитена Марк Стоукс. Телеграф. «По какой-то причине у многих людей есть заставки с изображением пустыни, и он улавливает их, думая, что это цвет кожи».
Как только система распознавания изображений будет усовершенствована, идея состоит в том, что она позволит офицерам-людям переложить бремя идентификации тревожных изображений на машины. The Telegraph сообщает, что силы разрабатывают планы по передаче конфиденциальных данных «поставщикам Кремниевой долины», что позволит им использовать большие вычислительные мощности технологических компаний и помочь обучить свой ИИ сканировать изображения жестокого обращения с детьми.
Эта дополнительная вычислительная мощность может сопровождаться дополнительными рисками для безопасности. Переход от локального центра обработки данных к хабу, принадлежащему Amazon, Google или Microsoft, наложит определенный уровень внешней ответственности на эти компании, которые привлекают большое количество внимание хакеров – для защиты конфиденциальных данных, которые он хранит. Существуют дополнительные юридические проблемы, связанные с тем, что этим поставщикам потребуется разрешение суда на хранение криминальных изображений.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Существует также проблема в том, что даже системы машинного обучения крупных технологических компаний не застрахованы от ошибок. Твиттер«технические проблемы» вокруг блокировки поисковых запросов, связанных с термином «бисексуал», чтобы гендерные и расовые предубеждения встраивание в обучающие наборы для нейронных сетей. Как сообщил Альфр в нашем взгляде на эту тему, западные нормы часто могут искажать культурные перспективы новых технологий.
В случае с неправильно маркированными песчаными дюнами это выглядит как ошибка базового уровня при идентификации изображения. Ситуация, вероятно, станет намного сложнее, когда машине потребуется учитывать нюансы, связанные с контекстом и намерениями.
Искусственный интеллект Метрополитена не первый, кто смотрит на природу и видит наготу. В прошлом году нейросетевой проект создал собственные «порнографические» изображения, но на основе сцен пустынь, пляжей и вулканов.