Британские полицейские получат ИИ, который определяет замышляющих преступления людей
Полиция Великобритании пилотирует проект, использующий искусственный интеллект (ИИ) для определения, насколько вероятно, что кто-то замышляет преступление или может стать жертвой серьезного преступления.
К ним относятся преступления, связанные с оружием (огнестрельным или холодным), а также современное рабство, сообщает New Scientist в понедельник. Надежда состоит в том, чтобы использовать эту информацию для выявления потенциальных преступников или жертв и вмешиваться в события при помощи консультантов или социальных служб до совершения преступлений.
Названная National Data Analytics Solution (NDAS), система извлекает данные из баз местной и национальной полиции. Ян Доннелли, руководитель от полиции по проекту, сказал New Scientist, что они уже собрали более терабайта данных из этих систем, включая журналы совершенных преступлений и около 5 миллионов идентифицируемых людей.
Исходя из этих данных, система имеет 1400 показателей, которые могут помочь отметить кого-то, кто может совершить преступление, например, сколько раз кто-то совершил преступление в прошлом. Люди в базе данных, которые помечаются алгоритмом системы как подверженные насильственным действиям, получат «оценку риска», сообщает New Scientist, которая сигнализирует об их шансах совершить серьезное преступление в будущем.
Полицейский отдел Уэст-Мидлендс получит пробный проект в конце марта 2019 года, и к тому времени будет готов прототип. По сообщениям, есть также восемь других полицейских подразделений на очереди, и разработчики надеются, что в конечном итоге система будет использоваться во всех полицейских департаментах Великобритании.
Доннелли сказал, что они не планируют арестовывать кого-либо до того, как он совершил преступление, но что хотят предоставить консультацию тем, кто, как указывает система, могут нуждаться в этом. Он также отметил, что в последнее время сократилось финансирование полиции, поэтому что-то вроде NDAS может помочь упорядочить и определить приоритетность процесса определения того, кто в базах данных больше всего нуждается во вмешательстве.
Даже если намерения добрые, легко представить, что такая система может иметь опасные последствия. Во-первых, существует серьезное вторжение в личную жизнь. Эта система отправляет специалистов по психическому здоровью в дома людей, потому что алгоритм предполагает, что в будущем есть вероятность совершения преступления или что они могут стать жертвой. Рисуется картина ужасного навязчивого будущего.
Кроме того, все еще есть множество вопиющих проблем с системами обнаружения на основе ИИ. Они не свободны от предвзятости, это также означает, что лица, живущие в районах, находящихся под большим контролем, подвергаются наибольшему риску быть помеченными.