Amazon сообщила о введении моратория сроком в 1 год на использование полицией технологии распознавания лиц Amazon Rekognition
 
Amazon сообщила о введении моратория сроком в 1 год на использование полицией технологии распознавания лиц Amazon Rekognition
Rawpixel / DepositPhotos

На фоне протестов, вспыхнувших в США после гибели афроамериканца Джорджа Флойда, и обострения дискуссий о проблеме расизма компания IBM на днях объявила о прекращении любых разработок в сфере распознавания лиц. Теперь же компания Amazon сообщила о введении моратория сроком в 1 год на использование полицией технологии распознавания лиц Amazon Rekognition.

В компании отметили, что Amazon всегда выступала за то, чтобы правительства ввели более строгие правила для регулирования использования технологии распознавания лиц. В Amazon считают, что мораторий даст конгрессу США время для введения таких правил, и компания готова помочь в их разработке. При этом в Amazon уточнили, что организации, которые занимаются розыском детей, спасением жертв торговли людьми, воссоединением семей, по-прежнему смогут использовать технологию Amazon Rekognition для своей работы, пишут "Ведомости".

В настоящее время законопроект о реформе полиции, который среди прочего предусматривает запрет на использование федеральными правоохранительными органами технологий распознавания лиц в режиме реального времени, внесен в конгресс США.

Отметим, что качество работы системы распознавания лиц от Amazon ранее вызывало вопросы. Так, в 2018 году Американский союз гражданских свобод (ACLU) протестировал систему Amazon, которой на тот момент пользовались полицейские в некоторых штатах. В рамках тестирования в систему были загружены фотографии всех 535 конгрессменов, которые алгоритм сравнивал с публичной базой из 25 тыс. фотографий подозреваемых в преступлениях. Хотя снимков членов конгресса не было в этой базе, система выдала 28 ошибочных совпадений.

В Amazon тогда связали ложные совпадения с недостаточной калибровкой. В компании заявили, что в ACLU использовали систему с выставленной по умолчанию вероятностью совпадения в 80%, тогда как компания рекомендует правоохранителям повышать этот параметр до 95%. При этом сама программа не выдавала такой рекомендации в процессе настройки.

Проверка ACLU также показала, что система Amazon склонна к расовой дискриминации, подобно некоторым аналогичным алгоритмам. 11 из 28 ложных совпадений (около 39%) пришлись на чернокожих конгрессменов. При этом доля темнокожих членов в конгрессе тогда составляла 20%.