21.02.2025

Эксперт АДЦ “Мемориал” комментирует планы властей Петербурга о настройке системы распознавания лиц по этническому признаку

Правительство Петербурга объявило о том, что городские камеры видеонаблюдения будут настроены на распознавание этнической принадлежности. Контракт на соответствующие услуги заключен городским Комитетом по межнациональным отношениям.

Эксперт АДЦ “Мемориал” Стефания Кулаева в эфире ВОТ ТАК TV говорит о недопустимости этнического профилирования – это дискриминационная практика, направленная на преследование определенных групп, в данном случае мигрантов. 

Этническое профилирование, в том числе с использованием искусственного интеллекта, технологий распознавания лиц и т.п., осуждается международными правозащитными органами. Так, этой теме посвящена Общая рекомендация № 36 (2020) КЛРД ООН о предупреждении расового профилирования со стороны сотрудников правоохранительных органов и борьбе с ним, где, в частности, говорится:

58.    Государствам следует обеспечить, чтобы системы алгоритмического профилирования, используемые для целей охраны порядка, полностью соответствовали международным нормам в области прав человека. Для этого, прежде чем осуществлять закупку или развертывание таких систем, государствам следует принять соответствующие законодательные, административные и другие меры для определения цели их использования и как можно более точного регулирования параметров и гарантий, предотвращающих ущемления прав человека. Такие меры, в частности, должны быть направлены на обеспечение того, чтобы развертывание систем алгоритмического профилирования не подрывало право не подвергаться дискриминации, право на равенство перед законом, право на свободу и личную неприкосновенность, право на презумпцию невиновности, право на жизнь, право на неприкосновенность частной жизни, свободу передвижения, свободу мирных собраний и ассоциаций, защиту от произвольного ареста и других мер, а также право на эффективные средства правовой защиты.

59.    Прежде чем использовать технологию распознавания лиц, государствам следует тщательно оценивать потенциальное воздействие такой технологии на права человека, поскольку она может приводить к неправильной идентификации из-за недостаточной репрезентативности собранных данных. До развертывания на национальном уровне государствам следует рассмотреть возможность ее применения в течение пробного периода под надзором независимого надзорного органа с участием представителей, отражающих разнообразный состав населения, с тем чтобы предотвратить любые возможные случаи неправильной идентификации и профилирования по цвету кожи.

60.    Государствам следует обеспечить, чтобы системы алгоритмического профилирования для использования в правоохранительной деятельности разрабатывались с учетом принципа прозрачности и позволяли исследователям и гражданскому обществу получить доступ к программным кодам и проверить их. Следует проводить постоянную оценку и мониторинг воздействия этих систем на права человека на протяжении всего их жизненного цикла, и государствам следует принимать соответствующие меры по смягчению последствий в случае выявления рисков или негативного влияния на права человека. В рамках этих процессов следует изучать потенциальные и фактические дискриминационные последствия алгоритмического профилирования по признакам расы, цвета кожи, родового, национального или этнического происхождения и их пересечение с другими признаками, включая религию, пол и гендер, сексуальную ориентацию и гендерную идентичность, инвалидность, возраст, миграционный статус и трудовое или иное положение. Такие исследования по возможности следует проводить до разработки или покупки таких систем и, по крайней мере, перед их вводом в эксплуатацию и на протяжении всего периода их использования. Такие процессы должны включать оценку воздействия на местное население. К процессам оценки и уменьшения негативного воздействия следует привлекать потенциально или реально затрагиваемые группы и соответствующих экспертов.

61.    Государствам следует принимать все надлежащие меры для обеспечения прозрачности при использовании систем алгоритмического профилирования. Это включает в себя публичное раскрытие информации об использовании таких систем и содержательные объяснения по поводу принципов работы систем, используемых наборов данных и мер, которые принимаются для предотвращения или смягчения негативного воздействия на права человека.

62.    Государствам следует принять меры для обеспечения того, чтобы наделить независимые надзорные органы полномочиями по контролю над использованием инструментов на базе искусственного интеллекта государственными органами, а также по их оценке на основе критериев, разработанных в соответствии с Конвенцией, чтобы они не увековечивали неравенство и не приводили к дискриминационным результатам. Государствам следует также обеспечить регулярный мониторинг и оценку функционирования таких систем в целях выявления недостатков и принятия необходимых мер по исправлению положения. Когда результаты оценки той или иной технологии указывают на высокий риск дискриминации или других нарушений прав человека, государствам следует принимать меры по недопущению использования такой технологии. 

this post is also available in: Английский