Technologie : Les préoccupations croissantes concernant la surveillance policière

Des organisations de la société civile, telles que le Runneymede Trust et Amnesty International, soulignent que l’utilisation des technologies de reconnaissance faciale et d’intelligence artificielle (IA) dans le domaine de la police contribue à une régression alarmante des droits civils et politiques des personnes de couleur au Royaume-Uni.

Dans leur rapport soumis au Comité des Nations Unies pour l’élimination de la discrimination raciale, ces groupes ont mis en lumière comment un ensemble de lois, de pratiques institutionnelles et de normes sociétales continuent de nuire aux personnes de couleur dans le pays. Ils ont noté que les inégalités persistantes dans les systèmes de justice pénale, de santé, d’éducation, d’emploi et d’immigration n’ont pas connu d’amélioration significative depuis leur dernier rapport il y a quatre ans.

« L’absence d’amélioration des résultats pour les personnes de couleur, tout en restreignant leurs moyens de contestation, crée une situation intenable pour ces communautés. Ciblées par le programme de prévention [contre le terrorisme], avec des voies de protestation limitées, sur-policiées et sous-protégées, et confrontées à des taux de pauvreté plus élevés, les communautés de couleur doivent combler les fissures laissées par l’État », ont-ils déclaré dans un communiqué.

Le rapport de 50 pages, soutenu par plus de 40 autres organisations, aborde les impacts de l’IA et de l’automatisation dans la police sur les personnes de couleur. Il a été noté que, malgré le risque élevé de fausses identifications des personnes de couleur par la technologie de reconnaissance faciale en direct (LFR), le ministère de l’Intérieur a confirmé le droit des forces de police à l’utiliser dans le cadre juridique existant, et son utilisation est en forte augmentation.

« Selon les données publiées par la police métropolitaine, la LFR a été déployée neuf fois entre 2020 et 2022, entraînant neuf arrestations. Ce chiffre a considérablement augmenté pour atteindre 96 déploiements entre 2023 et mai 2024, avec 243 arrestations », a-t-il été rapporté.

De plus, Liberty Investigates a révélé que le ministère de l’Intérieur avait secrètement effectué des centaines de recherches de reconnaissance faciale en utilisant sa base de données de photos de passeport et celle des immigrés, soulevant des questions sur le manque de transparence et l’utilisation des données.

Le rapport a également mis en évidence que l’utilisation de systèmes automatisés tels que la police prédictive et la reconnaissance automatique des plaques d’immatriculation (ANPR) peut entraîner des violations des droits humains et des tragédies. Par exemple, le véhicule conduit par Chris Kaba, un jeune homme de 23 ans abattu par la police en septembre 2022, avait été signalé par l’ANPR avant son interception.

Bien que la police ait déclaré que le véhicule de Kaba était « lié à une infraction avec une arme à feu », il n’était pas enregistré à son nom et aucune arme n’a été trouvée à l’intérieur. L’agent impliqué a depuis été accusé de meurtre et doit comparaître devant le tribunal en octobre 2024.

Le rapport a également souligné les résultats discriminatoires de la base de données Gangs Matrix de la police métropolitaine, qui a conduit à un profilage racial des personnes de couleur, en particulier des jeunes hommes noirs, en fonction de leur musique, de leur comportement sur les réseaux sociaux ou de leurs amis.

Bien que cette base de données ait été supprimée après avoir été condamnée comme raciste, des inquiétudes subsistent quant à son remplacement.

Recommandations pour une réforme nécessaire

Les groupes de la société civile ont recommandé au gouvernement britannique d’interdire toutes les formes de systèmes prédictifs et de profilage dans l’application de la loi et la justice pénale, d’assurer la transparence publique et la supervision lors de l’utilisation de l’IA « à haut risque » par la police, et d’imposer des limites légales pour interdire les usages de l’IA qui présentent un risque inacceptable pour les droits humains.

Ils ont également appelé à une enquête sur toutes les bases de données de gangs de la police, afin d’examiner la nécessité d’une réforme plus large au niveau national. Cela devrait inclure une évaluation de l’efficacité de ces bases de données dans la lutte contre la criminalité violente, leur conformité avec les lois sur les droits humains et la protection des données, ainsi que leur influence potentielle sur les biais raciaux.

Le ministère de l’Intérieur a été contacté concernant les recommandations du rapport et son opinion sur la couverture légale de la technologie de reconnaissance faciale sous la nouvelle administration.

« Au cours de la semaine dernière, nos villes ont été le théâtre de violences inacceptables, avec des individus ciblés en raison de la couleur de leur peau et des lieux de culte attaqués. Ce racisme et cette haine ont causé une détresse généralisée », a déclaré un porte-parole. « Nous sommes déterminés à ce que ni les voyous de la rue ni les instigateurs en ligne ne définissent notre nation. Notre force réside dans l’unité de tous les horizons, croyances et cultures. »

À la fin de juillet 2024, une coalition de 17 groupes de défense des droits humains a également appelé le nouveau gouvernement travailliste à interdire complètement les systèmes de surveillance biométrique et de police prédictive alimentés par l’IA, en raison de leur utilisation disproportionnée contre les communautés racialisées, les classes ouvrières et les migrants.

« L’IA et les systèmes automatisés ont prouvé qu’ils amplifiaient la discrimination et l’inégalité dans la police », a déclaré Sara Chitseko, responsable du programme de pré-crime pour Open Rights Group. « Sans une réglementation stricte, la police continuera d’utiliser des systèmes d’IA qui portent atteinte à nos droits et exacerbent les déséquilibres de pouvoir structurels, tandis que les grandes entreprises technologiques en profitent. »

Les défis persistants de la technologie policière

En novembre 2023, Fraser Sampson, le commissaire sortant des biométries et des caméras de surveillance pour l’Angleterre et le Pays de Galles, a remis en question les capacités de prévention de la criminalité de la reconnaissance faciale, arguant que les autorités s’appuyaient principalement sur son effet dissuasif plutôt que sur son efficacité réelle à identifier les individus recherchés.

Il a également averti du manque de supervision concernant l’utilisation des technologies biométriques par la police, ajoutant qu’il existe un réel danger que le Royaume-Uni glisse vers un État de surveillance « omniprésent » si les préoccupations concernant ces technologies puissantes ne sont pas prises en compte.

Dans une déclaration précédente en février 2023, Sampson avait souligné la « culture de rétention » des données biométriques au sein de la police britannique, indiquant que la tendance parmi les forces de police était de conserver les informations biométriques, qu’elles soient légalement autorisées ou non.

Il a spécifiquement mis en avant la rétention illégale de millions d’images de personnes qui n’ont jamais été inculpées, notant qu’en 2012, la Haute Cour avait statué que ces images devaient être supprimées, mais que le ministère de l’Intérieur, qui gère la plupart des bases de données biométriques utilisées par la police britannique, a déclaré qu’il ne pouvait pas le faire en raison de l’absence de capacité de suppression en masse dans la base de données.

Une enquête antérieure de la Chambre des Lords sur l’utilisation des technologies algorithmiques avancées par la police britannique a également révélé en mars 2022 que ces outils posent « un risque réel et actuel pour les droits humains et l’état de droit. À moins que cela ne soit reconnu et traité, les avantages potentiels de l’utilisation de technologies avancées pourraient être éclipsés par les dommages qu’elles pourraient causer et la méfiance qu’elles pourraient engendrer. »

Concernant les technologies de « police prédictive », les Lords ont noté leur tendance à créer un « cercle vicieux » et à « ancrer des schémas de discrimination préexistants », car elles dirigent les patrouilles policières vers des zones à faible revenu, déjà sur-policiées, en se basant sur des données d’arrestation historiques.

En ce qui concerne la reconnaissance faciale, ils ont ajouté qu’elle pourrait avoir un effet dissuasif sur les manifestations, compromettre la vie privée et entraîner des résultats discriminatoires.

Après une brève enquête de suivi axée spécifiquement sur la reconnaissance faciale, les Lords ont noté que la police britannique élargissait son utilisation de cette technologie sans un contrôle ou une responsabilité adéquats, malgré l’absence d’une base légale claire pour ses déploiements. Ils ont également constaté qu’il n’existait pas de normes rigoureuses ou de systèmes de réglementation en place pour contrôler l’utilisation de cette technologie par les forces de police.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *