Sur la ligne de départ des Jeux Olympiques, Paris se retrouve sous une sécurité renforcée. Quarante mille barrières ont été installées dans la capitale française. Des patrouilles de policiers en gilets pare-balles arpentent les charmantes rues pavées. La Seine est inaccessible à quiconque n’ayant pas été préalablement contrôlé et muni d’un code QR personnel. Des soldats en treillis, présents depuis les attentats de 2015, se tiennent près d’une boulangerie au bord du canal, portant des bérets et tenant des armes imposantes.
Le ministre de l’Intérieur français, Gérald Darmanin, a passé la semaine dernière à défendre ces mesures, les qualifiant de vigilance plutôt que d’excès. Il a déclaré que la France fait face au « plus grand défi sécuritaire qu’un pays ait jamais eu à organiser en temps de paix ». Dans une interview accordée au Journal du Dimanche, il a révélé que des « individus potentiellement dangereux » avaient été interceptés lors de leurs demandes de travail ou de bénévolat pour les Jeux, incluant 257 islamistes radicaux, 181 membres de l’extrême gauche et 95 de l’extrême droite. Hier, il a annoncé qu’un citoyen russe avait été arrêté pour suspicion de complot visant à provoquer des actes de « déstabilisation » à grande échelle durant les Jeux.
Les Parisiens expriment leur mécontentement face aux fermetures de routes et aux pistes cyclables qui s’interrompent sans avertissement, tandis que des groupes de défense des droits humains dénoncent des « risques inacceptables pour les droits fondamentaux ». Pour les Jeux, ce type de mécontentement n’est pas nouveau. Les critiques concernant une sécurité dystopique sont presque devenues une tradition olympique. Les éditions précédentes ont été qualifiées de Londres en confinement, Tokyo forteresse, et de « course aux armements » à Rio. Cette fois-ci, ce sont les mesures de sécurité les moins visibles qui suscitent le plus de controverses. À Paris, la sécurité a été renforcée par une nouvelle forme d’intelligence artificielle, permettant à des algorithmes controversés d’analyser les images de vidéosurveillance dans les stations de transport à la recherche de menaces. Ce système a été testé pour la première fois à Paris en mars lors de deux concerts de Depeche Mode.
Pour les critiques comme pour les partisans, la surveillance algorithmique des images de vidéosurveillance offre un aperçu des systèmes de sécurité de demain, où la quantité de séquences à surveiller dépasse les capacités humaines. « Le logiciel est une extension de la police », déclare Noémie Levain, membre du groupe d’activistes La Quadrature du Net, qui s’oppose à la surveillance par IA. « C’est comme si les yeux de la police étaient multipliés. »
À l’entrée de la station de métro Porte de Pantin, des caméras de surveillance sont fixées au plafond, dissimulées dans une boîte métallique grise peu remarquée. Un petit panneau est accroché au mur, informant les passants qu’ils participent à une « expérience d’analyse de vidéosurveillance ». La société qui gère le métro parisien, la RATP, « est susceptible » d’utiliser une « analyse automatisée en temps réel » des images de vidéosurveillance, précise le panneau aux passagers pressés. L’expérience se poursuivra jusqu’en mars 2025.
Porte de Pantin se trouve à la lisière du parc de La Villette, qui abrite le Parc des Nations des Jeux Olympiques, où les fans peuvent se restaurer dans des pavillons dédiés à 15 pays différents. Cette station de métro fait également partie des 46 stations de train et de métro où les algorithmes de vidéosurveillance seront déployés durant les Jeux, selon une annonce de la Préfecture de Paris, une entité du ministère de l’Intérieur. Les représentants de la ville n’ont pas répondu aux questions sur l’éventuelle utilisation de la surveillance par IA en dehors du réseau de transport. Selon une loi de mars 2023, les algorithmes sont autorisés à analyser en temps réel les images de vidéosurveillance pour détecter huit « événements », tels que des mouvements de foule, des groupes de personnes anormalement grands, des objets abandonnés, des armes ou une personne tombant au sol.
« Ce que nous faisons, c’est transformer les caméras de vidéosurveillance en un outil de surveillance puissant », explique Matthias Houllier, cofondateur de Wintics, l’une des quatre entreprises françaises ayant remporté des contrats pour déployer leurs algorithmes lors des Jeux. « Avec des milliers de caméras, il est impossible pour les policiers de réagir à chaque image. »
Wintics a remporté son premier contrat public à Paris en 2020, en collectant des données sur le nombre de cyclistes dans différentes zones de la ville pour aider les responsables des transports parisiens à planifier la construction de nouvelles pistes cyclables. En connectant ses algorithmes à 200 caméras de circulation existantes, le système de Wintics, toujours en fonctionnement, peut identifier et compter les cyclistes au milieu des rues animées. Lorsque la France a annoncé qu’elle recherchait des entreprises capables de développer des algorithmes pour améliorer la sécurité lors des Jeux Olympiques de cet été, Houllier a vu cela comme une évolution naturelle. « La technologie est la même », dit-il. « Elle analyse des formes anonymes dans des espaces publics. »
Après avoir formé ses algorithmes sur des données ouvertes et synthétiques, les systèmes de Wintics ont été adaptés pour, par exemple, compter le nombre de personnes dans une foule ou le nombre de personnes tombant au sol, alertant les opérateurs lorsque le nombre dépasse un certain seuil.
« Voilà, il n’y a pas de décision automatique », explique Houllier. Son équipe a formé les fonctionnaires du ministère de l’Intérieur à l’utilisation du logiciel de l’entreprise, et ce sont eux qui décident de la manière de l’utiliser. « L’idée est d’attirer l’attention de l’opérateur, afin qu’il puisse vérifier et décider de la marche à suivre. »
Houllier soutient que ses algorithmes constituent une alternative respectueuse de la vie privée aux systèmes de reconnaissance faciale controversés utilisés lors d’événements sportifs mondiaux passés, comme la Coupe du Monde 2022 au Qatar. « Ici, nous essayons de trouver une autre voie », dit-il. Pour lui, permettre aux algorithmes d’analyser les images de vidéosurveillance est un moyen d’assurer la sécurité de l’événement sans compromettre les libertés individuelles. « Nous n’analysons aucune donnée personnelle. Nous ne regardons que des formes, pas de visages, pas de reconnaissance de plaques d’immatriculation, pas d’analytique comportementale. »
Cependant, les défenseurs de la vie privée rejettent l’idée que cette technologie protège les libertés personnelles. Dans le 20ème arrondissement, Noémie Levain a récemment reçu une livraison de 6 000 affiches que son groupe prévoit de distribuer, conçues pour alerter ses concitoyens parisiens sur la « surveillance algorithmique » qui envahit leur ville et les incitant à refuser la « capture autoritaire des espaces publics ». Elle rejette l’idée que les algorithmes ne traitent pas de données personnelles. « Lorsque vous avez des images de personnes, vous devez analyser toutes les données sur l’image, qui sont des données personnelles, qui sont des données biométriques », dit-elle. « C’est exactement la même technologie que la reconnaissance faciale. C’est exactement le même principe. »
Levain craint que les systèmes de surveillance par IA ne restent en France bien après le départ des athlètes. Pour elle, ces algorithmes permettent à la police et aux services de sécurité d’imposer une surveillance sur de plus larges zones de la ville. « Cette technologie va reproduire les stéréotypes de la police », dit-elle. « Nous savons qu’ils discriminent. Nous savons qu’ils interviennent toujours dans les mêmes zones. Ils harcèlent toujours les mêmes personnes. Et cette technologie, comme toutes les technologies de surveillance, les aidera à le faire. »
Alors que les automobilistes s’énervent dans le centre-ville face aux barrières de sécurité bloquant les rues, Levain fait partie des nombreux Parisiens qui prévoient de se rendre dans le sud de la France pendant que les Jeux prennent le relais. Pourtant, elle s’inquiète de la ville qui l’accueillera à son retour. « Les Jeux Olympiques sont un prétexte », dit-elle. « Ils—le gouvernement, les entreprises, la police—pensent déjà à l’après. »