Vidéosurveillance algorithmique aux JO: de quoi parle-t-on, et pourquoi inquiète-t-elle?

À quatre mois du lancement des Jeux olympiques et paralympiques, gros plan sur la vidéosurveillance « augmentée » dont la France a autorisé l’expérimentation. Une technologie qui intrigue autant qu’elle inquiète.

Par : François-Damien Bourgery – RFI

À événement exceptionnel, dispositif hors normes. Pour assurer la sécurité des Jeux de Paris 2024 et des 15 millions de visiteurs attendus, l’État entend sortir les grands moyens. Chaque jour, seront déployés quelque 35 000 policiers et gendarmes, dont ceux des unités d’élite du GIGN, du Raid et de la BRI, 20 000 militaires et autant d’agents de sécurité privés… Mais aussi des caméras de surveillance dopées à l’intelligence artificielle pour les appuyer. Combien ? Mystère. Interrogé récemment sur la question, le ministre de l’Intérieur Gérald Darmanin a répondu qu’il était « trop tôt » pour donner un chiffre.

Deux tests ont été effectués les 3 et 5 mars derniers, à l’occasion de concerts du groupe britannique Depeche Mode à l’Accor Arena à Paris. Il ne s’agissait pas encore d’éprouver la vidéosurveillance algorithmique à proprement parler, mais seulement de « tester et paramétrer les solutions logicielles » en temps réel, avait précisé la place Beauvau. « Tous les voyants sont au vert », s’est réjoui le préfet de police de Paris Laurent Nuñez à l’issue du premier essai. Pas de quoi rassurer en revanche les associations de défense des libertés qui considèrent qu’en autorisant l’expérimentation de cette technologie, l’État français ouvre la boîte de Pandore de la surveillance de masse.

■ De quoi parle-t-on ?

La vidéosurveillance algorithmique (VSA) consiste à coupler des caméras de surveillance à des logiciels dont les algorithmes sont censés pouvoir détecter de manière automatique et en temps réel des événements prédéfinis au milieu d’un flux d’images continu. Cela afin de faciliter le travail des agents opérant dans les salles de contrôle. À Nice, la VSA sert à détecter les entorses au Code de la route, les regroupements, compter les piétons, scooters et trottinettes sur un axe déterminé… À Aulnay-sous-Bois, en région parisienne, elle est utilisée pour repérer des objets abandonnés, des dépôts sauvages, des départs de feu ou des mouvements de foule. 

La vidéosurveillance « augmentée » est ainsi déjà expérimentée à l’échelle municipale dans plusieurs dizaines de communes en France. Mais au niveau national, c’est une première. Du moins officiellement. En novembre dernier, le média d’investigation Disclose a révélé que la police nationale utilisait depuis 2015 dans le plus grand secret un logiciel d’analyse d’images de vidéosurveillance développé par la société israélienne Briefcam.

■ Dans quel cadre législatif est-elle utilisée ?

Le recours à la vidéosurveillance algorithmique est cette fois prévu « à titre expérimental » par l’article de 10 de la loi relative aux Jeux olympiques et paralympiques promulguée en mai 2023. Il est indiqué que la VSA pourra être utilisée dans le cadre de manifestations sportives, récréatives ou culturelles jusqu’au 31 mars 2025. Soit bien après la période des Jeux. Le texte souligne que les traitements algorithmiques n’emploient « aucun système d’identification biométrique, ne traitent aucune donnée biométrique et ne mettent en œuvre aucune technique de reconnaissance faciale ». « Une ligne rouge », a affirmé Gérald Darmanin. Chaque utilisation devra par ailleurs faire l’objet d’un arrêté préfectoral, après avis de la Commission nationale de l’informatique et des libertés (Cnil).

Un décret pris pendant l’été précise les huit événements anormaux que devront rechercher les logiciels au milieu des images captées par les caméras : la présence ou l’utilisation d’une arme, un départ de feu, une personne au sol, un colis abandonné, le franchissement d’une zone interdite, un mouvement de foule, une densité trop importante et le non-respect du sens de circulation.

■ Où sera-t-elle déployée ?

La vidéosurveillance algorithmique pourra être assurée via les caméras installées à l’intérieur ou aux abords des lieux accueillant les manifestations, dans les transports ou par celles embarquées à bord des drones qui survoleront les différents sites. Elle devrait « sans doute être déployée de manière limitée » cet été, a déclaré en janvier le délégué interministériel aux Jeux, Michel Cadot. Ces caméras dites « intelligentes » devraient selon lui surtout être utilisées « dans des zones de forte densité, par exemple dans le centre de Paris, autour des sites, et avant les contrôles ». 

Le marché de la VSA a été réparti entre quatre entreprises françaises : Wintics, Videtics, ChapsVision et Orange Business. À chacune sa zone géographique. Wintics déploiera ses outils en Ile-de-France et dans les transports, Videtics dans trois régions du Sud et en Outre-Mer, ChapsVision dans le reste de l’Hexagone. Orange Business sera quant à elle chargée de la surveillance des transports en cas de défaillance de Wintics.

■ Pourquoi son utilisation est critiquée ?

Les critiques portent en premier lieu sur les effets dissuasifs que ce type de technologie peuvent avoir sur les libertés. « Quand on se sait surveillé, on va avoir tendance à modifier son comportement, à s’autocensurer, peut-être à ne pas exercer certains droits », observe Katia Roux, spécialiste technologies et droits humains au sein de la branche française de l’ONG Amnesty International. « Toute surveillance dans l’espace public est une ingérence dans le droit à la vie privée. Selon le droit international, elle doit être nécessaire et proportionnée à un objectif légitime », rappelle-t-elle. « C’est aux autorités de faire la démonstration qu’il n’existe pas de moyen moins attentatoire aux libertés pour garantir la sécurité. Or cette démonstration n’a pas été faite. »

Une autre critique concerne le fonctionnement même de l’intelligence artificielle, sur laquelle repose la vidéosurveillance algorithmique. Une technologie en apparence neutre, mais en réalité développée avec des données comprenant potentiellement des biais discriminatoires qu’elle pourrait amplifier. « On constate dans d’autres pays qui ont développé ce type de surveillance de l’espace public une utilisation qui vise de manière disproportionnée certains groupes de la population déjà marginalisés », rapporte Katia Roux.

Surtout, les organisations de défense des libertés redoutent que l’expérimentation de la vidéosurveillance algorithmique n’ouvre la voie à des formes d’utilisation plus intrusives. « C’est un pied dans la porte qui annonce des applications plus problématiques, comme la reconnaissance faciale à brève échéance », prévient Félix Tréguer, chercheur associé au CNRS et membre de l’association La Quadrature du net.

■ Quel avenir après les JO ?

Alors que l’expérimentation de la vidéosurveillance algorithmique doit prendre fin le 31 mars 2025, le gouvernement annonce que la technologie pourrait être pérennisée. « Si elle fait ses preuves et avec des garanties, elle pourra être utilisée pour de grands événements », a fait savoir en septembre la ministre des Sports, Amélie Oudéa-Castéra. Le Sénat, de son côté, a déjà préparé la suite. La Chambre haute a adopté en juin dernier une proposition de loi relative à la reconnaissance biométrique dans l’espace public, qui ouvre la voie à l’expérimentation de la reconnaissance faciale à des fins d’enquêtes judiciaires et de lutte contre le terrorisme pour une durée de trois ans. Le texte doit encore être examiné à l’Assemblée.

La France s’apprête-t-elle à suivre l’exemple des autres pays organisateurs de grandes manifestations sportives en musclant son dispositif sécuritaire post-JO ? En 2012, les Jeux olympiques de Londres avaient entraîné le déploiement massif de caméras de surveillance dans les rues de la capitale. Six ans plus tard, la Coupe du monde de football en Russie avait été l’occasion d’expérimenter la reconnaissance faciale, toujours en place aujourd’hui. En 2020, les Jeux de Tokyo avaient été précédés d’un tour de vis législatif largement décrié

À la veille des Jeux de Paris, Amnesty International réclame donc plus que des promesses. L’ONG appelle à une loi interdisant la reconnaissance faciale à des fins d’identification dans l’espace public. « Puisqu’elle a été présentée comme une ligne rouge dans les débats, ça ne peut pas être une ligne en pointillés ; il faut qu’elle soit robuste », soutient Katia Roux. Sous peine de glisser vers la surveillance généralisée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *