La vidéosurveillance algorithmique expérimentale
État des lieux
Si on vous demande ce qu'il s'est passé en France début 2023, vous allez probablement penser aux mouvements sociaux contre la réforme des retraites. Pourtant, en coulisses, se déroulait un autre combat tout aussi impactant. Mi-mars, 38 organisations internationales [1] et une quarantaine de député·es européen·nes [2] alertaient l'État Français de la dangerosité de la loi JO, particulièrement sur l'article dédié à la vidéosurveillance algorithmique (VSA). Ce qui n’empêchera pas la loi d’être adoptée [3].
La vidéosurveillance algorithmique peut être vue comme une surcouche logicielle ajoutée à des caméras de surveillance qui permet d’automatiser le travail de détection de comportements suspects à l'aide d'intelligences artificielles (IA). Cette loi n'autorise pas la reconnaissance faciale, mais légalise l'analyse de mouvements d'individus, en alertant les forces de l'ordre lors d'anomalies (comme le franchissement de barrière, le port d'arme, etc.).
Des algorithmes bien privés
Maintenant que nous savons que nos comportements sont analysés, nous sommes en droit de nous demander comment. Qui développe les logiciels d'analyse vidéo ? À quelle fin ? Peut-on leur faire confiance ? Streepress a révélé en juin 2023 une enquête montrant que Leclerc, Fnac, et Biocoop surveillent illégalement leurs client⋅es à l'aide d'un logiciel de VSA vendu par une start-up française. [4]. Selon un travail de recherche mené par LQDN et l’Observatoire des multinationales, c'est d’ailleurs un lobby d'entreprises privées de vidéosurveillance qui, dès 2022, a engagé environ 1.4 million d'euros pour faire passer cet article autorisant la VSA [5].
Pourquoi est-ce tant décrié ?
Certes, les entreprises privées nous cachent leurs algorithmes, mais est-ce réellement pour notre bien et notre sécurité ?
Probablement pas. Cette loi se justifie par le contexte exceptionnel de JO 2024, en parlant de "prévenir les mouvements de foule", ou "repérer les colis suspects" dans la masse de touristes. Or, la résolution de ces problèmes dépend davantage de maîtrise humaine que de technologie [6]. D'ailleurs, le gouvernement ne démontre à aucun moment "qu'il n'existe pas de moyen moins attentatoire aux libertés pour garantir [cette] sécurité". [7]
La VSA consiste donc à détecter automatiquement des comportements suspects. Pour cela, l'IA apprend de ce que l'humain lui indique comme normal ou comme dangereux. Comment alors savoir ce qui est considéré comme anormal ? Comment considérer une personne dormant dehors ? La technique n'est pas neutre, et risque de stigmatiser certaines personnes. Ces erreurs se sont déjà produites par le passé, par exemple lorsque la reconnaissance faciale de Facebook fonctionnait mieux sur des personnes blanches, que sur des personnes racisées [8].
Ce n'est que le début
Cette loi liberticide n'est-elle prévue que pour la durée de JO ? Malheureusement non. Bien souvent, les infrastructures sécuritaires mises en place pour les JO restent, et sont utilisées après. une fois que les caméras sont installées, pourquoi les enlever ? Mais d’autres jalons sont posés. La loi se définit comme "expérimentale", et a pour but d'être un premier pas vers des dérives encore plus liberticides. Par exemple la reconnaissance faciale [9]. La France est le premier pays européen à autoriser la VSA, permettant aux entreprises françaises de perfectionner leurs outils afin de "prendre de l'avance" sur le potentiel marché qui va s'ouvrir lorsque d'autres pays suivront son exemple [7].
Mais la lutte n’est pas finie, et la société civile s’organise pour lutter contre cette pente sécuritaire, grâce à l’expertise d’associations comme la Quadrature du Net.
(1) « 38 organisations internationales contre la surveillance biométrique ! », La Quadrature du Net, publié le 07/03/2023
(2) Lettre de 41 eurodéputé.e.s adressée à l’Assemblée Nationale, 17/03/2023
(3) Tous les détails de la loi sont consultables sur legifrance.gouv.fr/dossierlegislatif/JORFDOLE000046777392
(4) « Leclerc, Fnac, Biocoop et de nombreux commerces surveillent illégalement leurs clients », Thomas Jusquiame, StreetPress, publié le 27/06/2023
(5) « Vidéosurveillance biométrique aux JO de Paris : la victoire d’un lobby », Chiara Pugnatelli et Martin Drago, basta.media, publié le 02/05/2023
(6) « Fiasco du stade de France : la VSA ne masquera pas les échecs du maintien de l’ordre », La Quadrature du Net, publié le 21/03/2023
(7) « JO 2024 : pourquoi la vidéosurveillance algorithmique pose problème », Amnesty International, publié le 15/04/2024
(8) « Facial recognition is accurate, if you’re a white guy », Steve Lohr, The New York Times, publié le 09/02/2018
(9) « Reconnaissance faciale : le Sénat adopte une proposition de loi pour expérimenter cette technologie », Simon Barbarit, Public Sénat, publié le 12/06/2023