Vidéosurveillance IA : Le Conseil constitutionnel retoque la prolongation de l'expérimentation

Le Conseil constitutionnel a censuré l'article 15 de la loi relative au renforcement de la sûreté dans les transports, qui prolongeait l'expérimentation de la surveillance algorithmique dans l'espace public jusqu'en 2027. En effet, les Sages ont conclu à l'existence d'un cavalier législatif, une disposition sans lien avec le sujet principal du texte.

Caméra de vidéosurveillance
Caméra de vidéosurveillance

Le gouvernement a échoué à prolonger l'expérimentation de la vidéosurveillance algorithmique dans l'espace public jusqu'en 2027. Dans une décision rendue le 24 avril 2025, le Conseil constitutionnel a retoqué l'article 15 de la loi relative au renforcement de la sûreté dans les transports estimant qu'il s'agissait d'un cavalier législatif. Autrement, une disposition sans aucun lien avec le sujet principal du texte, sans que cela "ne préjuge de la conformité du contenu (...) aux autres exigences constitutionnelles". 

La surveillance algorithmique est cette technologie qui permet de faire analyser en temps réel des vidéos, capturées par des caméras de surveillance, par des algorithmes afin d'y détecter des comportements suspects, des risques ou des événements spécifiques. Concrètement, il s'agit donc d'un traitement automatisé des flux vidéo.

Expérimentation autorisée jusqu'en mars 2025

Initialement, c'est la loi du 19 mai 2023 relative aux Jeux olympiques et paralympiques de 2024 qui a autorisé la mise en œuvre de cette technologie pour détecter huit situations susceptibles de porter gravement atteinte à la sécurité : la présence d'objets abandonnés, la présence ou l'utilisation d'armes, le non-respect du sens de circulation commun, le franchissement d'une zone interdite ou sensible, la présence d'une personne au sol à la suite d'une chute, un mouvement de foule, une densité trop importante de personnes et les départs de feux. L'expérimentation était autorisée jusqu'au 31 mars 2025. 

L'expérimentation prévoyait que seules la police et la gendarmerie nationales, les polices municipales, les services d’incendie et de secours ainsi que les services internes de sécurité de la RATP et de la SNCF étaient autorisés à déployer ces solutions technologiques. Par ailleurs, elle interdisait expressément la reconnaissance faciale et toute forme de recoupement avec des fichiers. 

Une technologie encore immature

Seul hic : l'expérimentation n'a finalement pas été un franc succès. Loin de là. La loi de mai 2023 prévoyait l'établissement d'un rapport par un comité d'évaluation, présidé par Christian Vigouroux, président de section honoraire au Conseil d’État, à l'issue de l'expérimentation. Remis en janvier 2025, le document dénonce "des performances techniques très variables selon les opérateurs et les cas d'usage", très en deçà des attentes pour les mouvements de foule notamment. "Les quelques retours font, en outre, état des difficultés rencontrées dans l’identification des véritables mouvements", peut-on lire. Pour la détection d'objets abandonnés, la SNCF a fait état de "62% de faux positifs (168/270)". 

Autrement dit, il est plutôt rassurant que la technologie ne soit pas, pour l'instant, déployée jusqu'en 2027 puisqu'elle ne répond pas aux attentes. Néanmoins, il y a de fortes chances que le gouvernement tente de l'intégrer dans un nouveau texte de loi.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.