Nice, "la ville la plus équipée de France", regrette de ne pas pouvoir déployer plus facilement des caméras de vidéosurveillance équipées de logiciels de traitement automatisé d'images, a déclaré Anthony Borré, premier adjoint à la mairie au micro d'Europe 1 le 29 septembre.
Cette ville compte aujourd'hui 4000 caméras déployées dans l'espace public pour dissuader et prévenir les atteintes à la sécurité des personnes et des biens. Le tout est chapeauté par "le centre de supervision urbain", déployé en 2010 par le maire Christian Estrosi.
Près de 2000 réquisitions judiciaires
La ville se vante de disposer d'un maillage technologique conséquent : une caméra installée devant chaque entrée des établissements scolaires de la ville, plus de 1050 caméras pour "la sécurité des usagers du tramway", des caméras nomades, des caméras "multi-objectifs avec une vision 360°" et des caméras piétons déployées pour chaque patrouille de police. Ces images permettent de procéder à près de "2000 réquisitions judiciaires par an", indique la municipalité sur son site internet.
Mais ce n'est plus suffisant, d'après le premier adjoint au maire. "Lorsqu'on nous signale quelqu'un avec un pull rouge, on pourrait rentrer le pull rouge dans le logiciel et identifier le délinquant de manière plus rapide", imagine-t-il. Même principe pour "une personne atteinte de la maladie d'Alzheimer" qui serait perdue. "Ce sont des usages pour lesquels la reconnaissance faciale, l'intelligence artificielle, pourrait aider", a-t-il indiqué. Il regrette que la Commission nationale de l'informatique et des libertés (Cnil), une autorité qu'il juge "obsolète", interdise ces pratiques. Il appelle même à une révision de la loi Informatique et Libertés.
La Cnil différencie caméras augmentées et reconnaissance faciale
Or, la réalité est beaucoup plus nuancée. La Cnil a adopté deux positions distinctes, l'une sur les caméras dites "augmentées" et l'autre sur les caméras équipées spécifiquement de la reconnaissance faciale. Deux notions apparemment confondues par le représentant municipal dans son interview.
Dans une position publiée en 2022, l'autorité a défini les caméras augmentées comme étant des dispositifs vidéo couplés à un logiciel de traitement automatisé d'images, qui ne traitent pas de caractéristiques physiques, physiologiques ou comportementales des personnes. En l'absence de textes spécifiques, elle avait analysé les principes applicables par rapport à la règlementation en vigueur. Elle appelait à une analyse au cas par cas avec une attention toute particulière au droit d'opposition.
De son côté, la reconnaissance faciale est interdite par principe lorsqu'elle traite des données biométriques à des fins d'identification d'une personne physique de manière unique. Le Règlement général sur la protection des données (RGPD) prévoit trois exceptions : lorsque la personne concernée donne son consentement, lorsque le traitement porte sur des données à caractère personnel qui sont manifestement rendues publiques par la personne concernée et lorsque le traitement est nécessaire pour des "motifs d'intérêt public important".
En 2019, la Commission a publié une feuille de route dans laquelle elle posait trois exigences à respecter par les pouvoirs publics pour tester la reconnaissance faciale. La première concernait les normes à respecter car "des frontières préexistent à l'origine". Elle réclamait l'élaboration d'un encadrement expérimental pour fixer des "lignes rouges au-delà desquelles aucun usage, même expérimental, ne peut être admis".
Deuxièmement, les dispositifs devaient nécessairement "placer le respect des personnes au cœur de la démarche", soit le consentement, la transparence et de la sécurité. Et finalement, "adopter une démarche sincèrement expérimentale" qui implique une limitation dans le temps et l'espace.
Un portique de sécurité niçois interdit
La Cnil a eu l'occasion d'appliquer sa doctrine dans le cadre d'une expérimentation d'un "portique virtuel de sécurité" installé à l'entrée d'un lycée niçois pour "prévenir les intrusions et les usurpations d'identité". Elle avait estimé que ce dernier était contraire au Règlement général sur la protection des données (RGPD) car les objectifs poursuivis de sécurisation et de fluidification auraient pu être atteints par "des moyens biens moins intrusifs en termes de vie privée et de libertés individuelles, comme par exemple un contrôle par badge". Le dispositif avait finalement été retiré à la suite d'une décision de justice.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
