La vidéosurveillance algorithmique à l’épreuve du contrôle de proportionnalité : le Conseil d’État confirme l’exigence d’une base légale explicite

Par une décision du 30 janvier 2026, le Conseil d’État rejette le recours de la commune de Nice contre une délibération de la CNIL. Cette dernière avait estimé illégale, en l’état du droit, la mise en œuvre d’un traitement algorithmique d’images de vidéoprotection destiné à détecter des « zones d’intrusion » aux entrées des écoles.

La Haute juridiction confirme qu’un système d’analyse automatisée et systématique d’images captées sur la voie publique ne saurait être mis en œuvre sans base légale spécifique. Elle valide également l’interprétation faite par la CNIL de l’article L. 251-2 du code de la sécurité intérieure. Cette décision marque une étape importante dans l’encadrement juridique des dispositifs de vidéoprotection augmentée par des traitements algorithmiques.

Le déploiement de systèmes de vidéosurveillance « intelligente » dans l’espace public soulève des questions juridiques complexes à l’intersection du droit de la sécurité publique et du droit de la protection des données personnelles. L’affaire opposant la commune de Nice à la Commission nationale de l’informatique et des libertés (CNIL) illustre parfaitement ces tensions. 

Dans le cadre de sa politique de sécurisation des établissements scolaires, la commune de Nice avait mis en place un dispositif de vidéoprotection augmentée par un traitement algorithmique capable de détecter les « zones d’intrusion » aux entrées des écoles. Saisie de ce dossier, la CNIL a, par une délibération n° 2025-032 du 15 mai 2025, estimé ce dispositif illégal en l’état du droit applicable, faute d’une base légale spécifique autorisant un tel dispositif. 

Contestant cette position, la commune de Nice a introduit un recours pour excès de pouvoir devant le Conseil d’État. Par sa décision du 30 janvier, la Haute juridiction administrative rejette ce recours et confirme l’analyse de la CNIL. Au-delà du cas d’espèce, cette décision clarifie les conditions dans lesquelles les collectivités territoriales (ou tout responsable du traitement) peuvent recourir à des technologies d’analyse automatisée d’image dans l’espace public. 

Sous le regard des caméras : variations juridiques sur un thème algorithmique

Le dispositif mis en place par la commune de Nice illustre la mutation des systèmes de vidéoprotection vers des outils d’analyse automatisée des comportements. La réaction de la CNIL met en lumière les limites juridiques actuelles de cette évolution technologique.

Tentative de rendre prédictive la police municipale 

Dans un contexte marqué par une préoccupation croissante pour la sécurité des établissements scolaires, la commune de Nice avait déployé un système de vidéoprotection intelligent aux abords de plusieurs écoles. Ce dispositif reposait sur l’installation de caméras filmant les entrées des établissements et sur un traitement algorithmique des images ainsi captées. 

Le système était conçu pour détecter automatiquement ce que la commune qualifiait de « zone d’intrusion », c’est-à-dire la présence ou le déplacement de personnes dans des zones définies comme sensibles aux abords des écoles. L’algorithme analysait en temps réel les flux vidéo pour identifier des comportements ou des présences jugés anormaux, et générait des alertes à destination des services de sécurité municipaux.

La commune justifiait ce dispositif par la nécessité d’assurer la protection des écoliers et du personnel éducatif en permettant une réactivité accrue face à d’éventuelles menaces. Elle considérait que ce traitement s’inscrivait dans le cadre des finalités légitimes de vidéoprotection prévues à l’article L. 251-2 du code de la sécurité intérieure, qui autorise la vidéosurveillance sur la voie publique pour des motifs de sécurité publique.

Requiem pour le dispositif de vidéoprotection intelligent 

Saisie du dossier, la CNIL a adopté le 15 mai 2025 une délibération estimant le dispositif niçois illégal. L’Autorité de protection des données a considéré, qu’en l’état du droit positif, aucune base légale ne permettait la mise en œuvre d’un traitement algorithmique automatisé et systématique d’images de vidéoprotection captées sur la voie publique. 

Pour la CNIL, si l’article L. 251-2 du code de la sécurité intérieure autorise effectivement l’installation de caméras de vidéoprotection et le visionnage des images par des opérateurs humains, il ne prévoit pas explicitement la possibilité de soumettre ces images à un traitement algorithmique automatisé. Or, selon cette Autorité, un tel traitement, par son caractère systématique et sa capacité d’analyse en temps réel, constitue une atteinte qualitativement différente et plus importante à la vie privée et aux données personnelles que la simple captation d’images.

À juste titre, la CNIL rappelait que le législateur, lorsqu’il a souhaité autoriser temporairement de tels dispositifs dans le contexte des Jeux olympiques de 2024, a dû adopter une disposition spécifique (Loi n° 2023-380 du 19 mai 2023). Cette intervention législative expresse démontrerait que l’analyse algorithmique d’images de vidéoprotection ne peut résulter d’une simple interprétation extensive des régimes juridiques existants, mais nécessite une habilitation légale particulière.

La commune de Nice a donc saisi le Conseil d’État d’un recours pour excès de pouvoir tendant à l’annulation de cette délibération, soutenant notamment l’existence d’un vice de procédure, d’une insuffisance de motivation et d’une erreur de droit quant à l’interprétation des dispositions du code de la sécurité intérieure.

Surveillance en tempo majeur : le Conseil d’État fixe la mesure 

Le Conseil d’État examine, dans un premier temps, la qualification juridique du dispositif litigieux afin de déterminer s’il relève du régime de la vidéoprotection. Il s’attache, dans un second temps, à vérifier l’existence d’une base légale susceptible d’habiliter la mise en œuvre d’un tel traitement automatisé.

De l’image au signal : la frontière juridique de la vidéoprotection

Par sa décision du 30 janvier 2026, le Conseil d’État rejette le recours dirigé contre la délibération de la CNIL n° 2025-032 du 15 mai 2025 et confirme l’analyse de l’Autorité de contrôle.

La Haute juridiction s’attache d’abord à vérifier la qualification juridique du dispositif litigieux. Le traitement mis en œuvre par la commune présentait un caractère automatisé et systématique : les images captées par les caméras étaient analysées en continu par un algorithme détectant, sans intervention humaine préalable, des événements prédéterminés. Cette automatisation distingue qualitativement le dispositif d’un système classique de vidéoprotection, dans lequel les images sont simplement enregistrées et éventuellement visionnées par des opérateurs humains.

Le Conseil d’État refuse dès lors de considérer l’analyse algorithmique comme une simple modalité technique du régime de la vidéoprotection prévu à l’article L. 251-2 du code de la sécurité intérieure. Si cette disposition autorise l’installation de caméras et l’enregistrement d’images sur la voie publique pour des finalités de sécurité publique, elle demeure silencieuse quant au recours à un traitement automatisé des flux vidéo. Or, cette différence technique emporte une différence juridique : l’analyse systématique et en temps réel des flux vidéo modifie la nature et l’intensité de la surveillance exercée et ne peut être regardée comme implicitement autorisée par le régime juridique existant.

La vidéoprotection augmentée à contretemps du législateur

Dans un second temps, le juge vérifie l’existence d’une base légale habilitant un tel traitement. Comme expliqué précédemment, il confirme que l’article L. 251-2 du code de la sécurité intérieure ne saurait être interprété comme autorisant implicitement l’analyse algorithmique automatisée des images. L’inscription du dispositif dans les finalités générales de sécurité publique ne dispense pas de l’exigence d’une habilitation spécifique.

Cette solution s’inscrit dans le cadre du principe de légalité des atteintes aux libertés fondamentales. Toute ingérence dans le droit au respect de la vie privée garanti par l’article 8 de la Convention européenne des droits de l’homme doit être « prévue par la loi », c’est-à-dire reposer sur une base juridique accessible et suffisamment précise (CEDH 13 sept. 2018, Big Brother Watch c/ Royaume-Uni, n° 58170/13, Dalloz actualité, 4 oct. 2018, obs. S. Lavric ; D. 2019. 151, obs. J.-F. Renucci ; ibid. 1673, obs. W. Maxwell et C. Zolynski ; AJ pénal 2018. 529, obs. A. Taleb-Karlsson ). L’exigence de prévisibilité revêt une importance accrue lorsque sont en cause des dispositifs technologiques susceptibles d’engendrer une surveillance généralisée de l’espace public.

Le Conseil d’État reprend le raisonnement de la CNIL selon lequel et considère que lorsque le législateur avait entendu autoriser un tel dispositif, il était intervenu par une disposition spécifique et détaillée. Cette intervention explicite confirme qu’un tel traitement ne peut résulter d’une interprétation extensive des textes existants.

Conclusion

La décision témoigne d’une approche exigeante du principe de légalité appliqué aux technologies de surveillance. En qualifiant l’analyse algorithmique d’atteinte distincte et non d’un simple perfectionnement technique, le Conseil d’État opère un choix déterminant : il refuse une lecture techniciste qui réduirait l’automatisation à une modalité d’exécution neutre. Au contraire, le juge affirme que celle-ci transforme de manière significative la nature de la surveillance exercée, justifiant un encadrement juridique spécifique.

Cette position s’inscrit dans la continuité d’une jurisprudence constitutionnelle et européenne attentive à prévenir les risques d’une surveillance généralisée incompatible avec les valeurs démocratiques (Cons. const. 22 mars 2018, n° 2018-765 DC, Dalloz actualité, 14 juin 2018, obs. P. Januel ; AJDA 2018. 1191 ; D. 2019. 1248, obs. E. Debaets et N. Jacquinot ; RTD eur. 2018. 830, obs. D. Ritleng  ; CEDH 13 sept. 2018, Big Brother Watch c/ Royaume-Uni, n° 58170/13, préc.). Elle consacre le rôle du législateur comme garant de l’équilibre entre sécurité et libertés : lorsque l’innovation technologique modifie substantiellement la nature et l’ampleur de l’ingérence dans les droits fondamentaux, seul le législateur peut, au terme d’un débat démocratique, autoriser son déploiement et en fixer les conditions.

 

par Éléonore Favero Agostini, Avocate associée

CE 30 janv. 2026, n° 506370

Source

© Lefebvre Dalloz