C’est sans surprise que le Premier ministre, Michel Barnier, a annoncé, dans son discours de politique générale du 1er octobre, la généralisation de «la méthode expérimentée pendant les Jeux olympiques et paralympiques». En d’autres termes, la vidéoprotection augmentée par algorithmes, adoptée à titre expérimental et temporaire par la loi du 19 mai 2023, est appelée à être pérennisée, avant même la remise du rapport d’évaluation de l’expérimentation.

Le régime de la «vidéosurveillance», c’est-à-dire l’enregistrement et la transmission d’images de la voie publique aux autorités «aux fins d’assurer la protection des bâtiments et installations publics et de leurs abords» est déjà ancien. Introduite par la loi d’orientation et de programmation relative à la sécurité du 21 janvier 1995, la vidéosurveillance a été rebaptisée «vidéoprotection» par la loi d’orientation et de programmation pour la performance de la sécurité intérieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence être protégé, et non surveillé. La logique qui conduit à postuler un besoin toujours plus important de protection n’a, en revanche, jamais été interrogée, de même que l’efficacité concrète de la vidéoprotection sur le terrain reste à démontrer.

Les études sur ce point sont rares et le législateur peu intéressé par leurs conclusions. L’une des preuves est le fait que le rapport d’évaluation de l’expérimentation de la vidéoprotection algorithmique doive être remis au Parlement le 31 décembre 2024, soit trois mois avant la fin de l’expérimentation en mars 2025. Sans même attendre cette remise, le préfet de police, Laurent Nuñez, a déjà affirmé mercredi 25 septembre que le bilan de l’expérimentation était «positif».

Annoncée plusieurs mois avant la remise du rapport d’évaluation, la généralisation de la vidéoprotection augmentée par des systèmes d’intelligence artificielle, dont les bienfaits sont postulés semble-t-il par principe, s’inscrit dans une logique de fuite en avant sécuritaire peu transparente, sans évaluation des conséquences sociales et éthiques de l’adoption de ces technologies.

Il y a pourtant tout lieu d’interroger le dispositif et de prendre le temps du débat public. La vidéoprotection algorithmique, telle qu’elle est expérimentée actuellement en France, n’implique certes pas la reconnaissance faciale en temps réel dans l’espace public. Il s’agit, sur autorisation préfectorale et dans le cadre de manifestations sportives ou culturelles, d’identifier automatiquement et de signaler une série de huit «événements» définis par décret du 28 août 2023. Départs de feux, véhicules roulant à contresens ou encore mouvements de foule font partie des «événements» dont la détection automatique paraît de prime abord pertinente, sous réserve qu’elle facilite réellement la réaction des autorités compétentes sur le terrain, ce que seul le rapport d’évaluation de l’expérimentation permettra d’apprécier. D’autres événements définis par le même décret laissent circonspects, à l’instar de la détection automatique de la «densité trop importante de personnes», manifestement définie discrétionnairement par les services préfectoraux, ou encore du non-respect «du sens de circulation commun» par un piéton qui laisse entrevoir une société de la surveillance peu enviable. Corriger les imprécisions et lacunes

Une première nécessité consiste à corriger ces imprécisions, ne serait-ce que par transparence envers les administrés et pour éviter les dérives d’un dispositif qui constituerait, en l’état, une arme terrifiante aux mains d’un gouvernement moins soucieux des libertés fondamentales. Une autre mesure indispensable réside dans l’interdiction inconditionnelle de la reconnaissance faciale, laquelle nous conduit peu à peu au modèle dystopique de la surveillance étatique permanente, que nos sociétés démocratiques doivent être en mesure d’éviter. Il n’y a en effet qu’un pas entre l’identification d’«événements» déterminés et celle des individus sur la base de leurs données biométriques. Sur ce plan, le droit européen souvent invoqué est de peu de secours. Si le Règlement sur l’intelligence artificielle adopté le 13 juin 2024 fait en théorie de la «notation sociale» une ligne rouge, son article 5 permet bien l’utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, en cas de «menace réelle et prévisible d’attaque terroriste» ou encore en vue de «la localisation ou l’identification d’une personne soupçonnée d’avoir commis une infraction pénale» punissable d’une peine d’au moins quatre ans d’emprisonnement. Autrement dit, le législateur est seul arbitre du choix de société que constitue le déploiement de la vidéoprotection algorithmique, sur lequel il sera difficile de revenir.

Enfin, ce débat doit être l’occasion de remédier aux nombreuses lacunes du régime juridique de la vidéoprotection classique. A titre d’exemple, le fonctionnement comme la composition des Commissions départementales de vidéoprotection, créées dès 1995 et dotées du pouvoir d’annuler l’implantation d’un dispositif illégal depuis la Loppsi 2, sont parfaitement obscurs et doivent être encadrés. La loi devrait par la même occasion prévoir l’institution systématique et dès la première caméra, avec ou sans IA, d’un comité d’éthique de la vidéoprotection – faculté actuellement laissée à la totale discrétion des collectivités. Une composition transparente et un certain nombre de fonctions consultatives obligatoires permettraient, notamment, d’associer de manière systématique les administrés à la politique de sécurité locale.

Ce n’est qu’en évaluant correctement le dispositif actuel, sans présumer de la nécessité de le pérenniser et certainement pas en l’état, que ces trois conditions de la réussite du débat sur la vidéoprotection algorithmique qui s’annonce pourront être remplies.

  • klaqaus@sh.itjust.worksOP
    link
    fedilink
    Français
    arrow-up
    3
    ·
    edit-2
    3 months ago

    Sur le même sujet : https://www.publicsenat.fr/actualites/societe/videosurveillance-algorithmique-lexperimentation-pendant-les-jo-une-simple-etape-vers-la-generalisation

    […]

    Une étape vers le déploiement de la reconnaissance faciale ?

    Le sénateur écologiste Thomas Dossus était l’un des fervents opposants au déploiement du système de vidéosurveillance algorithmique, et les déclarations du préfet de police ne font que confirmer ses craintes. « Je suis sceptique sur l’efficacité de ces technologies. On va attendre le rapport mais je n’ai pas entendu le préfet citer une seule situation problématique que la vidéoprotection a pu dénouer lors des JO. Nous n’avons pas trouvé d’usage à ce système qui va surtout permettre aux fabricants de logiciels de codifier l’espace public en décrétant quelle attitude est normale ou ne l’est pas. Prenons garde à ne pas perdre le contrôle démocratique sur ces usages des services publics. Nous savions que cette loi n’était qu’un pied dans la porte, une première étape vers la reconnaissance faciale ».

    En effet, Marc-Philippe Daubresse, sénateur LR à l’origine d’une proposition de loi, adoptée par le Sénat contre l’avis du gouvernement, visant à expérimenter la reconnaissance faciale, compte bien remettre ce débat au goût du jour lorsque la généralisation prendra la forme d’un texte examiné par le Parlement. « Ça fait partie des outils indispensables dans une société devenue aussi violente. Et je renvoie à toutes les garanties figurant dans mon texte », insiste-t-il. Sa proposition de loi prévoyait l’ « interdiction de la notation sociale, l’interdiction de la catégorisation d’individus en fonction de l’origine ethnique, du sexe ou de l’orientation sexuelle sauf s’il s’agit de recherches scientifiques, interdiction de l’analyse d’émotions sauf à des fins de santé ou de recherche, interdiction de la surveillance biométrique à distance en temps réel sauf exceptions très limitées ». Le texte prévoyait également une expérimentation de cette nouvelle technologie pour une durée de 3 ans, ce qui pour la gauche déjà, « valait généralisation ».