Cette semaine, Technopolice est revenue sur les divers dispositifs de reconnaissance faciale déjà déployés en France et aux frontières. On résume dans ce billet nos connaissances sur le sujet : oui, la reconnaissance faciale est malheureusement déjà déployée en France et non, elle n’a pas besoin d’un « cadre éthique » mais d’une interdiction.
Quand on parle reconnaissance faciale en France, on nous répond la plupart du temps que celle-ci n’est pas encore vraiment déployée en France et que d’autres pays font bien pire. On nous dit aussi que, malgré tout, il faudra bien s’y mettre un jour (le secrétaire d’État au numérique parle même d’une nécessité pour faire progresser « nos industriels ») et que la France doit parvenir à créer une « reconnaissance faciale éthique » (voir la proposition de Didier Baichère sur le sujet). Comme si la surveillance biométrique de masse pouvait être autre chose qu’un outil de contrôle autoritaire mettant fin à l’anonymat de nos déplacements dans l’espace public.
Bref, on est souvent obligés de démontrer son existence ainsi que de lister son déploiement et il nous paraissait important de les mettre par écrit quelque part : oui, la reconnaissance faciale est déjà déployée en France (pour les raisons qui nous font nous opposer à ces dispositifs, vous pouvez relire cet article).
Le « Traitement des antécédents judiciaires » et ses dérives
Le principal dispositif de reconnaissance faciale existant en France est aujourd’hui celui du fichier du « Traitement des antécédents judiciaires », ou TAJ (voir une présentation du fichier par la CNIL). Ce fichier concerne toutes les personnes « mises en causes » lors d’une enquête de police ou faisant l’objet d’une enquête pour cause de mort, de blessure grave ou de disparition. La photographie du visage de ces personnes est conservée dans ce fichier (voir les articles du code de procédure pénale correspondants). En 2018, ce fichier comportait 19 millions de fiches et 8 millions de photographies de face.
Depuis 2012, le gouvernement s’est arrogé par décret (et non par la loi) le droit d’utiliser les photos de ce fichier pour identifier par reconnaissance faciale les personnes déjà fichées dans le TAJ. En 2019, la police a utilisé ce fichier à des fins de reconnaissance faciale plus de 375 000 fois (soit plus de 1 000 fois par jour). Nous avons attaqué ce fichier en 2020 devant le Conseil d’État pour violation du droit à la vie privée et aux données personnelles et nous attendons toujours une décision (voir notre article ici).
L’existence même d’un fichier comme le TAJ, intégrant la reconnaissance faciale, est contestable et contestée. Le TAJ, comme tous les fichiers de police et de gendarmerie, voit son utilisation encadrée juridiquement. Mais en pratique les forces de l’ordre en ont une consultation beaucoup plus libre que celle prévue par les textes. Leur usage peut être facilement détourné et employé de manière frauduleuse et abusive (plus d’infos sur la pratique du fichage dans cette brochure)
Tout d’abord, il existe un certain nombre de cas et même de condamnations — chose assez rare pour être notée — de policiers et gendarmes ayant consulté ces fichiers à des fins personnelles, et même pour se faire de l’argent.
D’une autre manière, dans une sorte de pratique plus collective, répandue et plus ou moins acceptée par la hiérarchie, la police utilise le fichier TAJ pour effectuer des contrôles d’identité. Cela commence par une prise de photo de la personne avec une tablette ou un téléphone. Ensuite le fichier TAJ est consulté et donne de nombreuses informations : si la personne y est fichée, cela signifie qu’elle a déjà eu affaire à la police et qu’elle est connue des services. Ensuite cela permet à la police de vérifier que celle-ci a bien donné l’identité présente sur son état civil.
Cette utilisation du TAJ et de son outil de reconnaissance faciale pour effectuer des contrôles d’identité ne semble pas nouvelle. Mais son emploi de plus en plus régulier à destination de militant·es semble s’être répandu. A Marseille, en Ile de France, dans des témoignages que nous avons recueilli ou constaté par nous-même et enfin comme s’en vante le premier policier de France.
En pratique, cette manipulation du TAJ peut signifier deux choses : soit que les agents sont en train de tester une nouvelle fonction de leur tablette NEO, laquelle leur permet de prendre des photos et d’interroger le TAJ directement. Soit qu’ils profitent de leur appareil pour prendre une photo et l’envoyer au service central de la police gérant le fichier.
Aéroports et contrôles aux frontières
Un autre endroit apprécié par les industriels et politiques pour expérimenter et perfectionner la reconnaissance faciale ce sont les frontières et notamment les aéroports. Dans un premier temps, le déploiement de cette technologie est justifié à travers une rhétorique ultralibérale : pour plus de « fluidité » ou de « rapidité », parcourir plus vite le plus de distance.
C’est par exemple le projet PARAFE, pour les trajets extra-Schengen, qui a installé des portiques de sécurité équipés de reconnaissance faciale depuis 2017 dans plusieurs aéroports et gares de France. Ensuite, il y a aussi le projet MONA, débuté en octobre 2020 aux aéroports de Lyon et Orly, ici pour des vols au sein de l’Union européenne. La CNIL, de son côté, valide les expérimentations, tant qu’elles sont consenties « librement ».
Dans les deux cas, on retrouve l’entreprise française Idémia, spécialisée dans l’identification biométrique. Ce mastodonte bleu-blanc-rouge est sur tous les plans : Idemia a obtenu des financement de l’Agence nationale de recherche pour développer des algorithmes de gestion de foule pour les Jeux Olympiques de 2024 (lire ici notre article sur le sujet), elle a vendu sa technologie au gouvernement chinois, et a même gagné l’appel d’offre du Ministère de l’Intérieur pour mettre en place le CCAF d’ici 2022, le contrôle centralisé aux frontières, en application de la directive européenne EES (Entry Exit System).
C’est là qu’on observe la seconde – et plus significative – application de la reconnaissance faciale aux frontières, ici purement sécuritaire. Le CCAF prévoit de constituer des fichiers, pour toutes les personnes qui entreraient dans l’espace Schengen et provenant de pays tiers (hors UE), afin de renforcer ses frontières. Des fichiers biométriques, dotés des empreintes digitales, de la photo ainsi que l’identité des personnes. Et cela, pour « pour lutter contre les effets d’overstaying » c’est-à-dire de dépassement des séjours autorisés, comme annoncé par les entreprises ayant remporté l’appel d’offre : Idémia et Sopra Steria. Cette généralisation du fichage et de l’identification biométrique aux frontières cible bien les personnes exilées, déshumanisées par un système raciste qui distingue les individus en fonction de leurs origines : c’est d’une pierre deux coups, à la fois on traque les personnes exilées qui arrivent en Europe et on permet un embarquement plus rapide des spectateurices qui se rendront au mondial de rugby et aux jeux olympiques en 2024.
Identité numérique faciale
La reconnaissance faciale est également avancée par le gouvernement et les industriels comme l’outil soi-disant idéal pour s’assurer de notre identité sur Internet et permettre ainsi la création d’une identité numérique régalienne. C’était l’idée derrière l’application « Alicem », un outil d’identité numérique avec reconnaissance faciale obligatoire (dispositif que nous avons attaqué sans succès devant le Conseil d’État, mais qui semble depuis tombé dans l’oubli).
D’autres projets sont néanmoins en cours et risquent bien de participer à la généralisation de la reconnaissance faciale et de l’idée, fausse, qu’elle est le meilleur moyen de prouver notre identité. Poussé par un règlement européen, le gouvernement souhaite en effet bientôt lancer sa « carte d’identité numérique » et il n’y a pas de doute que la reconnaissance faciale y aura une place importante.
Datakalab et la reconnaissance des masques
Enfin, il ne faut pas oublier les dispositifs qui ne sont pas exactement de la reconnaissance faciale mais qui s’en rapprochent néanmoins énormément. C’est le cas avec l’entreprise Datakalab qui veut détecter le port du masque dans le métro à travers les caméras de surveillance. L’entreprise a en effet profité de la crise sanitaire pour vendre ses dispositifs de surveillance : à Cannes au départ puis à Paris avec la RATP où elle a testé la détection des distances physiques et du port de masque (avant que la CNIL ne vienne souligner l’illégalité du dispositif).
Un an après, un décret du ministre des transports est venu spécifiquement autoriser l’entreprise à déployer son dispositif dans les transports (décret aussi illégal pour plusieurs motifs qu’on détaillait ici). Leur logiciel a également été testé, sans aucun décret cette fois-ci, lors d’un concert d’Indochine en 2021. S’il ne s’agit pas d’identification, il s’agit bien de surveillance biométrique. Ce logiciel vient légitimer le déploiement de nouvelles caméras et nous habituer à ce que nos corps soient soumis à un algorithme qui les détecte, les analyse et les dénonce.
Usage privé et futur bien trouble pour la surveillance biométrique
A côté de ces usages publics ou quasi-publics, il y a évidemment l’ensemble des usages privés de la reconnaissance faciale (déverrouillage de téléphone, réseaux sociaux…, la liste est sûrement très longue). Si leur danger pour la surveillance de masse est peut-être moins direct, ils contribuent néanmoins à nous accoutumer à ces dispositifs et à entraîner les algorithmes de surveillance tout en aidant les industriels à perfectionner leurs techniques biométriques.
Il paraît évident que le futur ne nous réserve rien de bon sur cette question. Plusieurs candidats aux élections régionales se sont déjà prononcés pour une extension de la reconnaissance faciale (quitte à mentir sciemment sur le sujet, comme l’a fait Valérie Pécresse le mois dernier). Dans la Région Sud, il est à craindre que d’autres utilisations illégales de surveillance biométrique soient faites, comme cela a déjà été le cas en 2019 avec le carnaval de Nice (ou le projet de portiques de reconnaissance faciale dans des lycées, heureusement arrêté grâce à l’action d’associations militantes).
Surtout, et enfin, Paris accueille les Jeux Olympiques en 2024 et la coupe du monde de Rugby l’année précédente. L’occasion paraît trop belle pour les industriels et certains politiques, qui voient en cet événement l’opportunité d’afficher leurs technologies d’identification biométrique, de big data, d’algorithmes de reconnaissance de comportement, d’analyse des réseaux sociaux… Une fois que ces dispositifs auront été développés et testés, et que des agents auront été formés à leur utilisation, ils ne resteront pas circonscrits aux JO, mais perdureront dans le futur.
Faut-il rappeler, pour conclure, qu’il existe déjà un fichier regroupant la quasi-totalité des données biométriques (donc des photos de visage) des personnes disposant d’une carte d’identité ou d’un passeport en France ? C’est le fichier TES, pour « fichier des titres électroniques sécurisés » (voir la présentation par la CNIL ici), fichier attaqué par de nombreuses associations lors de sa création devant le Conseil d’État en raison de la porte-ouverte qu’il représentait vers la reconnaissance faciale de masse en France (voir notre article ici). Maintenant que ce fichier a été validé par le Conseil d’Etat, la surveillance biométrique de masse ne semble malheureusement plus qu’à quelques décrets de la réalité.
Un tel état des lieux ne doit pas conduire à baisser les bras. Au contraire, il doit aider à la prise de conscience de la nécessité de lutter contre ces dispositifs pour demander leur interdiction : des interdictions ont déjà été prises aux États-Unis et un mouvement similaire s’est lancé en Europe. Organisons nous sur Technopolice.