Vidéosurveillance à la chinoise : (encore) un complot devenu réalité !
Tout a commencé le 22 mars 2023.
Ce jour-là, Gérald Darmanin présente son projet de loi “relatif aux Jeux Olympiques et Paralympiques de 2024” à l’Assemblée nationale.
Rapidement, l’article 7 interpelle une partie des députés et de la population.
Il prévoit l’utilisation à titre expérimental de la vidéosurveillance algorithmique.
Ce dispositif consiste “en des logiciels associés à des caméras de surveillance pour repérer des événements jugés suspects ou à risque, avant d’alerter en temps réel un opérateur”, comme l’explique un article de France Info du 2 octobre 2024.
L’expérimentation ne devait pas aller plus loin que les JO…
… enfin plus exactement pas au-delà du 31 mars 2025.
Allez savoir pourquoi, dès le départ, l’idée de rallonger la durée d’expérimentation après les JO était là…
Autre élément : le premier projet de loi excluait formellement la reconnaissance faciale.
Un usage technologique envisageable grâce (ou à cause) de la vidéosurveillance algorithmique.
Le temps est passé et les Jeux olympiques se sont achevés.
Et quelle surprise…
La vidéosurveillance algorithmique pourrait être finalement généralisée !
Tellement prévisible…
“Les promesses n’engagent que ceux qui y croient”.
Quand la question des vidéosurveillances algorithmiques s’est posée, le ministère de l’Intérieur s’était voulu rassurant.
Ministre de l’Intérieur à l’époque, Gérald Darmanin avait expliqué qu’à événement exceptionnel, dispositif exceptionnel.
Mais le discours de politique générale de Michel Barnier le 1er octobre dernier a changé la donne.
Le nouveau Premier ministre a expliqué vouloir une “généralisation de la méthode expérimentée pendant les Jeux olympiques”.
Et une source proche du gouvernement aurait confirmé qu’il parlait bien de la vidéosurveillance algorithmique.
Quels résultats… et quelles perspectives ?
Si Laurent Nunez, préfet de Paris, est plutôt favorable à la généralisation du dispositif, considérant qu’il a été efficace lors des JO de Paris…
… tout n’est pas positif non plus.
France Info souligne que “le dispositif est à améliorer sur la détection d’armes, les départs de feu ou la détection d’objets abandonnés”.
Et du côté des associations de défense des libertés, l’heure est à l’inquiétude.
C’est le cas pour Amnesty International.
Chargée de plaidoyer dans l’antenne française, Katia Roux a alerté sur X : “On ne connaît pas les conclusions de l’évaluation du dispositif déployé pendant les JO 2024. On connaît les risques de la vidéosurveillance algorithmique en matière de droits fondamentaux. Et pourtant, on parle déjà de pérenniser l’usage de ces technologies de surveillance”.
Mais Amnesty International n’est pas le seul acteur à s’être emparé du sujet.
L’association de défense des droits et libertés La Quadrature du net tente également d’alerter depuis quelques mois.
En mai 2024, elle avait déposé plainte devant la CNIL face à la menace que représente la vidéosurveillance algorithmique…
… et le risque à terme du déploiement de la reconnaissance faciale ?