
Plus qu’une station de métro parisienne, Châtelet - Les Halles se changera au second semestre 2020 en un laboratoire pour tester différents systèmes de surveillance.
Objectif : apprendre à détecter « situations problématiques » et comportements « anormaux ». Qu’est-ce qui est considéré comme un comportement anormal par l’algorithme ? Et bien pas mal de choses.
Suspect : être statique plus de 300 secondes
Par exemple, « une personne statique pendant plus de 300 secondes dans un lieu à vocation de passage », indique une note publiée début février 2020 par l'Institut Paris Région (IPR), une agence d'urbanisme d'Île-de-France. Dans cette note intitulée La sécurité à l'heure de l'intelligence artificielle, l’organisme rappelle que la RATP et son parc de caméras de plus de 50 000 caméras de surveillance sont régulièrement sollicités par les industriels pour « participer à des programmes de recherche-action visant à perfectionner la technicité des algorithmes. »
La RATP pose les jalons d'un laboratoire dédié à l’intelligence artificielle à la station Châtelet-Les Halles. La note de l'IRP précise que « pour le moment, les expérimentations qui y sont menées servent à valider des technologies et n’ont pas de retombées opérationnelles directes. A ce jour, la RATP a déjà expérimenté des algorithmes visant à détecter des « situations problématiques », comme les intrusions sous tunnel, le maraudage, les rixes et l’abandon d’objets. Les résultats obtenus sont qualifiés de « mitigés », notamment en ce qui concerne le maraudage : « L’expérimentation n’a pas donné de résultats probants, l’algorithme s’étant heurté aux usagers qui attendent un rendez-vous ou qui cherchent simplement leur itinéraire ». (Pas de grosse surprise pour quiconque a déjà été contraint d'errer dans l'enfer souterrain de Châtelet...)
Les villes tâtent le terrain de la surveillance, la Cnil les calme
Pourtant, de plus en plus de collectivités locales dégainent la carte de l’intelligence artificielle pour détecter des comportements jugés à risques. Finalement retoquée par la Cnil, la ville de Saint-Etienne entendait expérimenter un projet d’audio surveillance via l’installation de capteurs sonores sensés saisir les sons et repérer les bruits « suspects » : cris, verre brisé, klaxons, crépitements, coups de feu…
En février 2019, c’est Nice qui s’essaie à l’exercice en mettant en place un dispositif de reconnaissance faciale sur la voie publique lors de son carnaval annuel. En octobre de la même année, c’est la région Sud et son projet de « portique virtuel » qui se voient déboutés par la Commission nationale… L’idée jugée trop intrusive par la Cnil était d’équiper deux lycées de Nice et Marseille de sas de reconnaissance faciale afin de rendre plus fluide l’accès de ces établissements...
Alors que certains acteurs aspirent à l’élaboration d’une législation réglementant le cadre de ce type d’expérimentation, d’autres appellent à l'éradication de tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs, à l’instar de L’Observatoire des libertés numériques, de La Quadrature du Net, de la Ligue des droits de l’Homme, d’Amnesty International France et du Syndicat de la magistrature qui signaient en décembre dernier une lettre adressée au gouvernement à cette intention. De son côté, l’IRP ne manque pas de relever des manquements éthiques : « des algorithmes peuvent-ils participer à interpréter un comportement ou des sons jugés anormaux ? Plus largement, qu’est-ce que la normalité au sein des espaces publics ? »
Participer à la conversation