La Ville de Nice a terminé l’analyse de son expérimentation grandeur réelle de la reconnaissance faciale. Le sujet est sérieux. Nice a été martyrisée par le terrorisme. Et l’idée que les progrès technologiques, sous certaines conditions, puissent éviter que de telles horreurs ne se reproduisent, ne peut pas être balayée d’un revers de la main.
Mais la Ville de Nice a tout fait à l’envers. Ce n’est pas une expérimentation. C’est un coup de com’. Ce n’est pas sérieux. C’est dangereux. Et c’est contre-productif.
Pas sérieux… Le rapport d’évaluation de la Ville de Nice (rendu public par Le Monde) est indigent.
NICE Bilan-Reconnaissance-FacialePassons sur la présentation mensongère des dispositions préalables laissant penser que la CNIL a validé le dispositif alors que celle-ci a communiqué très clairement en sens contraire avant le début du projet. Le rapport affirme sans aucune preuve, sans aucune documentation sérieuse, que tous les objectifs de l’expérience ont été « atteints ». Le propre d’une expérimentation c’est de documenter les étapes pour en tirer des enseignements. Des succès, certes… mais surtout des échecs. A Nice, aucun échec. Tous les objectifs sont atteints ! La reconnaissance faciale est fiable à 100%. Aucune erreur. Tout fonctionne, y compris reconnaître des personnes à partir de photos vieilles de 40 ans, différencier deux jumeaux, et même détecter « au milieu d’une foule en mouvement une personne fichée au fichier de surveillance des personnes radicalisées au motif de terrorisme »… Ah bon ? Certaines de ces personnes ont participé à l’expérience ?
Pas sérieux non plus le sondage bidon auprès de la population. Les résultats de ce sondage sont pour une large part contraires à toutes les études d’opinion qui existent sur le sujet… Bien sûr aucune mention ne précise la validité de l’échantillon. A moins d’un an des élections, un rappel à l’ordre de la commission des sondages n’est pas à exclure. Il y a des règles en France sur le sujet.
Pas sérieux enfin l’argumentaire juridique. Tous les cas étrangers cités ont été choisis pour aller dans le sens des promoteurs du projet… Et pourtant, il s’est passé quelque chose d’important au beau milieu de l’expérimentation niçoise : le « board of supervisors » (un « super bureau municipal ») de San Francisco a décidé d’interdire tout dispositif de reconnaissance faciale sur la voie publique, au nom de principes quelque peu étayés, au cœur du territoire qui a produit les algorithmes les plus avancés de reconnaissance !
Dangereuse aussi cette « expérience ». La Ville de Nice l’affirme : « plus de 5000 personnes ont consenti à ce que leurs données biométriques soient traitées ». Ces 5000 personnes ont-elles été bien informées du caractère très particulier des données biométriques ? Savent-elles que depuis un an et l’entrée en vigueur du RGPD, les données biométriques ont rejoint la liste des données dites « sensibles », c’est-à-dire des données qui a priori n’ont pas le droit d’être collectées (au même titre que les opinions politiques, philosophiques ou religieuses, l’origine ethnique ou raciale, l’orientation sexuelle, etc.). Ces 5000 personnes ont-elles été informées du caractère éminemment dérogatoire de l’expérience ? Plutôt que de conclure à un nécessaire assouplissement de la loi, les promoteurs de l’opération niçoise auraient été bien inspirés de travailler aux conditions de l’acceptabilité sociale de leur opération. Et c’est sans doute là le point le plus grave.
Les apprentis sorciers niçois croient faire avancer une cause, celle de l’utilisation massive des données et de l’intelligence artificielle au service de l’intérêt général. Ils ne mesurent pas combien leur méthode est contre-productive. Nice se revendique comme l’une des premières « smartcity » de France mais réduit de fait la compréhension du sujet à la « safe city » (avec l’ambition affichée d’être une pionnière européenne en la matière).
L’usage des données massives pour optimiser la gestion urbaine, réduire les dépenses énergétiques, développer des mobilités propres, réduire les déchets, favoriser l’inclusion et la lutte contre la pauvreté… Tous ces objectifs, et bien d’autres, sont devant nous. Ils sont déjà très compliqués à porter. Pour les habitants des villes, la différence entre une collecte éthique et responsable de données massives au service de l’intérêt général et la mise en place d’une société de surveillance est aujourd’hui illisible. Les collectivités ne savent pas encore, à de très rares exceptions près, expliquer comment elles traitent les données des citoyens dans ces nouveaux processus de gestion. Les plus vertueuses peuvent se faire accuser, à tort, de déployer des systèmes « big brother ». Les balles perdues, destinées notamment à Facebook depuis Cambridge Analytica, sont nombreuses. Tous les panels et toutes les enquêtes le montrent.
La mise en scène niçoise, loin de faire avancer la cause qu’elle veut promouvoir, va contribuer à brouiller les pistes. Les territoires et les porteurs de projet sérieux devront maintenant se justifier, en plus, de « ne pas vouloir faire comme à Nice ».
Jacques Priol