Cet Interview a été publiée début juin 2017 par Compol.
Jacques Priol, on a parlé d’un « échec du big data », lors de l’élection présidentielle. Souscrivez-vous à cette thèse ?
Aujourd’hui, on utilise le mot « Bigdata » pour des choses très diverses. Durant la campagne présidentielle, les observateurs ont surtout regardé les outils de mesure de l’opinion sur les réseaux sociaux. Outils dont les dérivés prédictifs étaient supposés plus fiables que les sondages traditionnels. Le bigdata devait être au cœur de la chronique d’une défaillance annoncée.
Enseignements tirés du Brexit et de l’élection de Donald Trump ? Ou des primaires de droite comme de gauche ? Supériorité des modèles des instituts français ? Toujours est-il que les instituts de sondage ont très précisément prévu les scores des deux tours. Et quelques outils de mesure du « bruit » sur les réseaux sociaux se sont largement « plantés », on pensera notamment à Filtéris qui prétendait mesurer le « vote caché » en faveur de François Fillon, et qui s’avèrera surtout être une entreprise d’influence visant à biaiser la perception des commentateurs.
A contrario, de nombreux outils de mesure massive ont été déployés par des candidats, par des médias et même par des instituts de sondage, permettant de compléter, d’enrichir et de mieux comprendre les mesures d’intentions de vote. Ces outils ont par exemple permis de savoir en temps réel ce que les français retenaient des programmes et des débats, donnée très intéressante en complément des traditionnelles questions sur le plus convaincant des candidats ou le vainqueur d’un duel. A cet égard, le partenariat entre le sondeur Harris Interactive, l’analyste du web et des réseaux sociaux Linkfluence, et l’analyste sémantique Proxem, aura été une innovation bigdata marquante de 2017.
Par ailleurs, les principaux candidats ont déployé des outils de collecte et de traitement de données massives. Pour les uns, il s’est agi d’analyser de façon fine leurs priorités électorales en fonction de données socio-économiques et socio-démographiques, notamment grâce aux modèles algorithmiques de la start-up française Liegey Muller Pons. Pour les autres, priorité a été donnée à la communication directe et à « l’empowerment » grâce à la mobilisation d’outils de ciblage tout droit tirés des modèles algorithmiques du « targeting » en usage pour le commerce en ligne.
Dans le monde des logiciels de campagne, NationBuilder semble être le grand gagnant…
NationBuilder est un logiciel californien, conçu à l’origine pour organiser des campagnes de levée de fonds pour des grandes causes d’intérêt général. Il sert aujourd’hui à mobiliser des soutiens, des supporters, des « helpers ». A des degrés divers, Jean-Luc Mélenchon, Emmanuel Macron et François Fillon s’en sont servis. Avant eux, Nuit debout et des activistes écologistes, mais aussi Alain Juppé, Nathalie Kosciusko-Morizet, Bruno Lemaire et Nicolas Sarkozy pour la primaire de droite, l’avaient utilisé. Pour les législatives, le Parti Communiste français, de nombreux « insoumis » dont François Ruffin, quelques socialistes, La République en marche !, et de nombreux candidats Les Républicains le déploient à leur tour. Donc effectivement, l’irruption de NationBuilder sur le marché français est un fait marquant de cette séquence électorale.
La campagne a donné lieu à nombre d’expérimentations. Des pratiques ont-elles émergées qui seraient de nature à aider un élu local dans sa pratique de la communication ?
Très probablement. Il y a quelques années, des élus ont ouvert leur compte Twitter ou Facebook pour faire campagne. Ils l’ont gardé ensuite, et les institutions locales qu’ils animent communiquent elles-mêmes sur les réseaux sociaux.
Si l’on est capable en 2017 de cibler la communication électorale, alors il va être possible de cibler la communication institutionnelle. Les collectivités disposent de toutes les données de leurs directions métiers, qui peuvent être croisées aux données personnelles des habitants de leur territoire… Or, beaucoup de politiques destinées à des publics spécifiques n’ont pas l’efficacité attendue faute d’atteindre, justement, leurs publics. Grâce à ces nouveaux outils, il va être envisageable de supprimer des supports papiers qui sont parfois autant de (coûteuses) bouteilles à la mer… De mettre fin aux « mails à tous » au profit de mails ciblés à l’efficacité certaine, et immédiatement vérifiée… Des outils automatisés d’inscription / désinscription, mais aussi de relance, de collecte de données supplémentaires et d’enrichissement de la plateforme, complèteront le tableau. Cette perspective est réelle et sérieuse : les données existent et sont disponibles ; les outils aussi.
Restera néanmoins à définir le cadre légal de leur déploiement pour l’action publique. Ces élections ont parfois été l’occasion « d’innovations » juridiques hasardeuses.
Charge à la CNIL de définir avec les acteurs publics les limites futures de ces traitements massifs de données dont le potentiel, à des fins d’intérêt général, commence à peine à être explorer.