habillage
premium1
Grand débat intelligence artificielle
© Shelagh Murphy via Unsplash

Grand débat : ce sont les I.A. qui vont décider du futur, et c'est flippant

Le 18 mars 2019

Les contributions des citoyens au Grand débat sont passées en revue et classées par des algorithmes d’intelligence artificielle. Problème : la méthode employée risque de simplifier les propositions, voire passer à côté de suggestions intéressantes. 

Les deux mois de « Grand débat » se sont achevés lundi 18 mars 2019. Cette initiative lancée par le gouvernement en janvier en réponse au mouvement des Gilets jaunes, propose aux citoyens de faire part de leurs avis sur quatre grandes thématiques (la transition écologique, la démocratie, la fiscalité, l'organisation de l'Etat).  1,6 million de contributions en ligne vont être passées en revue par les algorithmes d’intelligence artificielle de l’institut de sondage OpinionWay. Leur boulot ? Classer les réponses des citoyens pour faire remonter les principales suggestions.

Les contributions se présentent sous forme de réponse à des questions fermées ou de propositions « libres » des internautes. « Dans le premier cas, c’est assez simple : (…) il suffit alors de compter le nombre d’occurrences de chaque réponse et de transformer cela en pourcentage, explique Frédéric Micheau, directeur du département opinion & politique chez OpinionWay, à Libération. Ce qui est plus compliqué, c’est de traiter les contributions libres. » OpinionWay travaille pour cela avec les algorithmes de la société française Qwam. La machine lit chacun des verbatims et les compare à un dictionnaire de notions - de mots, de groupes de mots, d’idées. « Cela lui permet de trier, classer et sous-classer les idées », précise Frédéric Micheau. De quoi analyser rapidement des quantités de données colossales. Chose que des statisticiens seuls ne seraient pas capables de faire.  

L'IA n'est pas très subtile

Pour Maximilien Moulin, expert en intelligence artificielle chez Wavestone, le risque de ce classement effectué par des algorithmes est de simplifier à outrance les propositions des citoyens. « Utiliser des algorithmes c’est très efficace pour dégager de grandes tendances comme la volonté de réduire les impôts, l’envie de plus de démocratie participative… Mais la difficulté, c’est d’identifier des idées singulières, et de rendre compte de la subtilité des propositions », explique le spécialiste. « Le risque de passer à côté d’un sujet voire d’interpréter faussement un résultat est élevé ».

Pourquoi faire appel à l'IA lorsque les grandes tendances sont déjà bien visibles sur les pancartes des Gilets jaunes et autres mobilisations de ces derniers mois ? Les algorithmes apportent tout de même un plus : ils mesurent l’importance de ces propositions, en leur attribuant un score selon leur nombre d’occurrences.

Mais ce comptage peut être biaisé. « Les algorithmes classent par nuages de mots, explique Maximilien Moulin. Ils ne prêtent pas attention à certaines tournures de phrases qui pourtant peuvent avoir un sens très différent. Si quelqu’un dit ‘Le RIC (Referendum d'initiative citoyenne) est un outil intéressant à utiliser avec attention’, ce n’est pas la même chose que de dire ‘le RIC est un outil intéressant, mais à utiliser avec la plus grande attention’. L’IA aura beaucoup de mal à identifier ces subtilités ».

Compliqué pour l'IA d'identifier les groupes d'influence

L’IA pourrait passer à côté de certaines tentatives de lobbys et groupes d’influence. Les participants peuvent renseigner qui ils sont - citoyens, élus, lobbys ou ONG - mais ce n'est pas obligatoire. « On a vu l’ICAN (Campagne internationale pour l'abolition des armes nucléaires) demander à ses membres de copier-coller le même texte en réponse à une question. Ici les algorithmes peuvent facilement identifier la répétition du texte, mais si des méthodes de groupes d’influence sont plus subtiles, l’IA pourrait ne pas s’en rendre compte. »

Évidemment les algorithmes n’agissent pas seuls. Un processus itératif (d’allers-retours) a été conçu entre les superviseurs humains et la machine, précise OpinionWay à France Culture.

Chacun peut faire sa propre analyse du débat 

Les algorithmes et statisticiens d’OpinionWay ne seront pas les uniques analystes des contributions. Ces dernières sont accessibles à tous, en « open-data » sur le site du Grand débat. Des associations, organisations scientifiques, think tanks et autres collectifs citoyens ont déjà commencé à faire leur propre analyse des données. Le Huffington Post répertorie une dizaine d’initiatives, comme Witted. Créée par trois spécialistes de l’informatique, cette plate-forme en ligne trie les contributions en utilisant une méthode algorithmique différente de celle utilisée par OpinionWay. 

Ce croisement de différents points de vue et méthodes devrait permettre d’avoir un compte-rendu plus fin du Grand débat. Un hackathon sera organisé à l'Assemblée Nationale samedi 23 mars 2019 pour permettre aux députés d'entendre ces différentes interprétations.

« L’open data est aussi un moyen que peuvent utiliser des groupes d’influence pour récupérer les résultats, les analyser rapidement et en fonction du résultat qu’ils souhaitent obtenir déclencher des "attaques ciblées" pour influer sur le résultat », prévient toutefois Maximilien Moulin. 

POUR ALLER PLUS LOIN :

> OK, les IA nous mettent la pâtée, mais elles trichent dans leur apprentissage

> Chiffres, pouvoir et médias : les Gilets jaunes se lancent dans le data journalisme

> Bot raciste, robot expert en turlutte... le top 5 des pires IA n'est pas glorieux

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.