Le terme a été usé, réutilisé, épuisé. Porteuse des plus grandes promesses, la data s’est souvent révélée décevante. La raison ? Des machines qui s’adonnent à une véritable loterie algorithmique. Interview d’Helen Zeitoun, Directrice Générale d’Ipsos en France dans le cadre de l'événement Humanized Data avec L'ADN le 16 avril.
Ipsos a lancé l’an dernier son programme de transformation « Total Understanding » (compréhension totale). En quoi consiste-t-il ?
Le premier est très certainement la segmentation historique entre le politico-sociétal d’une part et l’économique-marketing d’autre part, alors que les besoins, eux, sont totalement intégrés. Une compréhension « totale » d’une problématique business ou sociétale ne peut faire l’économie de l’autre pan. Tout est interconnecté.
Est-ce la fin d’une ère ? En a-t-on enfin fini avec le buzzword big data ?
Helen Zeitoun : Je pense en effet que nous sommes à un tournant. C’est ce que nous relatent nos clients. Après des années de collaboration avec des entreprises de big data détenant les fameux « algorithmes », parfois obscurs, voire effrayants, on cherche désormais une compréhension en profondeur des phénomènes. On sent que le marché ne souhaite plus uniquement avoir des amas de données organisées après un traitement algorithmique. Désormais, il faut relier les points, créer du sens entre différentes sources d’informations qui peuvent aller du macro au micro. C’est en multipliant les approches (écoute sur les réseaux sociaux, ethno, immersion…), les expertises (en processus comportementaux, en formation des opinions…), les nouvelles techniques permises par les nouvelles technologies… que nous parvenons à décrypter les phénomènes. Une approche en profondeur que nous appelons « deep data ».
Finalement, à l’image de l’information et des fake news, le big data en appelle à plus de profondeur pour vérifier la qualité de ses données…
Helen Zeitoun : Les approches sont similaires. Nous faisons un métier d’information, et l’information change. Chez nous, elle était historiquement faite de sondages et son spectre s’est considérablement élargi à l’heure où l’information et la donnée sont devenues abondantes. Nous avons un rôle de garant de la qualité, ne serait-ce que sur le plan éthique.
Le 16 avril prochain, vous organisez un événement autour de la donnée « humanisée » . Quel est le sens de cette approche ?
Helen Zeitoun : Nous partons d’un constat : aujourd’hui la data est déshumanisée. Elle est devenue avant toute chose une affaire technologique, et c’est une erreur. Les entreprises ont conçu des processus algorithmiques qui « tournent tout seul » mais on ne sait pas trop sur quelles données exactement… On sait juste qu’il y en a plein, et que les robots en font un traitement rapide et impressionnant. Ce qui en sort ? C’est très souvent une surprise pour tous.
Avec la donnée « humanisée » nous voulons porter le message d’une analyse pensée et sensée. Et cela commence dès le début de la réflexion. « Pourquoi des données, et quelles données utiliser ? » Cela peut paraître étonnant, mais très souvent les briefs courent après la donnée avant même d’avoir identifié des champs d’investigation solides et pertinents.
Deuxièmement, au niveau de la sélection des données, il faut faire un nettoyage essentiel. Car traiter un volume considérable de données vient toujours avec son lot de déchets, que seule l’intervention humaine en alliance avec la machine peut réussir.
Il faudra également observer la dimension éthique de ces données. Même si ces dernières sont parfois attrayantes, il est essentiel pour nous qu’elles respectent les règles du RGPD et de la CNIL. Nous avons tout un processus déontologique que nous nous imposons de respecter.
Idem sur la dimension scientifique. Ce sont les hommes et les femmes qui doivent questionner la démarche derrière des données transmises par une analyse neuroscientifique (par exemple : conditions d’analyse, position du ou des capteurs, méthode utilisée, etc.) L’analyse humaine permet de pallier tout cela pour une analyse plus pertinente d’une situation selon des méthodes ascendantes notamment associées au langage (NLP), contrairement aux méthodes « descendantes » devenues courantes - on capte un grand volume de données que l’on passe par un algorithme, pour sortir « quelque chose ».
Je ne dis pas que la technologie est obsolète. Bien au contraire, elle est fondamentale. Mais elle doit être pensée pour sa puissance de calcul, et non pour sa capacité à prendre des décisions d’analyse à notre place. C’est à nous de l’orienter et de vérifier le travail des algorithmes ou des IA. C’est une question de responsabilité.
EN SAVOIR PLUS
Participer à la conversation