habillage
premium1

Mefions-nous de l’algorithme

Le 1 juill. 2011

Natalie Rastoin, figure majeure de la communication et de la publicité, qui est Directrice Générale du groupe Ogilvy, et Présidente d’OgilvyOne, avec sa fille Camille François, étudiante à Sciences Po et Columbia, présidente de Students for Free Culture France  ont rédigé à quatre mains une contribution pour "Infolab" dont nous avons souhaité faire écho. Infolab traite chaque mois d'une thématique autour des enjeux de communication. Cette première contribution porte plus particulièrement sur les aspects générationnels et les nouvelles responsabilités en cours pour les media vis-à-vis du traitement de l'information.


En tant que mère et fille, nous partageons de nombreux intérêts : un peu futiles parfois, comme les chaussures ou les macarons – mais aussi plus sérieux, comme la conviction qu’Internet peut faire évoluer la démocratie et le débat public. Nos deux générations ont un rapport très différent à cette révolution, mais nous avons toutes les deux toujours pensé qu’Internet représentait un endroit fabuleux où tout peut se dire et s’échanger sans barrière et où peut se renforcer l’intelligence collective. Aujourd’hui, nous nous demandons si cette conviction n’est pas un peu naïve, à l’heure de Google et de Facebook…


En effet, nous avons été très touchées par la mise en garde récente d’Eli Pariser, activiste démocrate américain et fondateur du site militant MoveOn.org, lors de la convention « Personal Democracy » à laquelle Camille assistait. Depuis le début de l’année, Eli Pariser nous invite à considérer l’importance des algorithmes de personnalisation et leurs effets pervers sur l’information que nous consommons. En effet, les sites comme Google et Facebook prennent une importance de plus en plus importante dans la façon dont les français s’informent au quotidien. Importance encore accrue avec l’usage des smartphones qui nous conduisent à passer encore plus par Facebook. Or l’information que nous fournissent ces sites est toute particulière : elle est personnalisée pour correspondre exactement à ce que nous avons envie de lire en nous levant le matin.

 


Pourquoi nous ne pouvons pas vraiment personnaliser notre info’

 


Derrière notre newsfeed Facebook ou derrière les premiers résultats que Google nous présente, il y a une mécanique subtile orchestrée par un algorithme invisible qui prend en compte des critères comme les dernières recherches que nous avons tapées, les sites que nous visitons le plus, notre langage d’utilisation, notre lieu de résidence, etc. Eli Pariser dénombre pas moins de 57 critères utilisés par Google pour classer nos résultats de recherche afin d’arriver à nous présenter en premier les résultats qui correspondent le mieux à ce que nous avons envie de voir !


Depuis Décembre 2009, il n’existe plus de « Google Standard » : la personnalisation des résultats de recherche n’est pas une option, c’est la donne pour tout le monde! Cela se vérifie sur nos deux ordinateurs : bien qu’ayant des intérêts convergents et bien que nous effectuons nos recherches depuis des lieux proches, Google nous présente des résultats différents, correspondant à ce qu’il estime être ce que nous avons envie de voir. Par exemple, des recherches connotées « business » vous renverront ultérieurement à des résultats « business », des recherches connotées « politiques » à des résultats « politiques ».


La composante géographique peut changer radicalement les résultats présentés : pensez à ce qu’il se passe lorsqu’une recherche est effectuée de part et d’autre de l’Atlantique sur un sujet polémique…
Cela est dangereux, car ces algorithmes nous dictent désormais le menu de l’information que nous consommons mais sans que nous puissions savoir quels critères ils utilisent – critères qui doivent pourtant être bien éloignés de ceux que l’on imagine être ceux de l’Express lors de la conférence de rédaction, quand elle pense à ses lecteurs !


L’enjeu est le suivant : ce que j’ai envie d’entendre en tant que consommateur est-il toujours ce qu’il est nécessaire que j’entende en tant que citoyen ? Faut-il toujours flatter cette vieille théorie du « mort-kilomètre », qui dit qu’un mort à un kilomètre de mon domicile en vaut mille à mille kilomètres ? Mark Zuckerberg met bien les pieds dans le plat quand, pour expliquer le fonctionnement du newsfeed Facebook, il déclare qu’un écureuil mourant sur le palier de votre maison est sûrement plus susceptible de vous intéresser que les enfants qui meurent en Afrique (l’anecdote est rapportée par David Kirkpatrick dans son livre The Facebook Effect)

 


Des informations organisées selon un agenda qui nous échappe

 


Certes, personne ne croit qu’il est possible d’évoluer dans l’immensité d’Internet sans ces filtres algorithmiques : il faut bien que les résultats soient organisés quand on tape une recherche ! Là dessus, c’est Eric Schmidt, le CEO de Google, qui a donné le chiffre qui tue en début d’année : d’après lui, nous créons désormais tous les deux jours autant de données qu’on en a créé entre le début de la civilisation et 2003… Il ne s’agit donc pas de se tenir éloigné des moteurs de recherches et des applications qui organisent l’information qui circule sur Internet. Il s’agit plutôt d’en comprendre les rouages, et, quand il le devient nécessaire, d’apprendre à les contourner pour qu’Internet reste un outil propice à créer des citoyens éclairés sans devenir simplement un fournisseur quotidien de lolcats et autres vidéos divertissantes mais franchement stupides partagés par vos petites cousines sur Facebook.


Les citoyens du 20ème siècle ont appris la théorie de l’agenda : ils savent que l’information diffusée par la presse reflète une sélection des enjeux choisis par les rédactions plutôt qu’un reflet de ce qu’il se passe dans le monde (voir les travaux de Maxwell McCombs et Donald Shaw en 1972, bien que le succès de cette théorie se mesure en constatant qu’elle a échappé à ses auteurs pour entrer dans l’intuition collective !).

A nous, citoyens du 21ème siècle, de nous emparer de la théorie de l’algorithme : ce qui se passe dans nos ordinateurs n’est pas non plus un reflet de ce qu’il se passe dans le monde, mais bien une sélection personnalisée faite par des algorithmes et basés sur des critères que nous n’avons pas choisis.

 

Ainsi, plus les français se nourrissent d’information sur Internet, plus une mission claire et importante s’affirme pour les médias traditionnels : il leur incombe de faire le travail de la visibilité des points de vue, pour que le citoyen soit confronté dans la presse à ce que son newsfeed lui cache. A cet égard nous remercions toutes deux Courrier International dont la sélection d’informations est toujours dérangeante, comme quelqu’un qui ignore notre confort parfois facile et paresseux.

 

 

L’algorithme n’a pas de visage, il n’y a personne à vilipender pour les choix qu’il fait. C’est ce qui est d’autant plus dangereux : ce n’est pas parcequ’il n’est pas humain qu’il est neutre – il reste forgé, conçu par des hommes dont nous devons comprendre les choix et les objectifs afin de les mettre en balance avec les nôtres. Les ingénieurs de Facebook veulent nous divertir et cela est bien normal. Mais notre démocratie nous appelle également à davantage de responsabilité, ce qui implique aujourd’hui de repenser notre rapport à l’information sur Internet, et qui rend un rôle clé au journalisme du XXIe siècle.

 

 

http://blogs.lexpress.fr/infolab/

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.