premium 1
premium 1 mobile
aipic2

Facebook et Bing… quand l’I.A. bug

Le 31 août 2016

Ces derniers jours, le nouvel algorithme de trending topics de Facebook a cité une fausse information et le traducteur de BING a traduit Daesh par Arabie Saoudite...

 

Accusé de favoriser les démocrates lors des élections présidentielles par le biais de ces « tendances » (trending topics),  Facebook a pris la décision de confier le classement de ses tendances à des bots depuis le 26 août dernier.  Après 4 jours de travail, les robots ont montré un premier signe de faiblesse en relayant une information fausse parue sur un site pro-Trump faisant l’annonce qu’une présentatrice de Fox News (Megan Kelly) avait été licenciée pour une proximité trop grande avec Hillary Clinton.

 

 

 

Une porte-parole de Facebook se serait immédiatement excusée de cette erreur et aurait annoncé que le processus de vérification des articles serait très prochainement amélioré, selon le site Mashable.

Le 25 août dernier, c’est l’intelligence artificielle présente dans le logiciel de traduction de Bing (Microsoft) qui se faisait épingler. Lorsque le mot Daech était traduit de l’arabe à l’anglais il l'était par « Arabie Saoudite »… Idem, Bing a présenté ses plus plates excuses dans un tweet du Vice-Président de Microsoft en Arabie Saoudite.

 

Les erreurs sont communes avec l’utilisation de l’IA. On se souvient notamment que celle de Coca-Cola s’était mise à retweeter Hitler, et que Tay, l’intelligence artificielle de Microsoft a été performante sur les propos racistes.

Mais à voir les commentaires laissés par certaines personnes en réaction à cette actualité, on se dit que l’IA a déjà un temps d’avance sur beaucoup d’humains…

 

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.