premium 1
Doigt robotique pointe la photo d'un homme jeune parmi quatre photos.
© Andrey Popov via Getty Images

Intelligence artificielle : les vraies questions à se poser pour éviter l’ethical washing

Le 19 avr. 2019

Les GAFA inaugurent des comités éthiques sur l’intelligence artificielle. Bullshit ? Peut-être. Mais le sujet est aussi pris au sérieux par la Commission européenne, qui a publié le 8 avril un guide pour une IA de confiance. Nous avons rencontré l’un des auteurs : Raja Chatila, professeur en robotique.

Raja Chatila est professeur en robotique et éthique des intelligences artificielles à la Sorbonne et directeur de l’Institut des systèmes intelligents et de robotique (Isir). Il fait partie du comité d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission européenne. Nous l’avons rencontré lors de la Nuit de l’IA jeudi 18 avril à Paris.

Depuis quelques mois, les géants de la tech créent des comités éthiques pour réguler les intelligences artificielles. Google notamment, qui a fini par le fermer une semaine après son inauguration. Comment analyser cette tendance ?

Raja Chatila : Les entreprises de la tech savent qu’elles jouent un rôle important dans le développement de ces technologies. Et elles ont surtout été confrontées à des applications problématiques de l’intelligence artificielle. Le scandale Cambridge Analytica en est un exemple. Google a effectivement créé un comité éthique fin mars. Cela devait être un comité extérieur à l’entreprise pour garantir son indépendance. Google a décidé de le fermer suite aux plaintes de ses employés. Beaucoup ont critiqué la composition de ce comité. Certains membres sont accusés d’avoir eu des comportements discriminants envers les minorités LGBT+ notamment. Ce qui paraît choquant pour un comité censé définir ce qui est éthique ou non. La défense de Google était de dire qu’il voulait des personnes avec des points de vue différents. Mais ce n’est pas ça un comité éthique ! Les personnes qui le constituent doivent avant tout savoir ce qu’est l’éthique. Cela prouve que Google n’avait pas réellement réfléchi avant de lancer ce comité.

C’était donc une question d’image…

R.C. : Oui, plus qu’une réelle volonté.

Depuis quand datent ces questionnements autour de l’éthique de l’IA ? La technologie n'est pas vraiment nouvelle. Pourtant on ne semble parler d’éthique que depuis deux ou trois ans…

R.C. : Les questionnements autour de l’éthique sont en fait presqu’aussi anciens que l’intelligence artificielle elle-même. Ils existent depuis les années 1950. À l’époque, on ne parlait pas d’éthique, mais de philosophie. Ces questionnements restaient prospectifs car la technologie n’était pas suffisamment avancée. Dans les années 2000, les systèmes robotiques autonomes ont suffisamment mûri pour sortir des laboratoires. On a commencé à développer des armes, des systèmes capables d’interagir avec les humains et de prendre des décisions. Savoir comment devaient se comporter ces systèmes est donc devenu une question très concrète à ce moment-là.

Plus récemment, on s’est réellement rendu compte du rôle joué par les données, qui nourrissent les intelligences artificielles. Et des biais qu’elles peuvent contenir. Le bot twitter Tay développé par Microsoft en 2016, qui est devenu raciste au bout de quelques jours, est un bon exemple. C’était assez inattendu et ça a choqué le public. Des comités qui rassemblent philosophes, ingénieurs, organisations sont nés pour creuser ces questions, pour essayer de définir ce que doit être un système d’intelligence artificielle éthique.

Une intelligence artificielle éthique, c'est quoi exactement ?

R.C. : C’est ce que nous avons essayé de définir dans le rapport « Guidelines for a trustworthy AI » (guide pour une intelligence artificielle digne de confiance). Nous sommes partis d’un certain nombre de principes sous-jacents à l’éthique : la dignité humaine, le libre-arbitre, le bien-être social et individuel… Nous avons ensuite défini sept exigences que devraient respecter les systèmes d’intelligence artificielle : garantir le libre-arbitre humain, c'est-à-dire qu'un algorithme ne doit pas vous manipuler via des biais cognitifs qui vous privent de votre autonomie de décision, ne pas exacerber la violence, être juste (ne pas discriminer une partie de la population), être transparent, être sûr et robuste, respecter la vie privée, avoir un responsable, c’est-à-dire qu’une entreprise, un service de l’entreprise ou un salarié doit être responsable de ce système autonome, en cas de litige notamment.

Le guide propose des questions que les entreprises peuvent se poser pour faire en sorte que leurs intelligences artificielles respectent ces exigences. Est-ce que mon système a un impact sur les droits humains ? Est-ce que mon système utilise des données ? Si oui, quelle est la source de ces données ? Est-ce que mon système amplifie les biais ? Le sujet n’est pas seulement de se poser ces questions, mais aussi de mettre en place des mécanismes pour que ces questions soient systématiquement prises en considération. Nommer un Chief ethical officer pourrait être une solution, par exemple.

Nous sommes en train de sélectionner des entreprises pour tester ce guide. Il s’agira probablement d’une dizaine de sociétés de différentes tailles, nationalités et secteurs d’activité. Peut-être que certaines de nos recommandations seront difficilement applicables. Ce test nous permettra de les affiner. Un nouveau rapport sera publié d’ici à fin 2019.

Ces recommandations auront-elles une valeur législative ? Les entreprises seront-elles obligées de s’y soumettre ?

R.C. : C’est une question importante à laquelle je n’ai pas la réponse. C’est aux législateurs de répondre. Est-ce qu’il faut des mécanismes de certification par des organismes indépendants ? Des mécanismes législatifs ? Une auto-certification des entreprises ? De mon point de vue, il faut imaginer quelque-chose de souple car la technologie évolue vite. Il faut aussi que les obligations puissent être différentes d’une entreprise à l’autre, car les exigences ne sont pas les mêmes selon la taille et le secteur d’activité. La robustesse d’une intelligence artificielle pour une compagnie aérienne est, par exemple, clé. Vous ne montez pas dans un avion si l’IA qui le pilote est fiable à 70 %. 

LIRE AUSSI :

> Siri, Alexa, OK Google... qui est le plus sexiste ?

> Bot raciste, robot expert en turlutte... le top 5 des pires IA n'est pas glorieux

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.