Greta Thunberg en 2018

Faut-il que les robots se comportent comme Greta Thunberg ?

© Anders Hellberg via Wikimedia

Ça serait plutôt une bonne idée, estime Martin Gibert, chercheur en éthique de l’intelligence artificielle et auteur de Faire la morale aux robots (Flammarion, 2021).

Martin Gibert est un philosophe au pays de l’intelligence artificielle. Ce spécialiste de la psychologie morale travaille comme chercheur en éthique de l’I.A. à l’Université de Montréal. Dans son ouvrage Faire la morale aux robots (Flammarion, 2021), il se demande comment nos voitures autonomes, robots et autres chatbots doivent être programmés pour prendre les bonnes décisions. La thèse qu’il expose est étonnante. « Pour faire de bons robots, il faut choisir de bons exemples » , écrit-il. Un robot vertueux pourrait s’inspirer d’humains vertueux comme Greta Thunberg, Jésus, Angela Davis ou Gandhi. Il nous explique son raisonnement. 

En quoi Emmanuel Kant, Jeremy Bentham et les autres philosophes de la morale peuvent-ils être utiles aux robots ?

MARTIN GIBERT : Je voulais m’adresser aux programmeuses et programmeurs qui manipulent des objets dont les conséquences peuvent être éthiques. Expliquer les trois grandes théories de base de la philosophie morale, celles dont on parle généralement en cours d’introduction, me paraissait essentiel. Le déontologisme que l’on retrouve chez Kant est l’idée qu’il faut respecter des normes, peu importent les conséquences. Les dix commandements par exemple, c’est du déontologisme. L’utilitarisme où l’idée n’est pas de respecter des normes, mais d’avoir des conséquences désirables : le plus grand bonheur du plus grand nombre. La troisième grande théorie est l’éthique de la vertu, qui nous vient d’Aristote. Elle propose une autre définition de l’action morale, en se demandant ce que ferait une personne vertueuse dans des circonstances similaires. 

Concrètement, quels sont les robots qui prennent des décisions morales ?

M.G. : Il y a évidemment les voitures autonomes, qui peuvent avoir à prendre une décision entraînant la mort d’une personne. Choisir d’écraser A plutôt que B, par exemple. Mais j’évoque aussi des I.A dont les conséquences sont moins dramatiques. Il y a l’exemple d’un chatbot qui pourrait avoir à répondre à des questions plus ou moins embarrassantes. Un enfant qui demande si le père Noël existe par exemple. Les conséquences ne sont pas abominables, mais il faut tout de même y avoir pensé. Il y a beaucoup de chatbots dans le monde, et donc sûrement beaucoup d’enfants qui posent cette question. Faut-il suivre le déontologisme de Kant et décider qu'il ne faut jamais mentir ? Ce n'est pas certain. Dans un autre style, l’algorithme de recommandation de YouTube a aussi des conséquences éthiques, en diffusant des vidéos antivax ou complotistes, par exemple.

Dans votre livre, vous suggérez que des gens vertueux comme Greta Thunberg pourraient servir de modèle pour la programmation de certains robots. Expliquez-nous cela. 

M.G. : Oui, l’idée c’est que les robots s’inspirent des meilleurs d’entre nous, des humains que les autres reconnaissent comme moralement plus compétents. Il ne faut pas les confondre avec les personnes les plus riches, les plus intelligentes, les plus puissantes… Ce ne sont pas non plus les personnes qui représentent le mieux les autres. La personne vertueuse n’est pas seulement intelligente, elle a aussi des capacités émotionnelles : la générosité, le courage… Dans le modèle que je propose, je ne demande pas aux robots d’avoir ces capacités émotionnelles, mais d’agir comme agiraient ces personnes dans la même situation. 

Il faudrait pour cela que les algorithmes soient entraînés à partir des actions et communications passées des personnes vertueuses. Cela signifie qu’il faut identifier ces personnes et analyser leurs comportements et leurs réactions. C’est un projet très ambitieux, c’est essayer de produire de la moralité de manière un peu scientifique. 

Cela me paraît être la meilleure solution pour les robots sociaux, les robots avec lesquels on interagit. C’est un moyen d’avoir confiance en eux. On fera davantage confiance à un robot qui se comporte comme une personne vertueuse qu’à un robot dont le but est de maximiser à tout prix un résultat, ou d’obéir aux normes sociales. 

Vu l’ampleur et la complexité de la tâche, la solution la plus simple ne serait-elle pas de renoncer à certains robots dont les conséquences peuvent être dramatiques, comme les véhicules autonomes ?  

M.G. : Le renoncement est une solution simple, mais qui manque de courage. Si l’on part de l’hypothèse que certains robots, les voitures autonomes par exemple, font un tout petit mieux qu’un humain, alors cela vaut la peine d’essayer. Si on ne fait rien, on s’en remet uniquement au hasard. En cas d’accident, l’humain n’a pas le temps d’avoir une vraie délibération morale. C’est le hasard qui décide. L’intérêt de la voiture autonome, c’est que l’on peut la programmer de manière à ce que sa décision soit morale. Déléguer au robot fait un peu peur, l’être humain aime bien penser qu’il y a des actions qu’il est le seul à pouvoir réaliser. Mais il y a plein de situations dans lesquelles les êtres humains prennent de mauvaises décisions ou n’ont pas le temps d’en prendre. Il me semble qu’on a à gagner à faire venir plus de robots moraux dans le monde. 

premium2
commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.