Advertisement
premium2Advertisement
premium1
premium1
Petites voitures simulent un accident de la route
© CasPhotography via Getty Images

Voitures autonomes : faut-il jouer les profs de philo pour programmer les algos ?

Le 20 nov. 2019

Faut-il sacrifier les passagers pour sauver des piétons ? Écraser un groupe de seniors pour épargner une femme enceinte ? Le chercheur Jean-François Bonnefon s’intéresse aux dilemmes moraux liés au développement des véhicules autonomes. Nous l’avons interviewé à l’occasion de Futurapolis.

En 2016, Jean-François Bonnefon et ses collègues lancent Moral Machine. Un site internet où les internautes sont invités à résoudre une série de dilemmes moraux liés à la programmation des voitures autonomes. En cas d’accident, faut-il sacrifier les trois passagers de la voiture plutôt que trois piétons ? Faut-il sauver une femme enceinte plutôt qu’une personne âgée ? Un chien plutôt qu’un humain ? Le site est vite devenu viral. Des centaines de millions d’internautes à travers le monde ont déjà répondu au questionnaire.

Dans son livre La voiture qui en savait trop : L'intelligence artificielle a-t-elle une morale ? (humenSciences, octobre 2019), Le docteur en psychologie cognitive à la Toulouse School of Economics raconte les dessous de cette expérimentation hors norme. Il explique plus largement les questionnements éthiques posés par le développement de l’intelligence artificielle.

Deux ans après le lancement de l’expérimentation, quels sont les grands enseignements de Moral Machine ?

Jean-François Bonnefon : Nous retenons trois tendances. Sans grande surprise, les répondants préfèrent très nettement sauver les humains plutôt que les animaux. Ils sont aussi très sensibles au nombre de vies sauvées, ainsi qu’à l’âge des victimes. Les enfants sont plus souvent sauvés que les personnes âgées. Comme Moral Machine a eu un succès mondial, nous avons pu avoir une analyse assez fine pays par pays, continent par continent. On distingue trois grandes zones avec des profils assez différents. Les grandes tendances générales – privilégier les plus jeunes et les humains avant les animaux notamment – restent assez similaires. Mais la force de ces tendances changent d’un pays à l’autre. Sauver les enfants plutôt que les personnes âgées est un critère plus important dans les pays occidentaux qu’en Asie, par exemple.

Il y a aussi des constats plus dérangeants. En majorité, les répondants préfèrent sacrifier un SDF plutôt que n’importe quelle autre personne…

J.-F. B. : En effet, les personnes sans-abri et celles en surpoids étaient plus souvent tuées que les autres. Dans les pays du Sud les répondants avaient plutôt tendance à sacrifier les sans-abri. C’est en fait très corrélé au niveau d’inégalités économiques. Plus les inégalités sont fortes, plus les répondants semblent les avoir intégrées. Nous avons introduit le personnage du sans-abri et de la personne en surpoids pour montrer qu’il ne faut pas avoir une vision naïve où il suffirait de suivre les préférences des gens pour programmer les voitures autonomes. Nous voulons nous adresser aux gouvernements qui vont prendre des décisions liées au développement de ces véhicules. Il faut qu’ils connaissent les préférences de leurs citoyens car les décisions qu’ils prendront nécessiteront d’être expliquées avec beaucoup de soin. Par exemple, si un gouvernement décide de ne pas donner la priorité à la vie des enfants, il faudra bien argumenter ce choix car il va à l’encontre de la préférence de l’opinion.

Vos recherches montrent aussi que la plupart des individus ne sont pas prêts à acheter une voiture autonome…

J.-F. B. : C’est l’un des enseignements d’une précédente étude. La question qui était posée était : est-ce légitime pour une voiture autonome de mettre en danger ses passagers pour sauver des gens sur la route ? La plupart des gens estiment que d’un point de vue moral le véhicule devrait sauver les piétons plutôt que les passagers. Mais en revanche ils ne sont pas prêts à acheter un véhicule capable de faire cela. Et ce n’est pas hypocrite, ils assument cette réponse ! Pour les gouvernements, c’est un enseignement intéressant. Car introduire ce type de véhicules autonomes peut permettre de faire reculer le nombre de morts sur les routes. Mais en même temps cela peut décourager de les acheter. C’est problématique.

Le site de Moral Machine est toujours actif. Vous continuez de récolter des réponses ?

J.-F. B. : Oui car nous analysons leur évolution. Nous regardons par exemple l’impact des accidents liés aux voitures autonomes sur l’opinion. Nous aimerions également affiner l’analyse géographique : regarder à l’échelle d’un pays, voire d’une ville et observer les différences. Pour cela, il nous faut plus de données.

Outre les voitures autonomes, l’intelligence artificielle, que l’on trouve dans les systèmes de reconnaissance faciale ou encore les chatbots, pose bien d’autres problématiques éthiques et dilemmes moraux. Quels sont ceux que vous avez identifiés ?

J.-F. B. : Il y en a énormément. Pour certaines technologies, comme la reconnaissance faciale, les problèmes éthiques ne sont pas forcément liés à l’algorithme, mais à l’utilisation que l’on en fait. Dans d’autres cas, le problème vient des données sur lesquelles se basent les systèmes d'intelligence artificielle. Les algorithmes utilisés dans les tribunaux par exemple, un sujet brûlant. Aux États-Unis, ils sont surtout utilisés pour décider si une personne doit rester en liberté ou non avant son procès, mais aussi pour choisir la durée et les conditions de la peine. Cela donne lieu à des questions d’arbitrage éthique très complexes. Est-ce qu’on veut que l’algorithme fasse le moins d’erreurs possibles ou est-ce qu’on veut qu’il fasse les erreurs les moins injustes possibles ? Parfois, ces alternatives sont mathématiquement inconciliables.

Récemment, il y a aussi eu le cas d’un algorithme utilisé par le système de santé américain pour prédire sur quels patients concentrer les soins en fonction de leur probabilité à développer des conditions de santé grave. Ces algorithmes sont entraînés sur la base des dépenses de santé, pas sur l’état de santé réel des patients. Or, aux États-Unis, il y a plus d’argent dépensé pour les patients Blancs que pour les patients Noirs. Donc l’algorithme sous-prédit la gravité de l’état de santé des patients Noirs. Il reproduit un biais, alors qu’il est censé améliorer la qualité des soins. Dans tous les domaines où il y a des inégalités entre certains groupes, on fait face à des problématiques similaires pour programmer les algorithmes.

Y a-t-il des cas où c'est l’algorithme lui-même qui se comporte de manière non-éthique ?

J.-F. B. : Oui, c’est le cas des algorithmes de trading notamment. Certains craignent qu’ils parviennent à communiquer entre eux et à installer une collusion (entente secrète) d’une façon que les humains n’auraient non seulement pas prévu, mais ne sauraient pas reconnaître.

Comment prévenir ce type de comportement ?

J.-F. B. : Certains comportements des machines sont très difficiles à prévoir, en particulier lorsqu’elles interagissent entre elles ou avec des humains. Pour mieux identifier les débordements et les prévenir, il peut être intéressant de considérer et d’étudier les machines comme des animaux, de manière empirique. Cela ne signifie pas qu'il faille arrêter d’analyser leur code et leur programmation, mais il faut aussi des personnes qui les étudient d’un point de vue extérieur. On peut étudier les animaux par la génétique et la biologie pour mieux connaître leur fonctionnement interne et tenter de prédire leurs comportements mais cela ne remplace pas le travail des éthologues qui observent les animaux sur le terrain ou dans des laboratoires. Il faut faire la même chose pour les machines.

Les questions éthiques que posent le développement de l’intelligence artificielle sont vertigineuses. N’est-ce pas un signal pour freiner le développement de ces technologies ?

J.-F. B. : Je ne sais pas si on peut freiner le développement de l’intelligence artificielle. C’est déjà trop tard pour se poser la question. On peut essayer d’encadrer, d’anticiper les problèmes. Mais l’IA est là pour déferler et on n'y fera pas grand-chose.

Dans le cadre des voitures autonomes, qui ne sont pas encore massivement sur le marché, on peut tout de même décider si l’on souhaite aller vers des systèmes 100 % autonomes ou non…

J.-F. B. : La question qu’il faut se poser c’est pourquoi on va vers l’autonomie des véhicules. Et c’est d’abord pour sauver des vies. On peut difficilement se dire qu'on ne va pas vers cette technologie, si elle a ce potentiel.

Mais les chiffres avancés sur la sécurité des véhicules autonomes ne sont pas toujours fondés…

J.-F. B. : C’est effectivement difficile à prouver statistiquement, puisque ces véhicules ne circulent pas encore. Certains chiffres avancés – comme 90 % des accidents pourraient être évités grâce aux véhicules autonomes – sont probablement exagérés. Mais même s'ils ne permettent d’éviter que 20 % des accidents, c’est déjà énorme.

Marine Protais - Le 20 nov. 2019
À lire aussi
premium2
premium1

Répondre à Parado Annuler la réponse

Votre adresse de messagerie ne sera pas publiée.

  • Ayant payé pour une Tesla avec l'option conduite autonome, je souhaite que l'agorithme sauve ma vie en évitant les obstacles durs.
    Il n'a pas à choisir entre les piétons, la responsabilité est laissée au hasard de l'accident.