bannière 2
bannière 2
premium1
westworld

En France, la lutte pour une intelligence artificielle éthique s'organise

Le 29 mars 2018

Nous y sommes : la France a mis en place un label pour éviter que l'intelligence artificielle ne dérape.

Une intelligence artificielle ne fait qu’agir selon les volontés de son créateur. Ses algorithmes - ses gènes- sont une reproduction fidèle de la manière dont le développeur a façonné sa création. À partir de ce constat, il est possible de proposer des I.A. qui, parfois de manière inconsciente, reproduisent certaines inégalités sociales.

Pour éviter ce type de dérapage, Jérôme Béranger, chercheur et expert en éthique du numérique a mis en place un label visant à créer des algorithmes éthiques. « Il existe en médecine une échelle de la douleur. En fonction de ce que ressent le patient, un traitement adéquat lui sera appliqué. Pour l’I.A., le principe est identique. Nous nous appliquons à savoir d’où proviennent les données utilisées par ces systèmes, leur qualité, leur volumétrie… L’idée est aussi de demander aux créateurs ce que fait réellement un algorithme. Ce ne doit pas être une boîte noire que personne ne contrôle ».

L’expert a ainsi créé l’Adel, un organisme dont le but est de promouvoir un label éthique aux traitements des données numériques. En contactant les développeurs et autres entreprises en amont de la création d’un projet, l’objet de la démarche est d’inclure une éthique « by design » au sein des équipes et de leur création.

L'initiative vise à éviter certains dérapages. Ce fut par exemple le cas de systèmes de reconnaissance faciale dont les résultats étaient mauvais lorsqu’il s’agissait de reconnaître le visage de personne noires de peau. Une expérience menée aux Etats-Unis a ainsi démontré que pour les personnes à la peau claire, les intelligences artificielles avaient identifié correctement un homme dans plus de 99% des cas. Pour les personnes à la peau plus sombre, les intelligences artificielles s’étaient trompées dans 12% des cas pour les hommes et dans 35% des cas pour les femmes…

« L’IA ne peut pas être une nouvelle machine à exclure »

Le gouvernement suit la même voie que la recherche. Dans son rapport portant sur l’intelligence artificielle et son développement en France, le député et mathématicien Cédric Villani met clairement en avant le risque que les algorithmes reproduisent les inégalités sociales mais également le sexisme ou le racisme.

Pour éviter un tel écueil, le document insiste sur le besoin de féminiser la profession. A ce jour, le gouvernement estime à seulement 10% le taux de femmes dans les écoles d’ingénieur en informatique. Pour y remédier, l’objectif a été porté à 40 % d’étudiantes à l’horizon 2020.

Un souhait que partage Alice Coucke, data scientist. Interrogée par nos soins, cette chercheuse en data science précise : « de nombreuses femmes quittent le milieu de l’IA et de la tech à cause en partie de la bro-culture qui y règne. Des atmosphères très masculines sont parfois encouragées ce qui a pour conséquence d’éloigner les femmes. Forcément, les algorithmes développent ces mêmes biais ».

Pour éviter que ces comportements ne subsistent, la commission Villani souhaite mettre en place un comité d’éthique de l’Intelligence artificielle. Sa mission principale sera d’auditer les algorithmes. Si ces derniers s’avèrent nuisibles, le Défenseur des droits pourra être saisi afin qu’une action en justice soit initiée. Un premier pas nécessaire mais qui ne remplacera pas les besoins de formation et de changement culturel au sein des écoles et des entreprises.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

L'actualité du jour