habillage
23 principes AI

23 règles pour garder la maîtrise des IA

Le 3 févr. 2017

Des experts en IA s'inquiètent aussi du pouvoir qu'ils sont en train de créer. Ils ont édicté 23 règles pour prévenir les dérives. Une première depuis Asimov.

Avec l’avènement du machine learning doit-on craindre l’arrivée d’un Terminator prêt à signer la fin du monde ?

Un effroi alimenté par les déclarations de l’astrophysicien Stephen Hawking, Elon Musk et Bill Gates. Tous craignent des dérives. En ce sens, Google (DeepMind), Facebook, IBM, Microsoft et Amazon (rejoints récemment par Apple) se sont unis pour créer Partnership on AI : une plate-forme ouverte qui vise à définir les meilleures pratiques autour de l’intelligence artificielle. Elon Musk a également créé avec Peter Thiel, OpenAI dont l’objectif est de développer une intelligence numérique au profit de l’humanité et de diffuser les connaissances dans ce domaine.

Pour autant, avant la conférence Beneficial AI en janvier dernier, organisée par le Future of Life Institute aucun guide sur le sujet n’avait été véritablement été établi.

C’est désormais chose faite !

Durant la conférence à Asilomar, les membres de Future of Life ainsi que des chercheurs et experts de l'IA et de la robotique se sont réunis pour éplucher tous les documents parus sur le sujet : ont été étudiées les parutions de Partnership on AI, celles de la Maison Blanche, d'industriels, de l’Unité de Stanford et autres instituts scientifiques, notamment.

Au terme de cette réunion, vingt-trois principes ont été adoptés, baptisés les « 23 principes d’Asilomar » et dont l'objectif est d'encadrer le développement de l'intelligence artificielle.

Les voici :

Objectif des recherches : le but visé par les recherches en IA devrait être la création d'une intelligence artificielle bénéfique, et non une intelligence artificielle incontrôlable.

Investissements : les investissements dans l’IA doivent être soutenus par le financement de recherches visant à s’assurer de son usage bénéfique, qui prend en compte des questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales.

Quelques exemples de question : « Comment rendre les futures IA suffisamment robustes pour qu’elles fassent ce qu’on leur demande sans dysfonctionnement ou risque d’être piratées ? » ; encore « Comment améliorer notre prospérité grâce à cette automatisation tout en maintenant les effectifs humains ?  » ; « Comment pouvons-nous mettre à jour nos systèmes juridiques pour les rendre plus équitables et plus efficaces dans la gestion des risques associés à l'IA ? »

Relations entre les scientifiques et les législateurs : un échange constructif et sain entre les chercheurs et les législateurs de l'intelligence artificielle est requis.

Esprit de recherche : un esprit de coopération, de confiance et de transparence devrait être encouragé entre les chercheurs et les développeurs de l'IA.

Prévention : les équipes de développement des systèmes d'IA doivent coopérer activement pour éviter les raccourcis avec les normes de sécurité.

Sécurité : les IA devraient être sécurisées durant tout le long de leur durée de vie opérationnelle grâce à des caractéristiques vérifiables et applicables.

Transparence en cas de dommages : lorsqu'un système d'IA cause des dommages, il devrait être possible de déterminer la cause.

Transparence judiciaire : l'implication d'un système autonome dans une quelconque prise de décision judiciaire doit être corroborée par des explications satisfaisantes et susceptibles d'être auditées par une autorité humaine compétente.

Responsabilité : les concepteurs et les constructeurs d'IA avancées devront assumer la responsabilité des conséquences morales découlant de leurs utilisations abusives et de leurs agissements.

Concordance de valeurs : les IA doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité culturelle.

 Valeurs humaines : les systèmes d'IA devraient être conçus et exploités de manière à être compatibles avec les idéaux de la dignité humaine, les droits, les libertés et la diversité culturelle.

Données personnelles : chaque personne devrait avoir le droit d'accéder, de gérer et de contrôler ses données personnelles, compte tenu de la puissance des systèmes d'IA à analyser et utiliser ces données.

Liberté et vie privée : l'application de l'IA aux données personnelles ne doit pas restreindre indûment la liberté réelle ou perçue des personnes.

Bénéfice partagé : les IA devraient bénéficier au plus de gens possibles et les valoriser.

Prospérité partagée : la prospérité économique créée par l'IA devrait être largement partagée, au bénéfice de toute l'humanité.

Contrôle humain : les humains devraient être en mesure de choisir s'ils veulent oui ou non déléguer des décisions aux systèmes IA.

Anti-renversement : les pouvoirs qui sont conférés à quelqu'un du fait qu'il contrôle des systèmes d'IA très avancés devraient respecter et améliorer les processus sociaux et civiques sur lesquelles le bien-être de la société repose.

Course aux IA d’armement : une course aux IA d’armements mortelles basées sur l'IA devrait être évitée.

Alerte sur les capacités : s'il n'y a pas de consensus, il est vivement conseillé d'éviter de faire des hypothèses fortes concernant les limites supérieures des capacités des futures IA.

Importance : les systèmes d'IA avancés pourraient favoriser un important changement dans l’histoire de la vie sur Terre ; en cela ils devraient donc être gérés avec soin et avec de gros moyens.

Risques : Les risques causés par les IA, particulièrement les catastrophiques ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur impact supposé.

Auto-développement infini : les IA conçues pour s’auto-développer à l’infini ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.

Bien commun : les intelligences sur-développées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l’humanité plutôt que pour un État ou une entreprise.

Pour rappel voici les trois lois de la robotique d’Isaac Asimov :

Loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger ;

Loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

Loi numéro 3 : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

Sylvie le Roy - Le 3 févr. 2017
premium2
premium2

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

  • L'IA doit protéger, améliorer et développer la vie des humains et de ses moyens de subsistance sur cette terre. L'IA doit donc également être équipée de paramétres permettant une bonne comprehension de l'homme dans son environnement incluant culture-valeurs humaines-vie en société.
    L'IA ne peut pas être standard/ standardisée.

  • La peur vient du fait de penser à UNE seule entité d'intelligence artificielle qui se révolte contre l'humanité. Mais le plus probable est que chaque pays développe sa propre entité. Dans ce cas là l'équilibre de forces antagoniques pourrait être maintenu.