La Maison Blanche vient de publier 10 règles pour assainir et favoriser l'utilisation des intelligences artificielles aux États-Unis.
Soucieux de ne pas se faire distancer par la Chine, le Canada et la France dans la course à l'intelligence artificielle (IA), le Président Trump, qui prêchait auparavant la non interférence, a ordonné en février dernier la mise en place d'une American AI Initiative.
Le but : doper les fonds et les ressources alloués au secteur.
Dès règles oui, mais des règles très vagues...
Dans ce contexte, l'Office of Science and Technology Policy (OSTP) s'est penché sur l'élaboration d'une stratégie nationale. Moins d'un an après, le verdict est tombé, sous la forme de 10 règles.
Ces dernières s'adressent aux agences gouvernementales et entendent principalement promouvoir des IA transparentes, justes, sécurisées et cohérentes entre elles. D'après un porte-parole de l'OSTP, ces règles sont sciemment conçues pour être amendées et interprétées par les différentes agences en fonction des spécificités de leur secteur.
Concrètement, les agences fédérales seront dans l'obligation de notifier à l'OSTP comment leur IA se conforment à ces règles... mais sans que le bureau n'ait l'autorité de réfuter les propositions émises par les agences ! En l'état, ces règles font donc plutôt office de recommandations. En cas de discordance, les débats seront ouverts.
Pour le MIT Technology Review qui révèle l'information, deux scénarios possibles. Le respect rigoureux de ces règles pourrait conduire les agences à un usage plus rigoureux et raisonnable des IA. Dans un univers parallèle, ces mêmes agences pourraient tout aussi bien décider allègrement de contourner ces recommandations...
Transparence, flexibilité, sécurité
Les règles proposées devraient être publiées dans les prochains jours sur le site de la Maison Blanche afin que les parties prenantes (chercheurs, CEO...) puissent émettre des propositions.
Les 10 règles :
- Confiance : le gouvernement doit promouvoir des applications fiables, solides et digne de confiance.
- Participation : le public a le droit de proposer son retour durant toutes les étapes de l'établissement des règles.
- Intégrité scientifique : les décisions prises doivent se baser sur la science.
- Évaluation des risques : les agences doivent décider quels risques sont acceptables ou non.
- Bénéfices et coûts : les agences doivent prendre en considération l'impact que les régulations auront sur la société.
- Flexibilité : les applications IA doivent pouvoir s'adapter rapidement au changement si besoin.
- Non discrimination : les IA des agences ne doivent pas discriminer illégalement.
- Transparence : le public doit savoir quand et comment les IA sont utilisées.
- Sécurité : les agences doivent assurer la sécurités des datas utilisées par les IA.
- Coordination : les agences ont le devoir d'échanger entre elles afin d'être cohérentes dans leur approche.
Interrogé, Raja Chatila, chercheur à la Sorbonne Université, membre de Hub France IA et du High-Level Expert Group on Artificial Intelligence, (mandaté par la Commission européenne pour concevoir des recommandations), voit plutôt d'un bon oeil l'arrivée de cette mesure : « N'oublions pas qu'à l'aune de la culture américaine, nous revenons de loin ! Il y a peu, il était absolument hors de question que l'État se mêle de ces questions d'intelligence artificielle. Cette mesure est donc une bonne chose. En tous cas, son absence aurait été déplorable. Ici, l'objectif est de cadrer, à la sauce américaine, c'est-à-dire sans imposer, et ce afin de ne pas brider l'innovation. Les Américains ne veulent surtout pas prendre le risque de ralentir le rythme. Avec ces règles, ils espèrent rendre inutile une législation stricte. »
Des règles faites pour ne pas trop en dire, pas trop en faire, et ne pas peser trop lourd sur les acteurs concernés ont-elles seulement un sens ?
Participer à la conversation