Des robots devant des ordinateurs dans un open space

Les IA ne vont pas tuer le travail ni remplacer les travailleurs. On vous explique pourquoi.

© FB via Ideogram

Entre promesses d'automatisation et gains de productivité, les IA génératives annoncerait la fin du travail. Selon Yann Ferguson, spécialiste des IA et de leurs effets sur le marché de l'emploi, c'est plus compliqué.

Pour les entrepreneurs du secteur, et notamment Sam Altman, PDG d’OpenAI, cela ne fait pas de doute : « Les emplois vont disparaître. Et voilà. » Et si on abordait la question différemment en analysant objectivement la nature de ces outils ? Yann Ferguson est sociologue à l'Inria (institut national de recherche en sciences et technologies du numérique). Sa spécialité : l'étude des impacts de l'intelligence artificielle sur le monde du travail. Il est également directeur scientifique du LaborIA, un centre de ressources et d’expérimentations qui permet d'évoluer les pratiques des entreprises comme l’action publique sur ces sujets.

Est-ce que les entreprises ont déjà intégré les IA génératives dans leurs process ?

YANN FERGUSON : Pour l’instant, elles réalisent surtout des tests et c’est sans doute pour elles la meilleure chose à faire. En effet, les entreprises qui abordent ces outils avec un esprit uniquement critique, par ailleurs justifié, pourraient à moyen terme rencontrer des difficultés. Dans cinq ans, elles verront arriver une génération d’étudiants nés avec les IA génératives. Ils auront développé des compétences qui les amèneront peut-être à être moins précis sur certaines tâches – les ingénieurs auront pu perdre en vitesse de calcul, mais ils en auront sans doute développé d’autres, comme formaliser plus vite des propositions sur la base d’une meilleure écoute et compréhension des besoins des utilisateurs. Les entreprises doivent être préparées à ces mutations.

Sans les avoir forcément déployés, quelle valeur ajoutée les entreprises espèrent trouver dans ce type d’outils ?

Y. F. : Sur presque 200 cas d'usage que j’ai pu étudier sur l'IA d'apprentissage, dont l'IA générative, les entreprises envisageaient d’intégrer l’IA pour gagner en productivité. C’est un réflexe logique. Pendant des décennies, les technologies ont permis d'automatiser des tâches ce qui permettait de remplacer certains collaborateurs par des machines. Avec cette génération d’IA, je ne dis pas que cet usage est impossible, mais cela ne semble pas être la direction à prendre. La force des IA d'apprentissage réside dans leurs capacités à construire des corrélations entre un nombre très élevé de données. Certaines de leurs performances sont de très haut niveau, certes, mais elles cohabitent avec de graves sous-performances. En gros, elles font preuve d’une instabilité fondamentale qui rend leur performance médiane problématique. Or, pour automatiser, on a besoin de très fortes garanties sur la performance minimale.

Si ces IA sont inaptes à l’automatisation des tâches, quelle peut être leur utilité ?

Y. F. : On parle de ces outils comme de copilotes, d’aide à la décision, d’assistance... toutes ces expressions soulignent que ces formes d'IA sont à envisager dans leur capacité d’interaction avec les humains et ne peuvent pas fonctionner sans eux. Cela ne veut pas dire que les entreprises ne seront pas tentées par l’automatisation.

Ce statut d’outils interactifs déplace le rôle que nous accordions jusqu’à maintenant aux machines ?

Y. F. : Effectivement, jusqu’à maintenant, l’introduction des machines a apporté de la sécurité et de la stabilité. Leur force résidait dans leur prévisibilité : les outils ne sont ni fatigués, ni "revendicatifs". D’un point de vue du pire des patrons, l'être humain, c'est tout le contraire : il est casse-pieds, pose des arrêts maladie, a des revendications, etc. En revanche, il est très adaptable. Et donc, on ne peut pas s'en passer. Entre le déterminisme de la machine et l'empirisme des humains, on a toujours tâché de trouver un équilibre. Encore une fois, le grand changement avec les IA base de données, c’est que la machine, désormais elle aussi empirique, est soumise, comme les humains, à beaucoup d’instabilités. Pour les dirigeants, le nouvel enjeu sera donc d’apprendre à gérer la cohabitation entre deux formes d'empirisme.

Auriez-vous des recommandations pour intégrer ces outils sans verser dans cet automatisme imprudent ?

Y. F. : Il y a trois grandes choses à considérer qui, par ailleurs, auraient pu l’être pour l’adoption d'autres technologies. La première, c’est de voir dans quelle mesure le nouveau système s'intègre dans les process de votre organisation et dans sa culture. Prenons un exemple. Si vous êtes médecin et qu’une IA peut formuler des diagnostics très fiables toutes les demi-heures alors que vous recevez des patients tous les quarts d'heure, vous pourriez légitimement considérer que cela ne rentre pas dans vos process. Pour la dimension culturelle, nous avons étudié au LaborIA la mise en place de solutions de maintenance dans deux aéroports. Dans l’un, les équipes ont une tradition d’autogestion. Les managers fixent les objectifs, mais les collaborateurs sont autonomes dans les moyens. Dans l'autre, le management est très directif. Dans le premier cas, le système d'IA est rejeté par l'équipe et fonctionne très mal. Dans le second cas, il est mieux accepté car les équipes sont habituées à faire comme le chef a dit. On prête beaucoup trop de pouvoirs à l'IA dans sa capacité à changer l'organisation. Ici, on voit combien le système d'IA n'est que le ventriloque des formes de management pratiquées. L'historique de l'organisation et sa culture ont un énorme impact sur la diffusion de la proposition technologique.

Quelles sont les autres dimensions à considérer ?

Y. F. :  Il s’agit de l'acceptabilité sociale. Un entrepreneur me racontait qu’il avait mis au point une IA capable de corriger les copies des élèves. Il était persuadé que les enseignants allaient être enthousiasmés parce qu’ils se plaignent souvent de la charge que représente cette tâche. Mais après avoir proposé cet outil, il a compris que personne n’en voulait. Les professeurs considèrent que corriger des copies est un acte de responsabilité majeur et ils ne veulent pas le déléguer à une machine. Les médecins eux refusent d'utiliser une IA qui fait des diagnostics de radios s’ils n’ont pas accès à une explication. La responsabilité du bon diagnostic est d’une telle importance, qu’ils ne peuvent tout simplement pas la déléguer – même si la machine avait 95 % de réussite. Donc, il les refuse.

Cet article est tiré de la revue 34 de L'ADN - Où sont les travailleurs ? Ils ne veulent plus travailler comme avant. À commander ici ou à acheter chez votre libraire.

Béatrice Sutter

J'ai une passion - prendre le pouls de l'époque - et deux amours - le numérique et la transition écologique. Je dirige la rédaction de L'ADN depuis sa création : une course de fond, un sprint - un job palpitant.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

  1. Avatar Anonyme dit :

    Bonjour,
    Merci pour votre article.
    Le sujet évolue rapidement. Beaucoup d'entreprises ont déjà intégré des IA génératives dans leurs processus et pas que pour des tests. Et beaucoup de médecins utilisent de l'IA pour l'aide au diagnostique. La responsabilité n'est pas transférée (de même que le revenu qui en découle), mais on compte bien des gain de productivité et de performance.
    Bien à vous,
    Gérald

  2. Avatar Yves dit :

    Bonjour,
    Puisque le point de départ est le remplacement des collaborateurs par l'IA, la question n'est pas tant le remplacement total (quelques une des difficultés sont décrites dans l'article, et on ne parle pas des coûts énergétiques...) mais le gain de productivité d'un collaborateur qui va ainsi réaliser le travail de plusieurs collaborateurs... et donc supprimer des jobs si cela ne s'accompagne pas par la croissance du CA de son entreprise.
    En tout cas un sujet passionnant.

Laisser un commentaire