
Laurence Devillers, chercheuse en intelligence artificielle, estime qu'il faut démystifier les grands modèles de langage, notamment auprès des jeunes élèves, qui doivent apprendre à se servir des IA.
Depuis le début de ses apparitions médiatiques, Laurence Devillers, professeure en intelligence artificielle à la Sorbonne, directrice de la chaire HUMAAINE (Human-Machine Affective Interaction & Ethics) au CNRS et autrice du livre Les Robots émotionnels. Santé, surveillance, sexualité... : et l'éthique dans tout ça ? (Éditions de l’Observatoire 2020), n'a eu de cesse de nous prévenir. Les outils ont la capacité de nous subjuguer. Tandis qu'elle travaille à la mise en place au sein de la Sorbonne d’un projet d'évaluation portant sur l'appropriation des intelligences artificielles, la chercheuse revient sur l'impact qu’elles peuvent avoir sur l'apprentissage et dévoile ses recommandations.
De nombreux professeurs font état de l'usage de ChatGPT pour l'aide aux devoirs. Faut-il s'inquiéter de ce nouvel usage numérique ?
Laurence Devillers : Lorsque ChatGPT est apparu et que des interdictions ont été évoquées dans les écoles, j'ai rédigé une tribune sollicitée par Le Monde. Dans celle-ci, j'avançais l'idée qu'il était nécessaire d'adopter une approche d'accompagnement plutôt que de prohibition vis-à-vis de cet outil. ChatGPT fait désormais partie intégrante de l’environnement des élèves et va continuer à gagner en importance. Il est donc primordial d'adopter une approche plus flexible et d’expliquer aux élèves ces nouveaux usages. S'en tenir à une position hostile envers ces systèmes n'est pas viable. Il est essentiel de les comprendre et de les utiliser de manière appropriée.
Comment expliquer ChatGPT aux enfants et aux préadolescents qui seraient tentés de l'utiliser à tort et à travers ?
L. D. : Il est essentiel d'acculturer les enfants en leur expliquant que lorsqu'ils utilisent ces outils, il est évident que ce n'est pas leur propre travail, et cela peut entraîner des notes nulles. Cependant, il est tout aussi important d'apprendre à les utiliser correctement. L'école doit jouer ce rôle en alternant entre des devoirs assistés par IA et d'autres réalisés sans aucune aide technologique, afin que les enfants développent leur esprit de raisonnement. La machine ne raisonne pas ; elle ne fait que produire des solutions. Par paresse, nous pourrions tous être tentés de chercher la solution directe.
L'outil est aussi utilisé par des étudiants postbac pour s'aider dans des recherches ou la rédaction de mémoires. Est-ce que vous êtes témoin de cet usage ?
L. D. : Quand j'introduis l'utilisation de GPT auprès de mes élèves, j'exige qu'ils ajoutent une référence à chaque idée donnée dans leurs devoirs. Étant donné que la machine n'est pas capable de fournir des sources fiables, nous devons les rechercher nous-mêmes. Même avec des outils comme Copilot, qui peuvent fournir des sources, il y a un risque d'erreurs. Il est donc essentiel de vérifier les informations. Je veux les habituer à utiliser ces outils comme des prothèses de manière intelligente, c'est-à-dire sans prendre pour argent comptant les réponses de la machine, mais en les challengeant et en gardant un esprit critique. J'ai une vision assez positive de ce que l'on peut faire avec ces outils, notamment en ce qui concerne la correction, la synthèse ou la reformulation. Mais avant ça, il faut démystifier l'idée qu'ils peuvent tout faire. Ce qui est intéressant, c'est justement de reconnaître leurs limites et de les intégrer de manière réfléchie.
Quels impacts doit-on attendre sur les processus d'apprentissage ?
L. D. : Nous ne le savons pas vraiment. Ainsi, à la Sorbonne, en collaboration avec des collègues, je m’efforce de mettre en place un important projet d'évaluation portant sur l'appropriation de ces outils. On implique des philosophes, des sociologues, des informaticiens et des linguistes, dans le but de développer une épistémologie des sciences de l'interaction avec ces intelligences artificielles. C'est un travail nécessaire, car nous projetons sur ces intelligences artificielles l'idée qu'elles sont rationnelles et informatives, alors qu'elles ne possèdent absolument rien de rationnel, ni de conscient, ni d'affectif, ni même de connaissances comme celles de Wikipédia. Il n'y a absolument rien d'autre qu'une puissance de calcul s’appuyant sur d'énormes corpus de données qui permettent au système de créer des pseudo-connaissances, des pseudo-affects ou des pseudo-règles morales.
Autrement dit, les LML « simulent » l'intelligence sans vraiment en posséder. Quel impact cela a-t-il sur notre perception de ces machines ?
L. D. : Avec un grand nombre de données et de paramètres, ces systèmes peuvent générer des phrases d'une qualité syntaxique, sémantique et lexicale comparable, voire supérieure, à celle des humains. Mais il n'y a pas d'intention derrière ces systèmes. Parfois, ils produisent des résultats pertinents, et on peut se dire : « Ah ! tiens, ce n'est pas idiot. » Cependant, parfois, ils se trompent complètement, c’est ce que l'on appelle des « hallucinations », un terme inapproprié qui évoque à tort des notions d'intelligence ou de schizophrénie. Je suis d'ailleurs déçue par l'engouement médiatique et marketing entourant ces technologies, avec des discours glorifiant une intelligence supérieure à celle des humains, ce qui induit l'idée erronée que nous serons totalement dépendants et impuissants. Il est crucial de reconnaître que nous avons le pouvoir de comprendre le fonctionnement de ces systèmes, même si nous ne sommes pas nécessairement capables de les concevoir nous-mêmes. Mais je n'ai jamais eu besoin de connaître chaque composant d'une voiture pour l'utiliser correctement.
Chaque nouvelle annonce de produit de la part d'OpenAI provoque des vents de panique sur les réseaux. Les gens pensent qu'ils vont devenir obsolètes ou que les IA vont dépasser l'intelligence humaine. Que penser de cette rhétorique ?
L. D. : Les gens craignent sans doute de perdre leur travail, mais quand Laurent Alexandre essaie de semer la panique avec des histoires du genre « j'ai dix ans d'études, mais cette machine apprend en un rien de temps et devient aussi intelligente qu'un polytechnicien », je trouve ça risible. Cette machine apprend à partir de données, avec un mécanisme assez simple. Je pense que le véritable problème réside dans la manière dont l'intelligence artificielle est commercialisée et promue. Elle permet d'effectuer des tâches intéressantes et d'élever le niveau, mais elle est aussi survendue et ne présente pas vraiment la solution ultime à toute la créativité humaine, contrairement à ce que certains pourraient penser.
Bonjour
sans oublier l'empreinte carbone de l'IA. Un prompt = 0.5 litre d'eau.
Les jeunes générations qui sont sensibles à l'environnement devraient y penser !