Time square la nuit
© Andrae Ricketts

L'impact faramineux des IA génératives touchera aussi les métiers de la communication. Et pour que ces technologies puissent être une opportunité, il faut les contraindre et les réguler. Une tribune d'Eric GIUILY, Président de CLAI et ancien haut fonctionnaire.

En tournée de promotion en Europe il y a quinze jours, Sam Altman, PDG d’OpenAI et concepteur de ChatGPT, s’est prononcé à la surprise générale pour une régulation de l’intelligence artificielle, qualifiée « d’essentielle », tout en soulignant qu’elle ne devrait pas être trop contraignante. Il n’a pas été, et on comprend bien pourquoi, jusqu’à proposer une sorte de moratoire sur le développement de l’IA, comme l’avait fait quelques semaines auparavant un groupe de chercheurs et d’experts dans une tribune qui a connu un grand retentissement mondial et lancé un débat qui n’est pas près de se conclure.

Le développement exponentiel des capacités de l’intelligence artificielle suscite autant de curiosité que d’appréhensions. En raison des enjeux considérables qu’elle représente pour l’économie, l’emploi, notamment dans le secteur tertiaire, mais aussi pour l’évolution de nos sociétés, pour la démocratie et plus particulièrement l’information. Ce qui doit conduire, parmi beaucoup d’autres, les communicants à s’interroger sur l’avenir de leur profession et sur ses conditions d’exercice. 

L’IA au service de tous

Il a fallu 10 mois à Facebook pour atteindre 1 million d’utilisateurs et 5 jours à ChatGPT pour faire de même. Le robot conversationnel aura eu plus de 1,8 milliard de visites au total en mai 2023 (source : SimilarWeb). Le développement est foudroyant et touche tous les secteurs de production intellectuelle.

Pour ne citer qu’un exemple, après les professionnels et les étudiants, les politiques s’emparent à leur tour de ChatGPT. Selon l’AFP, ils utilisent de plus en plus l’IA pour la préparation de rencontres et l’écriture de discours. Au Japon, le Premier ministre Fumio Kishida a dû répondre à des questions posées par un membre de l’opposition mais en fait proposées par ChatGPT. Et aux États-Unis, la députée Nancy Mace a prononcé tout un discours sur les utilisations potentielles et les inconvénients de l'IA, avant de préciser à la fin de son intervention que « chaque mot » avait été généré par ChatGPT lui-même. Le robot conversationnel peut même rédiger des amendements législatifs, par exemple sur un projet de loi soumis au Sénat du Massachusetts à l’initiative de l’équipe d’un sénateur.

Autant d’opportunités que de points de vigilance. Car si l’IA permet de générer toute sorte de contenus, proposer des recommandations d'actions ou donner des idées apparemment originales, elle reste une technologie alimentée par des données. Ces données ont forcément des biais, ceux qui résultent de leur élaboration et de son contexte, car nourries par des éléments eux-mêmes nécessairement biaisés puisqu’émanant d’humains, voire faux ou tout simplement non pertinents. Et en fonction de ce corpus de données et des filtres ajoutés, toute réponse à une sollicitation est possible. Dans un sens comme dans le sens contraire.

L’IA au service de la désinformation

L’image du pape en doudoune blanche, qui a fait le tour des réseaux sociaux, a été réalisée avec Midjourney, un programme qui permet de générer des images à partir de texte. Le journaliste et fondateur de Bellingcat, Eliot Higgins, a fait de même sur son fil Twitter, à partir d’images fausses de Donald Trump : Donald Trump en train de prier, Donald Trump en combinaison de prison orange – autant de visuels qui semblent presque aussi réalistes que la réalité. Bien qu’il existe des moyens – pour le moment – de reconnaître les visuels créés par une IA, même sans logiciels spécialisés, à savoir les erreurs dans les détails ou encore la texture, ces visuels sont hyperréalistes et de nature à tromper des publics de plus en plus larges. Ainsi, il y a déjà deux ans, en 2021, le photojournaliste de l’iconique agence Magnum Jonas Bendiksen a fait de ce constat un cas d’étude en réalisant un reportage sur la ville macédonienne de Vélès, un centre de production de fausses informations qui a directement influencé les résultats de l’élection américaine de 2016. Le « biais » ? Il s’agit d’un reportage reposant sur une histoire vraie mais avec de faux personnages numériques et de faux textes, retouchés à l’aide de l’IA. Personne ne s’en est rendu compte, même les experts.

Tout est désormais possible pour tromper le public avec des conséquences potentielles sur les résultats d’un scrutin, sur la réputation d’un individu ou des produits d’une entreprise.

De la nécessité d’une régulation 

En tant que communicants, les risques générés par cette révolution technologique nous touchent directement. La remise en cause de la véracité de l’information via les possibles utilisations des outils basés sur l’IA, impacte la confiance dans l’acte même de communiquer. 

L’information est le cœur de notre métier. Sa qualité est une des conditions primordiales de la qualité de notre travail. Afin de pouvoir porter les messages de nos clients, nous avons besoin d’une matière première fiable, traçable et sourcée. Parallèlement, l’économie même de notre métier, comme celle de la quasi-totalité des activités de prestations intellectuelles, est remise en cause, en raison tant du risque de substitution de l’application à l’homme, au moins pour une grande partie de nos activités, que des évidentes atteintes au droit d’auteur, et plus globalement à la propriété intellectuelle. Et un recours non maîtrisé à l’IA peut provoquer des erreurs d’appréciation du contexte ou des composantes d’une problématique, génératrices de communication inadaptée ou sans effet ou contre-productive, voire mensongère. 

Pour limiter ces risques, tout en expérimentant les capacités de l’outil, nous avons besoin d’une régulation, comme l’a souligné le « père » de ChatGPT Sam Altman lors de sa tournée européenne. Si les visuels créés avec de l’IA sont clairement signalés et labellisés – autrement dit, s’il y a transparence, le risque de manipulation ou de désinformation n’est pas supprimé mais il est au moins limité. C’est d’ailleurs une des pistes d’encadrement proposées par le ministre de l’Économie Bruno Le Maire, une piste qui devrait être étendue à toutes les productions de l’IA. L’autre sujet important, soulevé par le ministre, la rémunération des auteurs des données et des sources avec lesquelles les modèles d’IA générative comme ChatGPT s’entraînent, pose les problèmes de la traçabilité des contenus et de l’adaptation du droit de la propriété intellectuelle à ces nouvelles formes d’utilisation.  

L'AI Act de l'Europe propose des solutions sur 3 axes

Certes, l’IA génère de multiples « points de vigilance » mais elle est déjà là et il faut faire avec. Elle met directement en question notre rapport à l’information et – il n’est pas exagéré de le dire – à la réalité. Au niveau européen, un règlement est en discussion depuis 2021 ; l’AI Act, la première tentative majeure de limiter les risques inhérents à l’IA.

Le 4 mai dernier deux commissions du Parlement européen ont significativement renforcé le projet. Celui-ci repose notamment sur trois axes : imposer la mention « généré par l’IA » et le suivi des droits d’auteur, assurer transparence et traçabilité, et mettre en place une surveillance collective. La création de nouvelles autorités réglementaires dédiées, fait au demeurant partie des demandes des experts ayant signé l’appel à une pause dans la recherche sur l’IA. 

Confiance dans les données utilisées, bonnes sources et bonnes pratiques, autant d’éléments dont dépend la qualité de la communication et qui doivent permettre de donner toute sa force à ce qui sera encore pour longtemps l’apanage de l’humain, la capacité à faire le saut créatif ou créer la disruption.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

Laisser un commentaire