
Les générateurs d’images et de vidéos par intelligence artificielle atteignent un réalisme inédit, brouillant la frontière entre vrai et faux. Sur TikTok, Jeremy Carrasco s’est donné pour mission d’apprendre aux internautes à décrypter ces contenus et à adapter leur regard.
« Les IA sont maintenant capables de faire des mains correctes. Donc si vous comptez sur cette vieille technique pour détecter le contenu généré par intelligence artificielle, dites-vous que ce n’est plus un bon moyen de faire. » Le 25 juin dernier, Jeremy Carrasco, producteur de contenu et spécialiste des images générées par IA, postait sa première vidéo TikTok. Il prévenait que Veo3, la nouvelle plateforme de génération d’images de Google, avait maintenant atteint un niveau de réalisme tel qu’elle allait forcément brouiller notre perception de la réalité. Neuf mois plus tard, son compte TikTok ShowtoolsAi cumule plus de 333k followers et près de 11 millions de likes. Il faut dire que Jeremy est devenu LE Monsieur « détection d’IA » de la plateforme et produit chaque jour des vidéos éducatives dans lesquelles il donne des techniques et des outils pour vérifier l’authenticité d’une vidéo ou percevoir du contenu artificiel trompeur.
Entre sa première vidéo et la publication de cet article, l’évolution des générateurs d’images et de vidéos n’a eu de cesse de s’améliorer. Après Veo3, on a pu voir arriver Sora2 et sa fonction deepfake, qui a repoussé encore plus loin le curseur de l’hyperréalisme. À présent, Seedance 1.5 Pro de ByteDance repousse encore les limites pour proposer des vidéos au look cinématographique avec une qualité d’image proche de ce que produit Hollywood. Chaque sortie de ces outils s’accompagne généralement d’une panique morale concernant le brouillage de plus en plus troublant entre un contenu véridique et une reproduction synthétique. Certaines vidéos virales symbolisent d’ailleurs parfaitement ces paniques. Pour Veo3, c’était le fameux kangourou qui était refusé à l’embarquement d’un avion. Pour Sora 2, on peut évoquer les réanimations de personnalités mortes comme Martin Luther King ou Robin Williams. À présent, c’est une fausse scène de combat entre Brad Pitt et Tom Cruise sur le toit d’un immeuble qui illustre la stupeur provoquée par l’arrivée de Seedance. Et comme l’indique Jeremy, chaque nouvelle innovation nous demande de réajuster notre regard, mais aussi d’approfondir notre littératie médiatique, c’est-à-dire notre compétence pour décoder et contextualiser les contenus que l’on scrolle sur les réseaux.
Comment vous est venue l’idée de décoder les vidéos générées par IA qui passent sur les flux d’actualité ?
C'est une très bonne question parce que je ne pensais pas du tout que je ferais ça. J’ai l’impression que la pensée dominante au moment de la sortie de Google Veo était que les gens s'en fichaient, surtout les jeunes générations, et qu'elles voulaient juste débrancher leur cerveau et scroller. Et d’une certaine manière, je pense que c’est vrai tant qu’elles savent que ce qu'elles regardent représente une forme de réalité. J’ai donc commencé à vouloir parler de cet outil sous l’angle du professionnel de l’image en expliquant que je ne le trouvais pas si génial que ça. Et puis j’ai vu se multiplier le contenu slop, des arnaques, ainsi que de la mésinformation et de la désinformation. J’ai compris que l’IA ne fonctionnait pas vraiment vis-à-vis de sa promesse initiale, celle d’être un outil créatif, mais plutôt comme une pièce parfaite pour nos plateformes vidéo basées sur l'attention.
J’ai donc commencé à faire des vidéos sur le repérage des contenus IA sans imaginer que ça allait vraiment intéresser les gens, encore moins sous l’angle de l’éducation aux médias. J’ai simplement expliqué comment les identifier car, à l’époque, ce n’était pas si difficile..., et mes vues ont explosé. Je ne m’y attendais pas, mais ça m’a donné envie de continuer. Aujourd’hui, je me sens une responsabilité, et ce sujet rejoint mes obsessions : la relation entre humains et technologie. Qui crée ces vidéos, qui les regarde… c’est un terrain passionnant, mais aussi inquiétant.
Vous expliquez dans vos vidéos que notre perception doit constamment se mettre à jour pour pouvoir repérer les images générées par IA. Vous pensez qu’on peut adapter notre cerveau indéfiniment ?
Il faut prendre en compte une notion importante : à n'importe quel moment, l'état de l'art semble toujours génial. Si vous prenez le Jurassic Park de 1994, le film semblait incroyable à l’époque. Ça l'est toujours, d'ailleurs. Mais aujourd'hui, on peut regarder les effets spéciaux et se dire : « Oh, on voit que c'est de l’image de synthèse ». J’ai un autre exemple en tête : la victoire des Green Bay Packers au Super Bowl en 2010. J'ai regardé ça chez des amis sur une télé géante de 75 pouces. Même pour les standards d'aujourd'hui, c'était grand. À l'époque, l’image semblait parfaite. Mais en regardant en arrière, 15 ou 16 ans plus tard, on se dit : « Ok, je vois la différence, ça a un aspect différent ». Ce n'est pas que c'est mauvais, c'est juste différent.
C'est cette adaptation qui est en train de se produire : nous allons développer un sens plus aigu de l'apparence des choses. Il s'agira moins de savoir si c'est « réel » ou non, mais plutôt de juger les qualités esthétiques ou visuelles. Même pour moi, je peux voir la différence entre une caméra d'iPhone et une Arri Alexa, qui est une caméra de cinéma professionnelle. Les deux montrent la vie réelle, l'une n'est pas plus réelle que l'autre, mais elles ont des usages différents. Les gens ordinaires peuvent aussi voir cette différence. Je suis très intéressé par la façon dont ces qualités visuelles entreront en jeu une fois que l'IA sera vraiment, vraiment bonne. Je ne dirai jamais qu'elle sera « parfaite », parce que, par définition, ce n'est pas réel, donc ce ne sera pas parfait, mais ça deviendra très, très bon.
Tu expliques aussi qu’il faut développer sa littératie médiatique. Peux-tu nous en dire plus sur ta méthode d’analyse pour repérer ces vidéos IA ?
Il y a beaucoup de schémas récurrents sur « qui » crée des contenus trompeurs et mon but est donc de comprendre qui ils sont et quelles sont leurs motivations. Pour moi, c’est toujours plus intéressant de savoir quels sont les facteurs qui poussent une personne à créer quelque chose à partir de rien et à prétendre que c'est réel plutôt que de se focaliser sur les bugs visuels de vidéos qui vont, de toute manière, s’améliorer. Il s'agit donc de trouver « l'empreinte numérique » d'un compte ou d'un média, de savoir quand il a commencé à produire son contenu (souvent ça coïncide avec l’arrivée d’un nouvel outil IA) et comment il diffuse sur les réseaux sociaux. Cette manière de faire reste souvent stable dans le temps, et peut donc être facilement utilisable. J'insiste donc peut-être plus sur l'aspect social et l'éducation aux médias que sur l'IA elle-même dans mes propos, parce que c'est un moment très déroutant et que je ne veux pas donner d'informations confuses aux gens. Souvent, le message le plus clair est : « Regardez qui l'a posté et d'où ça vient », même si c’est toujours amusant de repérer visuellement une très bonne vidéo IA.
Justement, quelles sont les motivations de ces créateurs spécialisés dans un contenu trompeur ?
On peut les classer selon plusieurs catégories qui ont chacune leur propre – et intéressante – dynamique. Il y a des gens qui pensent juste que c'est amusant. Beaucoup d'entre eux vont mettre un label IA parce qu'ils n'essaient de tromper personne. Il y a aussi des gens ordinaires qui sont intéressés et qui expérimentent. Certains créent accidentellement de la mésinformation et l'apprennent à la dure. J'ai communiqué avec certains, et notamment avec une personne qui créait de fausses vidéos de l'ouragan Melissa en Jamaïque. Elle voulait attirer l'attention sur l'évènement, mais quand elle a réalisé ce que ça provoquait, elle les a retirées.
En fait, la majorité de la mésinformation vient de gens qui privilégient l'engagement au-dessus de tout le reste. Les algorithmes récompensent les choses controversées. Ce sont des gens qui ont souvent une vision cynique ou détachée de l'impact réel sur les gens. Il y a aussi ceux qui essaient intentionnellement de tromper. Ils sont bien moins nombreux qu'avant, mais avec l'IA, le volume peut augmenter énormément.
Enfin, ce qui m'intéresse le plus en ce moment, c'est le contenu IA sexualisé ou provocant qui existe dans cet espace en ligne majoritairement masculin. Ça peut être une influenceuse IA qui prend la forme d’une femme avec un énorme décolleté qui essaie de vous vendre un produit de soin pour la peau, par exemple. Ces créateurs ne comprennent pas que les influenceurs ne sont pas juste des « femmes sexy en ligne », mais comme ils ne voient que ça et qu’ils sont guidés par leur « male gaze », ils génèrent ce contenu en masse. Parfois, ça prend des tournures sombres, comme des personnages nazis ou pédocriminels. Comme c'est un personnage généré par IA, ils ont l’impression d’être déchargés de toute responsabilité.
Vous avez récemment publié un article qui classe les plateformes sociales en fonction de leur labellisation et de leur transparence vis-à-vis du contenu IA. Quelles sont vos conclusions ?
Facebook s'en sort bien sur ce point. Ils rendent le plus d'informations disponibles, probablement parce qu'ils ont eu beaucoup de scandales. De manière globale, les plateformes Meta s'en sortent bien. À l'inverse, je suis constamment frustré par YouTube Shorts quand j'essaie de voir si quelque chose est de l'IA ou non : je ne peux même pas zoomer sur la vidéo. Je continue d'être déçu par TikTok. Ils vont vraiment devoir passer à la vitesse supérieure, d'autant plus que ByteDance (leur maison mère) a lancé Seedance, leur nouveau générateur de vidéos IA. Ils vont avoir un vrai problème sur les bras s'ils ne rendent pas la transparence accessible. Le pire, c’est que c’est techniquement facile. Je peux obtenir l’information via les API, et savoir d'où vient un compte. Toutes les données sont là, ils ne les rendent juste pas transparentes pour les utilisateurs.
Je pense vraiment que les plateformes doivent rendre l'information de transparence accessible en un seul clic. Quand vous êtes sur une vidéo courte, vous devriez pouvoir appuyer sur un bouton et voir : « D'où ça vient ? Depuis combien de temps ce profil existe ? ». C’est d’autant plus important que cette notion de transparence des pages fonctionne vraiment bien avec les parents ou les seniors pour leur faire comprendre si le contenu est de l’IA ou pas. Si on arrive à pousser les plateformes à faire ça, on fera un grand pas dans la bonne direction.
Les gens sont-ils vraiment inquiets de ce brouillage entre la réalité et le contenu généré par IA ? Ou bien est-ce qu’on va tous finir par s’en accommoder ?
Je pense que ce contenu perturbe notre conception de la réalité en ligne, ce qui est problématique étant donné que l’on passe beaucoup de temps connecté. J'entends beaucoup de mauvaises opinions disant que l’IA ruine les preuves vidéo ou les preuves photo. À mon sens, on n'en est pas encore tout à fait là. Il y a encore des indices qui nous permettent d’authentifier une image, mais cette profusion d’imagerie IA nous rend confus. Je pense que les gens aimeraient ne pas avoir à se soucier de ça. Ils aimeraient vraiment ne pas avoir à réfléchir sur la véracité de ce qu’ils regardent, car ça demande beaucoup d’énergie. Du coup, je nous vois aller dans deux directions : « Je sais qu'une grande partie est de l'IA et je m'en fiche » ou « Je sais que c'est de l'IA et ça me rend très mal à l'aise ». Je pense que la plupart des gens tombent dans la deuxième catégorie. Même ceux qui aiment regarder du contenu IA veulent savoir que c'en est. Il faut donner des outils aux gens pour qu'ils ne deviennent pas cyniques.





Participer à la conversation