uune fausse image de rue bombardée

Adobe vend de fausses photographies de la guerre générées par IA

© Adobe

Et les médias qui les utilisent ne le savent pas toujours, ou bien ne l'indiquent pas.

Quand les médias n'ont pas les moyens d'envoyer un photographe dans les alentours de la bande de Gaza, ils peuvent se rabattre sur des photographies d'agence de presse ou des banques d'image. Celle d'Adobe est justement bien fournie. Elle propose à ses clients des images en haute définition montrant des rues bombardées, des enfants qui contemplent des ruines ou des nuages de fumée noire qui s'élèvent d'habitations ayant reçu un missile. Seulement voilà. Ces photographies sont toutes fausses.

Des explosions plus vraies que nature

Adobe qui a récemment sorti Firefly, un outil de génération d'images par intelligence artificielle, semble utiliser ce dernier pour proposer des illustrations de la guerre entre Israël et le Hamas. Les photos proposées sont générées dans un style hyperréaliste et si la plupart dégagent une certaine artificialité, certaines – comme celles avec ces faux nuages noirs dus à des explosions – paraissent plus vraies que nature. Ces images sont évidemment accompagnées d'une petite mention « générée à l'aide de l'IA » qui passe facilement inaperçue sur la page de la banque d'images. Mais sur les sites, on constate que la mention disparaît des crédits, laissant croire qu'il s’agit d'une véritable photo de guerre.

Le conflit dans un monde post-vérité

Ce n'est pas la première fois que de fausses images circulent en temps de conflit. Nous avions déjà évoqué les vidéos de tir de roquette issues du jeu vidéo Arma3 qui ont circulé durant la première offensive du Hamas. Quelques jours plus tard, au moment du lancement de la contre-offensive israélienne, des images générées par IA montrant une foule acclamant des soldats de Tsahal avaient aussi fait polémique après avoir été partagées sur des comptes Twitter.

Le même genre de pratiques est aussi utilisé pour assurer la propagande pro palestinienne. Le journaliste tunisien Muhammad al-Hachimi avait partagé sur Twitter le 22 octobre dernier une image IA de trois enfants de Gaza recouverts de poussière et souriant après un bombardement.

Aux États-Unis, cette production de fausses images est allée encore plus loin. Le 23 octobre dernier, l'activiste d'extrême droite Jack Posobie diffusait une vidéo deep fake de Greta Thumberg dont la voix était générée par intelligence artificielle. Cette dernière était mise en scène en train de plaider pour des missiles « biodégradables » et « des avions de chasse fonctionnant sur batterie » pour permettre une guerre « environnementalement responsable ». Du manque de précision à de la véritable désinformation, il est à présent certain que les images générées par intelligence artificielle sont dorénavant inévitables dans le traitement des conflits.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

Laisser un commentaire