un astronaute sur un cheval

Sci-fi, peinture à l’huile et sonnet : portraits d’IA artistes

Avec Meta
© Dall-E

De l’auteur de science-fiction à l’humanoïde exposée au Design Museum de Londres en passant par la star des réseaux sociaux Dall-E mini, les intelligences artificielles (IA) artistiques s’imposent dans notre quotidien avec style. Portraits.

L’IA comme partenaire d’idéation. Avec les avancées technologiques rapides en IA, les entreprises développent de plus en plus leur aspect créatif. Meta a ainsi développé Creative Sketch Generation, un prototype de croquis créatifs assisté par IA, grâce auquel l’utilisateur peut commencer son dessin et le laisser finir par l’IA, pour explorer des idées enfouies. Ou bien Dance Gen, une AI qui permet à l’utilisateur de créer une vidéo de lui dansant, à partir d’une de ses photos et d’une vidéo de danse de son choix, et de la personnaliser.

Ces outils de collaboration créative ont une signature propre. De l’assistant d’animation de jeux vidéo aux AI taillées pour le partage de créations humains-machines, tour d’horizon des AI les plus marquantes du domaine. 

Ai-Da, la peintre humanoïde

Ai-Da est la première artiste robotique. Inventée par la galeriste Aidan Meller en collaboration avec l’entreprise de robotique Engineered Arts, Ai-Da a été finalisée en 2019. En utilisant les caméras de ses yeux, son AI et son bras robotique, elle peint des portraits dans un style se rapprochant de l’impressionnisme. En 2021, elle obtient sa première exposition solo au Design Museum de Londres avec Ai-Da : Portrait of the Robot. La même année, ses créateurs l’entraînent sur un modèle de langage pour la former à la poésie. Elle fera deux performances publiques au Ashmolean Museum, à Oxford. Cette année, la robot-peintre a également tenu une exposition solo à la biennale de Venise.

Craiyion, ex Dall-E Mini, la star des réseaux sociaux

On ne la présente plus : développée par Hugging Face, une communauté et plateforme de développement et mise à disposition d'outils d'intelligence artificielle, l’AI texte à image a pris d’assaut les réseaux sociaux. D'abord appelé Dall-E Mini, en hommage à Dall-E et Dall-E 2, sorties en 2021 et 2022 et développées par OpenAI, Crayion est accessible à tous, contrairement à ses modèles dont l'accès est restreint à un groupe d’utilisateurs trié sur le volet. Facile à utiliser et au format hautement partageable, elle permet les traits d’esprits et les combinaisons les plus étranges possibles – si bien que des comptes Twitter ou Instagram se sont spécialisés dans la curation des meilleurs résultats.

De manière plus pragmatique, Crayion est un outil pratique pour les créateurs de contenus, comme le souligne Casey Newton, journaliste spécialisé des big tech. « Vraiment stupéfait de la qualité de Dall-E pour illustrer mes chroniques quotidiennes » , écrit-il sur Twitter. Ici, « le logo de Facebook dans une tornade, digital art. Cela a pris environ 15 secondes. »

Sofia Crespo et Scott Eaton, les virtuoses de l’AI

Pour donner son talent à une IA, il faut parfois (souvent) un artiste humain capable de la faire se dévoiler. Voici à quoi s’attèlent Sofia Crespo et Scott Eaton, deux pointures de l’art algorithmique soutenus par Méta. Sofia Crespo utilise l’art génératif pour transformer notre perception au monde. Dans Neural Zoo, elle utilise l’IA et la vision par ordinateur pour former de nouvelles associations d’éléments connus afin de transformer le familier en expérience nouvelle. Dans Trauma Doll, elle crée une poupée atteinte de stress post-traumatique qui répond à ses angoisses par des collages générés à partir de contenus multimédias comme des livres et des titres de presse.

Scott Eaton présente l'une de ses oeuvres

De son côté, Scott Eaton explore l’anatomie humaine grâce à une IA qui transforme des dessins dans un style photoréaliste. Dans un échange permanent avec la machine, l’artiste crée des formes et des sculptures qui dépassent sa propre imagination. « L’IA ne peut faire que ce que je lui demande, peu importe la difficulté ou le caractère insensé de ma requête » , déclare-t-il. « Il en résulte souvent une interaction à la fois merveilleuse et inattendue d’idées visuelles, les miennes et celles de la machine. »

L’AI wannabe Shakespeare

Si les AI peuvent incarner n’importe qui et n’importe quoi, pourquoi ne pas faire revivre les plus grands ? Ainsi, Oxford a entraîné des algorithmes à partir d’auteurs classiques et de personnages de livres, avant de les faire débattre de la créativité des intelligences artificielles. En juin dernier, se répondaient ainsi Madame Bennet, tirée d’Orgueil et Préjugés de Jane Austen, Winston Churchill, Oscar Wilde et bien sûr, l’invité star William Shakespeare. « Ce projet était marrant mais il est important de dire ce que nous ne disons pas, écrivaient les investigateurs du projet dans The Conversation. Nous ne disons pas que ceci est ce que ces grands individus auraient dit sur ce sujet. Nous ne disons pas que l’IA est « créative » . » Voilà qui est dit.

ZooBuilder d’Ubisoft, l’AI pour game designer

Encore à l’état de prototype, Ubisoft a présenté en mars dernier un outil de machine learning pour créer des animaux animés en 3D et « créer des mondes immersifs sans utiliser de motion capture » ,selon l'entreprise.  Une fois le modèle de machine learning entraîné, il suffira de fournir une vidéo 2D d’un animal et le modèle générera une animation 3D. Zoo Builder n’est pour l’instant pas prêt à être utilisé dans les productions d’Ubisoft mais pourrait servir de support aux artistes 3D.

Benjamin, le réalisateur de science-fiction expérimentale

En 2016, les IA sont avant tout entraînées sur des textos et des emails pour faire de la recommandation prédictive. Le chercheur Ross Goodwin se demande alors ce qu’il se passerait s’il entraînait une IA à partir d’un autre matériel comme des scénarios de science-fiction. Le résultat est baptisé Sunspring et pose le décor dès la première phrase : « Dans un futur de chômage de masse, les jeunes gens sont obligés de vendre du sang. Voici ce que je pourrais faire. » Le reste est plus confus, mais servi avec brio par les acteurs.

Pour son auteur, l’un des points intéressants de l’expérience est de mettre en lumière les modèles des films de science-fiction sur lesquels est entraînée l’IA. Par exemple, un motif récurrent du scénario de l’IA – qui s’est auto-prénommé Benjamin – est l’interrogation de ses personnages sur leur environnement - « Je ne sais pas ce que c’est » ou « il faut que tu m’expliques », sont des dialogues récurrents. L’expérience met aussi en lumière la perception des humains des histoires qu’on lui raconte : alors que le script de Benjamin n’était pas clairement à propos d’un triangle amoureux, c’est comme ça qu’il a semblé le plus naturel aux acteurs de le jouer.

En 2021, les youtubeurs de Calamity AI se sont également essayés à l’exercice – avec un scénario toujours aussi incohérent.

Bonus : Les AI musicales, stars d’une nouvelle industrie

Musique et AI fonctionnent bien - l’oreille humaine est plus apte à accepter les incohérences mélodiques que syntaxiques. L’une des plus précurseures est la française Skygge, une intelligence artificielle créée en 2016. Après avoir composé des morceaux inspirés des Beatles, son inventeur, le compositeur Benoît Carré, a fait collaborer Skygge avec des artistes reconnus, dont Stromae.

Un morceau créé sur le style de David Bowie :

Depuis quelque temps, les artistes s'essayent au clip vidéo via l’IA. Si quelques résultats sont probants, cela requiert encore beaucoup de savoir-faire. Dernier exemple saisissant en date, le clip de Kendrick Lamar, qui, grâce à la deepfake, incarne tour à tour Kanye West, Will Smith, OJ Simpson, Kobe Bryant ou Nipsey Hussle.

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.