homme devant un monolithe

JIL, cet étonnant monolithe noir qu'on active par la pensée peut faire de la musique

© Romane Mugnier pour L'ADN

Et si on faisait de la musique, juste en pensant ? On l’a rêvé. Le performer électro Molécule l’a fait. Rencontre du 3e type avec Molécule qui raconte son travail avec JIL, l’instrument du futur.

Faire de la musique en live par la grâce de ses pensées, c’est le pari fou, brillamment relevé le 18 mai dernier par le musicien Molécule au 104 à Paris. Ce soir-là, sur scène, l’artiste se partage entre deux instruments. L’un plus classique est un mini studio, composé des tables de mixage de l’artiste. L’autre haut, fin, noir est littéralement intouchable ; Molécule se contente de le fixer. L’instrument se présente sous la forme d’un monolithe noir – qui n’est pas sans rappeler celui du film de Kubrick, 2001, l’Odyssée de l’espace. Il s’appelle JIL, mesure 2 mètres 50, a un ordinateur probablement surpuissant sous le capot. C'est, ni plus ni moins selon ses créateurs, un « instrument » du futur.

L’amour (et la musique) à la machine

Ce n’est pas la première fois que Molécule, le producteur de musique électronique, s’aventure dans le monde merveilleux des nouvelles technologies. Avec le réalisateur Jan Kounen, il avait déjà signé en 2019 une expérience immersive en VR et en son binaural où il donnait à voir et entendre l’Arctique. Cette fois, l’artiste a entrepris de concevoir et jouer d’un instrument qui ne se contrôle que par la pensée, JIL. « C’est un instrument qui a un caractère assez fort, instinctif, que je contrôle en partie grâce à des capteurs (logés dans un bandeau, ndlr) vissés derrière mon crâne, au niveau du cortex visuel. »  

Molécule devant son "mini" studio (Crédit photo : Romane Mugnier pour L'ADN)

Avant de le manipuler par la pensée, Molécule se poste devant l’instrument en début de performance. « Processus de calibration » , répète haut et fort JIL d’une voix métallique, tour à tour féminine et masculine. Une fois ce premier échange, Molécule fixe l’écran de JIL, sur lequel sont dessinées plusieurs formes. L’homme a l’air de se concentrer. « C’est aussi un instrument qui envoie de manière continue des signaux propres, qui modulent en temps réel les sons émis. Il me surprend et me dépasse. Je me prosterne presque devant lui. »

À mesure de cet échange sans paroles s’échappent effectivement de la machine des sons changeants. Molécule repart vers sa table de mixage et joue avec. « Ça m’amuse de proposer une expérience à la fois novatrice mais ultra ludique où l’instrument me surprend, vit de manière quasi autonome, mais s’imbrique dans mon set up plus traditionnel. » Pour communiquer avec JIL, l’artiste déclare devoir entrer « dans un état proche de la méditation » . Un va-et-vient créatif et « mystique (…) dans un rapport quasi charnel » , qui durera tout le temps de la performance.

JIL avant la fièvre du concert (Crédit photo : Romane Mugnier pour L'ADN)

De la maison aux spotlights

À l’origine du projet, une technologie basée sur les neurosciences et le machine learning, développée par la startup NextMind (rachetée en mars dernier par Snap). L’entreprise française a été fondée par Sid Kouider, un neuroscientifique qui a dirigé le laboratoire de recherche de l’ENS sur le cerveau et la conscience. « NextMind a développé un petit casque qui se met au niveau du cortex visuel. Vous savez, cette petite boule que vous sentez à l’arrière du crâne ?  » , commente Benjamin Lévy, programmeur musical qui a fait ses armes dans un bastion de la recherche française, l’IRCAM, et qui accompagne Molécule sur le projet. Le bandeau capte les signaux cérébraux produits par le cortex visuel et les traduit en ordres. Oui, oui, vous avez bien compris, nous ne sommes pas loin de la télékinésie.

Benjamin Lévy, qui a accompagné Molécule dans tout le travail de « traduction » des signaux en matière musicale (Crédit photo : Romane Mugnier pour l'ADN)

« En gros il capte ce qu’on appelle un électroencéphalogramme. [Le dispositif saisit] où est dirigé le regard, si le sujet est concentré, quel est l’état général de la personne. Mais la machine capte aussi les signaux produits en continu. » L’ensemble forme une matière musicale, exploitée par l’artiste sur scène. Mais pour arriver à ce résultat, l’artiste et le programmeur musical ont dû ouvrir le capot des capteurs de NextMind, qui n’étaient pas vraiment destinés à avoir une carrière scénique…

La musique du turfu

« C’est Absolut Company Creation (programme de mécénat spécialisé sur l’expérimentation autour des musiques électroniques de Pernod Ricard, ndlr) qui m’a présenté cette technologie. Elle avait plutôt à la base une application domotique, pour ouvrir les volets, changer les chaînes de sa télé » , se souvient Molécule. La suite, on la connaît. « Après réflexion, j’ai imaginé qu’on pourrait concevoir un instrument qui joue par le regard, par la pensée. L’instrument du futur. » À l’avenir, Molécule adorerait que d’autres artistes puissent s’en emparer. On connaissait déjà l’art contemporain généré par l’activité neuronale. Le temps est-il venu d’embrasser une nouvelle vague de musique neurogénérée ? Peut-être bien.

Pour l’heure, l’artiste et son drôle d’instrument prennent la route des festivals de musiques électroniques tout l’été. Ils seront aux Nuits Sonores à Lyon les 28 et 29 mai, au Week-end des Curiosités le 2 juin à Toulouse, au festival Le Bon Air le 3 juin à Marseille et de nouveau à Paris pour le Peacock Society le 11 septembre 2022.

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.