
Alors que la musique générée par intelligence artificielle envahit les plateformes de streaming, quelle est la réponse des acteurs de l’industrie ?
« Cela prend beaucoup de temps et de pratique pour atteindre un bon niveau. Je pense que la majorité des musiciens n’apprécient pas réellement la majeure partie du temps qu’ils passent à créer de la musique. » Cette petite phrase polémique (les Américains appellent ça un hot take) nous avait été offerte par Mikey Shulman, CEO et cofondateur de Suno, une plateforme de génération de musique par IA. Interrogé au micro du podcast 20VC en janvier 2025, l’entrepreneur avait annoncé son ambition et fait rager le monde musical.
Pour ce dernier, son intelligence artificielle n’était pas conçue pour accélérer les processus de création musicale, mais bien pour « démocratiser » le métier de musicien, de la même manière que les IA génératives d’image avaient « démocratisé » le métier de graphiste ou d’illustrateur. « Si vous souhaitez influencer la manière dont un milliard de personnes expérimentent la musique, vous devez créer quelque chose qui s’adresse à un milliard de personnes, précisait-il. Cela signifie avant tout offrir à chacun la joie de créer de la musique. Et cela représente une rupture majeure, car faire de la musique aujourd’hui n’est pas vraiment agréable. »
Face à l’émergence de Suno, Udio et autres plateformes promettant de faire de n’importe quel internaute un musicien accompli, générant des milliers de morceaux à coups de prompts, où en sommes-nous réellement et surtout, quelle est la réponse d’une industrie qui s’est déjà pris une baffe monumentale au tournant des années 2000 avec l’arrivée d’Internet ?
La chasse est ouverte !
Commençons par un constat. Contrairement aux illustrations, aux photos ou aux vidéos synthétiques qui inondent nos flux d’actualité, les musiques générées par IA sont pratiquement indiscernables des morceaux créés par des humains. Une étude menée par la plateforme Deezer en novembre dernier, la première du genre, a montré que 97 % des utilisateurs ne faisaient pas la différence à l’écoute et que plus de la moitié (52 %) ressentait un malaise à l’idée de ne pas pouvoir faire la différence.
Ce malaise s’explique aussi par la tentative d’invasion actuellement en cours sur les plateformes de streaming. Deezer indique ainsi que 34 % de la musique uploadée chaque jour sur son service est générée par intelligence artificielle, soit 50 000 titres quotidiens. Et il ne s’agit pas vraiment « d’œuvres » originales qui tentent de trouver un public, mais bien de véritables fraudes. « 70 % des morceaux générés par IA sont mis en ligne dans le seul objectif d’être écoutés par des bots, explique Maria Garrido, Chief Marketing Officer de la plateforme. Ces titres sont exclus des algorithmes de recommandation, soit par l’intervention d’éditeurs humains, soit par des systèmes automatisés, et ils ne représentent au final qu’environ 0,5 % des streams effectifs sur la plateforme. »
La logique économique de cette invasion est assez semblable à celle du slop visuel. Des créateurs de contenu se définissant comme des « entrepreneurs du Web » proposent, dans des vidéos YouTube qui semblent copiées-collées, une méthode « infaillible » pour gagner de l’argent magique en inondant les plateformes de streaming de musique synthétique et en espérant des revenus en échange.
Face à ce phénomène généralisé, les plateformes tentent justement d’y voir plus clair afin de faire le grand ménage. Spotify a ainsi annoncé en septembre dernier la suppression de 75 millions de titres générés par IA. Deezer a quant à elle instauré un étiquetage des morceaux qui ne sont pas considérés comme frauduleux. De son côté, la plateforme française Qobuz travaille également sur un outil de détection de la musique IA. Pierre Largeas, directeur en charge du développement de la plateforme en Europe du Sud et en Amérique latine, estime que pour le moment la priorité est d’éviter la noyade. « Face à l'hyper-inflation du nombre de contenus générés par IA et mis en ligne par certaines plateformes, la priorité est de protéger les artistes et les utilisateurs contre l'exposition à des contenus dont on ne maîtrise pas la chaîne de valeur, c'est à dire ni la traçabilité, ni le respect des données protégées, ni les modalités d'entraînement, indique-t-il. Pour le moment ce contenu sert en grande majorité un objectif de fraude. On voit régulièrement arriver sur notre catalogue des labels et des artistes qui lâchent 50 000 titres d’un seul coup. » La plateforme privilégie la curation et l’éditorialisation humaines des morceaux qu’elle pousse à l’écoute à l’aide de d'experts, mais travaille aussi pour une accélération des discussions avec les acteurs de l’IA et le gouvernement pour établir un véritable cadre légal.
On se met d’accord ?
Depuis novembre 2025, une salve d’accords-cadres a été annoncée entre les trois grandes plateformes de génération de musique par IA — Udio, Suno et KAY — et les majors Universal, Warner et Sony, ainsi que les réseaux de labels indépendants comme Merlin. Une grande partie de ces signatures permet surtout de mettre fin à des procès pour violation du droit d’auteur. Pour le moment, il est difficile de savoir exactement quelle rémunération peuvent attendre les artistes, mais l’idée semble aller dans la même direction : permettre aux IA de s’entraîner sur un catalogue en échange d’une compensation financière. « Il est normal qu’il n’y ait pas encore de transparence complète avec les accords-cadres, car les modèles économiques restent à définir, indique Alexandre Lasch, directeur général du SNEP, le Syndicat national de l’édition phonographique. Les premiers effets visibles, c’est l’arrêt de l’export des titres générés intégralement par Suno ou Udio sur les plateformes de streaming. On parle même de “jardin clos”, dans le sens où ces morceaux ne devraient à terme n’être diffusés que sur des plateformes entièrement consacrées à ce genre de contenus. » Dans les faits, il suffit de jeter un œil à la plateforme Suno pour se rendre compte que cette dernière avance déjà sur ce point, en proposant une plateforme d’écoute en streaming et des pages de présentation des créateurs de contenu.
Reste l’autre enjeu, celui de la transparence des bases de données utilisées pour l’entraînement des IA. Pour Alexandre Lasch, tout le travail reste à faire face à la tentation d’opacité des industriels. « Aujourd’hui, il n’y a plus aucune transparence sur les bases d’entraînement. Et ce n’est pas un hasard : il y a trop de risques juridiques. On doit pourtant pouvoir faire le lien entre nos œuvres, nos enregistrements, et l’usage qu’en font les modèles d’IA. Il y a la question de la rétro-ingénierie : est-ce qu’on peut, à partir d’un output, inférer les données d’entraînement ? Au début, dans l’image, on voyait encore des artefacts, des watermarks d’agences photo. En musique, c’était vrai aussi au début, mais de moins en moins. Les bases d’entraînement se sont enrichies, y compris de données synthétiques, et retrouver une trace devient quasi impossible. Deezer, par exemple, repère plutôt des artefacts propres à certains modèles, mais cela devient de plus en plus difficile à mesure que les architectures évoluent ou que les modèles effacent leurs traces. »
Face à cette problématique, le SNEP travaille sur une proposition de loi transpartisane déposée au Sénat. Son objectif ? Instaurer une présomption d’exploitation des contenus protégés par les modèles d’IA. « Ce n’est pas une présomption automatique : il faut un faisceau d’indices. Mais si ces indices sont réunis, ce sera aux modèles d’intelligence artificielle d’apporter la preuve contraire. L’objectif est clair : inciter fortement à la conclusion d’accords de licence avec les ayants droit. Pas freiner l’innovation, mais l’encadrer de manière éthique et compétitive. »





Malheureusement, le fardeau digital porté par les artistes se trouve alourdi d'un nouveau poids de taille. Ne faudrait-il pas tout d'abord reconsidérer ce que l'on appelle "création musicale" ?
Lorsqu'elle est portée par un humain, elle correspond à un temps de travail, mêlant plaisir et labeur, et correspondant à une phase créative incompressible d'écriture, de composition, d'enregistrement, de mixage et mastering. Lorsqu'elle est créée par une AI, si on parle de SUNO, c'est le temps d'un prompt, de paroles jetées à la va-vite (ou de laisser la plateforme remplir le vide intersidéral avec les siennes), et d'un simple clic.
Entre un processus émotionnel et sensible, et un processus mécanique, désincarné, sans âme et sans histoire, ayant vampirisé les catalogues les plus obscurs (...) il y a un cap, une péninsule, et pas besoin d'avoir du nez pour l'envisager. Les plateformes, elles, déjà loin de rémunérer les artistes de façon homogène et respectueuse (spécial dédicace à Spotify et Youtube Music), considèrent un produit fini, et non pas le processus créatif impliqué. Elles ne font pas de différence entre le sensible et l'automatique. Et la question que nous nous posons tous : si l'IA réussit à nous tromper, est-ce parce qu'elle est capable de singer l'émotion, et de transmettre ce que la musique artisanale réussit à faire depuis ses origines ? Une vraie purée éthique à démêler rapidement, de questionner le "réel", puisque nous vivons le même glissement côté image, avec un discernement de plus en plus difficile et dangereux, qui met globalement en péril l'unicité de la création humaine.
Dans tous les cas, tout ce que produit créativement l'IA a besoin d'un cadre légal et juridique en béton armé, et ce, rapidement...