Image par Vicki Hamilton de Pixabay
(Avec l’aimable autorisation de la Direction de la Lettre du musicien)
La musique est un domaine particulièrement excitant pour l’intelligence artificielle : des millions d’heures d’enregistrements musicaux pour enrichir la base de données, et le champ des possibles en matière de création. Entre machines à tubes populaires et outils de composition expérimentale, des logiciels se développent et esquissent, non sans difficultés, les contours de ce que pourrait être la musique de demain.
L’intelligence artificielle (IA) : un terme mirage, propice aux fantasmes, un peu fourre-tout, que les scientifiques eux-mêmes hésitent à définir. Un terme qu’ils n’apprécient pas forcément, soucieux d’éloigner la tentation d’anthropomorphiser la machine. « Dans son acceptation large, l’intelligence artificielle est la simulation par la machine de fonctions cognitives de l’homme », explique Hugues Vinet, directeur de la recherche et de l’innovation à l’Ircam. « C’est une expression utilisée depuis très longtemps, qui indique que la machine a l’air d’avoir des degrés de liberté, puisque tous les paramètres de choix ne sont pas déterminés de manière explicite par un humain », considère Jérôme Nika, chercheur à l’Ircam. « Je lui préfère le terme de machine learning, ou apprentissage automatique, car nous créons des logiciels qui apprennent à faire quelque chose. L’intelligence, c’est l’adaptabilité, la capacité à survivre dans un environnement hostile. Une souris est bien plus intelligente que la meilleure des IA », conclut Douglas Eck, directeur chez Google du projet Magenta, qui explore les possibilités données par les logiciels d’ IA dans la création artistique et musicale. Remettre la machine à sa place et rendre à l’artiste le monopole de la création est une préoccupation importante de ces chercheurs. Pour autant, l’excitation enfantine du scientifique est bien là lorsque Douglas Eck nous fait écouter un morceau de piano : une improvisation sur le Clair de lune de Debussy, jouée par un logiciel. Sur la page YouTube de Jérôme Nika, le saxophoniste Rémi Fox semble improviser avec une machine comme partenaire de jeu.
Comment ça marche ?
Notes, sons, harmonies… le matériau musical est modélisé dans l’ordinateur. L’ensemble des éléments musicaux intégrés par la machine constitue alors un corpus de base dans lequel les algorithmes travaillent. « L’IA repose sur la capacité d’apprendre de très grandes quantités de corpus pour en saisir les règles, les régularités », explique Hugues Vinet. De ce corpus, les algorithmes peuvent extraire des motifs récurrents, des variations harmoniques… « C’est un outil utilisé notamment dans le domaine de la musicologie computationnelle, rapporte Hugues Vinet. À partir de partitions ou d’œuvres qui existent, l’ordinateur dégage les invariants, les similarités motiviques et donne des informations structurelles utiles aux musicologues. »
À partir de ce corpus, l’ordinateur peut générer des éléments musicaux. Ce qui sort de la machine est en partie déterminé par les indications du chercheur, des critères programmés, comme une certaine suite d’accords, le tempo, la hauteur… Avec ces données, le programme retrouve les éléments correspondants dans le corpus et les assemble de façon originale, créant une nouvelle pièce musicale. Dans le cas de la vidéo d’improvisation avec un saxophoniste, le corpus est construit en direct à partir de l’enregistrement du musicien. L’ordinateur structure une représentation du style de l’artiste et peut alors, selon les indications données (grille d’accord, tempo), produire un contenu musical dans le même style. « C’est dans l’association du corpus et des indications que réside une certaine forme d’autonomie de la machine, surtout si les indications restent vagues », explique Jérôme Nika.
L’IA à la place de l’artiste ?
Spotify a sorti l’album “Hello World” réalisé par une IA. L’intelligence artificielle offre des possibilités de composition à moindre coût pour certains secteurs comme la publicité, le cinéma ou les jeux vidéo. « On pourrait effectivement créer une musique ayant un lien fort avec le but d’un jeu vidéo, envisage Douglas Eck. Une ambiance angoissante, qui évoque une jungle, par exemple, pourrait être générée par la machine. » André Manoukian et l’ingénieur Philippe Guillaud ont ainsi développé l’application Muzeek, qui compose un morceau adapté au découpage de l’image. Une composition plus rapide et moins onéreuse pour des productions à petit budget.
Le logiciel progresse dans le champ de l’artistique, mais s’il est possible d’imiter un style et de produire un contenu original respectant certaines règles de composition, les chercheurs n’envisagent pas pour autant une concurrence entre machine et artiste. « Une IA peut faire des choses intéressantes dans le cadre de la musique mainstream. Cela peut aussi être le cas pour certaines œuvres symphoniques qui reposent sur des motifs rythmiques, des successions harmoniques et des orchestrations standardisées. Plus l’action humaine est mécanique, plus elle va pouvoir être reproduite par la machine, explique Hugues Vinet. La création contemporaine se situe aux antipodes : peu d’œuvres, et chacune est singulière, porteuse de son propre langage. La générativité y intervient au niveau du matériau, mais beaucoup plus difficilement à l’échelle de la forme : je n’ai jamais vu un ordinateur produire une œuvre radicalement nouvelle qui fasse vraiment sens musicalement. »
La musicalité
La recherche se heurte aux notions d’interprétation et de musicalité. Le directeur de la recherche et de l’innovation à l’Ircam rappelle que, bien que les règles classiques de l’époque de Mozart soient connues, un étudiant sortant du conservatoire, tout comme une IA, fera du sous-Mozart. « Il y a une part de mystère dans le génie humain. Même quand on opère dans un contexte de règles bien déterminées, ce que produit un génie fait l’objet de choix implicites, qui ne sont pas captés par la machine. On ne sait pratiquement rien de ce qui fait la musicalité. »
Dans les bureaux de recherche de Google comme à l’Ircam, on reste ouvert à la possibilité que la machine crée une œuvre artistique crédible. « Un ordinateur pourrait être vraiment créatif, mais ça voudrait dire qu’il comprend le monde politique, social, estime le directeur du projet Magenta. La musique ce n’est pas de la technologie, ce n’est même pas des partitions. C’est une partie de notre humanité. »
Aide à la composition
Les chercheurs envisagent plutôt l’ IA comme un outil, une aide à la composition. « La guitare électrique a créé de nouvelles possibilités, le pianoforte également… Historiquement, la créativité suit le chemin de la nouveauté, considère Douglas Eck. Avec Magenta, nous posons la question : l’IA peut-elle nous permettre de faire une nouvelle sorte de musique, comme un nouvel instrument pour les compositeurs ? »
Certains, à l’instar de Pascal Dusapin, s’en sont déjà emparée. Ce dernier a utilisé un logiciel développé par l’Ircam pour son œuvre Lullaby Experience. Pour cette rêverie enfantine, le compositeur a travaillé sur des comptines envoyées par des centaines d’inconnus en passant par une application. Cette base de données a été triée par des descripteurs de haut niveau pour catégoriser les comptines par prosodie, hauteur, dynamique… C’est ensuite que le logiciel développé par Jérôme Nika et l’équipe Représentations musicales de l’Ircam est entré en jeu, en brassant ces chants d’enfants suivant les indications du compositeur. « Il nous a permis de générer un nouveau matériau sonore, explique Thierry Coduys, collaborateur de Pascal Dusapin qu’il assiste sur les questions techniques. Par exemple, nous avons pu donner comme indication de faire sortir la mélodie de Alouette sur la hauteur de Au clair de la lune, ou de produire quelque chose à partir de toutes les comptines chuchotées. » Le matériau sonore fourni par la machine est alors retravaillé et monté par le compositeur, qui insiste : « Ce n’est pas l’intelligence artificielle qui a composé Lullaby. » L’IA est ici un outil, manipulé par les indications créatives et le sens artistique du compositeur. « Sans la machine, on aurait été incapables de réaliser autant de brassage entre ces mélodies, reconnaît Thierry Coduys. C’est une force de proposition qui a aussi ses limites, ce n’est pas toujours de qualité. Nous avons gardé 5 à 6 % de ce que le logiciel a sorti. » L’approximation, l’incertitude de ce que peut produire la machine fait aussi son intérêt, poussant la créativité des artistes, les forçant à se repositionner face au résultat avec une certaine ouverture d’esprit.
« Une nouvelle lutherie »
L’IA donne des possibilités en composition et en création sonore. À partir d’un corpus mixte, entre du raga indien et la musique de Brahms, « le système va construire une représentation compatible avec les deux », explique Hugues Vinet. Aux perspectives d’hybridation musicale s’ajoute la possibilité de créer de nouveaux sons. « Jusqu’à présent, la stratégie de modélisation étend ce que fait l’instrument, mais il y a aussi la possibilité de créer un instrument hybride ou de nouveaux sons, par exemple le mélange entre un son de violon et celui d’un ventilateur. C’est, en quelque sorte, une nouvelle lutherie. »
L’une des principales difficultés auxquelles se heurte la recherche est la valorisation de ces outils. « Nous cherchons à créer un instrument, et pour cela il faut avoir comme des touches, des clés, des entrées avec lesquelles jouer, explique Jérôme Nika. Or les modèles d’apprentissage automatique et de deep learning ne le permettent pas aujourd’hui. » Quels moyens de contrôle donner au compositeur pour alimenter sa pensée musicale afin qu’il n’y ait pas seulement une relation de choix ou d’élimination avec ce que produit l’IA ?
Mathilde Blayo