La voix d’homme un peu nasillarde chante : « Black, black, black, is the color of my true love’s hair. » Elle est hésitante ; elle garde les consonnes au fond de sa gorge comme s’il était trop tard dans la nuit pour chanter pleinement cette rengaine sans âge rapportée aux États-Unis par des immigrants d’Écosse ou d’Angleterre. C’est une chanson qui fut popularisée par Nina Simone en 1959, mais elle est ici chantée un an plus tôt par Pete Seeger, l’infatigable activiste de la musique populaire américaine. Au début, il se lance a cappella, puis un clavier le rejoint, qui semble venu directement du futur. Là, la chanson s’élève d’un coup ; la voix se démultiplie dans des tonalités changeantes, se fait plus aiguë dans le fond. Tout tourbillonne en douceur. Des violons et des cordes entrent à leur tour, qui semblent jouer une autre chanson en progression bizarre. Et pourtant, tout cela s’assemble admirablement, avec une légèreté qui est à la fois anormale et touchante.
Sortie en octobre 2019, cette magnifique version de Black Is the Color of My True Love’s Hair est le travail d’un musicien français discret, Benoît Carré, alias Skygge, et elle est importante. C’est l’une des premières œuvres pop réussies, en même temps stimulante artistiquement et d’une beauté facile d’accès, à avoir été créée avec une intelligence artificielle (IA). C’est-à-dire avec un ordinateur capable de créer de la musique de façon autonome pour enrichir le travail d’un musicien. C’est une rupture majeure qui est en train de se jouer, d’autant plus que Skygge n’est pas seul en ce moment à arpenter ce nouveau monde qui fait sortir ces technologies des laboratoires pour les frotter à une musique offerte à tout le monde. Une musique pop, directe et même parfois dansante.
En 2018, l’Américaine Taryn Southern, venue de l’émission de télévision American Idol (Nouvelle star en France), a écrit l’album I AM AI à l’aide d’outils conçus par Magenta, le labo de Google dédié à la musique assistée par l’IA. Puis, sa compatriote Holly Herndon a publié Proto, un album encensé pour lequel elle a fait « naître » une intelligence artificielle à qui elle a appris à chanter, pour finir par l’intégrer à une chorale ultramoderne, pleine de beats changeants et d’aventure, aux confins de la pop actuelle. Plus récemment, le groupe YACHT a démonté toute sa propre carrière, toutes ses chansons déjà composées, pour nourrir une IA qui les a emmenés ailleurs dans l’album Chain Tripping. C’est encore la chanteuse lyrique irlandaise Jennifer Walshe qui se produit sur scène avec son double numérique, c’est le producteur électronique londonien Ash Koosha qui invente des personnalités artificielles (et en partie autonomes) avec le projet Auxuman, c’est le compositeur allemand Alexander Schubert qui fait de même avec Av3ry. Et ce n’est pas fini. En février, la Canadienne Grimes, à la fois tête à claques de la branchitude technolibérale et tête de pont de la bizarrerie grand public, sortira Miss Anthropocene, un album notamment consacré au thème de l’intelligence artificielle. Même Jean-Michel Jarre, qui fut l’un des pionniers du passage de la musique électronique vers le grand public dans les années 1970, est là, qui s’intéresse dans son récent projet EōN à l’idée d’une création autonome perpétuelle et s’essaye aux nouveaux outils à peine sortis des labos.
Cela fait beaucoup d’œuvres en très peu de temps. Il se passe clairement quelque chose. Mais que veut dire « intelligence artificielle » lorsqu’on parle de création musicale, ce processus insaisissable qui est à la fois bêtement technique et totalement irrationnel, qui sort en même temps du corps et de l’esprit des artistes depuis que l’homme a pris la parole ? Et pourquoi cette accélération soudaine qui dépasse toutes les expériences de musique assistée par ordinateur menées depuis des décennies ? « On est aujourd’hui à un point de convergence assez critique entre tous les aspects de l’intelligence artificielle », m’a répondu Philippe Esling, qui est maître de conférences à l’Ircam (Institut de recherche et coordination acoustique/musique), le fameux centre pensé pour explorer les nouvelles formes de composition et de production de la musique. « La théorie, les outils mathématiques et la puissance de calcul sont là » (ou presque, concernant cette dernière), pour « aller vers la démocratisation ».
Ces technologies
Il ne faut pas avoir peur de ce que tout cela peut faire à la musique. Ça fait partie de l’humain de penser que demain sera pire et qu’hier c’était forcément mieux.
Mais la création artistique, et notamment la musique, est là pour bousculer et interroger ce nouveau monde, comme elle l’a déjà fait tant de fois, avec la guitare électrique ou avec le sampler. C’est ce que pointait récemment Jean-Michel Jarre, joint par téléphone : « Il ne faut pas avoir peur de ce que tout cela peut faire à la musique. Ça fait partie de l’humain de penser que demain sera pire et qu’hier c’était forcément mieux. » La technologie est là, elle pose de nombreuses questions artistiques, philosophiques ou écologiques, comme on le verra au long de cette obsession, mais elle est « excitante », selon Ash Koosha, qui a fait ses preuves comme artiste de l’underground électronique avant de s’intéresser à ce nouveau champ d’action. « Ça sera peut être bizarre, mais ça va être nouveau, s’enthousiasme-t-il. C’est ce qui m’intéresse. »
À l’Ircam, Philippe Esling a une métaphore pour décrire ce que l’IA peut faire à la musique : « C’est comme si on on pouvait jouer d’un saxophone avec un archet » et obtenir ainsi un son jamais entendu. Faire sortir des ordinateurs des choses cachées, inaccessibles au jeu humain. Cette description en évoque directement une autre, qui fut émise dans les années 1980 pour décrire l’une des grandes révolutions technologique et stylistique dans la musique populaire : la naissance de la techno. L’un de ses premiers musiciens la décrivit comme la rencontre dans un ascenseur du funk de George Clinton et de la raideur électronique de Kraftwerk, « avec seulement un sampler pour leur tenir compagnie ».
La musique serait donc à l’aube d’un changement de l’ampleur de celui des musiques électroniques ou du rock avant elles ? Peut-être. « On en est au stade où, dans la photo, on sortait les premiers appareils à 1 mégapixel. On ne pouvait pas faire grand-chose avec mais après, c’est allé très très vite », explique Cyran Aouameur, chercheur au laboratoire CSL de Sony, installé à Paris comme beaucoup de structures qui travaillent dans ce champ à la croisée de l’art et de la science. « Aujourd’hui, les téléphones en sont à des dizaines de mégapixels », fait encore remarquer ce jeune homme nourri au rap, typique d’une nouvelle génération de scientifiques qui veulent se frotter au vrai monde de la musique écoutée en masse et non plus s’arrêter à des technologies capables d’écrire du Bach mieux que Bach. Compositeur de pièces pour orchestre et machines après avoir suivi des études dans le domaine de l’informatique de pointe, Alexander Schubert, 40 ans, estime lui aussi que « l’intelligence artificielle peut être la prochaine révolution pour la pop music ». « Elle va changer des choses, j’en suis sûr. Je ne vois pas pourquoi elle ne changerait rien. La qualité des résultats est encore en question, ça demande notamment beaucoup de puissance de calcul, mais on y arrive, c’est sûr. »
Que sera cette musique ? Il y a mille réponses, dont certaines sont inconnues aujourd’hui. Benoît Carré, l’auteur de la somptueuse relecture du Black Is the Color… chanté par Pete Seeger, commence à savoir ce que ces technologies peuvent lui apporter à lui. Après avoir connu le succès au sein du trio Lilicub au milieu des années 1990, il était devenu auteur et compositeur à la commande, pour Johnny Hallyday ou Françoise Hardy. Il est arrivé à l’IA un peu par hasard en 2008, invité par l’équipe de Sony CSL, alors dirigée par François Pachet, l’un des grands noms du secteur qui cherche depuis deux décennies à marier sa passion pour l’improvisation jazz à la création par ordinateur. Il recherchait alors un compositeur curieux et souple pour tester son Continuator, un système qui permet de laisser une machine composer la suite d’une courte phrase musicale.
De là, Sony CSL a développé Flow Machine, une intelligence artificielle capable de comprendre les formes récurrentes de composition, c’est-à-dire le style d’un artiste, pour écrire ensuite à sa façon, qu’il soit Duke Ellington, les Beatles ou Beethoven. C’est cette IA qui a craché Daddy’s Car en 2016, une musique créée à partir de 45 chansons des Fab Four, claironnée à l’époque comme la première chanson écrite par une intelligence artificielle. On en était très loin en réalité, Flow Machine n’ayant donné qu’une mélodie que Benoît Carré a arrangé et interprété selon ses propres choix artistiques
Dans la foulée, François Pachet partait pour Spotify, le leader du streaming musical (lire l’obsession La fête du stream), pour y continuer ses travaux avec pour mission de mettre enfin des outils à disposition des musiciens. Ce fut Hello World en 2018, un album entier assisté par IA
« J’ai commencé par rentrer dans la machine une suite d’accords dans un style épique, que j’ai choisis moi-même, puis je les ai mêlés à la voix de Pete Seeger en faisant plusieurs essais, en variant la fidélité à la voix d’origine. À un moment, ça a donné un enchaînement entre des accords majeurs et mineurs qui n’est pas dans la source. Ça, c’était intéressant parce que c’est original. On est passés de la référence que j’ai donnée à la machine à une création complètement originale. » Une fois harmonisée de cette façon, la mélodie vocale est à son tour devenue une cible pour Orchestrator, « la source [étant] un arrangement de violons dans l’esprit bossa-nova, quelque chose de sophistiqué harmoniquement, pour donner un contraste et ne pas rester dans le côté folk de la chanson originelle. Pour moi, ça avait du sens parce que le folk est une musique qui est dans la perpétuelle transformation d’elle-même. Pete Seeger disait qu’il faut s’approprier les chansons… Il changeait souvent les textes, par exemple ».
J’ai juste enlevé des notes qui faisaient doublon, fait un peu de nettoyage, mais c’est tout. J’ai gardé ce que la machine m’avait proposé d’intéressant.
À la fin de ces manipulations, Benoît Carré s’est retrouvé avec, d’un côté, la voix de Pete Seger posée sur des harmonies nouvelles ; de l’autre, une partition de cordes pleine de moments surprenants qu’il est allé faire enregistrer en studio par un quatuor de l’Orchestre philharmonique de Radio France. « J’ai juste enlevé des notes qui faisaient doublon, fait un peu de nettoyage, mais c’est tout. J’ai gardé ce que la machine m’avait proposé d’intéressant », continue le compositeur. C’est là, dans cet acte de sélection, de travail avec l’intelligence artificielle tapie dans la machine et surtout de dépassement de cet outil nouveau, que se situe l’acte créatif qui a donné naissance à ce Black Is the Color… du XXIe siècle, dont Pete Seeger aurait été fier. Assez, en tout cas, pour que sa famille donne l’autorisation à Benoît Carré de publier cette relecture qui, en toute grâce, ouvre beaucoup de possibles pour la musique de demain.