«Un instrument virtuel»: ce que l’intelligence artificielle offre à la création musicale va être mis en scène mercredi dans un concert happening du festival ManiFeste de l’Ircam, où un compositeur-interprète dialoguera avec le public et la machine. «Chacun connaît ou fantasme les avancées de l’Intelligence artificielle» (IA) affirme Franck Madlener, directeur de l’Institut de recherche et coordination acoustique-musique fondé par Pierre Boulez, figure historique de la musique contemporaine. «Dans ce concert, «Music of Choices», les créateurs jouent avec ce que permet la machine: la copie, la similarité et la stimulation». Seul sur scène, entouré de trois pianos, le compositeur et musicien franco-grec Alexandros Markeas crée un échange dans la grande salle du centre Pompidou, avec l’IA, qui joue des notes en réponse aux siennes, et le public, qui répond à des questions préparées par la compagnie de théâtre musicale La Cage, pour orienter le concert. «Ce qui m’intéresse, c’est de jouer, d’avoir une réaction de la part du système et d’y réagir», explique le compositeur. «J’ai envie de créer des musiques qui résultent d’une surprise». L’IA avec laquelle joue Alexandros Markeas est faite de deux systèmes qui réagissent à ses notes de manière différente. «Le premier, «Yana», analyse les fréquences des sons joués par le musicien et cherche à reproduire les plus significatives», explique Manuel Poletti, réalisateur en informatique musicale de l’Ircam. «On joue avec une imperfection du système», précise Alexandros Markeas. «Il joue une constellation de notes successives pour essayer de retrouver le son originel du piano». Le 2nd système, Dyci2, «analyse les notes d’Alexandros Markeas et décide à chaque instant de ce qu’il va jouer», en réaction au compositeur, explique le créateur de cette IA, le chercheur de l’Ircam Jérôme Nika. «Avant qu’il puisse jouer sur scène, il a fallu nourrir de musique cet instrument virtuel pour lui donner une mémoire musicale et lui composer des comportements: lui dire «tantôt tu vas t’intéresser à l’énergie d’un morceau, tantôt à son harmonie, tantôt tu vas essayer d’imiter, tantôt non»», insiste le chercheur qui évite le terme d’«intelligence artificielle», «Ce sont d’abord des choix artistiques humains». «L’IA entre en dialogue avec Alexandros Markeas et grandit au fil du spectacle: de balbutiant, son langage devient musical», décrit la scénographe du concert et directrice artistique de La Cage, Aliénor Dauchez. «Tandis que les choix qui sont proposés au public lui permettent d’entrer en dialogue avec la musique». A l’entrée de la salle, les spectateurs se voient remettre les codes d’accès à une série de questions qui apparaissent sur l’écran de leur téléphone au fil du spectacle. «J’ai d’abord cru que l’IA faisait sa musique à partir des réponses que le public donnait», avoue Jeanne Gilois, modéliste de 26 ans ayant assisté à la générale du concert. En réalité, les réponses sont envoyées au compositeur et projetées sur scène, certaines sous forme statistiques; libre ensuite au musicien d’orienter son jeu en fonction d’elles. Plusieurs choix sont proposés au public, certains sur le déroulé du concert, à propos du rythme ou du ton de la musique. D’autres, plus généraux, demandent de décider si l’on aime les chats, les ruines ou les jouets… «Que suis-je en train de faire maintenant? Essayer de vous comprendre? Vous satisfaire? Jouer?»: le spectateur est progressivement interpellé sur l’interaction entre le compositeur et l’IA. «L’IA apparaît progressivement comme un nouveau personnage qui essaie de dialoguer ou de prendre la place du pianiste», raconte Charles Lefaux, graphiste de 39 ans qui considère avoir assisté «à de la création de musique, basée sur nos attentes à nous. La machine crée quelque chose, chaque fin de spectacle peut être différente». Dans le cadre de ce festival l’Ircam organise des évènements dans plusieurs lieux culturels d’IDF jusqu’au 30 juin.
Accueil Internet Internet - Technologie L’Intelligence artificielle au service de la création musicale