Tribune

Dicy2, un logiciel au service de l’ONJ

Pour le programme Ex Machina, l’Orchestre National de Jazz complète son instrumentarium avec un logiciel de son.


Fred Maurin, photo Michel Laborde

Pour le nouveau programme Ex Machina de l’Orchestre National de Jazz, le chef et compositeur Frédéric Maurin a confronté ses quinze musiciens au Dicy2, un logiciel de traitement de son conçu par le chercheur et musicien électronique Jérôme Nika. Collaborant pour l’occasion avec le saxophoniste américain Steve Lehman, reconnu pour son goût pour la modernité, ancien élève de Tristan Murail notamment et, de fait, explorateur de la musique spectrale, ils se sont appuyés sur cet « instrument » électronique pour augmenter les capacités expressives de l’orchestre. Cette pratique novatrice repousse en effet les limites de l’entendu et initie de nouvelles pistes sur les interactions humain / machine ; et sur les questionnements qui vont avec.

Il y a eu les robots C-3PO et R2-D2, désormais il faut compter avec Dicy2. Créé voici une dizaine d’années, ce logiciel de son a été conçu par Jérôme Nika, chercheur en interaction musicale humain-machine de l’IRCAM. Dans le prolongement d’une thèse réalisée entre 2012 et 2016 puis d’un projet de recherche, son travail l’a conduit à collaborer de manière étroite avec le saxophoniste Steve Lehman, curieux lui aussi de pousser plus loin les liens entre improvisation et électronique. Le duo qu’ils forment encore ensemble aujourd’hui est, d’ailleurs, le laboratoire où ils expérimentent ces nouvelles directions. Le premier au saxophone, le second derrière son ordinateur, tous deux dans une démarche nécessairement dialoguée.

Car dans l’idée de Jérôme Nika, la conception d’un logiciel, aussi abouti soit-il, n’était pas de donner in fine toute autorité à la machine, mais bien plutôt d’éprouver les rapports entre le musicien et ce dont la technologie peut le nourrir. Pour ce faire, il devait éviter un double écueil : créer un appareil capable de se plier à tous les styles et finissant par les digérer tous risquait de lui faire perdre son identité propre ; à l’inverse, un appareil super-spécialisé, parfait en soi, mais seulement capable de réagir de manière optimale dans un contexte extrêmement limité aurait manqué de souplesse. Or ce Dicy2 est autre chose. « C’est une boîte à outils qu’il faut adapter au projet sur lequel on travaille » déclare Jérôme Nika. « Ici, dans le cadre du travail avec l’Orchestre National de Jazz, nous l’avons utilisé de deux manières différentes : pour faire des choses réactives, en temps réel, et des choses, en amont, hors temps, pour l’orchestration. »

L’IRCAM, depuis toujours, s’inscrit dans une tradition de recherche de facture d’instruments électroniques. Le développement de ce logiciel se place dans ce contexte. Ainsi, après avoir testé dans un premier temps des prototypes réagissant à l’improvisation jazz à partir de grilles d’accords et de développements harmoniques, le chercheur ouvre plus encore le champ des possibles. « Aujourd’hui, sur la partie orchestration, ce Dicy2 permet de créer, en amont, des textures sonores indépendantes de l’interprétation. Pour donner un exemple, Steve voulait obtenir des couleurs plus étendues à partir d’un agencement spectral qu’il avait composé. Le système s’est chargé de les générer. »

Dans la pratique en temps réel, en revanche, le système se devait, pour permettre les conditions d’un dialogue, d’être plus réactif et non déterministe. On peut entendre ces parties-là dans les introductions des morceaux ou dans les interludes. « Lors d’un solo, on entend Chris Dingman jouer du vibraphone en même temps qu’un balafon bizarre », souligne le chercheur. « Dans ce contexte, on a demandé au logiciel de réagir à certains aspects mélodico-harmoniques du jeu de Chris en s’appuyant sur telle ou telle note et de faire toujours les mêmes propositions à chaque occurrence de cette dernière, puis de digresser le reste du temps en se servant de la base de données qui lui a été intégrée au préalable. »

Steve Lehman © Gérard Boisnel

Jérôme Nika insiste bien sur ce dernier élément qui fait toute la valeur du logiciel. « Dicy2 s’appuie sur deux points essentiels : il fonctionne sur une mémoire et un scénario. La mémoire est constituée de cette base de données dont il a été nourri et qui n’est pas constituée, comme on pourrait l’imaginer, de petits samples ou de sons. Dans ce contexte précis, la mémoire est constituée, en réalité, de musiques avec des discours articulés. À partir de cela, dans un second temps, le logiciel va construire un scénario. La logique mathématique du système étant précisément d’extraire des choses sur la temporalité et sur les articulations des morceaux en mémoire pour essayer de tirer profit des articulations orchestrales afin de tisser la chose la plus continue possible… si on lui demande du continu. Et discontinu si on lui demande du patchwork. Le paramétrage du logiciel permet de générer des comportements spécifiques qui se déclencheront suivant le stimulus que lui propose le musicien en face. »

La question, en effet, brûle les lèvres. Et l’humain dans tout ça ? Comment les interprètes de l’orchestre ont-ils réagi ? Comme il se doit avec des musiciens improvisateurs aguerris. Les échanges avec le logiciel, aussi sophistiqué et performant soit-t-il, ne les a pas déroutés outre mesure. Ils ont bien évidemment été surpris par des propositions non conventionnelles mais, avec un peu d’exercice, se les sont appropriées. « Je me souviens de Fanny Ménégoz qui a compris très vite, et de manière non formalisée, comment jouer pour amener le système à ralentir le tempo afin d’initier la séquence orchestrale suivante. De toutes manières, le logiciel dépend à la fois du musicien qui capte le type de jeu qui va amener dans telle direction et de la personne qui le paramètre (en l’occurrence Steve Lehman, Frédéric Maurin, Dionysios Papanikolaou, ingénieur du son en live ou moi). C’est nous qui indiquons le comportement qu’il doit avoir. En soi, il ne prend des décisions locales que parce qu’on lui a demandé d’avoir tel comportement. Mal nourri, il ne donnera rien. »

D’où le peu d’intérêt, d’ailleurs, que porte l’ingénieur à l’Intelligence Artificielle. Reproduire de la musique cohérente au kilomètre n’a pas de sens, selon lui : mieux vaut se rendre là où personne n’est jamais allé et tenter du « bizarre maîtrisé, entre le systématique et l’aléatoire. Je joue beaucoup avec Rémi Fox et notre duo reste une improvisation entre deux humains. Lorsque je l’entends partir dans quelque chose de très lyrique et harmonique, je peux avoir, sur le moment, envie de le suivre là-dedans. Je paramètre aussitôt la machine en ce sens. Il arrive que, me voyant venir, Rémi arrête immédiatement et ne fasse plus que des choses très rythmiques. La machine étant programmée pour un contexte lyrique, nous nous retrouvons dans un no man’s land jouissif qui explore du nouveau. Pour le dire simplement et un peu caricaturalement : les décisions locales appartiennent à la machine, mais les décisions macro et structurelles, du point de vue de la narration musicale notamment, appartiennent bien à la personne qui la programme. »

Comme tout instrument de musique, l’intérêt réside dans ce qu’on veut en faire. Ce que deviendra la Musique Assistée par Ordinateur dépendra des expérimentations des musiciens chercheurs : ce sont eux, et seulement eux, l’avenir de la musique.