Pouvez-vous vous présenter ? Qu’est-ce qui vous a conduit vers la création générative ?
J’ai commencé à travailler en tant que compositeur / designer sonore / technicien audio pour différents médias en tant que freelance. En 2010, il y a eu une année de crise qui a conduit beaucoup de mes clients à ne pas renouveler leurs commandes habituelles ; je me suis mis alors à la programmation en autodidacte avec Pure Data, ce qui a radicalement changé ma manière de travailler la matière sonore. A partir de ce moment, j’ai commencé à créer des programmes qui créaient de la musique plutôt que de composer au sens plus traditionnel du terme.
J’ai un parcours un peu tortueux puisque j’ai commencé par une école d’ingénieur avec pour objectif de faire de l’acoustique (je n’y ai quasiment pas abordé la programmation, principalement car je n’aimais absolument pas cette discipline…). J’ai ensuite fait une licence de musicologie à Lille dans laquelle, en plus de perfectionner ma pratique musicale, j’ai découvert Max/msp (et Pure Data) grâce à un professeur, Robin Minard. Bien que j’aie trouvé cela particulièrement intéressant, il a fallu que je m’y remette à plusieurs fois pour commencer réellement à travailler avec Pure Data (cela a pris plusieurs années). Ensuite j’ai fait un Master de Sciences Cognitives à l’Institut de Cognitique à Bordeaux : j’ai pu orienter mon mémoire vers la perception auditive.
On peut donc dire que j’ai toujours été particulièrement intéressé par le son, et je pratique la musique depuis mon adolescence. Je me souviens qu’en cinquième, j’ai découvert le métier de designer sonore pour le jeu vidéo dans un reportage télévisé où l’on voyait un designer sonore à l’Ircam travailler sur de « nouveaux sons » : des sons de synthèse issus de modèles physique (c’était les débuts de Modalys). J’ai eu un déclic…
A partir de 2010, je me suis donc mis à Pure Data sérieusement et j’ai commencé à ré-inventer les outils que j’utilisais (à l’époque dans Pro Tools) et à en créer de nouveaux en épluchant les forums en ligne consacrés à Pure Data. Très vite, les séquenceurs ont comporté des lignes de probabilités ou des algorithmes de Game of life qui jouaient des patterns… J’ai lu le livre d’Andy Farnell, Designing Sound, qui est encore aujourd’hui mon livre de référence.
Pure Data m’a aussi permis de m’intéresser à Android comme plateforme de diffusion d’applications musicales à l’aide de RjDj ou pddroidparty. Pendant ce temps, Brian Eno s’était aussi intéressé à la création d’application mobiles (Bloom pour n’en citer qu’une). Voyant ce type d’application, je me suis dit qu’il fallait que j’aille plus loin en termes d’interfaces et de graphismes, j’ai donc décidé de m’autoformer à la programmation en Java et plus particulièrement Processing, qui a l’avantage de pouvoir exporter directement des applications Android. Après avoir découvert la communauté Pure Data, c’était alors le moment de découvrir la communauté Processing et notamment les pratiques génératives autour de la création visuelle. Une fois les bases de la programmation par objets maîtrisées, une multitude de langages sont a portée de main.
Processing et Pure Data sont des outils formidables et sont portés par des communautés extrêmement riches. Les ressources sont très nombreuses et il est tout a fait possible d’apprendre seul. Même si, pour être tout à fait honnête, la courbe d’apprentissage de Pure Data peut être assez décourageante pour quelqu’un qui n’a aucune notion audio avant de s’y pencher.
Pouvez-vous décrire vos principales réalisations impliquant des systèmes génératifs ? Qu’est-ce qui vous a intéressé dans ces outils ? Y a-t-il une évolution entre votre première et dernière création à caractère génératif, et si oui de quelle nature ?
Je pense que les premiers travaux que j’ai pu réaliser autour de Pure Data sont mes premières créations génératives : j’ai commencé par créer des séquenceurs utilisant des nombres aléatoires pour définir des patterns. Je travaillais avec un autre membre de la communauté Pure Data, Ales Cerny, sur un projet qui s’appelait Visual Tracker et qui était pour nous un moyen d’apprendre Pure Data. Dans la vidéo, à 9’04 sur le séquenceur de batteries, le panneau tout en bas est une implémentation du Game of life permettant de générer des répétitions génératives de certains éléments percussifs.
En 2010, j’ai travaillé sur une installation collaborative pour l’association Entre-Deux à Nantes. Mon approche dans le travail sonore autour de cette installation est inspirée du plancher rossignol (un dispositif de sécurité japonnais) et avait pour objectif de travailler les sons émis dans un habitat / lieu d’exposition en une texture sonore évolutive.
Installation sonore – Les murs ont des oreilles … from Berenger Recoules on Vimeo.
En 2012, à la demande de l’association Electroni-k à Rennes, j’ai pu travailler à la réalisation d’une carte postale sonore ayant pour objet le Campus de Rennes 2. Cette demande était à la base une commande d’une composition électro-acoustique classique, à remettre sous forme de fichier audio. Mais j’ai finalement préféré réaliser une application web permettant de composer soi-même sa propre carte postale au gré des expérimentations, en activant / transformant des sons à travers des boutons / sliders utilisant principalement des techniques de synthèse granulaire.
En 2014, j’ai eu l’occasion de collaborer avec Mickaël Lafontaine (artiste visuel passionné de processus génératifs) sur une fresque numérique et un spectacle de mapping vidéo. J’ai mis en place tout le système de production audio qui est intégralement génératif, de sorte que chaque performance était différente, mais partageait un trame commune.
En 2015, a abouti un projet que je menais depuis quelques années grâce à l’implication de Germain Aubert. Ce projet s’appelle PPP et permet de créer des applications Android à partir de Pure Data (il est dérivé du projet pddroidparty que je mentionnais un peu plus tôt) à la différence que ce projet permet d’intégrer dans ces application un clock midi qui peut-être partagé sur un réseau wifi entre les diverses applications du projet. Chaque application est une forme de séquenceur qui reçoit donc un signal de synchronisation rythmique. J’ai pu alors retravailler sur mes premiers séquenceurs et j’ai publié 5 applications comportant des parts génératives, par exemple :
- Manoury, basé sur une phrase musicale à quatre notes où chaque note est soumise à une probabilité
- LooperSynth, qui utilise des chaînes de Markov pour improviser sur des motifs rythmiques et mélodiques introduits par l’utilisateur
L’évolution des techniques et le gain en compétences sont des facteurs qui font que mes premières créations et mes dernières sont relativement différentes d’un point de vue technique (elles sont codées avec plus de méthode et avec des outils plus précis, ou tout simplement meilleures), mais partagent toutes une trame commune : ces systèmes ne sont que rarement entièrement génératifs, ils se basent toujours sur un input physique d’un utilisateur. Ce qui m’intéresse particulièrement dans les systèmes génératifs, c’est la création d’un champ des possibles (visuel ou sonore). En utilisant de l’aléatoire, on permet aux créations audiovisuelles de diverger. Mon objectif est de contrôler cet aléatoire et d’inviter un utilisateur / musicien / spectateur à explorer ce champ des possibles.
Y a-t-il des artistes que vous considérez comme ayant eu un impact décisif dans votre travail ? Ont-ils un rapport avec la création générative ?
Il y a énormément d’artistes qui ont eu un impact sur mon travail, ils n’ont pas forcément un rapport à la création générative. J’ai commencé à apprendre la musique de manière assez classique (solfège, harmonie etc.) relativement jeune, puis un événement de vie a fait que j’ai stoppé cette pratique musicale de manière nette avant de reprendre vers 12 ans, dans le jazz et l’improvisation. Ce nouvel apprentissage musical était radicalement différent : on m’a d’abord mis un instrument dans les mains et demandé de jouer avec un groupe ; j’ai donc appris par l’expérimentation, l’aléatoire et l’erreur. La pratique de l’improvisation « instinctive » liée à l’oreille et à des structures mentales créées par l’écoute et non à l’étude de l’harmonie a eu, je pense, une grande importance dans mon goût pour le génératif – mais à ce niveau on est presque dans la psychanalyse…
En ce qui me concerne, je pense à une multitude d’artistes et compositeurs allant de Pierre Henry à Xenakis en passant par Brian Eno, John Cage, Terry Riley ou Philip Glass – j’ai aussi un goût tout particulier pour les musiques répétitives et progressives. Mais j’ai presque plus envie de citer des scientifiques : Perlin, Lindenmayer, Markov… et un artiste graphique : Sol LeWitt. Sol LeWitt est particulièrement intéressant car c’est avec son travail que j’ai compris que l’on pouvait travailler sur les principes d’émergence : une multitude d’agents effectuant des opérations simples peuvent conduire à des résultats d’une complexité très riche. Cela revient à dire que le tout est plus que la somme des parties.
Les neurones artificiels se distinguent des autres outils algorithmiques par plusieurs aspects fondamentaux, notamment leur fonctionnement en “boîte noire”, qui les rend particulièrement adaptés pour modéliser la complexité. Pouvez-vous décrire ce qui vous intéresse dans les neurones artificiels ? Quels langages utilisez-vous de préférence pour mettre en œuvre cet outil ?
Pour moi comme pour beaucoup de personnes, les réseaux de neurones artificiels relèvent du fantasme absolu de la machine intelligente, mais je pense que nous n’en sommes pas encore là. Les promesses et les interrogations sont immenses… C’est un sujet que j’aimerais pouvoir explorer davantage. Le côté boîte « noire » n’est pas forcément ce qui m’intéresse le plus, ou alors comme outil d’analyse et de traitement du signal, mais pas nécessairement pour la création musicale.
J’ai eu l’occasion de travailler en MIR (Music Information Retrieval) avec des réseaux de neurones en Python sur la question de détection de pulsation, de signature rythmiques sur des enregistrements un peu datés et ne comportant pas forcément d’éléments rythmiques facilement discernables. Les résultats sont relativement satisfaisant, car bien meilleurs que les algorithmes actuels, mais ces méthodes ne se passent pas pour autant d’une supervision humaine rigoureuse.
Avant de pouvoir travailler sur des systèmes plus complexes, j’ai envie de pouvoir travailler sur la sonification de la propagation de l’activation dans un réseau de neurones. Et je pense aussi à de nombreuses applications se basant sur le principe d’émergence que j’évoquais plus haut.
Est-ce important pour vous que le public comprenne à l’écoute et au visionnage de votre travail les processus génératifs sous-jacents ?
Dans l’absolu oui, mais il n’est pas nécessaire d’arriver à une compréhension globale de tous les processus à l’oeuvre. Je pense qu’il faut que le public ait quelques clés. J’aime particulièrement travailler avec la notion d’action et de réaction : lorsqu’un utilisateur agit, il faut pour moi qu’il y ait une réaction visible / audible, mais comprendre le pourquoi et le comment n’est pas forcément nécessaire – si ce n’est pas l’expérience.
Pouvez-vous parler de vos projets impliquant des systèmes génératifs ? Avez-vous encore des défis dans ce domaine ?
Cela fait un petit bout de temps que j’ai envie de travailler sur la notion de cadavre exquis et de coopération homme/machine pour la création.
Shelley.ai, qui est un projet relativement récent, est un excellent exemple du type d’expérience que j’imaginais. Le principe est de proposer des débuts d’histoires à une intelligence artificielle nourrie avec les histoires partagées sur le subreddit /nosleep. Tout un courant de l’IA s’intéresse au transfert de style pour la création d’images, de textes et de musiques. Il devrait être possible de proposer une expérience dans laquelle il est possible d’écrire un texte avec Nabokov et Prévert, ou d’improviser avec Bach et Dinah Washington…
Vous manipulez plusieurs langages informatiques en fonction de vos projets. Quels langages sont adaptés à quels outils selon vous ? Le choix d’un langage informatique peut-il avoir une incidence sur l’esthétique de la proposition artistique qui en résulte ?
Ce n’est pas une question évidente. Les langages informatiques sont tous différents et tous très semblables à la fois. On peut cependant distinguer des langages visuels (comme Pure Data) où le code s’écrit par l’agencement de boîtes que l’on relie entre elles, à la manière des synthétiseurs analogiques, des langages textuels dans lesquels on écrit du code de manière plus classique.
Les processus de récursion et le travail avec des tableaux de données sont pour moi plus simples à traiter avec les langages textuels, mais tout est possible avec un langage comme Pure Data.
D’un point de vue esthétique, je pense que le langage peut avoir une influence sur l’esthétique, pas forcément au niveau de la proposition artistique mais à celui du rendu : les oscillateurs et les filtres dans Pure Data ne sonnent pas tout à fait de la même façon que ceux de la web audio api par exemple; un peu comme le rouge de telle marque de peinture serait plus « vibrant » que celui de telle autre.
Votre travail s’exprime indifféremment dans le sonore et dans le visuel. Comment pensez-vous l’articulation entre les deux ? Pouvez-vous donner des exemple d’idées, de concepts, de techniques appartenant initialement au champ du visuel et que vous auriez appliqué de façon féconde au monde sonore, ou l’inverse ?
En évoquant l’émergence et le travail de Sol LeWitt plus haut je pense que l’on est réellement dans ce sujet. Par exemple, Sol LeWitt proposait un algorithme pour peindre les quatre murs d’une pièce : 4 peintres peindront chacun 4 heures sur chaque mur avec chacun une couleur qui leur est propre et ils n’ont le droit de ne dessiner que des lignes droites (sans précision sur la longueur, l’épaisseur etc.). Si vous décidez par exemple de créer un automate musical composé de quatre voix : la voix 1 joue sur le premier temps une note tirée au hasard entre la fondamentale et la quinte d’une gamme pour une durée tirée au hasard entre 1 temps et 4 temps, et que vous continuez à créer des règles de cette façon, vous seriez surpris du résultat final. Le libre arbitre de chaque peintre peut-être remplacé par des tirages aléatoires plus ou moins dirigés.
Un autre aspect de mon travail est que je me suis aussi assez vite intéressé à la modélisation physique et son rapport au son : Springs est un bon exemple. Je travaillais sur cette modélisation de ressorts avec un rendu graphique et les choses sont devenues intéressantes quand j’ai commencé à lier le mouvement au son, même si l’idée est très simple (chaque disque est accordé sur une note, et le volume est contrôlé par l’écart entre la position du disque et sa position d’équilibre). Ce qui m’intéresse particulièrement ici, c’est qu’il est possible de changer les paramètres de la modélisation physique et d’avoir un impact direct sur le son – on se rapproche pour moi de la pratique d’une forme de lutherie virtuelle. Le lien entre mouvement et animation est très fort.
Un dernier point que je voulais évoquer est la sonification de données. Alors que nous vivons dans un société de l’image où les données sont devenues omniprésentes (big data, pour reprendre le terme à la mode), la question de la représentation de ces données se fait naturellement sous formes d’infographies ou de visualisations de données plus ou moins juste – plus ou moins orientées par un propos journalistique ou éditorialisé, voire partisan. Une part de ma pratique consiste à essayer de représenter ces données autrement que visuellement et notamment par le son ou des représentations hybrides mêlant son et image.
Je pense notamment à ce projet, où la bibliothèque de Saint-Herblain m’a demandé de travailler autour de ses données de prêts. J’ai choisi dans ce tableau de faire une sonification de leur données. J’ai tendance à considérer ce genre de projet comme de la musique générative, même si ce n’est sans doute pas tout à fait vrai car ces données ont une fin. Cependant à l’échelle d’une écoute, ce n’est pas forcément si palpable que cela.
Dans le même esprit, je travaille sur une sonification du nombre Pi, qui est un nombre irrationnel (avec un nombre de chiffres infini après la virgule) et univers (contenant tous les autres nombres). Je trouve que cela pose des question intéressant vis-à-vis des questions génératives, notamment autour de l’utilisation de générateurs de nombres aléatoires qui n’existent en réalité pas vraiment en informatique.
(Propos recueillis en décembre 2017)