Entretien #23 – Julien Vincenot

Peux-tu nous parler de ton parcours, notamment de ce qui t’a conduit vers la musique et la création algorithmique ?

Au départ, je viens plutôt du monde de l’improvisation (avec le collectif Unmapped, pendant presque 10 ans), du jazz, des musiques de tradition orale du Venezuela, donc plutôt des musiques non écrites. Je suis venu à la musique dite contemporaine sur le tard, essentiellement la musique mixte, par le chemin de l’électroacoustique et de l’informatique musicale. Dans mon parcours, la CAO a un peu représenté la possibilité d’accéder à cette complexité d’écriture, qui aurait été inimaginable pour moi sans passer par une forme de d’assistance, une espèce de “bras cyborg” pour m’aider à surpasser mes propres limites en solfège, harmonie ou contrepoint. C’est avec ces outils que j’ai réellement appris à composer.

Mon passage au Conservatoire s’est aussi fait dans un contexte très particulier, celui du Conservatoire de Montbéliard, avec Jacopo Baboni Schilingi, Giacomo Platini, Lorenzo Bianchi et Frédéric Voisin. Tous les quatre proposaient un parcours un peu anarchique et très novateur, où on pouvait passer du contrepoint à une analyse de film, des réseaux de neurones à une chanson de Radiohead, des notions d’épistémologie, d’ethnologie, d’histoire de l’écriture… Tout ça était très éloigné de l’idée que je me faisais d’un cursus de composition traditionnel, et c’était exactement ce qu’il me fallait. J’ai ensuite fait le Cursus Ircam, puis j’ai un peu enseigné à Montbéliard, des cours d’informatique musicale plutôt destinés à un public de pédagogues. Ensuite j’ai fait mon doctorat de composition aux Etats-Unis sous la direction de Chaya Czernowin et Hans Tutschku.

La musique algorithmique est à la fois au centre de ma pratique, et en même temps je ne sais pas si c’est mon intérêt principal. Je me suis intéressé au sujet assez tardivement, en apprenant Csound puis Max à Paris 8, au milieu des années 2000. Je suis peut-être aussi en porte-à-faux avec une certaine tendance de l’algorithmique à se concentrer sur les algorithmes en tant que tels, comme artefacts scientifiques et culturels, alors que ce qui m’intéresse ce serait plutôt les propriétés du résultat, et quel rôle ces propriétés auront dans le réseau de relations que je suis en train de mettre en jeu dans une pièce de musique donnée ou une installation. C’est pour ça que je suis plus sensible aux systèmes de génération par contraintes, qui sont un peu comme des machines à écrire surpuissantes et récursives, donc capables de s’auto-corriger. On déclare les propriétés de ce qu’on recherche, sous forme de règles vrai/faux ou heuristiques, et si ces règles n’entrent pas en contradiction les unes avec les autres, on peut obtenir des résultats musicaux qui correspondent exactement à ce qu’on avait demandé. Pour moi il y a un côté presque neutre ou “agnostique” avec ces outils, en comparaison avec des algorithmes plus typés et explicites. Évidemment c’est une illusion, tous les outils ont des biais, mais j’aime bien cette métaphore d’un outil très polyvalent, basé sur la logique pure et sur l’idée de description. Et pour moi, de la règle écrite en code Lisp au prompt écrit en langage naturel, il n’y a qu’un pas…

Quand j’ai commencé mon Master à Paris 8, en 2008, mon projet, peut-être un peu naïf, était de créer un système qui puisse analyser des séquences vidéo (dans Jitter), pour m’aider à composer pour l’image. Ça s’est transformé assez vite dans l’idée plus large qu’on peut extraire des données à des degrés plus ou moins élevés, pour ensuite éventuellement contrôler des processus musicaux, les transformer en modèles compositionnels, un peu comme l’ont fait les spectraux. L’idée était que n’importe quel matériau ayant une existence temporelle peut avoir un intérêt, pour peu qu’on projette une musicalité dessus. J’avais été notamment très marqué par cet article de Nattiez et Molino dans Une encyclopédie pour le XXIe siècle, qui proposait une définition du rythme qui dépassait le sonore ou le musical.

Je suis aussi très intéressé par la nature de l’environnement logiciel de CAO (type PatchWork ou librairie BACH) où on peut développer ces idées : sa pérennité d’une part, et sa capacité à concrétiser ses idées de manière expressive, qui leur donne du rendement.

Certaines de tes pièces font-elles appel à l’interactivité ?

Mon projet le plus ambitieux sur les questions d’interactivité reste à ce jour celui que j’ai développé dans le cadre de mon doctorat, Game Theory, qui génère de la musique écrite en temps réel, en interaction avec le public via des interfaces pour smartphone pendant le concert, ce qui pose un certain nombre de problèmes techniques et conceptuels. En premier évidemment, il y a la difficulté de concevoir une musique qui doit être déchiffrée à la volée par les musiciens, ce qui est très difficile. Avec les partitions dynamiques, il peut y avoir une dimension d’improvisation, et c’est souvent plus facile pour des musiciens qui ont une pratique de l’improvisation de se mettre dans l’état d’esprit requis. C’est aussi pour moi un moyen de tirer les musiciens qui viennent plutôt de l’écriture vers le monde de l’improvisation.

L’idée de Game Theory avait aussi une dimension sociale et interactive, avec tous les problèmes de conception, d’organisation de la forme et de gestion du matériau que cela pose, et aussi d’immenses problèmes proprement techniques, d’écriture, de gestion de l’électronique, de conception des interfaces pour la partie interactive, etc. Avec Rafaël Carosi, nous avions imaginé tout un système, du point de vue du public, qui s’intéressait à différentes dynamiques de vote, démocratique ou anarchique (un peu à la TwitchPlaysPokémon), de prise de pouvoir par des minorités arbitraires, de manières à justifier, dans la « narration » interne de la performance, à la fois des tendances macroscopiques, des déclenchements d’événements ou des transitions inattendues d’une section à une autre, dans un graphe pré-déterminé. Bref, un cauchemar (rires). Malheureusement (ou heureusement) à cause du Covid nous n’avons pas pu aller au bout. J’aimerais un jour le réactiver, comme projet pédagogique, éventuellement avec un groupe de compositeurs et des étudiants, pour reconfigurer ensemble l’idée de partition, de programme et de concert.

Tu parlais de création de musique à partir d’images ; est-ce que tu t’intéresses au passage algorithmique d’un média à l’autre, à la sonification, etc. ?

J’ai toujours des envies contradictoires à ce sujet. J’ai tendance à être un petit peu sceptique, par exemple quand une équipe de la NASA propose d’écouter le son d’un trou noir, et que tu imagines d’avance des grandes masses sonores à la Ligeti, Grisey, la musique de l’infini, et que finalement on se retrouve avec un son de synthèse horrible. On est toujours tributaire du mapping, et de l’imagination (ou de la pauvreté d’imagination) de la personne qui conçoit cette sonification, voire “musification”. Ce qui m’intéresse plutôt là-dedans c’est la morphologie d’un matériau : quelles sont ses propriétés, en termes de contraste interne, de proportions temporelles, “d’allure”, pourrait-on dire au sens schaefférien.

Dans ta thèse, tu cites notamment cet article de Tristan Murail, “Spectra and sprites”, où il critique le fait que les compositeurs qui travaillent avec des symboles (notes, rythmes) plutôt qu’avec le son lui-même “se heurtent rapidement à un mur » : comment concilier un intérêt pour les possibilités offertes par le génératif et la tendance de la musique depuis 1900 à explorer le son ? L’algorithmique est-elle possible au niveau “sub-symbolique” ?

Je viens d’une école de pensée marquée par Horacio Vaggione, à Paris 8, où les deux aspects, symbolique et sub-symbolique, étaient déclarés. Je vois plutôt les deux paradigmes comme un continuum, micro->méso->macro (à la Curtis Roads et Vaggione), voire une différence de degré, comme énergie et information (type cybernétique), ou étendue et idée (chez Spinoza), etc.

Je pense que j’ai eu envie d’aller vers le symbolique justement parce que j’avais une compréhension assez claire de ce que le sub-symbolique pouvait faire, notamment dans ma pratique de l’électroacoustique. Mais il me manquait quelque chose dans l’électroacoustique seule ; c’est un peu ce que je décris dans ma thèse autour de la notion de “face”. L’idée vient de cette vidéo inspirée par des concepts de Benjamin H. Bratton, Peak Face. Il y est question de l’apparition de la « face » comme étape de convergence anatomique des organes perceptifs (yeux, oreilles, nez, langue…) près du cerveau, et de comment cette encéphalisation influence le « design global » du monde tel qu’on le connaît, la terraformation en cours. Et finalement, en quoi cette période de « peak face » (comme on dirait « peak oil ») a un début et aussi peut-être une fin. Il y a également cette interview où Thom Yorke dit à Chris Clark que sa musique avait dorénavant “a face”, une face, un visage. J’ai l’impression que dans ma musique purement électroacoustique, il me manquait cette “face”. Est-ce une affaire d’échelle temporelle, de présence physique dans un espace (sonore, musical) fictionnel, de mémorisation de certains types d’objets, je ne sais pas. Certains compositeurs acousmatiques y arrivent pourtant très bien, pour ma part, c’est quelque chose que j’arrive mieux à organiser grâce aux instruments, et donc avec un contrôle plutôt symbolique.

Tu as déjà créé des installations sonores génératives non-interactives ?

Le plus gros projet de ce type que j’ai fait est une installation multimédia avec Pauline Shongov, à Cambridge. Pauline est une artiste plasticienne qui travaille surtout avec la vidéo, mais aussi la photo, le dessin, les films analogiques, la sculpture. Pauline mettait notamment ses pellicules vidéo sous la lumière de la lune pendant des nuits entières, et avec l’humidité ça générait des distorsions magnifiques dans ses images, une espèce de macération, de patine. Je m’étais demandé comment je pouvais transposer cette idée dans le domaine numérique, et j’avais programmé dans Max des systèmes récursifs qui permettaient de passer un son dans un traitement plusieurs fois, jusqu’à ce que le son d’origine disparaisse complètement. Une de mes inspirations notamment, toutes proportions gardées, était le son typique du duo Boards of Canada, qui est encore une de mes références dans le genre.

Dans ces deux installations (Parameter et Perimeter), il y avait 3 ou 4 fichiers sons (de durées fixes entre 10 et 30 min, stéréo ou mono) qui étaient joués en parallèle sur des media players tout simples. Une des contraintes de départ était qu’il ne pouvait pas y avoir de computation sur place. Le défi était donc d’arriver à produire un environnement sonore qui se renouvelle tout le temps mais qui reste cohérent. Le résultat crée des situations très différentes avec les mêmes matériaux, et des calculs statistiques simples permettent de favoriser certains types de coïncidences plus que d’autres.

La métaphore du lieu joue-t-elle un rôle dans ton travail ?

Il y a très longtemps, je m’étais acheté le livre de Frances Yates sur les palais de mémoire. Je pense que cette idée du lieu est très présente dans l’imaginaire de l’informatique, et aussi dans l’écriture. A Paris 8, on parlait beaucoup de la notion d’espaces composables avec Horacio Vaggione et Anne Sèdes. Ça entre aussi en interaction avec des catégories très anciennes, des archétypes comme le schéma début / introduction / transition, ces unités fonctionnelles formelles dont on a hérité, qui sont ancrées dans notre cerveau, comme si à un moment donné on avait fait ces choix comme espèce, pour être capable d’organiser les choses mentalement dans le temps. Ce rapport entre évolution temporelle et mobilité (spatiale) est presque perçu comme une évidence. Le temps est « devant » ou « derrière » nous — d’ailleurs c’est amusant, en chinois ces analogies spatiales existent aussi mais sont parfois inversées. Donc j’ai tendance à penser que la spatialisation est un archétype de l’espèce, même si l’orientation dans cette spatialisation est une construction culturelle.

Et la métaphore biologique ?

À une époque, les métaphores biologiques ont eu beaucoup d’importance pour moi, notamment dans mes premières pièces comme MOrphism. Il y a eu surtout Ascidiacea pour flûte seule ou avec bande (2010-2011), où je m’inspirais du comportement de cette bestiole étrange, un animal marin qui vit en groupe de manière fixe, presque comme un corail, qui partage même certains de ses organes, et qui peut, quand l’environnement devient hostile, développer de nouveaux organes pour s’enfuir, jusqu’à générer un cerveau, et dès que tout va bien à nouveau, digère le tout et redevient un végétal. Cet animal m’a servi de métaphore pour un patch de “métamorphose” d’une séquence pré-écrite, très simple, vers une séquence plus complexe, alternant différentes catégories / comportements / modes de jeu.

L’idée d’interpolation musicale est un grand classique de la CAO depuis ses débuts. Beaucoup de compositeur·ices, certains issus de l’école spectrale mais pas seulement, se sont attaqués à ce problème : comment générer de manière convaincante une transition entre deux idées – accords, spectres, profils mélodiques, motifs rythmiques, voire entités complexes, multi-dimensionnelles. Quand j’ai commencé à étudier la composition, j’ai été tout de suite fasciné par cette idée, mais je me suis vite rendu compte que je n’arrivais pas à l’utiliser. Et finalement j’ai compris que je n’étais pas convaincu par les implémentations disponibles. Si on compare cette idée de métamorphose à l’idée de « morphing » (j’ai grandi dans les années 90…), je n’arrivais pas à retrouver cette continuité en termes de ressemblance réelle, perçue.

Pour faire un morphing réaliste en image, on doit expliciter les points de correspondance : les yeux, la bouche, etc. J’ai donc développé plusieurs alternatives personnelles à cette idée de métamorphose, à la fois numériques (interpolation “classique”) et symboliques (utilisant la distance de Levenshtein), les deux étant basées sur l’idée de segmentation supervisée donc de mise en correspondance. Plus tard, j’ai découvert que Kaija Saariaho avait elle aussi développé des systèmes dans ce sens, et aujourd’hui je suis très fier que certains de ses algorithmes soient disponibles dans MOZ.

Quelle est la place du jeu vidéo dans ton inspiration ?

J’étais joueur quand j’étais plus jeune et puis la musique et la programmation ont pris beaucoup de place. En tout cas, ce sujet est l’influence de base et même un des déclencheurs de ma recherche doctorale, avec notamment le livre Theory of fun de Ralph Koster, et le jeu The Stanley Parable de Davey Wreden, qui est d’ailleurs un jeu très fermé, pas du tout un open world, qui repose sur le fait qu’il y a pas de liberté d’action, et où la gratification vient du fait de trouver toutes les fins possibles à travers un labyrinthe d’embranchements spatiaux et narratifs. J’ai aussi été très inspiré par L’œuvre ouverte d’Eco, lu il y a très longtemps et ensuite redécouvert à Montbéliard via les interactions homme/machines, et plus tard dans les installations interactives, que j’ai vues comme une manière de réactualiser ce concept, parce que le public pouvait expérimenter le système.

Plus récemment, j’ai redécouvert les jeux vidéo réellement open world, dans ma dernière année de doctorat… Et je me suis rendu compte que c’était très loin d’être ma formule préférée. J’ai l’impression que, pour que ce genre de formes presque 100% non-linéaires fonctionne, il faut vraiment les moyens du jeu vidéo. L’une des grandes difficultés de l’algorithmique, c’est de faire en sorte de renouveler l’écoute suivant l’engagement supposé de l’auditeur avec la musique, et c’est un problème général dans la musique digitale : malheureusement, nous autres musiciens n’avons pas le luxe de faire du play-test encore et encore avec un panel d’auditeurs…

Tu décris la notion de placeholder comme une “ritournelle conceptuelle” qui t’accompagne depuis plusieurs années : comment pourrais-tu résumer cette idée, et quelle est son utilité dans le contexte de la création générative ?

Le terme n’a pas vraiment de traduction française évidente, mais j’ai découvert récemment dans le livre Pulsion de Frédéric Lordon et Sandra Lucbert ce qui pourrait être la traduction la plus appropriée : ils parlent de “lieu-tenant”. Il s’agit d’une fonction indéfinie, assignée temporairement et destinée à évoluer dans le temps. C’est bien sûr très inspiré des notions de variables et d’encapsulation en informatique, et c’est une notion très courante également en linguistique, le fait qu’un mot ou un élément dans une expression puisse être remplacé par un autre mot équivalent, synonyme ou inverse, sans casser l’énoncé.

Mais pour ce qui me concerne, l’idée m’est apparue en considérant certains jeux vidéos, où on peut se retrouver parfois dans des niveaux cachés, des espaces pas complètement terminés, et lire sur un mur une note laissée par un développeur : “don’t forget to put the texture”. J’aime bien cette manière de révéler la création en train de se faire dans l’objet supposément fini. J’ai commencé à voir une variante de cette idée en grandeur nature en Chine, surtout à Shanghai et Wuhan. Ce sont des villes où il y a beaucoup de travaux en permanence, et très régulièrement, on se retrouve à longer des murs en pelouse artificielle de 5m de haut qui cachent des zones entières, qui me rappellent parfois les murs invisibles qu’on rencontre parfois en explorant un espace virtuel.

En agissant sur le placeholder, on a un impact sur la complexité ou l’expressivité du résultat global. Et j’en suis arrivé à cette idée presque autant existentielle que technique (même si les deux sont toujours connectés) : par exemple, quand on présente un projet artistique en cours de création, en classe de composition ou autre, il arrive de recevoir de critiques sur une partie qui n’est pas du tout celle sur laquelle on a le plus travaillé, et qui est là de façon un peu provisoire pour que l’ensemble fonctionne. C’est évidemment très frustrant, mais ça montre aussi la difficulté qu’on peut avoir à communiquer les dimensions réellement à l’œuvre dans un projet — on parle parfois d’éléments porteurs de forme (qu’on doit à Hugues Dufourt il me semble?), j’aime beaucoup cette idée. Ne serait-ce que pour dédramatiser ce genre de situation dans un cadre pédagogique, je pense que c’est un concept utile.

Le placeholder est nécessaire, pour tout projet un peu complexe ; il y a besoin de ce niveau d’abstraction. Ce qui nous ramène aussi à la question de la forme dans les projets génératifs. Cela permet aussi un contrôle macro entre les différentes entités, donc en gros générer du continu à partir du discontinu. D’une certaine façon, ce n’est pas très éloigné de l’idée d’inpainting en IA générative, qui vient combler une partie manquante d’une image donnée. Les vraies problématiques en composition sont souvent les transitions, faire que les choses fonctionnent ensemble. Mais même si on regarde des formes classiques au comportement très codifié, c’est souvent grâce à des anomalies qu’elles fonctionnent le mieux. C’est pour ça que je reste quand même encore attaché au linéaire : ce geste de déchirer la page en deux, sur un coup de tête, ça ne peut exister qu’en temps différé. On peut éventuellement essayer de le simuler, mais le risque est que le système « normalise » en quelque sorte les anomalies. Le seul vrai comportement anormal, ce serait de débrancher l’ordinateur pendant la performance.

Quels seraient les musiciens et les artistes qui t’ont influencé sur les questions algorithmiques ?

Je pense notamment à l’album de Mark Fell, Multistability, qui a marqué pas mal de monde dans ma génération, y compris dans le milieu de la musique instrumentale. C’est une musique très difficile à décrire, mais pour simplifier on pourrait dire une forme d’IDM très exigeante, mais très différente de ce qu’a pu faire Autechre par exemple. Dans cet album en particulier, il développe une rythmique complètement fractalisée, toute en ralentissements et accélérations, et l’album lui-même a une forme assez labyrinthique. Quand je l’ai analysé dans le cadre de mon doctorat, j’ai posé l’hypothèse que chaque piste était comme un “tutoriel” pour la pièce suivante, en ajoutant à chaque fois un nouveau paramètre.

Il y a aussi des influences littéraires. Ce que je développe un petit peu dans la thèse, c’est la métaphore du graphe. L’exemple que j’aime beaucoup, c’est le graphe de Perec, dans L’art et la manière d’aborder son chef de service pour lui demander une augmentation. En travaillant la forme du graphe, tu peux générer de la redondance locale, de la directionnalité, des enchaînements, en gros comme une chaîne de Markov. Mais il y a aussi l’aliénation sous-entendue dans le texte de Perec ; il y a quelque chose du scénario du télémarketing là-dedans. Une autre métaphore qui me nourrit serait les origines d’Internet, l’hypergraphe en pages HTML et ce qui en a résulté, ce qu’on a appelé au milieu des années 90 le Net Art. D’ailleurs, étrangement, je n’ai trouvé aucune trace d’exemples musicaux basés sur ces techniques à l’époque.

Quels sont tes projets actuels en lien avec la création générative ?

Je suis encore en train d’essayer de clôturer le projet MOZ’Lib, qui tente de combiner une approche de la CAO très accessible avec des possibilités avancées du LISP. L’un des points les plus intéressants de ce package est la mise à disposition de deux moteurs de contraintes, réinterprétés avec des interfaces conçues pour un usage temps-réel dans Max : le PMC de Mikael Laurson (PWConstraints, créé pour PatchWork au milieu des années 1990) et le Cluster-Engine d’Örjan Sandred (un énorme moteur de contraintes polyphonique introduit dans PWGL début 2010), que j’utilise dans quasiment toutes mes pièces depuis silent_data_corrupt (2014). Plus récemment, avec Juan Vassallo et Örjan Sandred, nous avons également développé NeuralConstraints, qui comme son nom l’indique est un projet hybride entre contraintes et réseaux de neurones artificiels compatibles avec les deux moteurs. MOZ est un projet qui a pris énormément de place dans ma vie, surtout depuis que j’ai commencé à le distribuer publiquement en 2020. Ça reste assez modeste comme audience, mais il y a une communauté grandissante d’utilisateurs, à la croisée entre ceux qui viennent de la famille PatchWork (la CAO en temps différé, “à l’ancienne”) et les nouveaux usages plus modernes avec la librairie bach. Dans tous les cas, j’ai besoin de ralentir un peu la cadence côté développement, et réellement recommencer à utiliser ces outils, à la fois pour la création et pour l’enseignement. Depuis 2021, j’ai commencé très lentement utiliser ces outils dans des projets de création, à la fois pour des partitions génératives en live (par exemple dans 藏镜人—puppetmaster pour flûte, clarinette et piano, créé à Shanghai en 2023) ou bien de la musique mixte plus traditionnelle (Hyperlinks—asset(s) failed to load properly, pour flûte baroque et guitare électrique, 2023-25, un projet toujours en cours de finalisation). À l’origine il s’agissait d’une pièce live, mais c’est devenu finalement un projet “pour le disque”, littéralement impossible à monter en concert. Par contre ça m’a permis de développer l’idée d’une CAO non seulement comme source d’esquisses, mais à mi-chemin, c’est-à-dire d’une partition presque “liquide”, qui évolue algorithmiquement pendant les répétitions avec les musiciens. Ça a permis notamment de générer des situations d’improvisation assez intéressantes, et aussi facilité énormément le processus d’enregistrement.

J’ai aussi plusieurs projets d’installations transmédia avec ma compagne, NI Shan. Je l’aide aussi parfois dans ses propres projets de création, ça me permet de découvrir les scènes artistiques chinoises que je connais très mal, en dehors du milieu musical (essentiellement shanghaien) que j’ai fréquenté depuis 2011. Shan m’a énormément soutenu pendant mes années de doctorat, un période vraiment pas facile, donc maintenant c’est mon tour de la soutenir autant que je peux.

(Propos recueillis en juin 2025)

Site web de Julien Vincenot