Cette rubrique rassemble des entretiens avec des musiciens, compositeurs, artistes sonores, live-codeurs, programmeurs, dont l’œuvre a à voir avec la création générative. De la musique de jeu vidéo à la musique contemporaine en passant par les installations sonores et la musique électro, ce panorama se veut transversal et représentatif de préoccupations esthétiques diverses. De nouveaux entretiens sont publiés régulièrement.
Peux-tu nous parler de ton parcours, et notamment de ce qui t’a conduit à t’intéresser à l’informatique musicale et à l’art génératif ?
Ma formation est plutôt traditionnelle. J’ai fait des études de piano, de composition et de musique électroacoustique, très marquée par la pensée du GRM. Par ailleurs, j’ai un parcours plus autodidacte dans le rock et l’improvisation. Je n’ai pas eu de véritable formation scientifique, même si j’ai toujours été très curieux des mathématiques et que j’appartiens à une génération qui a été exposée très jeune à l’informatique.
C’est l’un de mes enseignants de composition, Paolo Aralla, qui m’a fait découvrir Patchwork et Max/MSP. Grâce à lui, j’ai commencé à intégrer des systèmes plus formels dans mes composition, notamment les techniques spectrales, jusqu’à me bricoler avec des programmes simples, parfois même avec Excel, des calculateurs de fréquences et d’index de fréquences, avant d’utiliser Patchwork et OpenMusic.
Peux-tu nous parler de ton parcours, et notamment de ce qui t’a conduit à t’intéresser à l’informatique musicale et à l’art génératif ?
Je viens des sciences : j’ai fait une école d’ingénieur en traitement du signal et en informatique, ce qui m’a amené à faire un DEA à l’Ircam en science appliquée à la musique, qui s’intitulait alors ATIAM (Acoustique traitement du signal informatique appliqué à la musique). Parallèlement à ces études scientifiques, j’ai commencé la musique de manière autodidacte en faisant du rock, plutôt expérimental. C’est à l’Ircam que j’ai commencé à m’intéresser à la musique électroacoustique. Puis je suis devenu assistant en réalisation, notamment pour Georges Aperghis, dont la conception presque visuelle du montage m’a beaucoup marqué. J’ai beaucoup collaboré avec des artistes issus d’autres disciplines, comme Célia Houdart (auteur), Olivier Vadrot (designer scénographe), DD Dorvillier (chorégraphe). Depuis une dizaine d’années, je m’intéresse à une musique qu’on pourrait dire plus conceptuelle, qui prend notamment une forme algorithmique.
(Lire la suite)
Pouvez-vous nous parler de votre parcours, et notamment de ce qui vous a conduit à vous intéresser à la composition assistée par ordinateur et à la création algorithmique ?
J’ai une double formation. Au Brésil, où j’ai grandi, j’ai fait l’école polytechnique de São Paulo, comme ingénieur chimiste, et ensuite j’ai suivi un cursus de composition et direction d’orchestre. Ce double parcours m’a conduit naturellement à me demander si les deux choses pouvaient être compatibles. Ce n’est pas tant l’informatique qui m’intéressait que la formalisation et les mathématiques. A la même époque, dans les années 70, j’ai lu La Musique, discipline scientifique de Pierre Barbaud et Musiques formelles de Xenakis.
J’ai ensuite fait en France le DEA « Musique et musicologie du XXe siècle », qui associait à l’époque l’Ircam, l’Ecole des Hautes Etudes et l’Université Paris 4, puis la thèse. J’ai alors découvert l’Ircam, et j’y suis resté. Aujourd’hui, je suis RIMCE (Réalisateur en Informatique Musicale Chargé d’Enseignement) et chercheur dans l’équipe Représentations musicales.
Peux-tu nous parler de ton parcours, et notamment de ce qui t’a conduit à t’intéresser à l’informatique musicale et à l’art génératif ?
À mes débuts, je manipulais principalement des synthétiseurs analogiques et des séquenceurs. L’aléatoire était absent de mon travail, qui était très écrit, avec beaucoup de boucles… J’avais le sentiment qu’il me manquait quelque chose. Ce qui a été déclencheur, c’est le programme Reason de Propellerheads Software, dans lequel on pouvait “patcher”, un peu comme dans Max/MSP, moduler des éléments entre eux, faire des boucles de rétroaction, et par là générer des comportements un peu chaotiques…
Ce qui m’a intéressé initialement dans l’utilisation de l’informatique pour générer des sons et des images, c’était le contrôle que cela donnait sur les choses. Je pouvais, sans forcément figer une création, écrire un code capable de générer plusieurs œuvres possibles, en décidant d’un faisceau de règles que je pouvais ensuite modifier en live, ou bien leur permettre d’être modifiées par des processus externes. J’aimais ainsi disposer d’une sorte de curseur entre des éléments très contraints, très écrits, et d’autres où je laissais plus de latitude au système pour explorer un territoire donné.
Pourriez-vous décrire votre parcours, et notamment ce qui vous a conduit à vous intéresser aux questions liées à l’informatique musicale et à la création algorithmique ?
Quand j’étais étudiant à l’Université de Montréal, au début des années 70, j’ai fait partie, avec deux autres camarades, d’un petit groupe de travail et de recherche autour de l’informatique musicale. C’est par là que j’ai connu, entre autres, Musiques formelles de Xenakis, et aussi les travaux de Jean-Claude Risset. Nous avons étudié tout cela ensemble. Ce groupe avait été formé à l’initiative de l’un de nous trois, qui avait fait des études d’informatique et était introduit au Centre de calcul, ce qui nous a permis de bénéficier d’heures de calcul pour faire de la synthèse sonore et diverses expériences. Nous organisions un colloque annuel pour faire connaître aux étudiants et aux professeur de la Faculté les possibilités de l’informatique musicale, alors peu connues et très « exotiques ». Nous sommes également allés rendre visite à Max Mathews, au laboratoire Bell. Il nous a très généreusement consacré une journée entière, et nous sommes revenus avec un paquet de cartes perforées, MUSIC V, des documents de Jean-Claude Risset, son Catalogue, des enregistrements…
Peux-tu décrire comment ton parcours t’a conduit à t’intéresser à la composition assistée par ordinateur et à l’algorithmique ?
J’ai commencé à étudier la composition, ou plus précisément l’écriture, au Conservatoire de Venise, et c’est d’ailleurs un cursus que je n’ai pas fini, mon seul prix au Conservatoire étant un prix de piano. J’avais une pratique plus personnelle de la composition en parallèle, et j’essayais, de manière très naturelle, de trouver des systèmes, qui étaient souvent des outils proches de la combinatoire. Il s’agissait plutôt de systèmes déterministes, avec peu d’aléatoire, que je faisais à la main, et je me suis rendu compte que j’aurais pu faire ça plus vite et mieux avec l’aide d’un ordinateur. Peu après avoir passé l’examen de contrepoint et fugue, je suis parti travailler à l’Ircam.
J’avais entendu parler des amis compositeurs d’un logiciel d’aide algorithmique à la composition (PatchWork) qui se développait à l’Ircam, et j’avais immédiatement commencé à fantasmer à ce sujet. C’est l’une des principales raisons qui m’ont poussé à postuler au cursus de l’Ircam – formation davantage consacrée à la synthèse et au traitement sonore, mais dont la partie qui m’intéressait le plus était celle qui concernait la composition (symbolique) assistée par ordinateur – et la raison pour laquelle, dès le début de mon cursus, j’ai commencé à travailler à la fois sur l’environnement graphique de CAO développé par l’Ircam (OpenMusic, le temps de PatchWork étant révolu) et en langage Lisp.
Finalement, je préfère aujourd’hui taper du code que de faire des patches (même si j’en fais toujours, mais à des phases différentes du travail). Nommer des variables est plus facile que tirer des spaghettis… Lorsqu’on a un travail complexe à accomplir, même du point de vue conceptuel, je pense qu’il est préférable de le programmer en texte, car on fait forcément les choses plus proprement. Je me sers toujours de l’environnement graphique, pour faire des choses quick and dirty, à la fin d’un processus, en connectant des fonctions très complexes pré-programmées en langage textuel. La programmation continue à prendre beaucoup de place dans mon travail, et il m’arrive d’arrêter de composer (même pendant plusieurs mois) pour me consacrer entièrement à la programmation.
A l’Ircam, il y a aussi tout un autre univers qui s’est ouvert à moi, qui était celui du contrôle de la synthèse. D’autres le faisaient déjà avant moi, notamment Marco Stroppa avec sa librairie Chroma. Je découvrais ainsi que les mêmes outils qui me servaient pour la composition assistée par ordinateur pouvaient aussi contrôler des paramètres sonores.
Mes librairies m’aidaient donc à écrire du texte qui était ensuite envoyé à des moteurs tels que Modalys (logiciel de synthèse par modèles physiques que j’ai beaucoup utilisé pendant mes premières années ircamiennes) ou ensuite Csound, dont je me sers toujours (le plus souvent avec des bases de données d’échantillons).
(Lire la suite)
Peux-tu nous présenter ton parcours en quelques mots ? Te vois-tu plutôt comme un musicien scientifique ou un scientifique qui fait de la musique ?
Je ne suis pas d’un côté plus que de l’autre, je me situe vraiment au centre. Actuellement, je prépare un doctorat en neurosciences à l’EPFL, sur la modélisation des séquences complexes à l’aide de réseaux de neurones artificiels, que j’applique à la musique. Mais ce n’est pas un hasard si j’applique cette recherche à la musique, qui a toujours occupé une place importante dans ma vie : j’ai grandi avec beaucoup de musique autour de moi (mon père était danseur-chorégraphe), je pratique le violoncelle depuis mes 7 ans, et j’ai fait partie de plusieurs orchestres et ensembles depuis mes 10 ans…
C’est d’ailleurs dans un orchestre, l’OSUL (Orchestre Symphonique Universitaire de Lorraine), que j’ai rencontré le professeur avec qui je travaille aujourd’hui sur ce projet de doctorat. Il m’a même aidé à créer l’orchestre de chambre des étudiants à l’EPFL et l’UNIL (l’OChE), il y a 4 ans.
Je n’ai pas fait d’études en Computer science, mais en Sciences de la vie. Dès le bachelor en Sciences et technologie du vivant, il y a déjà des cours orientés vers les neurosciences computationnelles. En master, j’ai pu m’orienter vers plus de programmation, plutôt que vers le bioengeniering. Ça m’intéresse davantage de passer par la modélisation pour comprendre comment le vivant fonctionne. Wulfram Gerstner, mon directeur de recherches actuel, connaissait donc notre intérêt commun pour la musique, et très vite, pour un projet de semestre en master, j’ai commencé à travailler sur les neurosciences et la musique, et depuis je n’ai pas arrêté.
Peux-tu présenter ton parcours et dire comment il t’a conduit à t’intéresser aux techniques génératives ?
Je pense que je peux me considérer comme relativement autodidacte. J’ai pris mon premier cours de solfège aux alentours de 19 ans. Les seules classes où je pouvais entrer dans les conservatoires à cet âge étaient donc les classes de composition. J’ai fréquenté celles du conservatoire des Halles, de Genève, de Bordeaux et du CNSM de Paris, dans la classe de Paul Méfano. J’ai toujours eu un intérêt pour la musique contemporaine. Je suis allé dans une école de technique du son pour le théâtre, et je me suis retrouvé dans l’ensemble 2e2m comme ingénieur du son.
A l’époque, c’était les débuts de Max, avant qu’il soit un logiciel commercialisé. J’ai immédiatement été fasciné par ce logiciel. C’est peut-être un peu ridicule, mais voir deux boîtes contenant des notes, se mélanger dans une autre avec le signe plus, ça me fascinait. Après 2e2m, je me suis rapproché du Centre Xenakis, à l’époque les Ateliers Upic. J’avais un background un peu mathématique, donc j’ai lu très tôt Musiques formelles. Cette approche de la musique me semblait complètement naturelle, évidente. Je pense surtout à ce qui concerne l’aspect statistique et théorie des gaz, les nuages, les masses de sons…
(Lire la suite)
Peux-tu nous parler de ton parcours ?
En commençant la musicologie, je me suis surtout intéressé à l’ethnomusicologie. Pour la pratique instrumentale, j’ai assez vite lâché la guitare pour l’ordinateur. C’était les débuts des PC, l’arrivée des Commodore, des Atari, on pouvait commencer à programmer. Mon père était informaticien hardware, et il m’avait aussi un peu initié aux musiques traditionnelles, les musiques d’Europe de l’est (c’était la mode dans les années 70), de l’Inde évidemment, de Perse, d’Afrique, de l’Amérique des autochtones… La musique des Inuits m’a beaucoup intéressé pendant longtemps.
J’ai étudié tout ça en auditeur libre, à côté de mes études, et c’est devenu le cœur de mes études. L’ethnomusicologie n’était pas encore institutionnalisée dans les universités, tout comme l’informatique musicale d’ailleurs. Ça se passait uniquement dans des labos comme le CNRS, l’Ircam, que j’ai fréquenté assez jeune. J’ai eu le culot d’aller voir Simha Arom, qui était directeur de recherche en musicologie au CNRS, connu pour ses publications et ses enregistrements de musique centrafricaine. Ses travaux étaient pour moi des modèles d’analyse de la musique du monde. Simha Arom n’enseignait pas vraiment, je voulais surtout échanger avec lui sur ses méthodes d’analyse, et mon savoir-faire informatique l’a intéressé. J’ai eu de la chance, j’étais la personne qu’il lui fallait au bon moment pour une mission de recherche en Centrafrique, pour développer de nouvelles méthodes de recherche, des dispositifs informatiques interactifs pour l’étude de la musique sur le terrain. Avec des synthétiseurs, des Mac, des groupes électrogène, nous avons essayé de faire un protocole expérimental d’enregistrement et d’analyse de la musique, transportable en brousse.
Entre 89 et 95, j’ai ainsi participé à trois missions du CNRS en Centrafrique, pour l’étude des polyphonies vocales des pygmées Aka et celles des xylophones des populations oubanguiennes, et deux en Indonésie, pour l’étude des gamelans. C’est aussi à cette époque que j’ai appris à faire du Lisp, à l’Ircam.
(Lire la suite)
Pourriez-vous décrire votre parcours, et notamment ce qui vous a conduit à vous intéresser aux questions liées à la création algorithmique ?
Il faudrait peut-être, il me semble, questionner ce qu’est la création algorithmique, concept qui me paraît discutable : entendons-nous le fait d’utiliser des formalismes en composition (dans ce cas beaucoup de compositeurs le font, à partir du moment où ils utilisent des techniques pour ne pas composer seulement linéairement et intuitivement) ? Ou celui d’utiliser ces formalismes sous des formes exprimables et assez logiques, que l’on peut mettre sous forme de graphe ? Ou, niveau supérieur, le fait d’utiliser des formalismes sans les modifier, et éventuellement d’identifier son œuvre à ces formalismes ?
Dans mon cas, j’ai une formation scientifique poussée, puisque j’ai toujours adoré les mathématiques, que j’ai fait mes classes prépa scientifiques math-sup et math spé, et une grande école scientifique très orientée vers les mathématiques (l’ENSAE ; j’ai loupé de peu l’ENS Math à cause de la physique où j’ai toujours été d’un niveau exécrable). J’ai également été chargé de cours en mathématiques et en informatique à l’âge de 23 ans à l’université Paris-Dauphine, ai été plusieurs années « colleur » de mathématiques en classe de Math sup, et ai commencé un doctorat en science. Mon doctorat de théorie musicale, qui en fait me permettait de financer mes études de composition, est parti de considérations esthétiques à partir du théorème de Kolmogorov-Chaitin sur la complexité.
J’utilise donc depuis longtemps une pensée formalisée pour m’aider à composer (je compose par exemple toutes mes pièces avec l’aide du logiciel OpenMusic, que ce soit pour les harmonies ou pour les calculs des « cross-rhythms » généralisés. Cependant, cela fait partie de ma « cuisine », je ne vois personnellement pas la nécessité de mettre en avant les techniques utilisées, et seul le résultat perceptif compte, mes œuvres ne se résumant pas à leur technique. Il m’arrive d’ailleurs souvent de corriger à l’oreille mes résultats formalisés, ce que le philosophe Theodor Adorno nomme l’approche « informelle ». La composition est surtout une question de choix, plutôt que de contrainte, il me semble.
Peux-tu te présenter et nous parler de ton parcours, et de ce qui t’a conduite à l’intéresser à la musique par intelligence artificielle et à la sonification ? Peux-tu nous parler de ton travail sur la musique générative via la sonification de texte ?
Je m’appelle Hannah Davis, et on peut retrouver mon travail sur HannahIsHere, Music from text et me suivre sur Twitter (@ahandvanish).
J’ai commencé à m’intéresser à la sonification pendant mon cursus ITP à l’Université de New York. Mon sujet de thèse y était un algorithme que j’ai appelé TransProse, destiné à transformer des livres en musique.
TransProse fonctionne en relevant les « niveaux d’émotion » tout au long d’un roman, et transforme ces données émotionnelles en musique par différents mappings. Par exemple, on peut influencer le registre aigu ou grave en fonction de la tristesse ou de la colère, ou relier le tempo au caractère plus ou moins actif ou passif des émotions, et à la quantité d’actions. Il y a un grand nombre de manières de mapper l’émotion en musique ; c’est très subjectif.
Pendant plusieurs années après ça, j’ai travaillé sur la visualisation de données, puis je me suis concentrée sur la sonification. Je me suis toujours intéressée à la musique – lorsque j’étais plus jeune, je jouais dans un ensemble de flûtes baroques, et j’ai ensuite joué beaucoup de percussion et de guitare. Mon intérêt pour la musique générative était donc une voie naturelle.
Ton travail croise une réflexion sur l’intelligence artificielle et une manière poétique d’inviter la nature (insectes, oiseaux…) au sein même de l’œuvre. Peux-tu nous parler de ton parcours, et de ce qui t’a conduit à t’intéresser aux processus génératifs, à l’intelligence artificielle et à développer une œuvre autour du biologique ?
J’ai fait du violon, du piano, et pratiqué d’assez loin les sampleurs, keyboards, avant de me former à l’informatique musicale au CIRM à Nice. Je m’intéressais déjà au génératif et au stochastique auparavant ; j’étais allé à Cologne rencontrer Karlheinz Essl, qui avait fait une librairie d’objets Max pour l’algorithmique en temps réel.
C’est grâce à Frédéric Voisin que j’ai commencé à explorer les réseaux de neurones artificiels. Je me suis acheté un bouquin à Zurich, avec du pseudo-code, et j’ai essayé de le porter dans Jitter. Ma première carte auto-organisatrice, un patch Max, était un moyen assez ludique d’explorer cette technologie en créant plusieurs dispositifs.
Il y a toujours un côté un peu magique quand la machine commence à générer des choses. Avant, j’utilisais des outils très déterministes ; les neurones sont un système plus souple, qui peut apprendre des choses de façon implicite, cela crée un autre type d’interaction, une autre façon de faire de la musique, dans une approche plus expérimentale. Bien sûr, il y a une fascination des outils au départ, le côté “ghost in the machine”, car cela touche à la question du vivant, d’une vision matérialiste du monde. Dans notre expérience personnelle, on dissocie monde physique et monde mental ; même si on sait très bien que ce n’est pas le cas, on a du mal se défaire à cette idée. Mon travail sur ce type d’algorithmes va dans ce sens-là : chercher à quel moment la matière inerte devient vivante, essayer de comprendre les mécanismes qui sont derrière. C’est ce qui a conduit au passage vers le biologique dans mon travail.
Au début, ce qui m’intéressait dans les algorithmes biomimétiques, c’était justement leur comportement biologique, ce sentiment d’être face à quelque chose qui a sa propre volition. Et aussi la question du rapport d’une masse inerte (ordinateur) et une masse biologique qui donne naissance à un comportement plus sophistiqué, un phénomène d’émergence. J’essaie de comprendre ce passage de l’un à l’autre, dans le cas d’un ordinateur ou dans le cas d’insectes qui se synchronisent, ou de moustiques en symbiose avec une machine. Les phénomènes d’intelligence collective (chez les fourmis, les abeilles, les lucioles, les criquets), le vivant comme processeur qui entend, répond, donne naissance à un système hybride entre machine et vivant, m’intéresse particulièrement. J’ai changé la matière mais les questions sont restées les mêmes.
Peux-tu présenter ton parcours et décrire ce qui t’a conduit à t’intéresser aux musiques génératives et algorithmiques ?
Mon parcours musical est assez traditionnel. J’ai étudié la composition en Italie au Conservatoire, avec Stefano Gervasoni. J’ai commencé à composer assez jeune, autour de 13 ans. J’ai poursuivi en parallèle des études en mathématiques, jusqu’à ce que je doive choisir entre les deux voies. J’ai choisi la composition, et suis venu en France, en 2009. A partir de ce moment-là, j’ai passé beaucoup de temps à l’Ircam, comme compositeur en cursus d’abord, puis compositeur en résidence, ensuite en doctorat, et enfin en participant à plusieurs productions. C’est plus ou moins ma maison à Paris…
Je me suis toujours intéressé à la formalisation, à la composition assistée à l’ordinateur, etc. C’était naturel de penser algorithmiquement la musique, pour quelqu’un qui était dans les mathématiques. Mais cet intérêt a évolué : au début, j’étais très intéressé par la Set theory, l’algèbre appliquée à musique, puis je me suis plutôt intéressé au paradigme d’interaction homme-machine, aux réseaux de neurones et, tout dernièrement, à l’intelligence artificielle.
Dès que j’ai fait mes premières compositions au conservatoire, j’ai commencé à développer des outils de formalisation. Il m’a fallu du temps pour me poser la question de la valeur esthétique de la formalisation. Il m’a aussi fallu du temps pour évoluer vers une autre démarche, vers moins de complexité. Les réseaux de neurones correspondent à cela : ça ne m’intéresse pas du tout de me mettre à la table et d’imaginer une machine qui reproduit mon processus de composition. Je préfère utiliser la machine comme une boîte à outils où je ne sais pas les réponses avant de poser les questions. La surprise est l’aspect le plus intéressant du dialogue homme-machine, sinon c’est comme utiliser une calculette : c’est pratique, on le fait souvent, mais ce n’est pas ça qui est intéressant.
Peux-tu nous parler de ton parcours, et notamment de ce qui t’a conduit à intégrer à ta pratique artistique des processus génératifs ?
Je suis compositeur-intervenant à l’Ecole des Beaux-arts de Nantes où j’enseigne le son et la composition et actuellement doctorant à l’université de Lorraine. Membre fondateur d’Apo33 (laboratoire artistique, musical, technologique, théorique et transdisciplinaire), et investigateur des labels de musique de création Noise Mutation et Fibrr Records. Je développe un travail de recherche et de création croisant musique, art sonore, poésie sonore, nouvelles technologies, construction de dispositifs électroniques et performance physique. Artiste impliqué dans le mouvement du libre, je développe une approche musicale à partir d’outils de composition et de lutherie open source et copyleft.
Ma pratique d’écriture musicale se décline autour de performances machiniques avec la mise en place de systèmes de composition programmatique où le programme informatique devient la partition. Je suis autant interprète du répertoire de ces cinquante dernières années (John Cage, Cornelius Cardew, Earle Brown, James Tenney…) que compositeur dans le sens de création de nouvelle musique (percussion, musique mixte, électronique, électroacoustique, noise, poésie sonore, musique générative, machine aléatoire, programmée, télématique…) et écriture graphique.
Multi-instrumentiste, je joue aussi bien de la percussion, de la guitare préparée, de la basse qu’avec toutes les nouvelles lutheries comme le thérémine, le synthé modulaire, échantillonneur et tous les types de machines électroniques aussi bien analogiques que numériques.
Je suis à l’origine de plusieurs ensembles de musique nouvelle comme Onsemble, dont le répertoire comprend des pièces de Phill Niblock, Christian Wolff, Keith Rowe et David Tudor. Nous travaillons autant sur l’interprétation du répertoire qu’avec des commandes. Il y a aussi Orgone, avec Kahn, D’incise, Gervasoni, Beins, Z’ev… où domine la pratique de la percussion contemporaine. J’ai initié également des ensembles de types nouvelles lutheries et numériques comme le GIASO (Great Internet Audio Streaming Orchestra), orchestre en réseau (télématique) mais aussi le GOO (Grand Orchestre d’ordinateurs), le DIME (Dispositif itinérant de musique électronique) et des ensembles historiques comme Formanex (1998) avec Joy et Toeplitz, utilisant les nouveaux instruments électriques (répertoire : Cardew, Cage et commandes) et Océphale (2000 – musique totalement improvisée).
Très naturellement, je me suis intéressé à l’autonomisation de la machine. Dès la fin des années 90, mon intérêt s’est porté vers la création d’automates avec mon premier laptop, des programmes qui sont, notamment, capables de jouer des sons pré-enregistrés, des sons numériques et des échantillonnages en direct.
Peux-tu nous présenter ton parcours en quelques mots ? Et notamment préciser ce qui t’a conduit de la composition classique à la musique de jeu vidéo ?
J’ai d’abord étudié la guitare. J’aimais le répertoire classique mais je préférais jouer de la guitare électrique, j’ai donc choisi un cursus en jazz. Ce que j’ai aimé dans cet apprentissage du jazz, c’était que l’improvisation oblige à analyser la musique sous l’angle du pourquoi, alors qu’en interprétation de la musique classique on s’intéresse plutôt au comment. Mais je me rendais compte que je restais surtout dans ma zone de confort pendant mes improvisations, car la situation du concert ne permet pas de se corriger. En composant, j’explorais davantage, car je pouvais corriger après-coup. Mon tempérament me portait donc plus vers la composition, alors que les vrais jazzmen aiment et acceptent l’imprévu dans leur musique.
Ma grande sœur faisait du cinéma d’animation, je faisais la musique de ses films. Tout ça m’a amené vers la musique orchestrale.
Ensuite, j’ai fait des études de composition instrumentale à l’université, principalement pour l’orchestre. Pendant que je faisais ma maîtrise, j’étais assistant pour un compositeur de musique de film qui travaillait sur plusieurs documentaires et de séries télé, Robert-Marcel Lepage. J’ai beaucoup appris sur la musique pour l’image à ce moment-là.
Après avoir eu mon diplôme de deuxième cycle, une compagnie de production de jeu vidéo installée à Montréal, Gameloft, qui à l’époque faisait surtout des jeux mobiles, recrutait des compositeur in house, ce qui est rare car la plupart du temps les compositeurs de musique pour le jeu vidéo sont plutôt des pigistes. J’ai été engagé après une batterie d’interview et d’essais. Nous étions une dizaine de compositeurs avec chacun sa spécialité. Je travaillais plutôt sur la musique orchestrale (jeux inspirés de films, Spider Man, Shreck…), tandis que d’autres étaient plutôt spécialisés rock (jeux de courses de voitures…). J’ai travaillé pour Gameloft pendant plus de 6 ans, j’y ai fait la musique pour plus de 25 jeux.
Mais je l’avais vu d’emblée comme un tremplin, un passage vers quelque chose d’autre. Lorsque j’ai remporté un pitch pour un jeu produit par une autre compagnie (j’avais signé une clause de non-concurrence chez Gameloft) et que plusieurs commandes pour orchestres se sont présentées, j’ai pris la décision de quitter Gameloft. Maintenant, je suis compositeur pigiste, avec un agent, et j’écris pour des orchestres. J’enseigne une journée par semaine la musique pour jeu vidéo, la composition et l’orchestration à l’Université de Sherbrooke, dans un programme de premier cycle universitaire en Composition de musique à l’image.
Peux-tu te présenter ? Quel est ton parcours (formation, mais aussi lectures, rencontres) ? Comment as-tu découvert l’algorithmique et pour quelles raisons t’y es-tu intéressé ?
Mon parcours est un peu bizarre. D’un certain point de vue, je suis très académique : j’ai un doctorat en sémiotique, discipline que j’enseigne aujourd’hui à l’Université de Turin, avec l’informatique musicale. Mais en ce qui concerne la composition, je suis largement autodidacte. J’ai étudié la musique à l’institut de Turin et la composition avec Azio Corghi et Mauro Bonifacio, en perfectionnement. Mais à l’origine, je suis bassiste, je viens du rock, du free jazz, des différentes musiques d’improvisations expérimentales, John Zorn, ce genre de choses…
Comme compositeur, je fais des expérimentations avec des objets. J’ai d’abord fait beaucoup d’études sur des enregistrements d’objets, dans une perspective de musique concrète, mais interprétée. J’utilisais un enregistreur sur cassette, donc sans aucun montage possible, ce qui me forçait à construire des situations d’improvisations, avec ma propre notation.
Ensuite, j’ai appliqué le processus inverse : sur ordinateur, monter de petits morceaux dans une perspective très abstraite. Mais cela ne m’intéressait pas de le faire à la main, j’ai donc étudié la programmation et ce fut une expérience intellectuelle très importante, liée à mon intérêt pour la formalisation et la musique algorithmique, qui est un peu ma forma mentis.
J’en suis maintenant au troisième moment de cette recherche, où je réconcilie ces deux premières étapes (musique concrète et formalisation abstraite) via le physical computing, la computation avec les objets.
Pouvez-vous nous parler de votre parcours de compositeur, de ce qui vous a conduit à trouver votre style ? Qu’est-ce qui vous a décidé à donner à l’algorithmique une place prépondérante dans votre musique ?
J’ai commencé à écrire de la musique vers l’âge de 15 ans, en prenant pour modèles les compositeurs que je découvrais alors en apprenant le piano : Debussy, Ravel, Stravinsky, Schoenberg, Messiaen… Je me suis rapidement heurté au problème du développement de mes idées musicales, à la notion de forme qui induit une organisation dialectique. J’ai été tenté par le format aphoristique, puis un jour j’ai commencé à m’intéresser aux algorithmes qui me sont apparus comme une remarquable solution au défi que je me posais : donner un mouvement, un flux, à une musique réduite à quelques traits comportementaux facilement identifiables (un motif rythmique, une couleur harmonique…). Des préoccupations qui se sont cristallisées lorsque j’ai découvert le travail des artistes visuels Véra Molnar et François Morellet, qui prouve que système et poésie ne sont pas des notions antinomiques.
Peux-tu te présenter en quelques mots, nous parler de ton parcours et dire ce qui t’a conduit à l’intéresser au logiciel Pure data et aux musiques génératives ?
J’ai 53 ans, je suis artiste peintre et c’est ce que je fais le plus souvent; je fais aussi de la musique et j’écris. J’ai très tôt joué claviers et guitare puis fait de nombreuses expériences musicales avec multipistes, synthés, séquenceurs, échantillonneurs… Il y a une vingtaine d’années, j’ai fait de la musique de film d’entreprise (il y a aujourd’hui des CD de « tapis sonores »), puis pour le théâtre.
J’aime les livres. Philosophie, histoire des sciences, mathématiques, recueils de poésie (j’aime bien qu’on dise « recueil » pour la poésie), dictionnaires, livres d’art… Certains m’ont édifié comme Snow crystals de W.A. Bentley, Les formes dans la nature de P.S. Stevens, La poésie des nombres de Daniel Tammet, les Notes de chevet de Sei Shōnagon…
J’ai eu l’intuition de l’impensable beauté des maths en lisant Jeux avec l’infini de Rózsa Péter… deux ans après avoir quitté le lycée en Terminale (où je n’avais passé que trois jours). Bien plus tard, ESAEU, VAE, licence d’Arts plastique…. 8 mois d’études en quinze ans. École plutôt buissonnière donc.
Suite à de graves ennuis de santé, j’ai composé en sept ans tout ce que j’avais encore à composer puis mes musiques se sont étirées jusqu’au silence : j’avais découvert la musique aléatoire, par sérendipité, avec un module de synthèse granulaire du logiciel Reason® : en isolant certaines fréquences d’un bruit blanc je déclenchais aléatoirement des évènements sonores (Fish). J’étais fasciné par cette découverte : ça jouait tout seul ! — mais un peu frustré des limites du logiciel qui n’était vraiment pas fait pour ça. Mon dernier morceau de musique « intentionnelle » : un accord au piano, toujours le même, et des nombres égrenés de 16 jusqu’à 1. C’est le dernier morceau de musique « écrite » que j’ai eu envie de faire (Numbers). Longue interruption.
J’ai découvert Pure Data en mai 2010, sur une distribution Linux, parce que mon corps ne me permettait plus de jouer d’un instrument — et ce fut un changement de paradigme : avant, je situais l’intention au centre de mes créations artistiques et le hasard était repoussé autour, me semblant juste du désordre — le bord de ces musiques était comme le bord d’une terre plate. Désormais je comprenais que je pouvais placer le hasard au centre de mes créations et l’intention, comme garde-fou ou garde-corps, autour de cette profusion — selon ce que m’avaient appris la maladie et le coma : c’est par hasard qu’arrive la pluie et c’est par intention que je m’en protège ou m’y confie.
Pouvez-vous vous présenter ? Quel est votre parcours (formation, mais aussi rencontres, lectures, recherches) ?
Je m’appelle Cyrille Henry, je suis né en 1977. J’ai une formation scientifique (DEA d’acoustique appliquée). En parallèle, j’ai passé plusieurs années à jongler, ce qui m’a permis d’approcher le spectacle vivant. J’ai aussi passé du temps à « jouer » avec un vieux synthétiseur analogique, dont l’évolution des sons peut se programmer à partir de modules simple, l’augmentation du nombre de modulations permettant de complexifier le son jusqu’à arriver à des évolutions génératives.
A la fin de mes études, j’ai travaillé sur la modélisation physique à bases de modèles masses ressorts. Puis, durant 4 ans, en tant qu’ingénieur électronicien pour le spectacle vivant et les artistes plasticiens, principalement autour de systèmes de captation gestuelle en temps réel. C’est ainsi que j’ai commencé à collaborer avec des artistes. Depuis presque 15 ans, je travaille en tant qu’artiste-auteur et développeur indépendant sur différents projets artistiques.
Peux-tu te présenter ? Quel est ton parcours, as-tu une formation scientifique, notamment dans le domaine des langages informatiques ? Qu’est-ce qui t’a conduit vers la pratique du live coding ?
Je suis autodidacte, j’ai fait un peu de C, un peu de Java, un peu Python et plus récemment du Ruby. Intéressé par l’informatique et la musique depuis longtemps, je suis tombé sur le live coding autour de 2004 ou 2005, mais à l’époque la discipline me paraissait hostile et mes connaissances en programmation trop limitées pour tenter l’expérience.
Vers 2007, j’ai commencé à faire mes premiers pas dans les langages en temps réel, du type Pure Data ou vvvv. J’ai pu faire mes premières installations interactives et, peu de temps après, mes premiers sets en vjing avec une interface primitive mais à peu près fonctionnelle. En 2010, je suis passé au Make Art Festival de Poitiers où j’ai pu découvrir le livre FLOSS + ART, avec des passages sur le live coding ainsi que des performances live. C’est également à cette occasion que j’ai pu découvrir la distribution GNU-Linux Pure-dyne qui intégrait une flopée d’outils très intéressants dont Fluxus, un environnement de live coding appliqué au visuel, sur lequel j’ai passé un peu de temps. Je me suis alors sensibilisé plus fortement au logiciel libre.
En 2011, dans le cadre de l’organisation Rencontres Mondiales du Logiciel Libre, nous avons invité trois live codeurs à venir jouer devant un parterre de libristes : il s’agissait de MCLD (Dan Stowell, live coding + beatboxing, SuperCollider ), Marije Baalman (live coding, SuperCollider ) et Michel Pasin (impromptu). C’est à cette époque j’ai fait mes premiers pas sérieux dans le vjing et ce ne sera que quelques années plus tard que je reviendrai au live coding, mais ça restera tout le temps dans un coin de la tête.
Vers 2015, je me suis replongé dans le live coding, via SuperCollider et surtout lors du Node 15 à Frankfurt, où j’ai pu écouter la présentation de Sam Aaron sur Sonic Pi. A la fois simple et puissant, l’outil est conçu pour être utilisé par un enfant de 10 ans. C’était une révélation. Accessible et versatile, open-source et gratuit. Pourtant le logiciel reste puissant et si certains compromis ont été fait en matière de flexibilité, le fait que le moteur de son soit en SuperCollider et que le code soit proche du Ruby permet d’aller très loin dans l’utilisation.
Le live coding c’est un peu ce que j’ai cherché depuis longtemps : faire de la musique numérique au moins partiellement improvisée sans s’encombrer d’interfaces lourdes et contraignantes, sans passer par des logiciels propriétaires fermés et coûteux. C’est également la possibilité d’expérimenter à peu près n’importe quoi sans que le logiciel nous en empêche.
Pouvez-vous vous présenter ? Qu’est-ce qui vous a conduit vers la création générative ? Quel est votre parcours (formation, mais aussi rencontres, lectures) ? Avez-vous une formation scientifique, notamment dans le domaine des langages informatiques ?
J’ai commencé à travailler en tant que compositeur / designer sonore / technicien audio pour différents médias en tant que freelance. En 2010, il y a eu une année de crise qui a conduit beaucoup de mes clients à ne pas renouveler leurs commandes habituelles ; je me suis mis alors à la programmation en autodidacte avec Pure Data, ce qui a radicalement changé ma manière de travailler la matière sonore. A partir de ce moment, j’ai commencé à créer des programmes qui créaient de la musique plutôt que de composer au sens plus traditionnel du terme.
J’ai un parcours un peu tortueux puisque j’ai commencé par une école d’ingénieur avec pour objectif de faire de l’acoustique (je n’y ai quasiment pas abordé la programmation, principalement car je n’aimais absolument pas cette discipline …). J’ai ensuite fait une licence de musicologie à Lille dans laquelle, en plus de perfectionner ma pratique musicale, j’ai découvert Max/msp (et Pure Data) grâce à un professeur, Robin Minard. Bien que j’aie trouvé cela particulièrement intéressant, il a fallu que je m’y remette à plusieurs fois pour commencer réellement à travailler avec Pure Data (cela a pris plusieurs années). Ensuite j’ai fait un Master de Sciences Cognitives à l’Institut de Cognitique à Bordeaux : j’ai pu orienter mon mémoire vers la perception auditive.