ENTRETIENS

Peux-tu te présenter en quelques mots, nous parler de ton parcours et dire ce qui t’a conduit à l’intéresser au logiciel Pure data et aux musiques génératives ?

J’ai 53 ans, je suis artiste peintre et c’est ce que je fais le plus souvent; je fais aussi de la musique et j’écris. J’ai très tôt joué claviers et guitare puis fait de nombreuses expériences musicales avec multipistes, synthés, séquenceurs, échantillonneurs… Il y a une vingtaine d’années, j’ai fait de la musique de film d’entreprise (il y a aujourd’hui des CD de « tapis sonores »), puis pour le théâtre.
J’aime les livres. Philosophie, histoire des sciences, mathématiques, recueils de poésie (j’aime bien qu’on dise « recueil » pour la poésie), dictionnaires, livres d’art… Certains m’ont édifié comme Snow crystals de W.A. Bentley, Les formes dans la nature de P.S. Stevens, La poésie des nombres de Daniel Tammet, les Notes de chevet de Sei Shōnagon…
J’ai eu l’intuition de l’impensable beauté des maths en lisant Jeux avec l’infini de Rózsa Péter… deux ans après avoir quitté le lycée en Terminale (où je n’avais passé que trois jours). Bien plus tard, ESAEU, VAE, licence d’Arts plastique…. 8 mois d’études en quinze ans. École plutôt buissonnière donc.
Suite à de graves ennuis de santé, j’ai composé en sept ans tout ce que j’avais encore à composer puis mes musiques se sont étirées jusqu’au silence : j’avais découvert la musique aléatoire, par sérendipité, avec un module de synthèse granulaire du logiciel Reason® : en isolant certaines fréquences d’un bruit blanc je déclenchais aléatoirement des évènements sonores (« Fish« ). J’étais fasciné par cette découverte : ça jouait tout seul ! — mais un peu frustré des limites du logiciel qui n’était vraiment pas fait pour ça. Mon dernier morceau de musique « intentionnelle » : un accord au piano, toujours le même, et des nombres égrenés de 16 jusqu’à 1. C’est le dernier morceau de musique « écrite » que j’ai eu envie de faire (« Numbers« ). Longue interruption.
J’ai découvert Pure Data en mai 2010, sur une distribution Linux, parce que mon corps ne me permettait plus de jouer d’un instrument — et ce fut un changement de paradigme : avant, je situais l’intention au centre de mes créations artistiques et le hasard était repoussé autour, me semblant juste du désordre — le bord de ces musiques était comme le bord d’une terre plate. Désormais je comprenais que je pouvais placer le hasard au centre de mes créations et l’intention, comme garde-fou ou garde-corps, autour de cette profusion — selon ce que m’avaient appris la maladie et le coma : c’est par hasard qu’arrive la pluie et c’est par intention que je m’en protège ou m’y confie.

(Lire la suite)

Pouvez-vous vous présenter ? Quel est votre parcours (formation, mais aussi rencontres, lectures, recherches) ?

Je m’appelle Cyrille Henry, je suis né en 1977. J’ai une formation scientifique (DEA d’acoustique appliquée). En parallèle, j’ai passé plusieurs années à jongler, ce qui m’a permis d’approcher le spectacle vivant. J’ai aussi passé du temps à « jouer » avec un vieux synthétiseur analogique, dont l’évolution des sons peut se programmer à partir de modules simple, l’augmentation du nombre de modulations permettant de complexifier le son jusqu’à arriver à des évolutions génératives.
A la fin de mes études, j’ai travaillé sur la modélisation physique à bases de modèles masses ressorts. Puis, durant 4 ans, en tant qu’ingénieur électronicien pour le spectacle vivant et les artistes plasticiens, principalement autour de systèmes de captation gestuelle en temps réel. C’est ainsi que j’ai commencé à collaborer avec des artistes. Depuis presque 15 ans, je travaille en tant qu’artiste-auteur et développeur indépendant sur différents projets artistiques.

(Lire la suite)

Peux-tu te présenter ? Quel est ton parcours, as-tu une formation scientifique, notamment dans le domaine des langages informatiques ? Qu’est-ce qui t’a conduit vers la pratique du live coding ?

Je suis autodidacte, j’ai fait un peu de C, un peu de Java, un peu Python et plus récemment du Ruby. Intéressé par l’informatique et la musique depuis longtemps, je suis tombé sur le live coding autour de 2004 ou 2005, mais à l’époque la discipline me paraissait hostile et mes connaissances en programmation trop limitées pour tenter l’expérience.
Vers 2007, j’ai commencé à faire mes premiers pas dans les langages en temps réel, du type Pure Data ou vvvv. J’ai pu faire mes premières installations interactives et, peu de temps après, mes premiers sets en vjing avec une interface primitive mais à peu près fonctionnelle. En 2010, je suis passé au Make Art Festival de Poitiers où j’ai pu découvrir le livre FLOSS + ART, avec des passages sur le live coding ainsi que des performances live. C’est également à cette occasion que j’ai pu découvrir la distribution GNU-Linux Pure-dyne qui intégrait une flopée d’outils très intéressants dont Fluxus, un environnement de live coding appliqué au visuel, sur lequel j’ai passé un peu de temps. Je me suis alors sensibilisé plus fortement au logiciel libre.
En 2011, dans le cadre de l’organisation Rencontres Mondiales du Logiciel Libre, nous avons invité trois live codeurs à venir jouer devant un parterre de libristes : il s’agissait de MCLD (Dan Stowell, live coding + beatboxing, SuperCollider ), Marije Baalman (live coding, SuperCollider ) et Michel Pasin (impromptu). C’est à cette époque j’ai fait mes premiers pas sérieux dans le vjing et ce ne sera que quelques années plus tard que je reviendrai au live coding, mais ça restera tout le temps dans un coin de la tête.
Vers 2015, je me suis replongé dans le live coding, via SuperCollider  et surtout lors du Node 15 à Frankfurt, où j’ai pu écouter la présentation de Sam Aaron sur Sonic Pi. A la fois simple et puissant, l’outil est conçu pour être utilisé par un enfant de 10 ans. C’était une révélation. Accessible et versatile, open-source et gratuit. Pourtant le logiciel reste puissant et si certains compromis ont été fait en matière de flexibilité, le fait que le moteur de son soit en SuperCollider  et que le code soit proche du Ruby permet d’aller très loin dans l’utilisation.
Le live coding c’est un peu ce que j’ai cherché depuis longtemps : faire de la musique numérique au moins partiellement improvisée sans s’encombrer d’interfaces lourdes et contraignantes, sans passer par des logiciels propriétaires fermés et coûteux. C’est également la possibilité d’expérimenter à peu près n’importe quoi sans que le logiciel nous en empêche.

(Lire la suite)

Pouvez-vous vous présenter ? Qu’est-ce qui vous a conduit vers la création générative ? Quel est votre parcours (formation, mais aussi rencontres, lectures) ? Avez-vous une formation scientifique, notamment dans le domaine des langages informatiques ?

J’ai commencé à travailler en tant que compositeur / designer sonore / technicien audio pour différents médias en tant que freelance. En 2010, il y a eu une année de crise qui a conduit beaucoup de mes clients à ne pas renouveler leurs commandes habituelles ; je me suis mis alors à la programmation en autodidacte avec Pure Data, ce qui a radicalement changé ma manière de travailler la matière sonore. A partir de ce moment, j’ai commencé à créer des programmes qui créaient de la musique plutôt que de composer au sens plus traditionnel du terme.

J’ai un parcours un peu tortueux puisque j’ai commencé par une école d’ingénieur avec pour objectif de faire de l’acoustique (je n’y ai quasiment pas abordé la programmation, principalement car je n’aimais absolument pas cette discipline …). J’ai ensuite fait une licence de musicologie à Lille dans laquelle, en plus de perfectionner ma pratique musicale, j’ai découvert Max/msp (et Pure Data) grâce à un professeur, Robin Minard. Bien que j’aie trouvé cela particulièrement intéressant, il a fallu que je m’y remette à plusieurs fois pour commencer réellement à travailler avec Pure Data (cela a pris plusieurs années). Ensuite j’ai fait un Master de Sciences Cognitives à l’Institut de Cognitique à Bordeaux : j’ai pu orienter mon mémoire vers la perception auditive.

(Lire la suite)