Pouvez-vous vous présenter ? Quel est votre parcours (formation, mais aussi rencontres, lectures, recherches) ?
Je m’appelle Cyrille Henry, je suis né en 1977. J’ai une formation scientifique (DEA d’acoustique appliquée). En parallèle, j’ai passé plusieurs années à jongler, ce qui m’a permis d’approcher le spectacle vivant. J’ai aussi passé du temps à « jouer » avec un vieux synthétiseur analogique, dont l’évolution des sons peut se programmer à partir de modules simple, l’augmentation du nombre de modulations permettant de complexifier le son jusqu’à arriver à des évolutions génératives.
A la fin de mes études, j’ai travaillé sur la modélisation physique à bases de modèles masses-ressorts. Puis, durant 4 ans, en tant qu’ingénieur électronicien pour le spectacle vivant et les artistes plasticiens, principalement autour de systèmes de captation gestuelle en temps réel. C’est ainsi que j’ai commencé à collaborer avec des artistes. Depuis presque 15 ans, je travaille en tant qu’artiste-auteur et développeur indépendant sur différents projets artistiques.
Lesquels de vos travaux utilisent des algorithmes ? Qu’est-ce qui vous a séduit dans ces outils ?
La majorité de mes travaux utilisent des modèles physiques, notamment des systèmes masses-ressorts. Ces systèmes permettent de modéliser le comportement d’éléments très simples : des masses ponctuelles soumises à leur inertie, ainsi que des ressorts / amortisseurs permettant de relier deux masses entre elles. Ces modèles sont à la fois très simples et très intuitifs, et capables de générer malgré tout des comportements très complexes.
Ces systèmes m’attirent également pour d’autres raisons :
– La possibilité d’interagir avec la simulation en temps réel
– L’aspect “plausible” du résultat de la simulation. J’utilise ce terme de « mouvement plausible » lorsque l’on utilise des masses-ressorts pour simuler des systèmes qui n’existent pas, ou même qui ne peuvent pas exister : le mouvement n’est pas « réaliste » car il ne correspond à rien de réel, mais à partir du moment où il respecte des règles de base de la physique (inertie / conservation de l’énergie), le mouvement produit est crédible.
D’autre part, on peut utiliser la position de chaque masse dans le temps, leur vitesse, leur accélération, la longueur des ressorts, les forces échangées, etc. Il y a de nombreuses données complémentaires utilisables. Ces données peuvent être sorties de leur contexte pour être uniquement perçues comme une suite de nombres définissant un mouvement.
Par exemple, cette vidéo de chdh a été réalisée à partir d’un modèle physique très simple : 3 masses sont connectées ensemble par quelques ressorts. La rigidité et l’amortissement de ces ressorts étaient pilotées en temps réel.
vivarium – parade from chdh on Vimeo.
En termes de rendu, les positions des masses sont affichées directement. On voit donc le mouvement brut. Par contre, le son est généré à partir des vitesses et des accélérations de ces masses. Le son n’est donc pas en redondance avec l’image, mais les deux s’harmonisent puisque les deux médias sont synthétisés à partir de données différentes mais complémentaires.
Quelle est l’évolution entre votre première et dernière création générative ?
Avec le temps, j’ai appris à gérer ces modèles et j’ai pu faire des simulations de plus en plus complexes. Mais actuellement, je cherche à revenir à des conceptions plus minimales : ne plus utiliser d’ordinateur. Par exemple, mon « glsl distortion shader » est une simple plaque de métal miroir tordu reflétant une image déformée. De nombreuses installations « nouvelles technologies » consistent à refléter une image déformée de la réalité. Cette installation exploite le même principe, mais sans les limites de la technologie, en démontrant l’adage : « Less is more ».
Y a-t-il des artistes que vous considérez comme ayant eu un impact décisif sur votre travail ? Ont-ils un rapport avec la création générative ? Pensez-vous à une œuvre d’un autre artiste/compositeur qui vous intéresse particulièrement dans son utilisation des processus génératifs ?
Je me souviens avoir vu une émission télévisée en 1997 où Atau Tanaka faisait la démonstration de Biomuse : un système permettant de capter la contraction des muscles des avant-bras pour contrôler une génération sonore grâce à un ordinateur. Cela m’avait marqué car c’est avant tout le geste et le mouvement qui m’intéressent. L’informatique s’est révélée être un bon outil de synthèse de comportement. Le fait de travailler sur des procédés génératifs n’est qu’une conséquence de mes recherches sur la « qualité du geste » (dans le sens que l’on l’utilise en danse).
J’aime aussi beaucoup le travail de Žilvinas Kempinas sur des bandes magnétiques volant à l’aide de ventilateurs, car il y a différents niveaux de lecture du mouvement.
Au risque de manquer d’originalité, je dirais que la richesse de la nature est aussi une source d’inspiration.
Votre travail s’exprime indifféremment dans le sonore et dans le visuel. Comment pensez-vous l’articulation entre les deux ?
Là encore, tout est question de mouvement. L’utilisation de logiciels permettant de synthétiser indifféremment du son et de l’image facilite grandement cette approche synesthésique dans la création. Je pars en général du modèle physique, qui va générer des données abstraites. Ces données sont ensuite utilisées pour piloter des paramètres de synthèse (à la fois audio et vidéo). Cela permet à la vidéo de ne pas représenter le son, et réciproquement. Les deux médias représentent chacun une partie d’un tout sous-jacent. Ils se complètent : « 1+1=3 »
Pouvez-vous donner des exemple d’idées, de concepts, de techniques appartenant initialement au champ du visuel et que vous auriez appliqué au sonore, ou l’inverse ?
Il y a déjà beaucoup d’outils qui existent dans les deux domaines, parfois avec les même noms, parfois avec des noms différents. Les filtres sont des outils génériques que l’on retrouve dans tous les domaines. Le waveshaping peut s’appliquer à une onde sonore pour générer un effet (distorsion, bitcrusher, etc.) mais aussi sur la couleur des pixels composant une image, modifiant ainsi les effets de colorimétrie. Le sampling sonore est l’équivalent d’un enregistrement vidéo, ou même d’une photo dans le champ visuel… Le logiciel Pure data traite les données indépendamment de leur utilisation ou représentation. Par exemple, il est assez simple de remplir un tableur de nombres issus d’un son, et de s’en servir comme table de valeurs d’intensités lumineuses, etc.
Parmi mes travaux, les « compressions » sont une sorte de synthèse granulaire en image.
Dans Egregore (chdh), nous avons utilisé un système d’envoi d’effets pour les comportements (comme sur les tables de mixage audio) : chaque performeur peut ainsi moduler un comportement par l’adjonction d’autres algorithmes. Les formes latentes correspondent à un changement de mode de représentation d’une image vers une forme 3D : les valeurs RGB d’un pixel sont utilisées pour déformer et déplacer un cube dans l’espace. La multitude de pixels initiale génère une même quantité de cubes dans l’espace.
Au sujet de Morphist, vous déclarez que la pièce porte plus sur le mouvement et la chorégraphie que sur le son et l’image proprement dits. Qu’entendez-vous par là précisément ?
Morphist est une performance de chdh basée sur près de 10 000 « particules » (virtuelles) se déplaçant face à des forces que nous (les deux performeurs de chdh) contrôlons en temps réel. On utilise le champ lexical des musiciens pour parler de notre travail pendant la performance car il n’existe pas de mots équivalents correspondant à la création d’images en temps réel. Mais ce que nous faisons réellement, c’est uniquement agir sur la façon dont ces particules bougent. Elles sont représentées de façon très abstraite, à la fois en son et en image. C’est leurs mouvements qui donnent une cohérence à l’ensemble.
Morphist – extracts [2015] from chdh on Vimeo.
Pouvez-vous nous parler de votre intérêt pour les L-systems ?
Quand j’avais 5 ou 6 ans, il y avait un ordinateur « TO7 » à l’école. Le seul programme accessible à mon âge était le « Logo ». Il permettait de dessiner en pilotant un curseur à partir de commandes simples : avance, tourne, baisse crayon, lève crayon. Les L-Systems ne sont pas très différents, la syntaxe est simplement augmentée de [ et ] , permettant ainsi de se souvenir et de rappeler une position. Mais Lindenmayer a montré que cela permettait de recréer les formes fractales que l’on trouve chez les végétaux. C’est encore un outil très simple qui permet pourtant d’approcher une grande complexité.
Qu’est-ce qui vous intéresse dans les comportements de foule et les phénomènes naturels dont vous vous inspirez dans vos programmes ?
D’une part, l’interaction de nombreux éléments permet de générer des comportement très complexes, sur plusieurs échelles (mouvement global, interaction locale, mouvement d’un seul élément…). D’autre part, les paramètres permettant de contrôler ces comportements sont souvent intuitifs, puisqu’ils correspondent à des contraintes physiques. Ce sont des lois simples de morphogenèse.
Les comportements de foule de Morphist sont modélisés à partir de masses-ressorts. Mais les équations peuvent être détournées : il est possible de mélanger des termes d’équations provenant de différents contextes afin de « mixer » différents comportements. Je détourne les équations de leur contexte, C’est uniquement le mouvement qui m’intéresse.
Votre travail s’articule davantage autour de projets, de programmes activés par plusieurs collaborations, que d’oeuvres au sens fermé du terme. Est-ce une manière d’inscrire volontairement votre travail en-dehors des circuits qui sont ceux des musiques électroniques ou de la musique dite contemporaine?
Si j’épure mon travail, il ne reste que le mouvement. Cet aspect de mon travail n’a pas de matérialité : ces mouvements sont à la fois très abstraits, mais peuvent facilement devenir concret, dès lors qu’on les applique à n’importe quel media.
Collaborer avec un autre artiste permet de compléter mon travail. De plus, il est toujours enrichissant de se confronter à de nouvelles contraintes.
Il y a aussi un aspect purement pragmatique : cela me permet de me concentrer sur mon travail, plutôt que sur la recherche de financement, de diffusion etc.
Est-ce important pour vous que le public comprenne à l’écoute et au visionnage de votre travail les processus génératifs sous-jacents ?
Je pense qu’il est important de percevoir qu’il y a quelque chose de sous-jacent. Mais une fois que le processus est compris, le travail perd de l’intérêt : il ne peut plus surprendre.
Il faut donc trouver un juste milieu entre un processus trop complexe qui serait perçu comme aléatoire, et un processus trop simple qui serait compris aussitôt puis n’apporterait plus rien.
C’est le même problème avec les relations entre le son et l’image : il faut éviter que la compréhension de la relation entre les deux médias ne la rende caduque. Mais il faut aussi éviter que la relation soit trop complexe pour être perceptible.
Dans son Eloge de la main (1934), Henri Focillon imagine un art futur où l’intervention physique de l’artiste serait devenue inutile, “l’art d’une autre planète, où la musique serait le graphique des sonorités, où les échanges de pensée se feraient sans paroles, par des ondes”, en déplorant “alors sera rejointe la cruelle inertie du cliché”. J’ai l’impression qu’un travail comme le vôtre, notamment par son utilisation des modèles physiques, est une manière de dépasser cette prétendue “désincarnation” de l’art numérique en recréant une forme de matérialité, de réactions organiques du programme informatique. Seriez-vous d’accord avec cette vision ?
Je ne me retrouve pas dans cette désincarnation de l’art numérique. Je ne comprends d’ailleurs pas vraiment ce qu' »art numérique » veux dire. Je préfère « l’art technologique » même si cela reste un contre-sens.
Je ne vois pas pourquoi cette forme d’art devrait être forcément froide ou désincarnée. La technologie le permet et certains artistes ont cherché à pousser leur travail dans cette direction. Mais je ne suis pas non plus le seul à prendre une autre direction, et à chercher à apporter une matérialité aux oeuvres virtuelles.
A quoi correspond votre choix d’utiliser certains outils libres comme Pure Data, notamment dans des projets comme Pmpd, et de diffuser gratuitement vos logiciels ?
Je n’utilise que des logiciel libres. C’est un choix politique.
L’économie des logiciels propriétaires se base sur un principe que je trouve aberrant : demander aux utilisateurs de payer pour utiliser une recette qui restera secrète. Je veux bien payer pour le développement du logiciel, mais dans ce cas, je ne vois pas pourquoi j’aurais simplement le droit de l’utiliser, sans savoir comment il est fait.
J’ai l’impression d’être pris en otage si j’utilise un logiciel dont le développement ne dépend que du bon vouloir d’une société dont le but est purement commercial. Les licences d’utilisations des logiciels propriétaires donnent beaucoup trop de libertés aux éditeurs logiciel, au détriment des utilisateurs. Il est déjà arrivé par le passé, que certains artistes ne puissent plus exploiter leur travail suite à un changement de version d’un logiciel.
Même si le logiciel libre ne résout pas tous les problèmes, la conservation d’un travail est grandement facilitée par le fait de ne pas utiliser de logiciel propriétaire.
D’un point de vue éthique, il me semble plus naturel de partager librement la connaissance plutôt que de chercher à la cacher afin d’en tirer profit. La connaissance est un droit. Je préfère apprendre à faire une addition plutôt que d’être dépendant d’une location de calculatrice.
Comme j’utilise des logiciels libres, il est normal de partager ce que je développe avec cette communauté. Pmpd n’est qu’une toute petite librairie, qui n’aurait pas pu exister sans les développements préalables d’autres personnes.
(Propos recueillis en décembre 2017)