Print

le studio de l'IPEM

électrophone

Quand la peau d'un tambour vibre, elle met en mouvement l'air qui l'entoure. Et en un rien de temps, la vibration atteint le tympan de l'auditeur. Le tympan réagit au mode vibratoire, à la façon de vibrer, des molécules d'air. Cette vibration est ensuite transformée en signaux électriques destinés du cerveau. Notre matière grise reconnaît enfin le mode vibratoire en question comme étant celui d'un tambour. Déterminer de quel tambour il s'agit n'est peut-être pas facile, mais on le distingue à coup sûr d'une guitare. Si l'on place un microphone près du tambour, la membrane de ce micro capte les oscillations de l'air mis en mouvement, exactement comme un tympan humain, et les transforme en signaux électriques. Petite différence toutefois, ces signaux électriques ne sont plus destinés au cerveau, mais à un amplificateur qui, comme son nom l'indique, va les amplifier. Les signaux électriques arrivent alors dans un haut-parleur, qui n'est autre, à nouveau, qu'une membrane qui se met à vibrer. Et à partir de ce moment, le processus peut recommencer...

Thomas A. Edison est le premier à avoir réussi à transformer le mode vibratoire des particules d'air en un signal électrique analogique, ce qui lui a permis d'envoyer le son de la voix à travers le monde. Le terme analogique signifie que les vibrations de la pression de l'air et les vibrations électriques évoluent de manière analogue. On visualise très bien ce phénomène sur un diagramme ou une courbe mathématique. Par contre, si l'air en mouvement perd rapidement son énergie cinétique, il n'en va pas de même pour l'électricité. Les signaux électriques se meuvent à une vitesse proche de celle de la lumière, ce qui est très rapide, en tout cas beaucoup plus rapide que la vitesse du son. En réalité, le monde des volts et des ampères est régi par des lois physiques tout à fait particulières. Ainsi, la distance entre un émetteur et un récepteur peut être beaucoup plus importante que lorsqu'il s'agit de vibrations se propageant dans l'air. Émetteur et récepteur ont toutefois besoin d'un transducer, ou transducteur, pour transformer le mouvement des particules d'air en électricité et vice versa. Micros et haut-parleurs sont des transducteurs.

Comme on l'a vu, un signal électrique peut être amplifié, ce qui veut dire que l'output du second transducteur (le haut-parleur) peut avoir un niveau dynamique plus élevé que l'input du premier (le micro). Mais les signaux électriques peuvent encore être traités de nombreuses manières différentes. Un ingénieur du son peut par exemple filtrer des fréquences déterminées, ce qui modifie le son sortant du haut-parleur. D'autres phénomènes plus exotiques comme le morphing, la fusion de deux signaux, sont également possibles. On pourrait comparer le travail d'un ingénieur du son à celui d'un sculpteur : il est capable de façonner un son jusqu'à lui donner la forme précise qu'il recherche.

Les signaux électriques sonores ne doivent pas nécessairement être la transposition d'un son acoustique. Un ingénieur du son peut aussi fabriquer lui-même, à l'aide de générateurs, des sons synthétiques ou artificiels. La forme sonore synthétique la plus connue et la plus simple est le son dit sinusoïdal, produit par une onde électrique simple,  sinusoïdale. La tonalité du téléphone ou le sifflement aigu qui accompagnait jadis la mire de réglage des télévisions sont des sons sinusoïdaux. Pour constituer de tels sons, on utilisait, dans les années 1940, des oscillateurs ou des générateurs d'ondes sonores. On trouvait surtout ces appareils dans les studios radiophoniques, où ils faisaient partie du matériel utilisé quotidiennement. Avec un son d'une telle pureté, on pouvait en tout cas facilement détecter les problèmes techniques sur les ondes, d'où le fait que la mire de réglage de l'image était accompagnée d'une « mire » sonore.

Le jeune compositeur anversois Karel Goeyvaerts (1923 - 1993) était fasciné au plus haut point par les sons sinusoïdaux. Il considérait que ces ondes pures, en tant qu'éléments de base, pouvaient servir dans sa musique, comme des atomes sonores. Alors qu'auparavant les sons étaient « fournis » aux compositeurs, Goeyvaerts, entendait bien les fabriquer lui-même, à sa guise. En décembre 1952, il écrivit sa première partition électronique, qui n'était, ni plus ni moins, qu'un schéma accompagné d'indications pour un ingénieur du son. Malheureusement, l'Institut national de Radiodiffusion (I.N.R.) était alors peu réceptif à ses projets expérimentaux. Goeyvaerts s'est alors adressé à son meilleur ami, le jeune Karlheinz Stockhausen. Celui-ci s'était assuré de pouvoir mener ses expériences avec l'appareillage électronique de la Nordwestdeutsche Rundfunk (NWDR) à Cologne. Ayant obtenu l'accès aux studios, Stockhausen y créa, durant l'été 1953, la première œuvre entièrement électronique, Studie I. Il fixa des sons générés de manière synthétique puis transformés sur un support en PVC, une bande magnétique : du « temps » sonore, en quelque sorte, converti en un objet tangible, une étroite bande de longueur déterminée.

Stockés sur une telle bande, les sons électroniques soigneusement calibrés, combinés et manipulés, ont pu être joués dans une salle de concert, qui a donc retenti de structures musicales qui n'auraient jamais pu être exécutées par des musiciens. Le technicien de studio, qui coïncidait à cette époque avec le compositeur, pouvait en effet triturer chaque son pour lui donner exactement la forme souhaitée. Le compositeur/technicien pouvait ensuite rassembler côte à côte ou monter des dizaines de minuscules petits morceaux - certains ne duraient qu'1/80e de seconde ! - pour composer des complexes sonores tout à fait nouveaux et littéralement inouïs. Rien ne devait faire référence aux sonorités acoustiques traditionnelles produites par les instruments de musique classiques. L'électronique et la technique de montage offraient aux compositeurs tout un arsenal de nouvelles possibilités sonores, une nouvelle dimension musicale qui devait encore être explorée en profondeur : la composition sonore.

Le processus de fabrication de la musique électronique sur support magnétique était particulièrement harassant. Les ingénieurs du son des années 1950 pouvaient passer des dizaines d'heures pour à peine quelques secondes de musique. Peu étonnant quand on sait que ces pionniers utilisaient du matériel conçu à d'autres fins. La première génération de studios n'offrait pas à proprement parler un grand confort d'utilisation, mais elle a pourtant généré de splendides œuvres. Ne citons que l'illustre Gesang der Jünglinge, composé en 1956 par Stockhausen, que des artistes comme John Lennon, Paul McCartney ou Björk allaient ranger parmi leurs musiques préférées. Sous l'influence de l'avant-garde  de la musique électronique, les Beatles ont eux-aussi produit leur propre composition pour bande magnétique, Revolution #9, que l'on trouve sur leWhite Album de 1968. Et l'on n'oubliera pas d'autres chansons comme Strawberry Fields Forever (1967) qui prouvent que les Beatles - et Lennon en particulier - s'intéressaient aux expériences sonores.

Les difficultés de mise en œuvre de la musique électronique sur bande magnétique ont mené, à la fin des années 1950 et 1960, à davantage de coopération entre des musiciens et des ingénieurs. C'est précisément ce qui s'est passé à Gand, à l'Institut de psycho-acoustique et de musique électronique (IPEM), fruit d'une collaboration entre l'I.N.R. et la Rijksuniversiteit de Gand. La direction artistique de l'IPEM était confiée à Louis De Meester et Lucien Goethals, tous deux producteurs radio et compositeurs, tandis que des professeurs universitaires du Laboratoire de Basse-tension prenaient à leur compte la direction technique. Le séquenceur exposé en ce moment au mim témoigne de la collaboration intime entre ces spécialistes dans les années 1960-1970. Un tel appareil devait permettre de simplifier la création de sons complexes. La technologie des séquenceurs rendait possible, par une simple programmation - comparable à celle des ordinateurs -, la manipulation des appareils qui ne pouvaient auparavant être commandés que manuellement. Le séquenceur émet en effet une séquence de signaux de commande qui peuvent modifier les réglages d'appareils comme les oscillateurs ou les filtres. Dès lors, Goethals et De Meester n'étaient plus obligés de générer puis de transformer et de découper chaque parcelle de son séparément, mais ils pouvaient produire instantanément toute une succession, ou séquence, de sons.

Les premiers studios comme l'IPEM ont eu une influence majeure sur le développement futur de la technologie audio. Les séquenceurs sont, par exemple, aujourd'hui d'un usage commun dans la sphère de la musique populaire. De telles institutions ont aussi mené les premières expériences en matière d'application de l'informatique à la musique, un domaine qui est encore en pleine exploration actuellement. Et la musique produite dans ces studios est sans doute l'une des plus avant-gardistes et des plus radicalement nouvelles de toute l'histoire de la musique occidentale.

La musique et la technologie ont toujours évolué de concert, des premières flûtes en os aux orgues complexes de Cavaillé-Coll, des premiers studios électroniques aux actuels ordinateurs et autres robots musicaux mus par l'intelligence artificielle. Les appareils de l'IPEM témoignent d'une créativité musicale, d'une curiosité artistique et d'une évolution qui est allée au-delà de ce qu'elle laissait entrevoir à l'origine. Cette technologie expérimentale a véritablement modelé le visage de la musique contemporaine.

Media
Images: 
le studio de l'IPEM en 1960 (carte postale, IPEM, Gand)