La musique électroacoustique, coupure et continuité

François Delalande

 

 

            « Alors que la musique modale avait duré des siècles, la musique to­nale a duré trois ou quatre siècles, pas plus, la musique sérielle a duré, pour être gentil, soixante ans, et les écoles actuelles, l’école répétitive, l’école aléa­toire et toutes les autres écoles, elles, durent quelques mois, quelques jours : c’est de plus en plus court. Mais de toutes ces choses-là, au 20ème siècle où il y a eu tant de choses, il y en a une qui frappe (…), c’est la musique électro­nique. Je crois que c’est la principale invention du 20ème siècle, et c’est pro­bablement celle qui a le plus marqué tous les compositeurs. Parce qu’il y a des compositeurs qui font de la musique électronique, comme Pierre Henry qui est spécialiste (…), mais presque tous les compositeurs ont subi l’in­fluence de la musique électronique, même s’ils n’en font pas ». C’est Olivier Messiaen qui parle, dont le jugement ne saurait être soupçonné de plaidoyer pro domo (1). C’est de cette “principale invention du 20è siècle” que nous allons essayer d’évaluer la portée et la place dans la musique actuelle.

            Déjà, première difficulté : quel mot employer ? Messiaen parle de mu­sique “électronique” là où d’autres utiliseraient plutôt “électroacoustique” — surtout à propos de Pierre Henry qui n’a jamais fait de musique “électronique” stricto sensu. Il serait donc bon de commencer par définir les mots. C’est pourtant ce que nous ne ferons pas, préférant décrire d’abord le phénomène dans ses ramifications et ses connexions avec différentes pra­tiques musicales anciennes et contemporaines avant de tenter, pour finir, de tracer un contour qui délimite, si besoin est, l’extension de l’expression “musique électroacoustique”.

            L’électroacoustique dans la continuité historique

            Par ses connotations techniciennes, le mot a de quoi inquiéter les mu­siciens, et spécialement les analystes qui voient là, à juste titre, un défi. Le plus souvent, pas de partition, ou bien, dans le cas d’une électroacoustique instru­mentale, une notation prescriptive qui permet difficilement de se faire une idée de la réalisation sonore. Par ailleurs, une utilisation très exploratoire de res­sources du son pour lesquelles tout modèle analytique “rodé” sur un réper­toire antérieur est en général inutilisable.

            Aussi la musique électroacoustique est-elle tenue par certains pour un cas à part. Pourtant, nous allons voir qu’elle est la suite logique et prévisible, et quelquefois prévue, d’une évolution des “langages” et des pratiques musi­cales de trois ou quatre siècles

            1.         De la note au son

            Si l’on voulait caractériser d’un trait dominant l’évolution du “vocabulaire” musical depuis la période baroque, ce serait probablement l’ascension progressive du timbre dans l’échelle des pertinences.

            Bien que la question de l’instrumentation dans l’écriture baroque reste assez polémique (voir par exemple Leonhardt, 1985), on ne peut pas ne pas remarquer que le choix des instruments admettait souvent un certain degré de liberté. On pense évidemment à toutes ces sonates ou autres musiques pu­bliées, écrites par exemple pour violon ou hautbois ou flûte et basse continue, qui indiquent assez que le respect du texte écrit était prioritaire par rapport au choix des sonorités. Bach lui-même jouait certains préludes et fugues du Clavier bien tempéré, écrits pour clavecin, à l’orgue ou au clavicorde (on ne saurait imaginer deux instruments qui sonnent plus différemment). Le pro­blème est autre avec les musiques publiques, comme les musiques d’église ou de fête. L’instrumentation en est définie précisément, en partie pour des rai­sons musicales (équilibre, clarté, contrastes, quelquefois symbolisme) mais en partie aussi en fonction de la circonstance précise pour laquelle telle pièce était écrite, et notamment des effectifs disponibles. Si la même œuvre était redon­née, il n’était pas rare d’en adapter l’instrumentation aux nouvelles condi­tions.

            Ces faits ne signifient en rien que les compositeurs du 17ème ou de la première moitié du 18ème siècle aient été indifférents aux recherches de so­norité et de lutherie. Tout au contraire, c’est probablement une des périodes où la facture instrumentale a le plus progressé (on connaît l’intérêt et la com­pétence de Bach dans ce domaine). Mais il apparaît que dans la majorité des cas, écrire une œuvre, à cette époque, est d’abord une affaire de mélodie, de rythme, d’harmonie, de contrepoint et que l’instrumentation est une sorte d’habillage final plus ou moins interchangeable. Il est en tout cas plus accep­table et usuel de modifier les timbres que les hauteurs et les durées de notes écrites, ce qui signifie, si l’on définit comme en phonologie la pertinence par l’épreuve de commutation, que le timbre est moins pertinent que les hauteurs et les durées, du moins dans cette phase de la composition de l’œuvre qui se traduit par l’écriture d’une partition.

            Plus on avance vers la seconde moitié du vingtième siècle, plus cette hiérarchie des pertinences s’atténue et même quelquefois s’inverse. Déjà, l’instrumentation est à peu près toujours fixée à la fin du 18ème, et le concept d’orchestration se développe au 19ème (une date étant le Traité d’Instrumen­tation et d’Orchestration de Berlioz en 1844). On pratique abondamment la réduction au piano, il est vrai, mais c’est souvent pour une question de diffu­sion. Vu la rareté des concerts symphoniques en province, les symphonies de Beethoven circulent abondamment dans les milieux bourgeois sous forme de réduction pour piano à quatre mains, mais on est bien conscient qu’il s’agit d’une réduction. Réduire n’est d’ailleurs pas absurde musicalement puisque Beethoven lui-même a d’abord écrit une partition réduite avant de l’orchestrer. Pour lui encore, le timbre est un habillage final. Aussi n’est-il pas absurde non plus, pour un répertoire qui va grosso modo jusqu’à la fin du 19ème, de pratiquer une analyse qui n’intègre que les rapports de hauteur et de durée (à l’exclusion des rapports de sonorité).

            Au tournant des deux siècles, le timbre et la sonorité font de plus en plus souvent partie du premier projet musical du compositeur. Debussy part en guerre contre la pratique de la transcription ; Stravinski note l’instrumenta­tion dès les premières esquisses (contrairement à Beethoven). L’idée musicale est déjà pensée en timbre. Dans le “paradigme” sériel, le projet de Klangfarbenmelodie puis la théorie des quatre “paramètres” consacrent l’as­cension du timbre dans l’échelle des pertinences jusqu’à être mis sur un pied d’égalité avec la hauteur et la durée, au moins en théorie ; et on se rappelle qu’un des premiers projets de la musique électronique de Cologne, en 1950, était précisément de gérer les deux nouveaux “paramètres” (intensité et timbre) avec la même précision que les deux anciens. Dans une perspective différente — bien que cousine — Varèse rêve d’ « instruments électriques qui répondent à de nouvelles conceptions (...). Ils offriront [dit-il] une gamme in­finie de hauteurs, d’intensités et de timbres et seront aussi exacts que n’im­porte quel instrument de précision utilisé en laboratoire. Ils nécessiteront une nouvelle écriture et seront à l’origine d’une nouvelle science de l’harmonie » (1937, cité dans Varèse, 1983). Et dix ans plus tard, beaucoup plus radical : « La musique du futur ? Sûrement basée sur le son et au delà des notes » (1947, ibid.)(2).

            Avec ou sans appareillage électroacoustique, la seconde moitié du siècle n’a donc fait, sur ce plan, que prolonger et systématiser une recherche sur l’emploi musical des qualités morphologiques du son jusque là sous-utili­sées. D’une pensée musicale privilégiant la combinaison de hauteurs et de du­rées de notes on était passé à une “écriture” du son sous tous ses aspects, que tout simplement l’électroacoustique rend, de l’avis de certains, plus ou­verte et plus fiable (3). 

            Par parenthèse, faut-il parler de timbre, de morphologie ou de son ? Comme l’a souligné Pierre Schaeffer (Schaeffer, 1966), le concept de timbre est ambigu : il désigne tantôt une qualité du régime permanent d’un son carac­térisé par son spectre, tantôt l’ensemble des indices qui permettent d’identifier un instrument. Malheureusement ces deux définitions ne coïncident pas, car on n’identifie généralement pas un instrument par son spectre, comme l’ont montré Schaeffer par quelques expériences (4) (Schaeffer et Reibel, 1967) et Risset par la synthèse des sons de trompette (5) (1966, in Risset 1986). Schaeffer (1957 ; 26 et 1966) a donc préféré décrire la morphologie de l’objet sonore grâce à un ensemble de critères (attaque, entretien, masse, grain, allure, timbre harmonique, profils dynamique, mélodique et de masse), qui entraient implicitement dans la caractérisation de ce qu’on appelait antérieurement le timbre dans le cas particulier des sons instrumentaux. Plus récemment, Philippe Manoury conclut lui aussi, et probablement en toute indépendance : « La théorie actuelle ne doit pas se contenter de notions aussi floues que celle de timbre, mais bien relever des méthodes de transformation et de création morphologiques » (1991 ; 300).

            Quant au mot son, dans une acception récente et très usuelle, il n’a pas encore fait son entrée dans le vocabulaire musicologique (6). Il ne désigne d’ailleurs pas la même réalité dans les différentes pratiques, du jazz (voir Carles, 1995) aux variétés, en passant par l’enregistrement et même les équi­libres instrumentaux pour les ensembles baroques. En plus des critères de la morphologie schaefférienne, le son intègre des variables d’espace virtuel, comme la présence, la répartition géométrique, la réverbération éventuellement, manifestement influencé par les pratiques électroacoustiques de microphoni­sation et de mixage.

            2.         Du faire à l’entendre

— Et maintenant, ne chanterions-nous pas une chanson ?..

— Quels livres voulez-vous, Monsieur ?

— Les livres en quatre et en trois parties... Va les chercher, Antoine, et trouve-nous quelque chose de beau.

— Eh bien ! Monsieur, voulez-vous entendre une chanson à quatre ?…

— Dierick, voilà le supérius. Est-ce trop haut pour toi ? Les enfants pour­ront t’aider…

— Qui est-ce qui commence ? Est-ce toi, Ysaias ?

— Non, pas moi, j’ai une pause de quatre temps.

— Et moi de six… Commence, toi, Rombout.

— Oui, je n’ai qu’un soupir. Mais, prenons le ton…

            Ce savoureux dialogue, daté d’environ 1540, cité par Wangermée et repris par Jean‑Pierre Ouvrard (1983) nous rappelle que dans un milieu bourgeois de la première moitié du 16ème siècle, la chanson polyphonique est d’abord l’occasion d’une pratique domestique de lecture et de chant en com­mun, avant d’être considérée comme un objet sonore destiné à être écouté (7). Peu importe que le texte ne soit pas compréhensible à l’écoute, il n’y a pas d’auditeur… Ou s’il y en a un par hasard, ce n’est pas le destinataire visé.

            L’écoute comme pratique musicale autonome, et plus précisément l’é­coute attentive, ne se développe socialement et ne devient la raison d’être de la musique que progressivement, du 17ème au 19ème siècle. L’idée que la mu­sique est faite pour être écoutée, si évidente pour nous, ne l’était probablement pas tant pour un musicien du début du 17ème siècle. Si l’on distingue, comme il est usuel, trois grandes circonstances musicales à cette époque (au moins pour la musique savante), on constate qu’aucune n’est proprement destinée à une forme d’écoute attentive comme on la pratique au concert aujourd’hui.

            Les musiques de fête, de ballet ou de spectacle, en particulier d’opéra, sont bien destinées à un public, mais un public à qui l’on donne au moins au­tant à voir qu’à écouter (et l’expérience du cinéma nous instruit de la primauté du visuel sur l’auditif) et qui, par ailleurs, lit, bavarde, etc. On connaît les conditions de réception de l’opéra : « Les loges forment autant de recoins in­times où bavardage et badinage concurrencent le spectacle de la scène (…) [ À Venise] ou ailleurs, les loges forment une sorte de résidence secondaire des familles aristocratiques. On y reçoit à sa guise, on joue aux cartes ou aux échecs, et on s’y fait servir, pendant les récitatifs ou les airs secondaires, des sorbets, des rafraîchissements et tout autre nourriture » (Barbier, 1989 ; 81). Il s’agit de Venise au début du 18ème siècle et c’est sans doute un cas extrême, mais à des degrés divers et à quelques exceptions près la description vaut pour le spectacle baroque en général.

            À l’église, l’assemblée n’est pas censée concentrer son attention spé­cifiquement sur la musique. Très progressivement depuis peut-être le 12ème siècle, la musique a pris une certaine autonomie (critiquable et régulièrement critiquée du point de vue religieux) par rapport à sa fonction cultuelle, mais ce n’est que dans la seconde moitié du 17ème, avec l’introduction d’instruments autres que l’orgue pour certaines fêtes, que l’on peut se demander si l’église ne se transforme pas peu à peu en salle de concert.

            Au début du siècle, la situation la plus proche du concert et favorisant le plus l’écoute est certainement celle de la réunion privée, et c’est bien dans ce cadre qu’on constate un basculement progressif du faire à l’entendre. En début de siècle la musique de chambre est davantage destinée à ceux qui la jouent qu’à ceux qui l’écoutent. Fin 16ème, début 17ème, les collegia musica sont d’abord des assemblées de musiciens qui pratiquent ensemble, et ne s’ouvrent qu’ensuite à un auditoire. Longtemps encore pendant la période ba­roque, certaines pièces pour quelques instruments destinées à être jouées entre amis sont d’ailleurs plus agréables à jouer qu’à écouter ; par exemple un pro­cédé d’écriture classique pour deux instruments identiques (beaucoup de so­nates pour deux flûtes) consiste à échanger les deux voix, ce qui, à l’écoute se traduit par une simple redite mais est très plaisant pour les instrumentistes.

            Disons par semi-boutade que la musique de concert ne se développe qu’avec le concert (et la dernière infidélité faite à la musique baroque reste de donner en concert un répertoire qui n’était pas destiné à ces conditions de ré­ception) c’est-à-dire au 17ème avec ces académies de musique plus ou moins ouvertes et seulement au 18ème les concerts publics et payants, avec pro­gramme annoncé. Mais ces premières séances véritablement publiques de l’ancien régime (comme le Concert Spirituel à partir de 1725) ne sont que les prémices du véritable développement social du concert public au 19ème (8) qui accompagne le développement parallèle de la critique musicale, sorte de guide d’écoute, et finalement l’émergence de la figure de l’auditeur, véritable “client” pour lequel dès lors on écrit et on interprète la musique.

            Ce rappel de faits connus n’est destiné qu’à les mettre en perspective avec d’autres faits encore plus connus qui les prolongent : l’apparition de la radiodiffusion et du disque qui font de l’écoute la pratique musicale de très loin la plus répandue. Non seulement l’acte de jouer la musique n’est plus l’une des finalités privilégiées de la partition, mais il disparaît des regards. À la limite l’exécution instrumentale, relayée, dans le cas du disque, par les techniques de “prises” successives et de montage, n’est plus qu’un travail d’arrière-boutique dont l’auditeur n’est même pas informé. Pour qualifier cette nouvelle situation d’écoute, on sait que Schaeffer a remis en honneur le mot acousmatique, désignant la manière dont Pythagore s’adressait à ses disciples à travers une tenture. Or, nous sommes tous des acousmates. Même pour un public savant et musicien, la pratique de réception la plus usuelle est l’écoute acousmatique, par l’intermédiaire de haut-parleurs. Ne parlons pas des autres : la très grande majorité des personnes qui entendent (sinon écou­tent) plusieurs fois par semaine de la musique même “classique” à la radio ou en disque n’ont jamais assisté, même une fois dans leur vie, à un concert ; la disproportion est écrasante.

            Vue avec beaucoup de recul et en négligeant des comportements ex­ceptionnels qu’on pourrait faire valoir comme contre-exemples, l’histoire des quatre derniers siècles de pratiques musicales apparaît comme une évolution continue faisant une place croissante à l’écoute. De la fin du 16ème, où les situations les plus spécifiquement musicales (en laissant de côté les fêtes et spectacles où la musique est intégrée à une action qui la masque en partie) consistaient principalement à faire de la musique, on est passé, à la fin du 20ème, à une société musicale où l’entendre est la pratique dominante. Au terme de cette évolution, l’écoute acousmatique, sorte d’écoute pure, repré­sente un cas limite.

            De même qu’avec le concert s’était développée une musique spécifi­quement écrite pour l’écoute de concert, de même il n’est pas surprenant que l’usage de l’écoute acousmatique ait engendré une musique qui lui soit spé­cialement destinée — et que pour cette raison François Bayle (1993. Voir aussi Vande Gorne 1991) propose d’appeler musique acousmatique. Elle constitue un cas particulier de musique électroacoustique, qui tourne le dos à l’instrumental au profit d’une exploration des ressources esthétiques du son fixé, traité comme une “image” grâce aux techniques du studio, mis en es­pace virtuellement sur un support (en général une bande magnétique) et éven­tuellement “projeté” dans l’espace réel d’une salle de concert qui n’offre plus au regard que des haut-parleurs et ne suscite de représentations que mentales…

            3.         Fixer la réalisation

            On peut observer d’un troisième point de vue cette évolution histo­rique qui conduit très logiquement à la musique électroacoustique, en décri­vant le déplacement progressif de la ligne de partage des tâches entre le com­positeur et l’interprète. Une grande part d’initiative est laissée à l’instrumen­tiste baroque, non seulement dans l’interprétation mais dans la réalisation : il réalise la basse chiffrée, il réalise à sa manière ou improvise l’ornementation, il improvise des cadences ; souvent, dans l’opéra italien du 17ème, les parties instrumentales intermédiaires ne sont pas notées ; ce sont les instrumentistes eux-mêmes qui les imaginent, ce travail s’apparentant à la réalisation d’une basse. Puis, au cours du 18ème, toutes les notes sont progressivement écrites, puis les nuances et les ornements, puis le tempo, le phrasé. Au 19ème des in­dications de rubato ou d’expression sont formulées en toutes lettres. Peu à peu le compositeur s’est attribué la responsabilité de la plus grande part des décisions d’exécution, y compris des rapports de sonorité — qui deviennent, on l’a vu, de plus en plus pertinents — fixés par des nuances différentes aux divers instruments, des indications d’articulation, d’attaque, de mode jeu en général. On devine immédiatement les limites de la notation. Ce sont précisé­ment ces équilibres de timbres et de sonorités, dont la pertinence composi­tionnelle ne cesse d’augmenter, qui sont délégués à l’instrumentiste ou au chef et soumis aux aléas des répétitions. On comprend ce rêve de beaucoup de compositeurs du 20ème siècle d’enfin fixer le son.

            La musique de sons fixés, comme l’appelle quelquefois Michel Chion (1991), est donc née d’un besoin musical au moins autant que de circons­tances technologiques.

            La coupure du support

            Ces rappels historiques étaient destinés à faire apparaître la musique électroacoustique dans la continuité d’une triple évolution : de la note au son, du faire à l’entendre, de l’improvisation à la fixation des détails de réalisation. Il n’empêche que la technologie marque une coupure : pour la première fois en 1948 une musique est directement composée sur un support, en l’occur­rence le disque (il s’agit des premières Études de Bruits de Pierre Schaeffer). Depuis longtemps, l’enregistrement existe. Mais il n’avait servi jusque là qu’à garder une trace d’une musique composée et exécutée autrement, avec du pa­pier à musique et des instruments. Tout d’un coup un pas est franchi : un musicien familier de la création radiophonique et du studio a l’idée de pousser à l’extrême les techniques de montage, d’isoler des fragments sonores de leur contexte causal et de les réorganiser selon une esthétique compositionnelle qui relève de l’art des sons.

            De ce geste est né un courant de composition (Pierre Henry, le Berio de l’Omaggio a Joyce, le Stockhausen de Gesang der Jünglinge, le Xenakis d’Orient-Occident ou de la Légende d’Eer, Bayle, Parmegiani, Chion, Dhomont et des centaines d’autres) qui consiste à fixer entièrement sur un support la réalisation sonore (à l’exclusion éventuellement de la “projection” en salle) et se différencie de plus en plus nettement d’un autre courant de musique électroacoustique réalisée en direct, plus instrumentale. L’usage du support fait réellement rupture, non seulement parce qu’il permet de maîtriser le travail morphologique, le dosage et la répartition des sons dans l’espace, mais parce qu’il autorise l’insertion d’éléments sonores antérieurement considérées comme non-musicaux, comme des fragments de scènes réalistes enregistrées (depuis Hétérozygote de Luc Ferrari), de voix manipulées comme une matière première (depuis l’Omaggio de Berio) et nombre de procédés spécifiques, rapprochant quelquefois cette musique d’une création radiopho­nique ou d’une réalisation sonore sophistiquée. On est à la limite de ce qu’on a classiquement appelé “musique”, ce qui est interprété par certains comme la marque d’une marginalité, par d’autres comme la preuve de la création d’un art nouveau, que d’ailleurs quelques compositeurs du genre (Denis Dufour, Francis Dhomont, Jean-François Minjard…) n’hésitent pas à appeler, plutôt que “musique”, “Art Acousmatique”.

            Il est instructif de mettre cette coupure du support avec l’autre coupure analogue (car il n’y en a que deux dans l’histoire de la musique), celle de l’é­criture, qui a consisté à composer directement sur du papier. Là encore un support avait été utilisé depuis longtemps pour garder une trace (la notation du chant d’église avait essentiellement une fonction d’aide-mémoire), mais un beau jour quelqu’un a nécessairement eu l’idée, qui devait être très originale et choquante, d’utiliser le papier pour écrire la superposition de deux voix qu’il n’avait jamais entendues ensemble. Qui ? Quand ? Pérotin, lorsqu’il reprend et modifie certaines pièces notées par Léonin ? Les auteurs des grands motets polytextuels du 13ème siècle ? Avant le 12ème siècle, la notation est utilisée non pour composer mais pour transcrire une musique essentiellement orale ; les premiers organa sont probablement improvisés ou cherchés sur un ins­trument. Mais si l’on saute au 14ème on trouve des pièces dont les procédés d’écriture sont, au sens propre, inimaginables sans l’aide du papier (on pense aux rétrogradations dont le rondeau de Machaut Ma Fin est mon Commencement est l’exemple canonique). Manifestement, elles ont été com­posées directement sur ce support. Là encore, la coupure était telle que cer­tains musiciens ont cru devoir parler d’Ars Nova...

            Tradition orale, écriture, électroacoustique :

            les trois technologies de production musicale

            Il existait jusqu’en 1948 deux grandes “technologies” de création et de transmission : la tradition orale et l’écriture. Il y en a dorénavant une troi­sième : l’électroacoustique. Chacun de ces cas de figure représente un en­semble cohérent de techniques, éventuellement de matériels, mais aussi de pratiques sociales, de circuits de diffusion, de formation, tout ceci constituant les conditions de la pensée musicale elle-même et de l’émergence de “langages” spécifiques. Il y a donc un effet de système, une logique des techniques, que pour cette raison nous appellerons “une technologie” (9).

            Prenons le cas de la musique écrite. L’expression fait référence à l’u­sage du papier et du crayon pour composer — pour composer et non pour transcrire : on l’a vu, ce n’est pas parce qu’une musique de tradition orale est écrite qu’elle devient par là même de la “musique écrite”. Il s’agit donc d’a­bord d’une technique d’invention qui s’appuie sur une représentation vi­suelle. Mais c’est bien plus que cela, et cette expression fonctionne comme une métonymie, c’est-à-dire qu’à travers cet acte matériel d’écriture on dé­signe non seulement un moyen de création, mais toute l’organisation sociale de la production musicale qui découle de cette modalité particulière de l’in­vention qu’est l’acte d’écrire. On est seul, devant un papier à musique, et par conséquent la création est un acte individuel, en général signé (rien de plus simple que d’écrire aussi son nom) et ainsi, avec l’écriture apparaît la figure du compositeur. Mais se définit aussi plus précisément celle de l’interprète comme exécutant, puisqu’il faut bien exécuter la partition. Apparaissent aussi les métiers de copiste, puis d’imprimeur, les maisons d’édition, le commerce, les boutiques, etc. Quand on emploie l’expression “musique écrite”, c’est tout ce réseau de production, tout cet ensemble fonctionnel cohérent qu’on désigne. Ou du moins, c’est l’une des acceptions de l’expression, celle qu’on adopte implicitement lorsqu’on l’oppose à “musique de tradition orale”.

            Car “musique de tradition orale” désigne aussi tout un système de production comparable et opposable. Tradition orale implique souvent ano­nymat des auteurs, expansion relativement lente du répertoire, transmission par l’exemple, souvent sous une forme simplifiée, épurée (un “modèle”, dans la terminologie de Simha Arom) que les musiciens s’approprient ensuite en l’ornant à leur manière, avec une part plus ou moins grande d’improvisation, etc. Là encore, il s’agit d’un ensemble de techniques et de pratiques reliées entre elles par des nécessités fonctionnelles.

            C’est un troisième système de production musicale complètement co­hérent, qui va depuis l’outil jusqu’aux réseaux de diffusion, et radicalement différent des deux premiers, qui apparaît avec la “musique électroacous­tique”. Par analogie avec l’écriture, je suggère d’appeler ainsi la musique qui est créée (et non pas simplement conservée ou diffusée) grâce aux technolo­gies électroacoustiques.

            On notera que ce critère n’implique pas que les musiciens qui produi­sent de la musique électroacoustique emploient eux-mêmes cette expression pour désigner leur travail (pas plus qu’on ne demande aux Banda-Linda d’Afrique Centrale si ce qu’ils font est bien de la “musique de tradition orale”, ni même de la “musique” puisqu’ils n’ont pas l’équivalent de ce mot). C’est à travers nos critères et nos catégories à nous, observateurs, et non les catégories des praticiens, que je propose de définir la “musique électroa­coustique”, du moins dans ce premier sens, celui d’une technologie de pro­duction musicale. On voit tout de suite que cette définition sera très large : elle englobe au minimum toutes les musiques réalisées en studio ou avec des synthétiseurs, ordinateurs, samplers, etc., à condition qu’elles soient diffusées exclusivement par haut-parleurs, donc beaucoup de musiques de variétés, pop, rock, techno et autres. C’est là qu’on voit l’ampleur du phénomène : de même que “musique écrite” n’implique pas un genre particulier mais plutôt un fonctionnement intellectuel et social de la production musicale, de même la technologie de la réalisation sur machines a des répercussions sociales autant qu’esthétiques ; plus d’interprètes, plus d’écriture, plus nécessairement de solfège, donc part plus importante des processus auto-didactiques, hors des conservatoires, donc possibilité d’un amateurisme de la composition (ce qui ne s’était pas vu dans le champ de la musique savante depuis l’époque ba­roque), donc décloisonnement des genres liés aux filières de formation (et re­cloisonnement sur d’autres bases). Il est difficile encore, parce qu’elle n’est pas stabilisée, d’évaluer la réorganisation des pratiques sociales qu’auront provoquée les technologies électroacoustiques (10).

            Où finit l’électroacoustique ?

            Par malheur, le mot “électroacoustique” est particulièrement long et laid (aussi lui préfère-t‑on quelquefois des expressions qui ne recouvrent que partiellement la même réalité : musique acousmatique, concrète, électronique, tape music, computer music, sonic music…), mais nous emploierons ici le terme le plus large dans son acception étymologique, électro-acoustique, qui repose sur une équivalence entre le domaine de l’acoustique et celui de l’élec­trique. On passe du premier au second par un microphone et inversement par un haut-parleur (ou tout autre “transformateur électroacoustique”) (11). De même qu’on pouvait “combiner les sons” sous leur forme acoustique, de même on les transforme et on les compose sous leur forme électrique — ou numérique ou de signaux “midi” (dans ces deux derniers cas, il est néces­saire de repasser par la forme électrique avant de les entendre, ce qui fait des techniques de synthèse et de traitement par ordinateur ou système midi des cas particuliers de technologies électroacoustiques).

            Ainsi définie par cette équivalence des trois espèces (acoustique, élec­trique, numérique) il apparaît que la technologie électroacoustique est partout dans les arts du son en ce demi-siècle. Constat banal. Moins banale, peut-être, cette remarque que la technologie, loin d’être confinée dans un rôle de moyen, a des implications esthétiques sur l’ensemble des pratiques de productions sonores, musicales ou non ; au point que les catégories même qui sont utili­sées dans la conceptualisation du fait musical se trouvent remises en cause. Des mots aussi usuels et solidement ancrés sur des siècles de référentiation stable que “instrument”, “œuvre” et même “musique” sont ébranlés dans leur définition. Ceci intéresse directement l’analyse musicale dont les concepts fondamentaux, tout comme le domaine d’application et les outils de travail sont à adapter à la situation nouvelle. Il faudrait visiter l’ensemble des territoires situés aux confins de la musique électroacoustique savante pour examiner les problèmes de catégorisation. Nous ne le ferons que sur trois cas, évoqués sommairement : la musique de variété, le son dans l’audiovisuel, l’en­registrement de la musique écrite.

            1.

            On se rappelle que Schaeffer a inauguré l’ère de la musique de sons fixés en isolant des fragments de chaînes sonores sur des sillons fermés de disques 78 tours, qu’il juxtaposait ensuite en les relisant sur différents tourne-disques commandés par une console (12). Il est piquant de remarquer que ce principe a été repris (sans le savoir) par… la musique techno. Schaeffer n’est-il pas le patron emblématique de ces DJs, comme lui média­teurs devenus créateurs grâce à leur virtusosité du tourne-disque, en détour­nant comme lui de leur visage ces machines à communiquer (machines re­layées, selon une même évolution, par les échantillonneurs et ordinateurs) (13). Or — que Schaeffer me pardonne ! — on ne peut pas ne pas remarquer une certaine ressemblance dans l’effet de collage et dans l’organisation tempo­relle, fondée dans les deux cas sur la répétition de cycles courts. (La compa­raison s’arrête là, tant la boîte à rythme, ou son équivalent informatique, ac­cuse, dans un seul des deux cas, cette pulsation sous-jacente).

            Le voisinage technologique est plus évident et conscient entre la mu­sique électroacoustique savante et la variété réalisée en studio. Sans entrer dans une typologie ou une histoire des techniques de production dans ce der­nier domaine, mentionnons seulement que le plus souvent, depuis longtemps, les voix ou les instruments sont enregistrés (ou synthétisés) séparément, par petits fragments, de façon à contrôler avec minutie, au mixage multipiste, les synchronisations, les corrections, les réverbérations, la mise en espace, et à obtenir un son, pur produit de travail de studio, qui sera en grande partie res­ponsable du succès. L’arrangeur et le technicien sont des personnages sou­vent très compétents, très connus dans le milieu des spécialistes, très recher­chés (et très cher payés), entre les mains desquels réside pour une grande par­tie la qualité artistique du produit fini (voir Hennion, 1981). Leur technique est celle du studio électroacoustique, et on comprend pourquoi le “play-back” est d’usage fréquent à la télévision ou même en spectacle : il est im­possible d’obtenir en direct la même précision. Au risque de “provoquer”, cette fois, François Bayle, je ferai observer que le technicien de mixage de va­riété organise, comme lui, ce que Bayle appelle des “images de son” (Bayle, 1995). Les différences de style sont énormes, mais un point rapproche la mu­sique “acousmatique” de cette catégorie de variétés, c’est la création et le contrôle précis d’un espace virtuel (14), inscrit sur le support et reproduit par les haut-parleurs, donc caractéristique de ces technologies, grâce à l’enregis­trement bi-piste, à la réverbération et à la “présence” (15).

                2.

                Un autre cas limite de musique électroacoustique, qui soulève un pro­blème de frontière, est celui de la radio de création et plus généralement du son dans l’audiovisuel. Cette musique est née au Studio d’Essai de la RTF, et c’est par un acte volontariste témoignant d’une conscience historique, que Schaeffer a marqué une coupure avec la radio en allant présenter sa trouvaille, baptisée “musique concrète”, dans une salle de concert. Il n’empêche : cette musique s’est longtemps faite avec des machines de radio, et si elle a quelque peu spécifié ses outils, avec les stations informatiques, c’est en attendant que la radio les lui emprunte en retour. Enregistrement, “manipulation” du son, montage, mixage, ou leurs équivalents numériques, sont les moyens de base du musicien comme du réalisateur de radio ou d’une quelconque bande-son audiovisuelle, et il n’est pas surprenant que les problèmes et leurs solutions esthétiques se rejoignent et s’influencent réciproquement. Entre une musique “réaliste” de Ferrari (comme Presque Rien) et une réalisation élaborée pour la radio, comme les Essais de Voies de Paranthoën, quelle différence ? Que l’une est faite pour le concert et l’autre pour l’antenne ? Mais on diffuse Ferrari à la radio et le GRM programme Paranthoën en concert (14/6/1993). De même, comment classer la bande-son réalisée par un compositeur, Michel Fano, pour un film (Le Territoire des Autres) quand elle musicalise conjoin­tement des cris d’animaux et divers sons électroacoustiques qui les imitent ? On est très près des équivalences que recherche — pour le concert — François-Bernard Mâche entre des profils sonores instrumentaux et leurs modèles animaux enregistrés (Korwar, Sopiana). Sans aller jusqu’à ce cas limite, un Godard, lorsqu’il traite les voix, rendues incompréhensibles, comme des objets sonores, au même titre que les bruits, n’est-il pas quelque peu compositeur ?

                La musique électroacoustique sur support est entre deux mondes, le musical et l’audiovisuel, et cette position est souvent perçue comme inconfor­table par ses compositeurs. De fait, vu au présent, le flou qui règne sur les dé­limitations des arts du son rend incertaine leur appartenance au groupe social d’une élite de la musique savante. Mais considéré selon l’axe du temps, cet inconfort est le symbole d’une mutation : la musique électroacoustique est située entre “la musique”, définie par son passé, et “les arts technolo­giques”, indéfinis mais fururistes — dont le foyer actif est le monde de l’au­diovisuel. (16)

                3.

                Nous avons suggéré plus haut d’appeler “musique électroacous­tique” celle qui est créée (et non pas simplement conservée ou diffusée) grâce aux technologies électroacoustiques. Mais c’était admettre une ligne de par­tage, en réalité bien fragile, entre créer et conserver. Car les outils de conserva­tion deviennent vite des outils de création : la musique concrète en avait donné l’exemple ; l’enregistrement de la musique instrumentale en est un autre. Il existe maintenant une création discographique, fondée sur les mêmes techno­logies électroacoustiques, qui est une des pratiques musicales les plus fé­condes.

                En musique, la division entre création et exécution a toujours été ga­rantie par un objet matériel : la partition. Le compositeur livrait son texte, et là commençait le travail d’un autre, l’interprète. Certes, on a toujours reconnu une part de créativité à l’interprète, mais on pouvait plus difficilement parler de création, car de son acte, éphémère, ne naissait pas un objet durable. Or l’enregistrement fournit maintenant cet objet sonore reproductible, explorable, analysable, transmissible, qui garantit à l’interprétation — relayée par la prise de son, le montage, la gravure — son statut de création. Manifestement l’objet artistique qui résulte de cette activité collective est une œuvre  — même si le mot conserve par ailleurs en musique un sens plus spécifique.

                De nouvelles pratiques sociales se sont organisées autour de ce nouvel objet, comme d’autres s’étaient constituées autour de la partition. Les disques circulent et influencent les interprètes, comme circulaient les partitions, four­nissant des modèles aux compositeurs. Un patrimoine cumulatif d’interpréta­tion se constitue comme s’était rassemblé celui de la musique écrite. Un exemple : le groupe de musique baroque Il Giardino Armonico a publié en 1994 un enregistrement des Quatre Saisons de Vivaldi, alors qu’il en existait déjà une centaine. On ne peut s’en étonner qu’avant d’avoir constaté la nou­veauté qu’apporte cette n-ième version, non seulement dans l’interprétation du texte, mais dans la réalisation d’un son, d’une netteté des plans et finale­ment d’un objet qui constituera, dorénavant, une référence consultable. Le même groupe ne déclare-t-il pas dans une notice : « Une étape est franchie en 1976 lorsque N. Harnoncourt publie le disque (je souligne le mot disque car une grande partie de cette histoire de l’interprétation s’appuie sur la discogra­phie) des concertos de l’opus 8 ; les Saisons de Harnoncourt se placent... » (Clericetti, 1993).

                Depuis longtemps, certains interprètes ont pris conscience de la muta­tion des pratiques musicales provoquée par le disque (Gould, 1966, in 1983). Mais l’enregistrement ouvre un champ nouveau à la musicologie et à l’ana­lyse, qui ne l’ont pas encore beaucoup investi. Des outils d’analyse commen­cent à exister (17). Une musicologie de l’interprétation et du disque, considéré comme “œuvre” musicale, est devenue possible et nécessaire.

                La limite n’est donc pas très nette, qui définit la musique électroacous­tique. Sans qu’elle se confonde encore avec les pratiques voisines — la mu­sique populaire, la radio, l’enregistrement — elle partage avec celle-ci des ma­chines et des procédures et par conséquent un “vocabulaire” (18).

                Nous avons ici fait le tour par l’extérieur du domaine de la “musique électroacoustique”, en sortant de ce qu’on appelle classiquement “musique”, tout en restant dans l’électroacoustique. Livrons-nous maintenant à l’exercice complémentaire : tout en restant dans le champ de la “musique” savante ac­tuelle, parcourons les frontières de ce qui est et n’est pas électroacoustique. On s’en doute, il existe de nombreux passages.

                L’électroacoustique dans la musique actuelle

                La musique électroacoustique occupe une place paradoxale dans la musique contemporaine savante. Socialement, elle a tendance à être un peu marginalisée, notamment à cause de la formation des compositeurs, souvent atypique (19), tandis qu’esthétiquement elle constitue une sorte de laboratoire des problématiques musicales, qui aura influencé les courants majeurs de la composition actuelle. En voici quelques exemples.

                1.             Objet sonore et travail sur le son

                On l’a vu, l’idée de considérer le son dans sa texture morphologique est antérieure à l’apport de Schaeffer. Mais la conceptualisation qu’il propose de l’objet sonore, théorisation de la pratique concrète, rejaillit non seulement sur l’écriture instrumentale et orchestrale de ceux qui fréquentent sa pensée, mais sur l’analyse qui est faite de la musique antérieure. Il y a là un effet de feed-back qui renforce une tendance. Par exemple, Boulez (1957 ; 29) écrit de Varèse : « Cette musique, l’on doit s’en rendre compte, s’occupe essentielle­ment du phénomène sonore par lui-même ; on imagine chez l’auteur une constante préoccupation pour l’efficacité d’accords qui deviennent objets ». Et, généralisant : « Les questions d’échelles tempérées ou non  tempérées, les notions de vertical ou d’horizontal n’ont plus aucun sens : on arrive à la fi­gure sonore, qui est l’objet le plus général s’offrant à l’imagination du com­positeur ; figure sonore, ou même avec les nouvelles techniques, l’objet so­nore » (ibid ; 35). (20)

                Le concept d’objet sonore comporte encore beaucoup d’ambiguïté : tantôt, il est lié aux “nouvelles techniques”, tantôt il est transposable à l’or­chestre. L’application pratique à l’écriture pour orchestre doit probablement beaucoup au Concert Collectif, expérience de mise en commun de séquences instrumentales et électroacoustiques pour une composition collective, à la­quelle ont participé, autour de Schaeffer (pas tous jusqu’au bout), les com­positeurs du GRM en 1962 : Ballif, Bayle, Canton, Carson, Ferrari, Mâche, Malec, Parmegiani, Philippot, Xenakis (voir Mâche, 1963). Ivo Malec té­moigne, en 1975 : « Depuis maintenant un bon nombre d’années, treize exac­tement, je ne cesse d’avouer, de revendiquer même, l’influence déterminante de la musique électroacoustique sur mon opus instrumental et vocal. Treize ans, parce que c’est en 1962 qu’a eu lieu cette expérience étonnante que le GRM avait entreprise sous le titre Concert Collectif et dont le rôle “historique”, à mes yeux, n’a jamais été pleinement analysé » (in Chion, Delalande, 1986 ; 200). Ce ne sont pas seulement le concept d’objet ou les critères morphologiques de Schaeffer, qui sont transposés à l’orchestre, mais les procédés de composition, comme par exemple le “mixage” ou le “filtrage”, par l’écriture sur papier, de séquences instrumentales. « Je veux insister, [déclare Malec] (…) sur le genre de musique qu’a fait naître [cette expérience] (…), et qui fait son intrusion hirsute et mal ajustée en plein milieu du règne de l’état sériel ; c’est peut-être à sa suite aussi que peu à peu et un peu partout, d’autres musiciens sont devenus autres ». Témoignage important puisque Malec a enseigné la composition au Conservatoire de Paris de 1972 à 1990, et qu’on pourra rapprocher de lui l’un des fondateurs de l’ensemble L’Itinéraire, Michael Lévinas, qui a assuré d’une autre manière une transition entre l’électroacoustique et l’instrumental. Évoquant son passage au GRM et à la classe de Schaeffer : « C’est une époque de l’expérience, une époque de la surprise technologique, de l’euphorie technologique (…), du pouvoir spec­taculaire que pouvait révéler la technologie. C’est-à-dire que le matériau deve­nait malléable, accessible à l’invention, mouvant, pouvait générer des formes, créer des surprises aussi importantes que pouvait être une modulation dans le système tonal, des surprises “haydniennes” (…). Ce sont là mes racines musi­cales (…). Ma seconde rencontre a été Olivier Messiaen et curieusement, à l’époque, je l’ai intégré à un même courant qui était ce travail sur le son, sur le timbre, ce retour au matériau du timbre comme cellule génératrice de l’œuvre, et la révélation des dimensions cachées du timbre par le micro, l’amplification, plus tard par les manipulations électroniques et par les modulations » (21).

                2.             Les modèles naturels

                Certes, la musique électroacoustique n’a pas inventé l’imitation de la Nature, et sans remonter plus loin, les modèles naturels inspirent largement Debussy (par exemple La Mer). Mais « le dialogue (…) entre l’esprit et la Nature », dans les première pages du Traité de Schaeffer (1966 ; 11) ou « l’homme à l’homme décrit dans le langage des choses » (ibid., dernière phrase du livre),  voilà le fond du dogme concret. Par ailleurs les outils tech­niques renouvellent grandement cette problématique éternelle, fournissant les moyens d’une interaction directe entre les formes naturelles et leurs doubles artificiels, y compris instrumentaux. Bayle, Lejeune et tant d’autres ont beau­coup joué de cette interaction dans la musique acousmatique, dont c’est une des ressources importantes. Une grande partie de l’œuvre de François Bernard Mâche, aussi bien théorique (1984 ; 1995) que musicale — unissant souvent les instruments et l’électroacoustique — est fondée sur cette re­cherche d’archétypes (“phénotypes” et “génotypes”). Mais Mâche est le représentant le plus explicite  d’un courant de pensée largement représenté de musiciens d’écriture qui ont préféré aux modèles formels dérivés de la philo­sophie sérielle d’autres plus concrets, empruntés à la nature, qu’ils s’aident directement — comme lui — ou non, de dispositifs techniques de transfert de formes.

                3.             La synthèse du timbre

                Le premier instrument électrique fut sans doute le Dynamophone qui, dès 1900, réalisait un timbre artificiel par addition d’harmoniques (Vande Gorne, 1996). Bien avant même qu’il soit question de composer la musique à l’aide de machines, l’électricité puis l’électronique et enfin l’informatique ont fourni aux musiciens des sons dont le spectre résultait d’une “synthèse addi­tive”.

                La musique “spectrale”, dont le principe de base est de faire fusion­ner des hauteurs d’origine instrumentale étagées en fréquence comme les harmoniques d’un spectre, a pu trouver là un modèle : « Certains essais de la musique spectrale, et notamment les premiers, ne sont pas (…) entièrement convainquants, puisque la simple simulation de techniques électroacoustiques y tient lieu de principe d’organisation formelle » (Lelong, 1989). Au-delà de la seule synthèse, certains procédés d’écriture “technomorphe” (Wilson, 1989) transposent à l’ensemble instrumental certaines manipulations du stu­dio : mixage (ibid., p.70), filtrage et “phasing” (p. 81), par exemple. Certes, la synthèse électronique n’est pas le seul modèle ; il y a des précédents orches­traux (voir Anderson, 1989) chez Scelsi, Ligeti ou même Messiaen d’une re­cherche de fusion d’un “accord de résonance”. Mais un pas est franchi quand au lieu de penser “accord” on pense “synthèse” (Grisey parle de “synthèse instrumentale”), car c’est un son unique que l’on vise ; on ne combine plus des unités, mais on fait évoluer une unité.

                Ainsi retrouve-t-on chez les “spectraux” quelques-uns des grands thèmes chers à la musique électroacoustique : le retour au son, la priorité ac­cordée à la perception, l’engendrement de la forme non par combinaison mais par évolution vivante d’un son (« La musique comme organisme, formé non d’atomes que l’on peut classifier par paramètres, mais qui naît de l’évolution vivante d’un son » — Wilson, ibid, p. 79).

                4.             Les processus d’engendrement de la forme

                La primauté du son et celle de la perception, nous l’avons vu, s’inscri­vent dans la perspective de trois siècles d’histoire de la musique. On n’en di­rait pas autant du concept de “processus”, qui semble bien lié à l’imitation des machines. Quand j’entends Gérard Grisey parler de “processus”, je ne peux m’empêcher de penser (qu’on me pardonne de témoigner de ce que je connais le mieux) à l’engouement des compositeurs du GRM pour ce terme vers 1970.

                Depuis longtemps on avait utilisé des “boucles” de bande magnétique de longueurs variables, indéfiniment relues par des magnétophones, ce qui n’était qu’une adaptation assouplie des sillons fermés des débuts. Le procédé a eu une descendance instrumentale notable, la musique répétitive, prototype d’engendrement d’une forme par un processus. On se rappelle que les trois premiers opus de Steve Reich, de 1965 à 1966, sont électroacoustiques et pro­duits par des boucles de longueurs différentes qui, lues simultanément, se dé­calent. Comme il s’en explique (1981 ; 99 à 105) il n’eut ensuite qu’à trans­poser le procédé à l’écriture instrumentale.

                Mais la vogue du mot “processus” et la nouveauté conceptuelle qu’il représente date de l’introduction des synthétiseurs perfectionnés dans les studios, vers 1970. La main n’était plus nécessaire pour produire les sons, mais seulement pour en contrôler le flux. À une “écriture” par juxtaposition d’unités succédait une mise en forme par contrôle continu d’une évolution. Schaeffer lui-même n’avait jamais franchi ce pas. Mis à part la première sur­prise des sillons fermés et de leurs charmes orphiques, il est à la recherche de la “structure” musicale, concept en vogue en musique comme dans les sciences humaines dans les années 50 et 60, et son “objet convenable” au musical, aussi bien dans le Traité que dans l’Étude aux Objets (1959), est conçu comme une unité morphologique qui, assemblée à d’autres, construira une “structure”. La distance prise par Schaeffer par rapport au GRM après la publication du Traité (1966), coïncidant sensiblement avec l’arrivée de syn­thétiseurs assez complexes, a libéré d’un interdit. Les premiers électroniciens de Cologne, sans doute trop proches de la problématique combinatoire du sé­rialisme, étaient eux-mêmes fort éloignés du “processus”. Ligeti, considéré comme l’un des promoteurs de formes statiques sans début ni fin, peut avoir profité de son expérience de la synthèse électronique, en 57 et 58 à Cologne (il reconnaît une influence sur sa musique instrumentale : voir Ligeti et Häusler, 1974 ; 112). Mais le principe du “processus” est plus précis que la simple nappe sonore se transformant progressivement. C’est un engendre­ment automatique, machinique : dès qu’un processus est programmé, il en­gendre de lui-même une matière sonore évoluante — qui, de fait, prend une forme ; mais le compositeur a pensé “processus” et non “forme”.

                Bel exemple : un mouvement des Variations en Etoiles de Guy Reibel (1966) est entièrement engendré par un dispositif de “réinjection”. L’auteur l’a intitulé Machination : cette revendication du modèle de la machine est ca­ractéristique. On a philosophé sur la machine qui fournit au compositeur contemporain des images sonores et dynamiques, comme à Schumann le ga­lop du cheval. Mais il ne s’agit pas ici du bruit de la machine ni de son rythme cyclique (du “phénotype”, selon Mâche) ; c’est comme processus de géné­ration automatique (comme “génotype”) qu’elle est imitée, et en l’occurrence utilisée ; comme automate — et cela aussi est un rêve ancien dont le 20ème siècle a trouvé les outils.

                Essai de définitions

                Il serait temps, comme annoncé, de mettre un peu d’ordre dans les dé­finitions et les catégories. Exercice difficile, auquel le GRM a consacré un séminaire dont je résumerai à ma manière quelques conclusions (22).

                Comme la plupart des mots du dictionnaire, l’expression “musique électroa­coustique” n’a pas un unique sens, mais plusieurs. Pour simplifier, nous en distinguerons deux.

                1.

                Elle désigne d’abord — et c’est comme cela que nous l’avons présen­tée — une technologie de production : c’est la musique créée (et non simple­ment conservée, exécutée ou diffusée) grâce à des moyens électroacoustiques. On exclut les musiques qui n’utilisent ces moyens que comme instruments (par exemple l’onde Martenot ou le synthétiseur employé comme “clavier”), mais on inclut les genres populaires qui, bien que ne revendiquant pas cette appellation, font bien appel à une réalisation électroacoustique. Quant aux cas périphériques que nous avons examinés (la création discographique, la créa­tion radiophonique ou sonore) ils restent extérieurs tant que le concept de “musique” ne les a pas englobés. Ce ne sont pas les moyens techniques qui les différencient, ni, au moins en partie, leurs implications esthétiques ; c’est l’extension sémantique du mot “musique”, nécessairement rapportée aux pratiques antérieures — et donc évolutive.

                2.

                Si l’on interroge les compositeurs qui emploient actuellement l’ex­pression (voir enquête d’Évelyne Gayou pour le Séminaire cité), on s’ap­proche d’une définition plus restrictive qui correspond à ce qu’on pourrait appeler la musique électroacoustique savante : le compositeur lui-même (et non un arrangeur ou un technicien) intègre les moyens technologiques dans le processus de création. Le mot “électroacoustique” est conçu comme géné­rique et passe-partout, et englobe aussi bien les musiques concrète et électro­nique des débuts que la synthèse informatique.

                Mais la musique électroacoustique savante se scinde assez nettement en deux courants, qui correspondent à des esthétiques et des problématiques souvent divergentes, selon que la réalisation sonore s’effectue, pourrait-on dire en empruntant ces termes à la réalisation radiophonique, en “direct” ou en “différé”.

                Le premier cas se caractérise par la présence de musiciens (ou d’un seul) sur scène, souvent par l’existence d’une forme de jeu, au sens d’interac­tion entre les musiciens ou entre le musicien et un dispositif, et par le néces­saire recours à quelque chose comme une partition, généralement plus pres­criptive que descriptive. On pense aux œuvres “mixtes” (instrument et bande) des années 60, aux instruments microphonisés, qu’évoquait plus haut Lévinas et dont l’ensemble L’Itinéraire (notamment) a exploré les implica­tions esthétiques, relayé par beaucoup de recherches entreprises à l’IRCAM faisant interagir un instrument et l’ordinateur. Même le GRM, pourtant placé sous la bannière acousmatique, a toujours cultivé ce jeu interactif (système Syter). Mais le parti pris dominant ce courant reste de considérer les moyens technologiques comme une sorte d’extension ou de partenaire de l’instru­ment, qui reste symboliquement au milieu de la scène mais aussi au centre des préoccupations compositionnelles de compositeur. C’est en ce sens qu’on peut parler d’électroacoustique instrumentale (ou vocale). (23)

                A ce courant s’oppose celui de la musique électroacoustique sur sup­port (ou de sons fixés) dont un cas prototypique est l’école acousmatique (24). On fait l’impasse, ici, sur le caractère spectaculaire du concert (dans certains cas sur le concert lui-même), les traits marquants étant l’absence d’exécution (non d’interprétation, puisque la “projection” en concert, quand il y en a, suppose une “lecture” de l’œuvre), et l’absence de réelle partition (si ce n’est, occasionnellement, une transcription de repérage). L’objectif est la création d’un pur objet sonore.

                Comme toujours, cette dichotomie est simplificatrice car il existe des cas intermédiaires (correspondant à ceux qu’en radio on appellerait du “semi-direct”) dans lesquels il y a bien une présence scénique de musiciens et une action spectaculaire, mais où la part de ce qui a été préparé en studio ou mis en mémoire est dominante. Elle reste très marquée, cependant, et peut-être de plus en plus, parce que la différence d’options techniques matérialise le plus sou­vent une divergence de choix esthétiques entre les tenants, d’une part de l’écri­ture et de ses possibilités combinatoires, et de l’autre d’un langage d’images, de représentations, de virtualités.

                Le mot “électroacoustique” est revenu 59 fois dans ce texte. Et pour­tant y a-t-il vraiment une musique électroacoustique ? La problématique musi­cale qui l’a portée a cueilli au passage, parce qu’ils étaient prêts, les moyens technologiques dont elle avait besoin, mais elle était antérieure à ces moyens. Maintenant, en retour, les machines suggèrent des champs d’investigation qui sont repris par les musiciens d’”écriture”. Le mot “électroacoustique”, pour désigner un domaine facilement isolable, disparaîtra-t-il ? Et disparaîtra-t-il parce que les musiques du même nom disparaîtront ou au contraire parce qu’il n’y aura plus de musiques que technologiques — sinon par l’emploi de machines du moins par l’esprit qu’elles auront insufflé ? Sur ce point, Messiaen était péremptoire : « Presque que tous les compositeurs ont subi l’influence de la musique électronique, même s’ils n’en font pas ».

 

N O T E S

 

1. Entretien télévisé avec Alain Duault 10 décembre 1988, FR3

2. Varèse est le plus connu mais sans doute pas le premier des prophètes de la “musique du futur”. Dans un article de 1928 signalé par Konrad Boehmer, Robert Beyer, l’un des pères de la musique électronique, prévoit et oppose clairement les deux voies (instrumentale et acousmatique) que suivra la future musique électroacoustique : « Nous pensons d’une part aux tentatives de produire des phénomènes acoustiques au moyen de branche­ments et d’amplificateurs électriques, comme [à] des possibilités de construire les timbres, au moyen de l’analyse et de la synthèse, ainsi que [par] les méthodes optiques, et, d’autre part, aux procédés d’enregistrement et de transmission du gramophone, du fil d’acier magnétique, de la radio et du film parlant en général. Donc [à] des machines qui permettent de séparer la voix du corps, de la porter au loin, de faire défiler les sons à l’envers, de parcourir un royaume de timbres d’une ampleur presque cosmique et de faire mille autres choses » (Beyer, 1996). Il en déduit deux conséquences es­thétiques essentielles :   la recherche de l’idée musicale dans le son lui-même, qu’il oppose à la “composition” (« L’essence intérieure du son, sa forme spirituelle, une fois captée et vécue par l’idée, transparaîtra alors en l’ordonnant dans la multiplicité de ses apparences »), et le dépassement des modèles corporels (« La musique à venir se situera au-delà d’une instrumen­tation suscitée par les mains et les lèvres »).

3. On trouve une excellente histoire des débuts de la musique électroacous­tique chez Annette Vande Gorne, 1996.

4. Par exemple un son hybride obtenu en donnant artificiellement à une te­nue de flûte une enveloppe dynamique de note de piano s’entend sans am­biguïté comme du piano.

5. La trompette s’identifie par son attaque caractérisée par la pente d’appa­rition des différents harmoniques, et en général les sons cuivrés par une cor­rélation entre spectre et dynamique.

6. Un colloque que nous avons organisé sur ce thème en décembre 1989 sous le titre Le son de la Musique donnera lieu, avec divers compléments, à une publication prochaine.

7. Les chansons imitatives, comme La Guerre de Janequin qui commence par le mot “écoutez”, et joue abondamment de sonorités, inaugurent un rap­port nouveau et exceptionnel du faire et de l’entendre qui explique  proba­blement en partie leur succès public.

8. Concerts du Conservatoire en 1828, Concerts Populaire de Musique Classique (Pasdeloup) en 1861, Concerts Colonne en 1871, Concerts Lamoureux en 1880.

9. Je concéderai volontiers qu’appeler “technologie” la tradition orale, sa­chant qu’elle se caractérise par l’absence de matériel, est une formulation un peu abstraite (comme appeler zéro un “nombre” et l’ensemble vide un “ensemble”). Mais considérer le papier et le crayon comme un déterminant “technologique”, au sens usuel, est une évidence.

10. Voir Delalande, 1981.

11. Puis on passe du domaine de l’électrique à celui du numérique et réci­proquement par des “convertisseurs”. On peut aussi traiter non les sons eux-mêmes mais des ordres (commandes “midi”) pour qu’une machine les pro­duise, les modifie et les assemble.

12. Par cette technique ont été réalisées notamment les Études de bruits (1948) et la Symphonie pour un homme seul (1950), composée en collabora­tion avec Pierre Henry.

13. Par exemple Laurent Garnier, CD : MIXM MML CD 19.

14. Pour l’analyse de l’espace en musique électroacoustique savante voir Dhomont, 1988 et 1991. Dans le domaine populaire, un modèle pour l’ana­lyse de l’espace (the “sound box”) a été proposé par Moore 1992.

15. La présence est, à l’origine, liée à l’usage du microphone qui selon qu’il est placé plus ou moins près de la source ne capte pas les mêmes compo­santes spectrales ni surtout les mêmes détails. La fascination pour la prise de son très proche, souvent comparée à une observation au microscope (Chion Reibel, 1976 ; 213) a toujours été très grande dans les musiques concrètes. Par exemple Concret PH de Xenakis (1958) est entièrement fondé sur l’enregistrement de crépitements aléatoires de charbon de bois en­registrés de très près. Les Variations pour une porte et un soupir de Pierre Henry (1963) explorent et grossissent de façon presque monstrueuse des grincements de porte. De son côté Stockhausen a traité la présence de la voix comme un “paramètre” dans le Gesang der Junglinge (1956). Cette présence, liée à l’emploi du microphone, n’implique pas que la pièce soit réalisée sur support. On en retrouve l’usage dans les musiques réalisées en direct comme dans des oeuvres pour instruments microphonisés : par exemple les pièces pour flûte seule de M. Lévinas (Arsis-Thesis et Froissements d’Ailes) ou de Paul Méfano (Traits Suspendus) mettent en valeur le souffle de l’instrumentiste ou les infimes tapotements de clés.

On trouve une utilisation équivalente de la présence, aussi bien instrumen­tale que vocale, dans le domaine populaire : le caractère concret et intimiste des solos de guitare de Paris-Texas (Ry Cooder, disque CD WB 7599-25270-2) est fondé sur la reproduction très présente du frottement des doigts sur les cordes, et la carrière de Jane Birkin tient en partie à l’érotisme d’une image toute proche de voix fragile et de bruits de bouche (par exemple Leur plaisir sans moi, CD : PHPS 826568-2 ). Une relation érotique comparable entre l’image vocale d’une femme et un environnement électronique avait déjà été exploité par Berio dans Visage (1961).

16. Le fait que le GRM appartienne à l’Institut National de l’Audiovisuel et soit situé à la Maison de Radio France (et, bien que ce signe soit moins li­sible, l’IRCAM au Centre Georges Pompidou) ne doit pas être vu comme une aberration de l’histoire des institutions mais comme une immersion si­gnificative dans le milieu des arts technologiques.

17. Mentionnons trois logiciels d’analyse interactive spécialement conçus pour la musique : Acousmographe (Ina-GRM), AudioSculpt (IRCAM), Satie (IRIT, logiciel étudié pour les futures stations de consultation interac­tive savante de la BNF).

18. Les genres se côtoient, mais les hommes aussi, et le compositeur élec­troacousticien a des compétences qui le rapprochent quelquefois plus de la radio ou des techniques de l’image que de l’écriture pour orchestre : Robert Cahen, brillant vidéaste, est issu de la classe de composition électroacous­tique du CNSM ; Michel Chion, compositeur, a largement appliqué au ci­néma les théorisations du sonore de Schaeffer dont il est l’héritier (Chion, 1982, 1985, 1988).

19. Voir Menger et Patureau 1987. Le cas de Bernard Parmegiani, virtuose de la composition sur bande, est exemplaire de ce point de vue. Sa forma­tion musicale classique est celle d’un amateur et il est venu au studio de composition comme technicien de prise de son. Ce qui ne l’a pas empêché de remporter en 1990, entre autres récompenses, les cinquièmes Victoires de la Musique dans la catégorie Musique Contemporaine, après Boulez, Dutilleux, Xenakis et Henry.

Détail significatif : pour éviter une trop grande marginalisation profession­nelle des compositeurs, la classe de musique électroacoustique du Conservatoire de Paris (qui s’appelait d’ailleurs classe de Musique Fondamentale et appliquée à l’Audiovisuel) ouverte en 1968 par Schaeffer a toujours comporté des épreuves de sélection de solfège, d’une utilité contestable, au risque de se priver de l’apport d’artistes de profils plus ori­ginaux. Les technologies nouvelles sont maintenant intégrées au cursus des classes de composition.

20. Le jeune Boulez qui venait “cachetonner” à la RTF en 1948 pour taper des accords de piano destinés à l’Étude Violette et l’Étude Noire (voir Schaeffer, 1952 ; 27) n’était pas près à accepter l’amateurisme musical de son patron ni l’imperfection manifeste des machines. Mais on voit dans cet article (écrit en 1953) un intérêt intellectuel pour la musique expérimentale qui explique, chez celui qui aura tant vilipendé la musique concrète des dé­buts, le spectaculaire retournement que constituent l’utilisation des moyens électroacoustiques pour Explosante-Fixe (1973) et la création de l’IRCAM en 1975.

21. Séance Empreintes, au GRM, du 8 février 1994. Exposé improvisé, transcription non corrigée par l’auteur.

22. Séminaire de recherche 1995-1996 : Territoires et cartes de la musique électroacoustique. Actes à paraître.

23. Cependant musiques électroacoustiques “en direct” et “instrumentale” ne se recouvrent pas tout à fait. La seconde est un cas particulier de la pre­mière.

24. J’hésite, cependant, à désigner l’ensemble de cette technologie de pro­duction savante sur support par le mot acousmatique pour deux raisons. D’abord par respect pour la pensée de François Bayle, promoteur de l’ex­pression musique acousmatique, qui l’a toujours définie non comme techno­logie mais comme “langage”, en se fondant sur des considérations sémio­tiques (voir son concept d’image et ses typologies dérivées de Peirce) : donc, que faire d’œuvres sur support qui n’adoptent pas cette esthétique, qui utilisent par exemple les haut-parleurs comme autant de sources, sans relief, sans créer d’image ni aucune virtualité ? Mais surtout parce que l’expres­sion est fortement signée, représentative d’une école, d’un réseau d’in­fluences et d’amis, et que par conséquent beaucoup de compositeurs se­raient bien étonnés de voir leur œuvre ainsi désignée.

 

R É F É R E N C E S

 

ANDERSON, Julian,
« Dans le contexte »,
Entretemps n°8 [numéro consacré à la musique spectrale], Paris, 1989.

BARBIER, Patrick,
Histoire des castrats, Paris, Grasset, 1989.

BAYLE, François,
Musique acousmatique, propositions…  ...positions,
Paris, INA/Buchet-Chastel, 1993.

BEYER, Robert,
« Das Problem der Kommenden Musik »,
Die Musik, Berlin, 1928,.
Traduit sous le titre « le problème de la musique à venir »,
Ars Sonora Revue n°3, publication électronique, Paris, CDMC, Mars 1996.

BOULEZ, Pierre,
« Tendances de la musique récente »
in Schaeffer, Pierre (ed.) Vers une musique expérimentale, Paris, La Revue Musicale, ed. Richard-Masse, 1957.

CARLES, Philippe,
« le son du jazz, entretien avec François Delalande »,
Musurgia Volume II n°3, Paris, Eska, 1995.

CHION, Michel,
[trois ouvrages que Chion semble réunir en une série : Le cinéma comme art sonore (le dernier est annoncé « Le cinéma comme art sonore III »)] :
La voix au cinéma, Paris, éd. de L’Etoile, 1982,
Le son au cinéma, Paris, Cahiers du cinéma, 1985,
La toile trouée ou la parole au cinéma, Paris, Cahiers du cinéma, 1988

CHION, Michel,
L’Art des sons fixés,
Ed. Métamkine/Sono-Concept, 13 rue de la Drague 38600 Fontaine, 1991.

CHION, Michel, DELALANDE, François,
La Recherche Musicale au GRM,
Paris, La Revue Musicale, ed. Richard-Masse, 1986.

CHION, Michel, REIBEL, Guy,
Les musiques électroacoustiques, Aix en Provence, Edisud, 1976.

CLERICETTI, Giuseppe,
notice de l’enregistrement des concertos pour luth et mandoline de Vivaldi, Teldec 4509-91182-2.

DELALANDE, François,
« Incidences pédagogiques et sociales de la musique électroacoustique », Revue de musique des universités canadiennes n°2, Montréal, 1981.

DHOMONT, Francis (ed),
L’espace du son, 1988 et L’espace du son II,
Lien,1991, Edition Musiques et Recherches, 3, Pl. de Ransbeck B-1380 Ohain.

GOULD, Glenn,
« L’enregistrement et ses perspectives »
[traduction française d’un article de 1966,
in Gould, Le dernier puritain, Paris, Fayard, 1983].

HENNION, Antoine,
Les professionnels du disque, une sociologie des variétés,
Paris, Métaillé, 1981.

LELONG, Guy,
« L’Astreinte sonore »,
Entretemps n°8, Paris, 1989.

LEONHARDT, Gustav,
L’art de la fugue, dernière œuvre de Bach pour le clavecin,
Luynes, France, Van de Velde, 1985.

LIGETI, György et HÄUSER, Josef,
« D’Atmosphères à Lontano »[entretien],
Musique en Jeu n°15, Paris, Seuil, 1974.

MACHE, François-Bernard,
Musique, Mythe, Nature, Paris, Klincksieck, 1984.

MACHE, François-Bernard,
« Le Concert Collectif, chronique d’une expérience »
[écrit pour la création en 1963],
in Chion, Delalande (ed)1986.

MACHE, François-Bernard,
« Method and System »,
in Tarasti (ed.) Musical Signification,
Mouton de Gruyter, Berlin, New-York, 1995.

MANOURY, Philippe,
« Les limites de la notion de timbre »
in Collectif, Le timbre, métaphore pour la composition,
Paris, IRCAM, Christian Bourgois, 1991.

MENGER, Pierre-Michel, PATUREAU, Frédérique,
L’art entre science et technique : le cas de la recherche musicale, [rapport d’étude],
Paris, Centre de sociologie des arts, EHESS, CNRS, 1987.

MOORE, Allan F,
« The Textures of Rock »
in Dalmonte, R. et Baroni, M (ed) Secondo convegno europeo de analisi musicale, Université de Trente, Italie, 1992.

OUVRARD, Jean-Pierre,
« La musique au XVIè siècle : Europe du Nord, France, Italie, Espagne »
in B. et J. MASSIN (ed.) Histoire de la musique occidentale,
Paris, Messidor/Temps actuels, 1983.

REICH, Steve,
Ecrits et entretiens sur la musique,
Paris, Christian Bourgois éd., 1981.

RISSET, Jean-Claude,
« Timbre et synthèse des sons »,
Analyse Musicale n°3, Paris, 1986.

SOULIÉ, Laurent,
Les techniques de composition dans l’écriture instrumentale de Lumina d’Ivo Malec (le studio d’instumentistes),
mémoire d’analyse, Conservatoire National Supérieur de Musique de Lyon, 1996.

SCHAEFFER, Pierre,
A la recherche d’une musique concrète, Paris, Seuil, 1952.

SCHAEFFER, Pierre,
« Vers une musique expérimentale » in Schaeffer, Pierre (ed.)
Vers une musique expérimentale, Paris, La Revue Musicale, ed. Richard-Masse, 1957.

SCHAEFFER, Pierre,
Traité des Objets Musicaux, Paris, Seuil, 1966.

SCHAEFFER, Pierre REIBEL, Guy,
Solfège de l’Objet Sonore, (trois disques et livret),
Paris, Seuil et RTF, 1967.

VANDE GORNE Annette (ed.),
Vous avez dit Acousmatique ?,
Lien, Musiques et Recherches, 3 place de Ransbeck B 1380 Ohain, 1991.

VANDE GORNE, Annette,
« Une histoire de la musique électroacoustique »,
Ars Sonora Revue n°3, publication électronique, Paris, CDMC, Mars 1996.

VARESE, Edgard,
Écrits [textes réunis et présentés par Louise Hirbour],
Paris, Christian Bourgois éd., 1983.

WILSON, Peter Nicolas,
« Vers une écologie des sons, Partiels de Gérard Grisey et l’esthétique du groupe l’Itinéraire », Entretemps n°8, Paris, 1989.