Musique et ordinateur ou musique par ordinateur ?

par Robert Normandeau

 

 

            Voici un texte que j'ai eu l'occasion d'écrire à la demande des organisateurs du concours Ars Electronica de Linz (Autriche) en 1997. Il a été écrit avec comme toile de fond la perspective du cinquantième anniversaire de la musique concrète. Si cet anniversaire semble aller de soi pour un public francophone — peut-être ici le vocable « français », au sens territorial, serait plus approprié — il n'en est pas de même pour les pays anglo-saxons (à l'exception peut-être de l'Angleterre qui entretient une relation étroite avec la France), voire germanophone. En effet, on a plutôt l'impression, dans ces pays, que la tendance actuelle va dans le sens d'une « computer music » construite autour de l'idée de la technologie et que, par conséquent, le discours ambiant est envahi par des concepts issus d'un langage pseudo-scientifique comme si, enfin, on avait dompté la bête et que la musique, cet hydre qui surgit de partout et de nulle part sans prévenir, avait été domestiquée. Il m'a semblé alors important de replacer les choses dans une perspective différente, musicale oserais-je dire, c'est-à-dire issue de la tradition phénoménologique, par opposition justement à la tendance réductionniste qui justifie la fin par les moyens... Il faut rappeler en terminant que non seulement la plupart des textes fondateurs de la musique concrète ne sont pas disponibles en anglais, mais qu'il en est de même pour ceux qui ont suivis. Donc, que ce qui semble acquis pour le public francophone est totalement inconnu pour les autres cultures. Ce qui explique que non seulement cet anniversaire risque de passer inaperçu en dehors de la capitale française, mais que les idées qui le sous-tendent passent pour caduques. Messieurs-dames, à vos dictionnaires !...

            Nous sommes en 1997, tout juste un an avant le cinquantième anniversaire de l’ « invention » de la musique concrète (1) par Pierre Schaeffer en 1948. Où en sommes-nous aujourd’hui, près d’un demi-siècle après cette révolution capitale dans l’histoire de la musique et plus de cent-vingt ans après l’invention de l’enregistrement sonore ? La catégorisation de la musique électroacoustique en fonction des lutheries utilisées a-t-elle encore un sens aujourd’hui ? L’avènement de l’ordinateur — mais quel ordinateur ? — a-t-il réellement changé les modes de composition et les modes d’expression de cette musique ? Et surtout, de quelle musique électroacoustique parle-t-on ici ? Le terme a-t-il encore un sens ? Quelles réalités recouvre-t-il ?

            L’écriture sur support

            La musique a toujours été depuis l’avènement des temps, un art d’interprétation. Jusqu’au vingtième siècle, pour entendre la musique, il fallait soit la jouer, soit se rendre dans un lieu dédié à cette fin pour y voir et y entendre des musiciens en chair et en os. Les compositeurs occidentaux, dès le Moyen-Âge (rappelons pour mémoire, et cela n’est pas rien, que la musique occidentale est la seule musique de tradition écrite), se sont servis d’un code de transmission — l’écriture instrumentale sur papier ligné — pour confier à des interprètes le soin de traduire leur pensée — car c’est bien d’une traduction dont il s’agit, je n’en veux pour preuve que les écarts considérables d’interprétation que l’on trouve même chez des compositeurs aussi précis que Beethoven et Mahler par exemple — et faire résonner leurs musiques aux oreilles des auditeurs. La musique est essentiellement, jusqu’en 1948, un art d’interprétation, comme la danse, comme le théâtre. Elle est le reflet d’une démarche abstraite qui, partant du compositeur et des signes encodés de la partition, se rend jusqu’à l’auditeur, par le biais des instruments actionnés par les musiciens.

            Depuis 1876 pourtant — année de l’invention du gramophone d’Edison et du phonographe de Charles Cros — une brèche est apparue dans le paysage musical. Cette brèche, c’est l’enregistrement de la musique sur un médium fixe. La qualité médiocre de celui-ci n’était certes pas de nature à nous permettre de confondre l’original et la copie, mais tout de même, pour la première fois dans l’histoire, les interprètes ne sont plus requis de facon permanente pour l’audition de la musique. Ils ne s’en remettront jamais… (Que l’on songe simplement aux milliers de postes de musiciens qui sont disparus des stations radiophoniques depuis un demi-siècle). Mais l’enregistrement n’est alors, et le restera jusqu’en 1948 (quoiqu’avec quelques notables exceptions, du côté de Cage notamment, mais encore de façon anecdotique), qu’un substitut à la performance réelle, elle n’est que la transcription plus ou moins fidèle d’un art qui existe auparavant et qui ne trouve là que son prolongement naturel. En rien l’enregistrement d’avant 1948 n’est déterminant en tant que nouvelle forme d’expression. Pour paraphraser mon compatriote McLuhan, le médium n’est pas encore le message.

              Que se passe-t-il donc en 1948 ? Pour la première fois dans l’histoire, de façon soutenue et non équivoque, un compositeur (je ne suis pas certain que Schaeffer apprécierait le terme mais puisqu’il a laissé des œuvres, accordons-le lui à titre posthume…) réalise que l’enregistrement sonore, au-delà de ses capacités à reproduire le réel — Schaeffer est alors directeur du studio d’essai de la radio française, responsable de la « sonorisation » des productions dramatiques de la radio —, permet de donner au son le statut de matériau. Il vient de réaliser que la matière sonore n’est plus tributaire des deux éléments qui en faisaient la nature jusqu’à ce jour. Il n’est plus nécessaire de la jouer « pour vrai », elle est donc libérée du temps réel de l’interprète (et j’ajouterais du temps réaliste, puisqu’elle est assujettie aux contraintes physiologiques de l’être humain — limite de la vitesse des notes répétées pour les valeurs courtes, limite de la durée du souffle pour les valeurs longues). Et elle devient un matériau qu’il est loisible de manipuler en temps réel (ou en temps différé lors de l’avènement des premiers travaux avec l’ordinateur), dont on peut faire surgir l’inouï, faire apparaître ce qui n’a jamais été entendu auparavant. Rappelons ici pour mémoire que, si la chose est familière aux oreilles des auditeurs contemporains même les plus incultes, un son entendu à l’envers en 1948 est une découverte extraordinaire, quelque chose qui n’a pu être imaginé avant d’avoir été entendu. L’art musical devient par le fait même un art expérimental, où l’œuvre est le résultat d’approches successives, d’expérimentations diverses, de succès mais de beaucoup d’échecs aussi, de beaucoup de rejets. C’est la navette du peintre, le geste posé sur la bande, le recul, un deuxième geste qui vient corriger le premier, le recul à nouveau et ainsi de suite. Heureusement que les sons eux, contrairement à la toile, ne sèchent pas ! C’est l’infini sonore qui s’ouvre devant les oreilles ahuries de Schaeffer, le vertige le prendra — on en aurait à moins — et il ne s’en remettra pas vraiment (il reniera la pertinence de ce travail à la fin de sa vie). Et la plupart de ses contemporains issus de la musique instrumentale n’y comprendront strictement rien. C’est à ses successeurs qu’il appartiendra de dégager les lignes de force libérées par l’apprenti-sorcier.

            La musique par ordinateur

            Ce qui est remarquable à travers l’ensemble des écrits de Pierre Schaeffer et du Groupe de recherches musicales de Paris (dont le plus grand tort à mon avis est l’unilinguisme français...), c’est qu’il n’y est pratiquement jamais question de lutherie. Ainsi la présence d’un ordinateur dédié pourtant apparue très tôt dans les studios du GRM (d’abord au studio 123 en 1980, et par la création de SYTER au milieu des années quatre-vingts), n’a jamais été privilégiée en tant que telle. Comme toujours dans la démarche associée à la musique concrète (dont le terme renvoie trop souvent exclusivement aux origines de la musique électroacoustique alors que la pertinence même de son sens est encore aujourd’hui d’une actualité profonde pour quiconque tente de définir ce médium), ce qui importe ce n’est pas tant les moyens utilisés, que le résultat sonore qui en découle. Et plus que cela encore, les mécanismes de perception qui sont en jeu et la compréhension qui en résulte. Et pour cela, ils ont créé une méthodologie de classification sonore — la typo-morphologie — et différentes méthodes d’analyse qui ont pour originalité d’avoir toujours eu à la base la même préoccupation : la perception du sonore. D’où l’idée directrice de cet article : la musique est faite pour être entendue. À cela, nous pouvons ajouter : et non pas seulement pour être conçue, pensée.

            Dans le discours ambiant autour des arts médiatiques (les arts de support comme la vidéo, le cinéma, le graphisme par ordinateur, etc.), dont l’électroacoustique est, rappelons-le, le premier représentant sur le plan historique, il se dégage un certain nombre de notions, généralement formulées par des théoriciens des arts visuels qui font parfois preuve d’une méconnaissance complète de l’histoire bientôt cinquantenaire de la musique électroacoustique. On peut se rendre compte par exemple que l’utilisation du mot “virtuel”, qui traverse de part en part tout le champs du discours entourant les « nouvelles technologies », recouvre un concept fondamental des arts médiatiques et que Pierre Schaeffer, avec l’aide de Jérôme Peignot, avait déjà pleinement compris en se réappropriant le terme acousmatique (2) pour définir une musique dont on ne pouvait pas identifier les causes. Et cela dès 1956 ! Certes le mot est différent, mais le concept qu’il recouvre est fondamentalement le même.

              Il est également remarquable de constater que l’histoire récente des arts médiatiques va à l’encontre de celle de la musique électroacoustique. On peut en effet constater que si la musique suit un cheminement qui la libère de l’interprète et lui permet d’être conçue comme un objet fixé (3) définitivement sur un support, les arts visuels suivent le parcours inverse. Des grottes de Lascaux aux dernières toiles de Picasso, la fixation des œuvres picturales sur un support fixe est omniprésente dans l’histoire de l’humanité. C’est donc plutôt à sa libération que les artistes de cette deuxième moitié du vingtième siècle, et les théoriciens qui s’inscrivent dans leur sillage (ou qui, parfois, les précèdent),  vont s’employer. Ainsi, le concept de virtualité apparaît, qui rend l’œuvre intangible, mouvante, impalpable (quoique, ironie du sort, on tente d’y revenir avec des systèmes interactifs à rétroaction de force qui donne à l’utilisateur une sensation physique) qui va même jusqu’à faire disparaître la notion même d’œuvre au profit de processus qui deviennent garants de la démarche artistique.

            Une musique de processus ?

            Si nous avons fait ce bref rappel historique au début de ce texte, c’était pour situer notre propos dans le contexte particulier de la musique concrète, essentiellement basée sur la phénoménologie, donc sur la perception. Et que l’on peut résumer par la question suivante : qu’entendons-nous exactement dans ce qui nous est donné à ouïr ?

            Cependant parallèlement à celle-ci au début des années cinquante, en Allemagne, à Cologne plus précisément, Heibert Eimert en premier et Karlheinz Stockhausen par la suite, définiront une musique qui est construite sur des bases complètement différentes, où il s’agit de construire le musical non pas à partir de la perception — qui représente une notion Tfloue, subjective, donc à proscrire dans le contexte structuraliste de l’après-guerre — mais à partir de la codification et de la détermination des paramètres sonores et du contrôle exact et volontaire de l’ensemble de ceux-ci à toutes les étapes du processus de création. Donc dès les années cinquante, une musique de processus apparaît dans l’édification des premières fondations de la musique électroacoustique.

            Quel est donc l’apport de l’ordinateur dans ce contexte. On pourrait résumer succinctement en disant qu’il est presque négligeable sur le plan des concepts, puisque ceux-ci ont été largement définis dès le départ — autant à Paris qu’à Cologne ; mais pas seulement là : que l’on songe à Xenakis par exemple, ou à Varèse — et que les enjeux mis en branle ont été immédiatement compris par les différents protagonistes (ce qui est remarquable compte tenu de l’aveuglement de leurs prédécesseurs (4)) et que l’ordinateur, apparu au début des années soixante, n’est venu en quelque sorte qu’appuyer une démarche qui existait au préalable. Et sur le plan de la réalisation des œuvres, donc d’un point de vue pratique, il est venu soit peaufiner des outils qui existaient déjà avec la bande magnétique — le montage « virtuel » par exemple, clone du montage réel de la bande magnétique et simple prolongement de celui-ci ; même constat avec l’échantillonneur, simple prolongement du phonogène du GRM — soit ajouter des outils supplémentaires qui s’inscrivent dans la lignée de ceux déjà utilisés au cours des décennies précédentes. Dans le cas de la musique concrète, ces outils s’ajoutent à la panoplie de ceux qui révèlent l’inouï, en permettant de manipuler la matière sonore de sorte d’en faire ressortir des aspects perceptifs insoupçonnables. Dans le cas de la musique de processus, en raffinant les concepts et les niveaux d’interaction qui sont en jeu. Mais essentiellement, il s’agit là de prolongement d’éléments préexistants à l’ordinateur.

            Il semble d’ailleurs qu’il y ait une différence fondamentale entre le monde sonore et le monde des images. Et cela est souligné au crayon rouge dans le livre publié à l’occasion du dixième anniversaire du Prix Ars Electronica en 1996, par l’un des membres du jury de Computer Music de la façon suivante : « To put the matter in its bluntest form, it appears that the more technology is thrown at the problem, the more boring the results. People set out for new timbral horizons, get lost along the way in the writing of the code, the trouble-shooting of the systems, and the funding to make the whole thing possible, then fail to notice that the results do not justify the effort. It is interesting to note that the jury for computer animation found an opposite result : in animation at least, the difference in quality between work done with cutting edge versus commonplace technology is immediatly apparent to even the untrained observer. […] In Computer Music, on the other hand, the merits of the works done with cutting-edge versus commonplace technology are certainly opaque to the uninitiated, and often discernible only to those who have invested time and effort in acquiring expertise in the very same technology » (5). Ce qui est remarquable ici, c’est le constat selon lequel la présence de l’ordinateur en tant qu’outil conceptuel n’a peut-être pas tenu les promesses qu’on lui prédisaient au moment de son apparition. Et il semble, toujours à la lumière du texte cité, que les changements les plus significatifs que l’ordinateur ait apporté en musique électroacoustique soit à rechercher du côté de l’ordinateur personnel — celui que le compositeur peut posséder chez lui — plutôt que des grosses stations institutionnelles.

            Cela peut s’expliquer de bien des manières sans doute, mais si l’on se réfère à l’époque des années soixante-dix où il était pratiquement impossible de travailler convenablement chez soi, la dépendance à l’institution étant la règle générale, celle-ci entraînait une fréquentation des studios de manière très partielle, les temps d’utilisation étant partagés entre plusieurs utilisateurs. Ce qui est sans doute encore le cas aujourd’hui et qui expliquerait que les œuvres qui en résultent soient décevantes. Ce n’est pas tellement une question d’argent — combien coûte une machine par rapport à une autre — que de temps. Combien de temps un compositeur consacre-t-il à la maîtrise de ses instruments ? Combien de temps consacre-t-il à la fabrication de son œuvre ? Il est clair, vu sous cet angle, que les œuvres issues de studios privés, équipés de moyens beaucoup plus modestes — ce qui a comme conséquence de forcer l’imagination —, aient des chances d’être plus intéressantes. Sur le plan historique, l’ordinateur personnel est sans doute l’apport le plus important depuis l’avènement du magnétophone mais pas tellement parce qu’il s’agit d’un ordinateur, mais bien plutôt parce qu’il donne au compositeur la possibilité de travailler son instrument en profondeur, indépendamment des diktats institutionnels.

            Je ne sais comment mes collègues du cinéma par ordinateur ont réagi à ce constat, mais il est clair que la situation du cinéaste indépendant est moins enviable que celle du compositeur indépendant.

            Et l’avenir ?

            Qu’actuellement, l’apport de l’ordinateur du point de vue de l’accroissement des performances de traitement et de manipulation sonore est une chose incontestable, cela va de soi, mais quel sera alors son apport dans les années à venir ? Quel changement en profondeur celui-ci opérera-t-il dans le fonctionnement de la création musicale ? Quelles seront les perspectives que celui-ci ouvrira à la pratique musicale qui n’auraient pas été annoncées milles fois depuis quarante ans ? D’ores et déjà on peut prévoir le temps réel, non seulement sur le plan de la synthèse et de l’interaction  mais également sur celui des traitements très sophistiqués que l’on commence déjà à utiliser en temps différé. Du coté de la musique basée sur des processus, on peut imaginer des systèmes interactifs encore plus performants et fiables que tout ce qui existe aujourd’hui — on a pu en entendre un aperçu par les concepteurs de The Cave au festival Ars Electronica de 1996. (6)

            Au fond, l’avenir est déjà là dans la mesure où les principaux concepts qui découlent de l’avènement de la musique concrète et par conséquent de la musique électroacoustique n’ont pas encore tous été formulés de façon synthétique et de plus, la plupart des compositeurs qui œuvrent dans le domaine ont encore aujourd’hui des habitudes de travail héritées de la pratique de la musique instrumentale, comme cela est d’ailleurs souligné avec justesse par Bob Ostertag dans le même article cité plus haut : « This is even more apparent when one considers that, formally speaking, the large majority of pieces involving computer response to live instrumentalist are simply variations in algorithmic composition ». Je crois que l’on peut même dire avec certitude que l’avènement de l’enregistrement sonore comme donnée fondamentale d’une très profonde remise en question de la pratique musicale correspond encore aujourd’hui à une prise de conscience extrêmement marginale, même et surtout à l’intérieur de l’institution électroacoustique, ce qui s’explique simplement par le fait que celle-ci est toujours tributaire des structures musicales traditionnelles — universités, conservatoires, salles de concerts — toutes héritées du classicisme musical européen. C’est cela fondamentalement qu’il faut réviser de fond en comble. L’ordinateur suivra.

N O T E S

1.         « Lorsqu’en 1948, j’ai proposé le terme de “musique concrète”, j’entendais par cet adjectif, marquer une inversion dans le sens du travail musical. Au lieu de noter des idées musicales par les symboles du solfège, et de confier leur réalisation concrète à des instruments connus, il s’agissait de recueillir le concret sonore, d’où qu’il vienne, et d’en abstraire les valeurs musicales qu’il contenait en puissance. Cette attitude expectative justifiait le choix du terme et marquait l’ouverture à des directions de pensée et d’action fort diverses.» Pierre Schaeffer, Traité des objets musicaux, Seuil, Paris, 1966, p. 23.

2.         Les acousmates sont à l’origine les disciples de Pythagore qui recevaient son enseignement alors que celui-ci le leur dispensait en se camouflant derrière un rideau afin qu’ils ne soient pas distraits par sa présence physique.

3.         Comme l’a si bien défini Michel Chion dans son livre L’art des sons fixés, Éd. Métamkine, Fontaine, 1991.

4.         Relire à cet égard l’étonnant livre de Pierre Schaeefer À la recherche d’une musique concrète paru au Seuil en 1952 qui inclut notamment le Premier journal de la musique concrète, 1948-49, riche de tous les concepts essentiels qui seront développés au cours du demi-siècle qui suivra.

5.         Bob Ostertag, p. 60.

6.         The Cave est une installation visuelle qui fait appel à la réalité virtuelle. Il s'agit actuellement de la réalisation la plus performante jamais présentée en public. Développée à Chicago, il en existe maintenant une version permanente au Ars Electronica Center de Linz, inaugurée en grandes pompes en 1996 à l'occasion du dixième anniversaire du Prix Ars Electronica. Le spectateur, affublé d'une paire de lunettes spéciales, se meut dans un environnement à trois dimensions dans lequel il se déplace à l'aide d'un simple appareil qu'il pointe dans la direction où il désire se rendre. L'effet est saississant de réalisme. Sur le plan sonore, l'équipe de concepteurs travaille à fabriquer un outil qui réagisse excatement de la même manière que le visuel. À partir d'une matrice multi-dimensionnelle, l'auditeur peut fabriquer du sonore en temps réel en étroite relation avec la partie visuelle.