Une petite histoire de l'informatique musicale

Avant d'évoquer les tendances actuelles de l'informatique musicale, rappelons les jalons de son évolution.

1.Fondements historiques

Quels sont les liens qui président à ce mariage incongru, chimérique : ordinateur et Musique? Qu'est ce qui relie un art et une technologie ?

 Nous évoquerons les événements précurseurs, dans l'histoire de la Musique, depuis le Moyen-âge jusqu'au  20ème siècle.

Musique et nombres
On a beaucoup écrit sur les rapports de la musique et des mathématiques. Sur ce sujet, on pourra consulter:

Si les liens entre informatique et musique sont si nombreux, c'est, je pense, dû aux relations qu'entretiennent musique et mathématiques, musique et nombre. On peut remonter à Pythagore (Cf Chailley, Histoire musicale du Moyen-Age, Chap. 2 : “Le pythagorisme et les traditions musicales de la Grèce”, p. 13-24.).Par le truchement du monocorde, Pythagore se rend compte que les intervalles musicaux peuvent être exprimés par des rapports simples de nombres entiers.
"Comme ils (les pythagoriciens) voyaient en outre que des nombres exprimaient les propriétés et les proportions musicales, comme toutes les choses de la nature leur semblaient formées à la ressemblance des nombres et que les nombres leur paraissaient la réalité primordiale de l'univers, ils pensèrent que les principes des nombres étaient les éléments de tous les êtres, que tout est harmonie et nombre." (Aristote, Métaphysique, A5 985b).
Vème,VIèmesiècle : Boèce : De Institutione Musicae.Calcul des intervalles (quinte = 3/2, etc ...), "perfection" du ternaire, mystique du nombre 7 (la gamme ...), l'harmonie des sphères, musica mundana,
 Le quadrivium du Moyen-Age = arithmétique, géométrie, astronomie, musique. La musique enseignée dans le cadre du quadrivium était une science de la musique, une musique spéculative, ce que l'on appelerait aujourd'hui théorie musicale, une science des proportions, de l'harmonie. On utilisait le mot "cantus" et non "musica" pour parler de la pratique. ca 1240 : Jean De Garlande : De Mensurabili musica : "Musica est scientia de numero relato ad sonus".
1558 : Zarlino, Istituzioni harmoniche, Venezia, : "Tout ce que Dieu a créé, il l'a mis en ordre par le Nombre; mieux, le Nombre est à l'origine de tout dans l'esprit du Créateur."
1619 : Kepler : WeltHarmonik.
1636-1637:  Mersenne : Harmonie universelle.
1650 : Descartes : Compendium Musicae.
1712 : Leibniz : La musique, un calcul inconscient "exercitium arithmeticae occultum nescientis se numerare animi" (Epistolae ad diversos).
1722 : Rameau : "la musique est une science qui doit avoir des règles certaines; ces règles doivent être tirées d'un principe évident, et ce principe ne peut guère nous être connu sans le secours des mathématiques." Traité de l'harmonie réduite à son principe naturel
"la musique est une science physico-mathématique. Le son en est l'objet physique et les rapports trouvés entre les différents sons en font l'objet mathématique."
1739 : Euler, L. : Essai d'une nouvelle théorie de la musique.

 "Une grande tradition presque ininterrompue qui nous ménera de Pythagore à Rameau, à travers Aristote et Aristoxène"( J.Chailley op.cit., p.18).

Les musiciens du XIXème siècle trouvent leurs sources d'inspiration plus souvent dans la littérature que dans la science ...

 Au XXème : résurgence de l'idée d'Art-science : Varèse, Xenakis (filiation Le Corbusier).
En fin de compte, l'ordinateur concrétise d'une certaine manière les relations millénaires de la musique et des mathématiques. C'est ce qu'exprime ainsi Celestin Deliège :
"Il peut etre difficilement douteux, aujourd'hui, que le nombre ne soit pas l'expression abstraite de la totalite du naturel. Cette realite est sortie du domaine metaphysique depuis que l'ordinateur, et les conversions graphiques et sonores qu'il produit, nous l'enseigne quotidiennement." (C.Deliege : De Vienne A Francfort, in InHarmoniques n.1, p. 31-32) 

Machines à composer de la musique

Au 17ème siècle, machines à composer de la musique du père Athanasius Kircher.
1634 : Machine de Pascal.
Au 18ème, des "jeux musicaux" permettant de composer de petits morceaux gràce à des dés. Certains de ces jeux sont attribués à Mozart, Carl Philip Emanuel Bach, Haydn) : des machines théoriques ...
Mozart : Musikalisches Würfelspieles.
Cf Leonard G.RATNER : Ars Combinatoria, chance and choice in 18th century Music.
Charles Babbage (mathématicien anglais - 1792-1871) machines à différences (1811) machine analytique (1833 ou 1840). 

1791 : le baron Von Kempelen construit une machine parlante composée d'un soufflet, d'une bouche dont la variation de volume était contrôlée par la main gauche pour l'émission des voyelles, de narines et de sifflets actionnés par des leviers à la main droite pour l'émission des consonnes. Cette machine pouvait produire une vingtaine de sons différents. Le baron en jouait en virtuose.

le vingtième siècle

C'est l'époque de la "fée électricité", le siècle des machines. La musique du 20ème siècle se veut contemporaine, elle se réclame de son époque, elle va donc faire un usage de ces nouvelles technologies. Cela dès le début du siècle, voir Marinetti et les futuristes, par exemple. Edgar Varèse, parmi les plus visionnaires, disait en 1939 : "les avantages que je prévoit sont ceux-ci : une machine semblable nous libérerait du système arbitraire et paralysant de l'octave; elle permettrait l'obtention d'un nombre illimité de fréquences, (...) une étendue insoupçonnée de registres, de nouvelles splendeurs harmoniques (...); des sons combinés, des différenciations de timbre, des intensités inhabituelles au-delà de tout ce que peuvent accomplir nos orchestres; une projection du son dans l'espace par son émission dans l'une ou l'autre partie d'une salle de concert, selon les besoins de l'œuvre; des rythmes qui s'entrecroiseraient indépendamment les uns des autres, simultanément en contrepoint (... puisque) cette invention pourrait jouer toutes les notes voulues (...) tel qu'il est maintenant humainement impossible de le faire."

Les premiers instruments électriques : telharmonium, ondes Martenot
1938 : John Cage invente le piano préparé
1939 : John Cage : "Imaginary landscape n°1", première œuvre pour instruments électroniques
1949-50 : Schaeffer et Henry : "Symphonie pour un homme seul" dans les studios de la Radiodiffusion Française : Musique concrète.
Musique Electronique dans les studios de la Norddeutscher Rundfunk (Cologne)
1954 : Varèse : "Déserts"
1955 ; Stockhausen : "Chant des Adolescents"
1958 : Varèse : "Poème électronique" pour le Pavillon Philips (Le Corbusier) de l'exposition universelle de Bruxelles.
1959-60 : Stockhausen : "Kontakte" pour piano, percussion et bande magnétique.

 

2.Emergence de l'informatique musicale

1950 Naissance de l'informatique musicale

Naissance des ordinateurs
1948 : Shannon

1949 ordinateur EDSAC (Cf chronologie).

 Théorie de l'information (Abraham Moles : théorie de l'information et perception esthétique).

Premières expériences dans les différentes catégories de l'informatique musicale.

Historiquement, la musique a été une des premières disciplines artistiques à être concernée par l'informatique, dès les années 1950. (seulement 7 ans entre le premier ordinateur cf ci-dessus et la première Ïuvre par ordinateur).

Les autres arts : littérature : quelques essais autour de l'OULIPO.
arts graphiques: Synthèse d'images, animation par ordinateur, réalité virtuelle : un domaine en pleine expansion, car il est bien vrai que nous vivons actuellement sous le règne de l'image. Il a demarré plus tard, car le traitement des images demande plus de puissance que celui du son, mais étant donné les débouchés commerciaux, c'est ce domaine qui est le plus à la pointe.

 Opposition ordinateur/musique = machine/art = inhumain/humain; notre siècle vit cette contradiction. Cf le futurisme, "Déserts", techno ...
 

L'époque experimentale, les pionniers
1956 : Lejaren HILLER : Suite ILLIAC Règles d'après le contrepoint Palestrina, (Cf Olsen).

 Premiers instruments électroniques :

 1957 : 1ère synthèse par ordinateur : Max MATHEWS, premier de la série des compilateurs acoustiques MusicN (Cf Chronologie). Concept d'instrument / partition.

 1960 : synthétiseurs Buchla, Moog.

 1968 : Système hybride : GROOVE.

 1976 : Systèmes temps réel : 4A, Syter.

 1981: 4X.

 1982 : Norme MIDI.

COMPOSITEUR Partition INTERPRETE - Instrument Son AUDITEUR
18ème : machines à composer Martenot 1957 Mathews - Music
Composition Automatique MOOG Synthèse
CAO Edition Musicale GROOVE Psychoacoustique
MIDI

3.Diffusion de l'informatique musicale (de 1983 à aujourd'hui)

En 1983, le temps des pionniers de l'informatique musicale est révolu. L'informatique musicale ou musique par ordinateur (Computer Music), dont on peut dater la naissance aux alentours des années 1950, est alors arrivée à un âge mûr. Elle est tellement "entrée dans les moeurs", que c'est devenu une composante importante de la création musicale contemporaine, et non plus un secteur experiemental. Même des compositeurs qui n'utilisent pas directement cette technologie, se servent de concepts qui en sont tirés. Elle n'est plus cantonnée à quelques instituts de recherche mais touche le grand public. De plus, l'ordinateur a envahi toutes les pratiques musicales :  il est compositeur, partition, instrument, interprète,...

On n'est plus au temps des pionniers, des expérimentateurs. Dès 1980, on assiste à une véritable "saturation" du domaine; tous les domaines possibles ont été explorés, mais non épuisés.

D'autre part, la puissance atteinte alors par les ordinateurs, rend facile des choses qui nécessitaient auparavant des moyens importants. Il y a aussi une explosion des moyens disponibles. Chacun peut expérimenter.

 "L'historien Oswald Spengler distingue deux phases dans le développement d'un mouvement social : la phase culturelle, au cours de laquelle mûrissent les idées maîtresses et la phase de civilisation, qui les légalise et les propage" (R.Muray SCHAFER : Le paysage sonore, Paris, J.C.Lattès, 1979, p. 115; Cf O. SPENGLER : Le déclin de l'occident, trad. M. Tazerout, Gallimard, 1948).
"En 1924, Pound écrivait : "Je présume que la musique est l'art le mieux fait pour exprimer les meilleures qualités de la machine. La machine fait aujourd'hui partie de notre vie, il est bon que les hommes éprouvent des sentiments envers elle. L'art serait bien faible s'il ne pouvait traiter ce nouveau contenu." (Ezra POUND : Georges Antheil, trad. Michel Beaujour, Les cahiers de l'Herne 2, p. 622)"(R.M.Schafer op.cit., p.161).

3.1.Les années 80 : dissémination et industrialisation

 

1.Composition
2.Synthèse
3.Interprétation
4.Autres
Les premiers pas de l'informatique musicale, qui datent des années 1950, sont déjà historiques. La décennie 1980-1990 correspond, dans le domaine de l'histoire de l'informatique, à celle de la quatrième génération (VLSI). La cinquième génération est celle des calculateurs spécialisés dans l'intelligence artificielle, les systèmes experts, les réseaux neuronaux. On peut rappeler les précédentes générations: -1945: première génération, machine de Von Neumann, séquentielle, à tubes. -1948: seconde génération, transistors. -1960-1970: troisième génération, circuits intégrés (SSI, 68000, ...)..
 1. La composition et l'ordinateur
Les premières expériences (Hiller, Xenakis, ...) de composition automatique par ordinateur essayaient de lui faire jouer le rôle du compositeur, tendant à le remplacer. La procédure était la suivante: on fournissait à la machine des règles de composition (comme par exemple les règles du contrepoint rigoureux dans le cas de la Suite Illiac), ensuite la machine produisait une partition (sous forme généralement codée) en respectant ces règles.
Cette direction de recherche est plutôt abandonnée, au profit de ce que l'on appelera "C.A.O." (Composition Assistée par Ordinateur). On parle bien, dans le domaine industriel, de "conception assistée par ordinateur" (CAO), "publication assistée par ordinateur" (PAO).
On s'est en effet rendu compte qu'une machine ne pouvait produire des compositions musicalement intéressantes, elle ne peut remplacer l'activité humaine dans ce domaine. Et il semble souhaitable et normal que le rôle de la machine soit plus d'assister que de se substituer au créateur.
Un système de composition assistée par ordinateur peut par exemple servir à générer des structures mélodiques, rythmiques, harmoniques, ou autres, à partir de systèmes créés par le compositeur. Le calcul de ces structures peut être très complexe, et c'est, en général, une tâche assez rébarbative à effectuer "à la main" (et parfois même impossible). L'ordinateur génère donc un matériau sur lequel le compositeur conserve son libre-arbitre puisque il peut choisir de l'utiliser ou non, de le modifier...
On peut citer comme exemple de système d'"aide à la composition", le programme Esquisses.
De nombreux compositeurs de l'ecole spectrale utilisent alors de façon assez courante de tels systèmes. Parmi eux, on peut citer, par exemple, Tristan Murail (cf Désintégrations) ou Magnus Lindberg.

 2. La synthèse sonore par ordinateur
Les premiers modèles de synthèse directe (Max Mathews) étaient généraux, mais (parce que généraux) très difficiles à utiliser pour obtenir un résultat musical. Dans les années 80, on trouve de nouvelles approches de la synthèse numériques: parmi elles, on peut citer la synthèse par règle et la synthèse par modèles physiques.
Cette dernière s'inspire des modèles physiques offerts par les instruments de musique ou la voix. On modélise ces instruments par une équation mathématique, en général très complexe, dont les variables sont les caractéristiques physiques de l'instruments et le résultat la vibration sonore produite par l'instrument.
La synthèse par règles tente de découvrir des régles dans le comportement acoustique des sons musicaux afin de créer un modèle de synthèse qui respecte ces règles.
On peut citer comme exemple de nouveau système de synthèse le programme Chant (X.Rodet, IRCAM). Un des meilleurs modèles est la voix humaine, parce que ,déjà au départ, c'est un instrument très général (on peut imiter presque n'importe quel instrument avec, et, de plus, on peut moduler, plus qu'avec n'importe quel autre instrument de musique, librement à la fois la hauteur et le timbre). Le programme Chant imite le fonctionnement de la voix humaine en dissociant excitateur (les cordes vocales) et résonateur (conduit bucco-pharyngé). On sait qu'une grande proportion des instruments de musique fonctionnent selon ce modèle (on peut dissocier excitateur et résonateur). De plus, Chant utilise un système de règles déduites de l'analyse du contenu acoustique de voix de bel canto.

 3. L'interprétation musicale et l'ordinateur
De plus en plus, on souhaite utiliser l'ordinateur sur scène, en situation de concert (et non plus dans les laboratoires).
Les ordinateurs sont de plus en plus rapides, performants. On cherche à atteindre ce que l'on nomme le "temps réel". Cette expression signifie simplement qu'entre l'instant où l'on sollicite la machine et l'instant où elle répond, il s'écoule un temps inférieur au seuil de perception humain. L'intérêt est que, ainsi, l'ordinateur devient comparable à l'instrument de musique au sens traditionnel. Cela nécessite néanmoins, encore aujourd'hui, une technologie coûteuse.
"(...)le développement des systèmes en temps réel va dans le sens toujours plus net de la simulation des habitudes et des conditions que connaissent les musiciens en situation de concert" (P.Manoury)
Tout se passe comme si, après la "mutation" de 1948 (le remplacement de l'interprète par une bande magnétique au cours du premier concert de musique concrète), les technologies nouvelles, qui en étaient la cause, étaient poussées par musiciens et scientifiques vers une direction plus traditionnelle, qui réintégrerait les pratiques classiques du concert et de l'interprétation.
Dans ce domaine, il faut citer Répons de P.Boulez, dont la première version date de 1981. Fixons quelques autres points de repère:
1981: G.Di Giugno réalise à l'IRCAM le processeur 4X. C'est un processeur spécialisé dans le traitement du signal, très rapide et qui permet la synthèse numérique en temps-réel.
1984: Premières recherches sur l'interaction flûte-4X (IRCAM-L.Beauregard).
1985: Piano MIDI (Forte Music).
1989: UPIC-Temps réel (CEMAMU).

 4.1. Les systèmes personnels
A l'opposé de ces technologies coûteuses, le musicien peut avoir plus facilement accès à ce qu'on appelle les "systèmes personnels": micro-ordinateurs, synthétiseurs MIDI. Il peut disposer, chez lui, assez facilement, d'un petit studio d'informatique musicale.
Les appareils électroniques sont non seulement de plus en plus rapides mais aussi de plus en plus miniaturisés et de moins en moins coûteux.
De nombreux logiciels fonctionnant sur des micro-ordinateurs permettent de faire de l'édition de partition, par exemple.
De plus, par l'intermédiaire des réseaux de communication, en plein développement (Cf Numéris), il peut avoir accès à des banques de données, ou communiquer très facilement avec d'autres utilisateurs, ou un centre puissamment équipé.
Encore quelques points de repère:
1981: Premier échantillonneur numérique commercial (Emulator, E-Mu).
Ordinateur IBM-PC.
1982: Norme MIDI, qui permet à des synthétiseurs de communiquer entre eux et avec des ordinateurs.
1983: Synthétiseurs FM commerciaux (DX7, Yamaha).
Ordinateur Macintosh (Apple).

 4.2. Autres domaines actuels de l'informatique musicale
a)Traitement du signal, développement de processeurs spécialisés ("Hardware").

 b)Spatialisation
On peut citer, à ce sujet, les recherches de John Chowning, et sa pièce Phôné (1980-81, CCRMA, University of Stanford).

 c)Psychoacoustique
De nombreux chercheurs et équipes se penchent, avec l'aide de l'ordinateur, aux difficiles problèmes liés à la perception du timbre musical.
Exemple: les travaux de MacAdams sur la perception du timbre (IRCAM, 1982).

 d)Musique et intelligence artificielle
L'objet de l'intelligence artificielle est d'étudier et de reproduire à l'aide d'ordinateurs une partie des comportements humains: la musique, par les processus cognitifs très complexes qu'elle met en jeu, est un domaine privilégié de recherche pour l'intelligence artificielle. On peut se reporter, par exemple, aux travaux de Marvin Minsky (MIT).
On assiste au développement de langages destinés à l'Intelligence artificielle (LISP, PROLOG), ainsi que de machines spécialisées.
L'ordinateur se modèle de plus en plus sur l'humain: certaines machines s'inspirent de la structure du cerveau (réseaux neuronaux). L'enjeu n'est certainement pas de copier ou de remplacer l'humain, mais d'essayer de le comprendre mieux: "Comprendre la compréhension" (L'expression est de M.Minsky).

 Une des tendances de l'informatique des années 80, est d'offrir de plus en plus de facilités d'accès pour l'utilisateur non-informaticien (par exemple le musicien). Ceci grâce à, par exemple, des écrans graphiques (et non plus simplement alpha-numériques), des "souris", etc. Mais aussi, grâce au développement des "langages-objets", qui sont des langages informatiques où l'on construit des objets actifs, qui se passent des messages (exemples: LISP, et plus particulièrement destinés à des applications musicales: Formes, Midi-Lisp). On peut citer également le programme MAX, destiné à des applications musicales et qui est un langage de programmation utilisable en temps réel. MAX est à la fois graphique (l'utilisateur manipule des boites, qu'il relie par des fils, Cf illustration) et langage-objet.

 Conclusion
Nous avons vu l'expansion des possibilités de l'informatique musicale au cours des années 80. On peut se demander si, parmi tous ces domaines relativement diversifiés (composition, synthèse, interprétation, systèmes personnels et autres), on peut trouver une direction commune, une quelconque convergence. Le point commun semble t'il, est l'humanisation de la machine. Les premières tentatives tendaient à remplacer l'être humain par la machine (Cf la composition automatique), mais désormais, si l'on prend modèle sur l'humain pour bâtir des machines informatiques, ce n'est pas afin de le supplanter, mais afin de le comprendre mieux (voir la synthèse vocale, la psychoacoustique ou les recherches sur l'intelligence artificielle) ou de l'assister (programmes d'aide à la composition). On retrouve cette volonté d'humanisation dans les systèmes en temps réel puisqu'il permettent, comme on l'a vu rapidement, de réinstaurer le rapport humain entre musicien vivant et public, plutôt qu'entre bande magnétique figée et public. 

3.2.Les années 90 : standardisation

Multimedia

Des environnements de travail (aussi bien matériels que logiciels) permettent une intégration de plus en plus serrée et de plus en plus facile entre l'image animée et le son, ce qui offre aux créateurs de nouvelles possibilités d'expression. De plus en plus d'Ïuvres mettent en jeu des composantes extra-musicales (projections vidéo, interactions image-musique selon diverses modalités). Une forme d'expression typique de cette époque : l'installation multimedia. (Cf Gem, Nato)

Systèmes personnels

Les ordinateurs deviennent de plus en plus "grand public", ils possèdent une entrée sortie audio intégrés. Les ordinateurs portables ("laptops"), deviennent des véritables "instruments de musique", que l'on peut emmener facilement avec soi. Le son numérique est divulgué d'une façon extrêmement importante : quasiment tout le son enregistré, reproduit et transmis aujourd'hui l'est sous forme numérique.

Synthèse sonore

On développe de plus en plus de systèmes de synthèse par modèles physiques. Ces méthodes trouvent des applications grand public (Cf, par ex., Yamaha VL7, VL1).

Le logiciel remplace le materiel.

Réseau

Le développement d'internet marque très profondément cette période. Les retombées dans le domaine de l'informatique musicale sont nombreuses : nouvelles techniques de compression, format MP3, streaming audio, ...

Les standards actuels de l'informatique musicale

A un point de vue strictement technologique, étant donné que cette période est plus une période de divulgation, de large diffusion, des expérimentations des décennies précédentes, elle se caractérise par l'établissement de standards qui permettent une meilleure communication d'un système à l'autre.Après l'ère des pionniers puis la période de diffusion, ces dernières années ont vu l'informatique musicale passer au stade de l'industrialisation.

La norme MIDI n'est pas remplacée. (1988) .mid

OSC
Fichiers sons AIFF et WAV.
SDIF.
Représentations musicales. musicXML, guido

mpeg son compressé .mp3

SDIF description du son .sdif

mpeg4 multimedia

VST, Audio Units , plugins

Soundfonts format de banques d'instruments échantillonnés développé par E-Mu (Creative Labs) au milieu des années 90

www.soundFonts.com

1998 SoundFonts version2.1