Nous évoquerons les événements précurseurs, dans l'histoire de la Musique, depuis le Moyen-âge jusqu'au 20ème siècle.
Si les liens entre informatique et musique sont si nombreux, c'est, je
pense, dû aux relations qu'entretiennent musique et mathématiques,
musique et nombre.
On peut remonter à Pythagore (Cf Chailley, Histoire
musicale du Moyen-Age, Chap. 2 : “Le pythagorisme et les traditions
musicales de la Grèce”, p. 13-24.).Par le truchement du monocorde, Pythagore se rend compte que les intervalles
musicaux peuvent être exprimés par des rapports simples de
nombres entiers.
"Comme ils (les pythagoriciens) voyaient en outre que des nombres exprimaient
les propriétés et les proportions musicales, comme toutes
les choses de la nature leur semblaient formées à la ressemblance
des nombres et que les nombres leur paraissaient la réalité
primordiale de l'univers, ils pensèrent que les principes des nombres
étaient les éléments de tous les êtres, que
tout est harmonie et nombre." (Aristote, Métaphysique, A5
985b).
Vème,VIèmesiècle : Boèce
: De Institutione Musicae.Calcul des intervalles (quinte = 3/2,
etc ...), "perfection" du ternaire, mystique du nombre 7 (la gamme ...),
l'harmonie des sphères, musica mundana,
Le quadrivium du Moyen-Age = arithmétique, géométrie,
astronomie, musique. La musique enseignée dans le cadre du quadrivium
était une science de la musique, une musique spéculative,
ce que l'on appelerait aujourd'hui théorie musicale, une science
des proportions, de l'harmonie. On utilisait le mot "cantus" et non "musica" pour parler de la pratique.
ca 1240 : Jean De Garlande : De Mensurabili musica : "Musica
est scientia de numero relato ad sonus".
1558 : Zarlino, Istituzioni harmoniche, Venezia, : "Tout ce
que Dieu a créé, il l'a mis en ordre par le Nombre; mieux,
le Nombre est à l'origine de tout dans l'esprit du Créateur."
1619 : Kepler : WeltHarmonik.
1636-1637: Mersenne : Harmonie universelle.
1650 : Descartes : Compendium Musicae.
1712 : Leibniz : La musique, un calcul inconscient "exercitium arithmeticae
occultum nescientis se numerare animi" (Epistolae ad diversos).
1722 : Rameau : "la musique est une science qui doit avoir des règles
certaines; ces règles doivent être tirées d'un principe
évident, et ce principe ne peut guère nous être connu
sans le secours des mathématiques." Traité de l'harmonie
réduite à son principe naturel
"la musique est une science physico-mathématique. Le son en
est l'objet physique et les rapports trouvés entre les différents
sons en font l'objet mathématique."
1739 : Euler, L. : Essai d'une nouvelle théorie de la musique.
"Une grande tradition presque ininterrompue qui nous ménera de Pythagore à Rameau, à travers Aristote et Aristoxène"( J.Chailley op.cit., p.18).
Les musiciens du XIXème siècle trouvent leurs sources d'inspiration plus souvent dans la littérature que dans la science ...
Au XXème : résurgence de l'idée d'Art-science
: Varèse, Xenakis (filiation Le Corbusier).
En fin de compte, l'ordinateur concrétise d'une certaine manière
les relations millénaires de la musique et des mathématiques.
C'est ce qu'exprime ainsi Celestin Deliège :
"Il peut etre difficilement douteux, aujourd'hui, que le nombre ne
soit pas l'expression abstraite de la totalite du naturel. Cette realite
est sortie du domaine metaphysique depuis que l'ordinateur, et les conversions
graphiques et sonores qu'il produit, nous l'enseigne quotidiennement."
(C.Deliege : De Vienne A Francfort, in InHarmoniques n.1, p. 31-32)
Au 17ème siècle, machines à composer de
la musique du père Athanasius Kircher.
1634 : Machine de Pascal.
Au 18ème, des "jeux musicaux" permettant de composer
de petits morceaux gràce à des dés. Certains de ces
jeux sont attribués à Mozart, Carl Philip Emanuel Bach, Haydn)
: des machines théoriques ...
Mozart : Musikalisches Würfelspieles.
Cf Leonard G.RATNER : Ars Combinatoria, chance and choice in
18th century Music.
Charles Babbage (mathématicien anglais - 1792-1871) machines
à différences (1811) machine analytique (1833 ou 1840).
1791 : le baron Von Kempelen construit une machine parlante composée d'un soufflet, d'une bouche dont la variation de volume était contrôlée par la main gauche pour l'émission des voyelles, de narines et de sifflets actionnés par des leviers à la main droite pour l'émission des consonnes. Cette machine pouvait produire une vingtaine de sons différents. Le baron en jouait en virtuose.
C'est l'époque de la "fée électricité", le siècle des machines. La musique du 20ème siècle se veut contemporaine, elle se réclame de son époque, elle va donc faire un usage de ces nouvelles technologies. Cela dès le début du siècle, voir Marinetti et les futuristes, par exemple. Edgar Varèse, parmi les plus visionnaires, disait en 1939 : "les avantages que je prévoit sont ceux-ci : une machine semblable nous libérerait du système arbitraire et paralysant de l'octave; elle permettrait l'obtention d'un nombre illimité de fréquences, (...) une étendue insoupçonnée de registres, de nouvelles splendeurs harmoniques (...); des sons combinés, des différenciations de timbre, des intensités inhabituelles au-delà de tout ce que peuvent accomplir nos orchestres; une projection du son dans l'espace par son émission dans l'une ou l'autre partie d'une salle de concert, selon les besoins de l'œuvre; des rythmes qui s'entrecroiseraient indépendamment les uns des autres, simultanément en contrepoint (... puisque) cette invention pourrait jouer toutes les notes voulues (...) tel qu'il est maintenant humainement impossible de le faire."
Les premiers instruments électriques : telharmonium, ondes Martenot
1938 : John Cage invente le piano préparé
1939 : John Cage : "Imaginary landscape n°1", première œuvre pour instruments électroniques
1949-50 : Schaeffer et Henry : "Symphonie pour un homme seul" dans les studios de la Radiodiffusion Française : Musique concrète.
Musique Electronique dans les studios de la Norddeutscher Rundfunk (Cologne)
1954 : Varèse : "Déserts"
1955 ; Stockhausen : "Chant des Adolescents"
1958 : Varèse : "Poème électronique" pour le Pavillon Philips (Le Corbusier) de l'exposition universelle de Bruxelles.
1959-60 : Stockhausen : "Kontakte" pour piano, percussion et bande magnétique.
Naissance des ordinateurs
1948 : Shannon
1949 ordinateur EDSAC (Cf chronologie).
Théorie de l'information (Abraham Moles : théorie de l'information et perception esthétique).
Premières expériences dans les différentes catégories de l'informatique musicale.
Historiquement, la musique a été une des premières disciplines artistiques à être concernée par l'informatique, dès les années 1950. (seulement 7 ans entre le premier ordinateur cf ci-dessus et la première Ïuvre par ordinateur).
Les autres arts : littérature : quelques essais autour
de l'OULIPO.
arts graphiques: Synthèse d'images, animation par ordinateur,
réalité virtuelle : un domaine en pleine expansion, car il
est bien vrai que nous vivons actuellement sous le règne de l'image.
Il a demarré plus tard, car le traitement des images demande plus
de puissance que celui du son, mais étant donné les débouchés
commerciaux, c'est ce domaine qui est le plus à la pointe.
Opposition ordinateur/musique = machine/art = inhumain/humain;
notre siècle vit cette contradiction. Cf le futurisme, "Déserts",
techno ...
Premiers instruments électroniques :
1957 : 1ère synthèse par ordinateur : Max MATHEWS, premier de la série des compilateurs acoustiques MusicN (Cf Chronologie). Concept d'instrument / partition.
1960 : synthétiseurs Buchla, Moog.
1968 : Système hybride : GROOVE.
1976 : Systèmes temps réel : 4A, Syter.
1981: 4X.
1982 : Norme MIDI.
COMPOSITEUR | Partition | INTERPRETE - Instrument | Son | AUDITEUR |
18ème : machines à composer | Martenot | 1957 Mathews - Music | ||
Composition Automatique | MOOG | Synthèse | ||
CAO | Edition Musicale | GROOVE | Psychoacoustique | |
MIDI |
En 1983, le temps des pionniers de l'informatique musicale est révolu. L'informatique musicale ou musique par ordinateur (Computer Music), dont on peut dater la naissance aux alentours des années 1950, est alors arrivée à un âge mûr. Elle est tellement "entrée dans les moeurs", que c'est devenu une composante importante de la création musicale contemporaine, et non plus un secteur experiemental. Même des compositeurs qui n'utilisent pas directement cette technologie, se servent de concepts qui en sont tirés. Elle n'est plus cantonnée à quelques instituts de recherche mais touche le grand public. De plus, l'ordinateur a envahi toutes les pratiques musicales : il est compositeur, partition, instrument, interprète,...
On n'est plus au temps des pionniers, des expérimentateurs. Dès 1980, on assiste à une véritable "saturation" du domaine; tous les domaines possibles ont été explorés, mais non épuisés.
D'autre part, la puissance atteinte alors par les ordinateurs, rend facile des choses qui nécessitaient auparavant des moyens importants. Il y a aussi une explosion des moyens disponibles. Chacun peut expérimenter.
"L'historien Oswald Spengler distingue deux phases dans le développement
d'un mouvement social : la phase culturelle, au cours de laquelle mûrissent
les idées maîtresses et la phase de civilisation, qui les
légalise et les propage" (R.Muray SCHAFER : Le paysage sonore,
Paris, J.C.Lattès, 1979, p. 115; Cf O. SPENGLER : Le déclin
de l'occident, trad. M. Tazerout, Gallimard, 1948).
"En 1924, Pound écrivait : "Je présume que la musique
est l'art le mieux fait pour exprimer les meilleures qualités de
la machine. La machine fait aujourd'hui partie de notre vie, il est bon
que les hommes éprouvent des sentiments envers elle. L'art serait
bien faible s'il ne pouvait traiter ce nouveau contenu." (Ezra POUND : Georges
Antheil, trad. Michel Beaujour, Les cahiers de l'Herne 2, p. 622)"(R.M.Schafer
op.cit., p.161).
1.Composition
2.Synthèse
3.Interprétation
4.Autres
Les premiers pas de l'informatique musicale, qui datent des années
1950, sont déjà historiques. La décennie 1980-1990 correspond, dans le domaine de l'histoire de l'informatique,
à celle de la quatrième génération (VLSI).
La cinquième génération
est celle des calculateurs spécialisés dans l'intelligence artificielle,
les systèmes experts, les réseaux neuronaux. On peut rappeler
les précédentes générations: -1945: première
génération, machine de Von Neumann, séquentielle,
à tubes. -1948: seconde génération, transistors. -1960-1970:
troisième génération, circuits intégrés
(SSI, 68000, ...)..
1. La composition et l'ordinateur
Les premières expériences (Hiller, Xenakis, ...) de composition
automatique par ordinateur essayaient de lui faire jouer le rôle
du compositeur, tendant à le remplacer. La procédure était
la suivante: on fournissait à la machine des règles de composition
(comme par exemple les règles du contrepoint rigoureux dans le cas
de la Suite Illiac), ensuite la machine produisait une partition
(sous forme généralement codée) en respectant ces
règles.
Cette direction de
recherche est plutôt abandonnée, au profit de ce que l'on appelera "C.A.O." (Composition
Assistée par Ordinateur). On parle bien, dans le domaine industriel,
de "conception assistée par ordinateur" (CAO), "publication assistée
par ordinateur" (PAO).
On s'est en effet rendu compte qu'une machine ne pouvait produire des
compositions musicalement intéressantes, elle ne peut remplacer
l'activité humaine dans ce domaine. Et il semble souhaitable et
normal que le rôle de la machine soit plus d'assister que de se substituer
au créateur.
Un système de composition assistée par ordinateur peut
par exemple servir à générer des structures mélodiques,
rythmiques, harmoniques, ou autres, à partir de systèmes
créés par le compositeur. Le calcul de ces structures peut
être très complexe, et c'est, en général, une
tâche assez rébarbative à effectuer "à la main"
(et parfois même impossible). L'ordinateur génère donc
un matériau sur lequel le compositeur conserve son libre-arbitre
puisque il peut choisir de l'utiliser ou non, de le modifier...
On peut citer comme exemple de système d'"aide à la composition",
le programme Esquisses.
De nombreux compositeurs de l'ecole spectrale utilisent alors de façon assez courante de
tels systèmes. Parmi eux, on peut citer, par exemple, Tristan Murail
(cf Désintégrations) ou Magnus Lindberg.
2. La synthèse sonore par ordinateur
Les premiers modèles de synthèse directe (Max Mathews)
étaient généraux, mais (parce que généraux)
très difficiles à utiliser pour obtenir un résultat
musical. Dans les années 80, on trouve de nouvelles approches de la synthèse
numériques: parmi elles, on peut citer la synthèse par règle
et la synthèse par modèles physiques.
Cette dernière s'inspire des modèles physiques offerts
par les instruments de musique ou la voix. On modélise ces instruments
par une équation mathématique, en général très
complexe, dont les variables sont les caractéristiques physiques
de l'instruments et le résultat la vibration sonore produite par
l'instrument.
La synthèse par règles tente de découvrir des
régles dans le comportement acoustique des sons musicaux afin de
créer un modèle de synthèse qui respecte ces règles.
On peut citer comme exemple de nouveau système de synthèse
le programme Chant (X.Rodet, IRCAM). Un des meilleurs modèles
est la voix humaine, parce que ,déjà au départ, c'est
un instrument très général (on peut imiter presque
n'importe quel instrument avec, et, de plus, on peut moduler, plus qu'avec
n'importe quel autre instrument de musique, librement à la fois
la hauteur et le timbre). Le programme Chant imite le fonctionnement
de la voix humaine en dissociant excitateur (les cordes vocales) et résonateur
(conduit bucco-pharyngé). On sait qu'une grande proportion des instruments
de musique fonctionnent selon ce modèle (on peut dissocier excitateur
et résonateur). De plus, Chant utilise un système
de règles déduites de l'analyse du contenu acoustique de
voix de bel canto.
3. L'interprétation musicale et l'ordinateur
De plus en plus, on souhaite utiliser l'ordinateur sur scène,
en situation de concert (et non plus dans les laboratoires).
Les ordinateurs sont de plus en plus rapides, performants. On cherche
à atteindre ce que l'on nomme le "temps réel". Cette expression
signifie simplement qu'entre l'instant où l'on sollicite la machine
et l'instant où elle répond, il s'écoule un temps
inférieur au seuil de perception humain. L'intérêt
est que, ainsi, l'ordinateur devient comparable à l'instrument de
musique au sens traditionnel. Cela nécessite néanmoins, encore
aujourd'hui, une technologie coûteuse.
"(...)le développement des systèmes en temps réel
va dans le sens toujours plus net de la simulation des habitudes et des
conditions que connaissent les musiciens en situation de concert" (P.Manoury)
Tout se passe comme si, après la "mutation" de 1948 (le remplacement
de l'interprète par une bande magnétique au cours du premier
concert de musique concrète), les technologies nouvelles, qui en
étaient la cause, étaient poussées par musiciens et
scientifiques vers une direction plus traditionnelle, qui réintégrerait
les pratiques classiques du concert et de l'interprétation.
Dans ce domaine, il faut citer Répons de P.Boulez, dont
la première version date de 1981. Fixons quelques autres points
de repère:
1981: G.Di Giugno réalise à l'IRCAM le processeur 4X.
C'est un processeur spécialisé dans le traitement du signal,
très rapide et qui permet la synthèse numérique en
temps-réel.
1984: Premières recherches sur l'interaction flûte-4X
(IRCAM-L.Beauregard).
1985: Piano MIDI (Forte Music).
1989: UPIC-Temps réel (CEMAMU).
4.1. Les systèmes personnels
A l'opposé de ces technologies coûteuses,
le musicien peut avoir plus facilement accès à ce qu'on appelle
les "systèmes personnels": micro-ordinateurs, synthétiseurs
MIDI. Il peut disposer, chez lui, assez facilement, d'un petit studio d'informatique
musicale.
Les appareils électroniques sont non seulement de plus en plus
rapides mais aussi de plus en plus miniaturisés et de moins en moins
coûteux.
De nombreux logiciels fonctionnant sur des micro-ordinateurs permettent
de faire de l'édition de partition, par exemple.
De plus, par l'intermédiaire des réseaux de communication,
en plein développement (Cf Numéris), il peut avoir accès
à des banques de données, ou communiquer très facilement
avec d'autres utilisateurs, ou un centre puissamment équipé.
Encore quelques points de repère:
1981: Premier échantillonneur numérique commercial (Emulator,
E-Mu).
Ordinateur IBM-PC.
1982: Norme MIDI, qui permet à des synthétiseurs de communiquer
entre eux et avec des ordinateurs.
1983: Synthétiseurs FM commerciaux (DX7, Yamaha).
Ordinateur Macintosh (Apple).
4.2. Autres domaines actuels de l'informatique musicale
a)Traitement du signal, développement de processeurs spécialisés
("Hardware").
b)Spatialisation
On peut citer, à ce sujet, les recherches de John Chowning,
et sa pièce Phôné (1980-81, CCRMA, University
of Stanford).
c)Psychoacoustique
De nombreux chercheurs et équipes se
penchent, avec l'aide de l'ordinateur, aux difficiles problèmes
liés à la perception du timbre musical.
Exemple: les travaux de MacAdams sur la perception du timbre (IRCAM,
1982).
d)Musique et intelligence artificielle
L'objet de l'intelligence artificielle est d'étudier et de reproduire
à l'aide d'ordinateurs une partie des comportements humains: la
musique, par les processus cognitifs très complexes qu'elle met
en jeu, est un domaine privilégié de recherche pour l'intelligence
artificielle. On peut se reporter, par exemple, aux travaux de Marvin Minsky
(MIT).
On assiste au développement de langages
destinés à l'Intelligence artificielle (LISP, PROLOG), ainsi
que de machines spécialisées.
L'ordinateur se modèle de plus en plus sur l'humain: certaines
machines s'inspirent de la structure du cerveau (réseaux neuronaux).
L'enjeu n'est certainement pas de copier ou de remplacer l'humain, mais
d'essayer de le comprendre mieux: "Comprendre la compréhension"
(L'expression est de M.Minsky).
Une des tendances de l'informatique des années 80, est d'offrir de plus
en plus de facilités d'accès pour l'utilisateur non-informaticien
(par exemple le musicien). Ceci grâce à, par exemple, des
écrans graphiques (et non plus simplement alpha-numériques),
des "souris", etc. Mais aussi, grâce au développement des
"langages-objets", qui sont des langages informatiques où l'on construit
des objets actifs, qui se passent des messages (exemples: LISP, et plus
particulièrement destinés à des applications musicales:
Formes, Midi-Lisp). On peut citer également le programme MAX, destiné
à des applications musicales et qui est un langage de programmation
utilisable en temps réel. MAX est à la fois graphique (l'utilisateur
manipule des boites, qu'il relie par des fils, Cf illustration) et langage-objet.
Conclusion
Nous avons vu l'expansion des possibilités de l'informatique
musicale au cours des années 80. On peut se demander
si, parmi tous ces domaines relativement diversifiés (composition,
synthèse, interprétation, systèmes personnels et autres),
on peut trouver une direction commune, une quelconque convergence. Le point
commun semble t'il, est l'humanisation de la machine. Les premières
tentatives tendaient à remplacer l'être humain par la machine
(Cf la composition automatique), mais désormais, si l'on prend modèle
sur l'humain pour bâtir des machines informatiques, ce n'est pas
afin de le supplanter, mais afin de le comprendre mieux (voir la synthèse
vocale, la psychoacoustique ou les recherches sur l'intelligence artificielle)
ou de l'assister (programmes d'aide à la composition). On retrouve
cette volonté d'humanisation dans les systèmes en temps réel
puisqu'il permettent, comme on l'a vu rapidement, de réinstaurer
le rapport humain entre musicien vivant et public, plutôt qu'entre
bande magnétique figée et public.
On développe de plus en plus de systèmes de synthèse
par modèles physiques. Ces méthodes trouvent des applications
grand public (Cf, par ex., Yamaha VL7, VL1).
Le logiciel remplace le materiel.
A un point de vue strictement technologique, étant donné que cette période est plus une période de divulgation, de large diffusion, des expérimentations des décennies précédentes, elle se caractérise par l'établissement de standards qui permettent une meilleure communication d'un système à l'autre.Après l'ère des pionniers puis la période de diffusion, ces dernières années ont vu l'informatique musicale passer au stade de l'industrialisation.
La norme MIDI n'est pas remplacée. (1988) .mid
OSC
Fichiers sons AIFF et WAV.
SDIF.
Représentations musicales. musicXML, guido
SDIF description du son .sdif
mpeg4 multimedia
VST, Audio Units , plugins
Soundfonts format de banques d'instruments échantillonnés développé par E-Mu (Creative Labs) au milieu des années 90
www.soundFonts.com
1998 SoundFonts version2.1