Informatique

De Doc.

(Redirigé depuis Temps réel)

L’informatique dans la musique contemporaine se manifeste à différents niveaux. Elle peut être utilisée pour la composition (composition musicale assistée par ordinateur, composition automatique),[1] l’écriture simple de partitions, la synthèse sonore, la mise en réseau d’instruments ou le traitement de l’œuvre au moment même de son exécution.

Du point de vue de la composition, l’informatique est utilisée dans les années 1950 pour programmer tout ou partie de la réalisation d’une œuvre. On parle alors de « composition automatique », car les paramètres musicaux sont programmés au préalable dans l’ordinateur. On relève deux formes de « composition automatique » : la musique algorithmique et la musique stochastique. La première « consiste essentiellement à établir la liste séquentielle des opérations à effectuer à partir d’un ensemble de données, pour obtenir en fin de compte une musique qui soit conforme à celle que souhaite le rédacteur de cette liste ».[2] Ainsi, dans le quatuor à cordes l’Illiac Suite (1957) de Lejaren Hiller, l’ordinateur a intégré les règles du contrepoint afin de générer l’œuvre. La seconde « permet de contrôler globalement sur une durée quelconque, le type, la densité, la vitesse et l’occurrence des événements sonores ».[3]

En 1959, l’informatique devient un moyen de produire le son de manière artificielle. Newman Guttman, John Pierce et Max Mathews s’essaient à des expériences de synthèse sonore sur la parole. On numérise ainsi les propriétés acoustiques du son afin de pouvoir le reproduire ou le modifier par la suite directement par le biais de l’ordinateur. Dix ans plus tard, Mathews crée le programme de synthèse sonore Music V, dont les possibilités sont alors plus étendues et plus riches. En 1969, Jean-Claude Risset – qui travaillera à la notion d’« illusion acoustique » - [4] compose Mutations I, « l’une des premières œuvres entièrement synthétisées par ordinateur, [et qui] porte sur la construction et la déconstruction d’un timbre par décalage dans le temps et à des rythmes différents des harmoniques ».[5]

Non seulement il est possible avec l’informatique de « composer le son lui-même » - comme l’affirme John Chowning, le découvreur de la synthèse par modulation de fréquence[6] - mais cette idée de synthèse par l’informatique se développe avec le concept de « temps réel », qui permet de travailler le son en direct. L’informatique est donc intégrée pendant la représentation même de l’œuvre. La notion de temps réel signifie que la vitesse de calcul de l’ordinateur est telle que l’oreille de l’auditeur ne peut séparer le son émanant de la source première (instrument électronique ou acoustique) et celui retransmis ensuite par la machine. La 4X, machine développée à l’Ircam en 1970, permet ainsi de gérer le son non plus en différé mais instantanément. Elle sera utilisée pour la première version de Répons de Pierre Boulez (1981)[7]

Dans les années 1980 naît également le système d’interface MIDI (Musical Interface for Digital Instrument). Ce système permet la mise en réseau de divers appareils audionumériques (échantillonneurs, séquenceur, boîte à rythme etc.). L’ordinateur contrôle ainsi les informations transmises par ces appareils et les synchronise. Le système MIDI est également appliqué aux instruments (œuvres de François-Bernard Mâche, Michael Levinas, Philippe Manoury, Denis Cohen, Laszlo Vidovszky, Steve Reich...)[8].

Les instruments MIDI, suivant le modèle d’instruments traditionnels, sont joués normalement par les instrumentistes mais le geste inhérent à la production du son comme le doigté ou le souffle est converti pour être modifié ensuite par l’ordinateur. Il existe différents instruments MIDI : les claviers, utilisés pour gérer l’ensemble des sons disponibles dans un réseau, les instruments à vent, utilisés avec un doigté traditionnel mais dont la présence de capteurs permet de modifier le son etc.

L’informatique n’a cessé de se développer depuis une vingtaine d’années, notamment par la création de nouveaux logiciels de traitement du son. Le logiciel Max (nom donné en hommage à Max Mathews) est ainsi un nouvel outil pour programmer des applications interactives en temps réel. D’autres sont apparus par la suite, comme Modalys, dont le but est de créer virtuellement des instruments à partir de matériaux très simples (cordes, bois etc.).


Notes

  1. Fatus, Claude, Composition musicale et informatique, Paris, Minerve, coll. « Musique ouverte », 1989.
  2. Barbaud, Pierre , Lettres françaises, Paris, Mars 1969.
  3. Giner, Bruno, Aide-mémoire de la musique contemporaine, Paris, Durand, 1995.
  4. Castanet, Pierre Albert, « Voyage en Nouvelle Atlantide – Art, Science, Technologie dans l’œuvre musicale de Jean-Claude Risset », Portraits polychromes n°2, Paris, INA – CDMC, 2002.
  5. Mussat, Marie-Claire, Trajectoires de la musique au XXe siècle, Paris, Klincksieck, 2002.
  6. Portraits polychromes n°7, Paris, INA – CDMC, 2005.
  7. Répons Boulez, Paris, Actes Sud – Papiers, 1988.
  8. Castanet, Pierre Albert, « Un kaléidoscope fin de siècle », Histoire de la Musique (sous la direction de Marie-Claire Beltrando-Patier), Paris, Larousse, 1998.
Outils personnels