Informatique musicale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'informatique musicale est une discipline qui comporte des aspects de synthèse sonore, d'aide à la composition musicale ou de composition musicale sans assistance humaine.

Dans les années 1950 - 1970, l'essor de la technologie numérique des ordinateurs a chamboulé la composition musicale qui, ayant abordé les limites de la musique électronique, retrouvait là une certaine logique de l'écriture. Le magnétophone a été l'invention qui semblait maîtriser le temps : il a permis à la musique de devenir une musique concrète, lorsque la peinture, elle, se réfugiait dans l'abstraction. Une telle prise de possession du matériau occasionna de nombreux bouleversements théoriques et pratiques. L'informatique a donc apporté un sang neuf, permettant à des réalisations d'un autre genre de voir le jour.

Prémices[modifier | modifier le code]

C'est dans un contexte de crise du langage musical (dodécaphonisme puis sérialisme intégral, musique concrète) que les musiciens abordent, d'abord avec méfiance, ce nouvel instrument dévolu tout autant à la construction du son (synthèse sonore) qu'à son organisation (composition assistée par ordinateur). Les modèles proposés par l'électronique s'avèrent pauvres ; l'enjeu est de tenter de redécouvrir ce qui depuis vingt siècles fait la richesse communicative du son : sa vie, son mouvement, son « émotion ».

Les solutions proposées par la technique numérique semblent avoir voulu prendre le problème à bras le corps en n'éludant pas cette double approche : d'une part le compositeur s'intéresse au son lui-même, c'est-à-dire à un phénomène dont il souhaite faire un matériau plus malléable. D'autre part, l'ordinateur prend en charge la composition de la musique, d'abord au moyen d'une interface graphique qui transcrit les paramètres symbolisés derrière les notes, puis directement par l'élaboration de ce qu'il est désormais convenu d'appeler un processus compositionnel. On est donc passé assez récemment (vers les années 1980-1990) à une dimension de l'informatique musicale rebaptisée composition musicale assistée par ordinateur (CMAO) qui mêle la création sonore et la composition formelle. Répons (1981) de Pierre Boulez, peut être considéré comme une des œuvres phares introduisant cette nouvelle forme d'utilisation de l'ordinateur.

Microcomposition et macrocomposition[modifier | modifier le code]

Tant au niveau microscopique, où l'oreille perçoit la moindre variation de chaque composante, qu'au niveau macroscopique où la musique construit un certain ordre dans l'écoulement entropique du temps[Quoi ?], l'art parvient à projeter dans l'avenir. Mais plutôt que de calquer une approche déterministe de la composition avec des lois harmoniques, des théories en composition musicale, et une règle de conduite de la pensée musicale, les compositeurs ont redéfini à la fois une nouvelle psychoacoustique musicale débarrassée des conceptions linéaires de l'acoustique classique, et les exigences d'une poïétique qui conserve les critères fondamentaux d'immédiateté et de spontanéité. Réflexions sur le fond, réflexions sur la forme. Deux tendances qui n'ont jamais été aussi intimement liées dans les préoccupations du compositeur, et que l'ordinateur a su réconcilier.

Numérisation[modifier | modifier le code]

La matière première de la musique reste toujours le son musical, une sorte de « donné à entendre » dans sa diversité d'objet « créé ». Nous ne reviendrons pas ici sur les déboires et les réussites de la synthèse numérique du son, élaborée à partir de 1957 par Max Mathews avec le programme Music-N, et retardée par la lenteur des techniques de l'époque. Mais notons toutefois que c'est de ces investigations que sont nées les premières réflexions sur la psychoacoustique.

Les recherches sur la composition assistée par ordinateur remontent quant à elles à 1955, et débouchèrent en 1956 sur le fameux quatuor à cordes dit « Illiac Suite », élaboré par Lejaren A. Hiller et Léonard M. Isaacson à l'université de l'Illinois. Quels étaient les postulats de base des travaux d'Hiller et Isaacson ? Dans la mouvance des théories cybernétiques qui accordaient une grande confiance aux pouvoirs du calcul (intelligence artificielle), ils élaborèrent un modèle mathématique d'analyse - construction musicale qui, en adaptant un traité d'harmonie (en l'occurrence le traité de 1725 de Johann Joseph Fux, Gradus ad Parnassum, et celui de contrepoint de Palestrina) servait de base à une reconstruction. Hiller était un scientifique, un chimiste, et pour lui la décomposition devait permettre la re-composition. Formaliser certaines règles d'écriture et rentrer dans l'ordinateur des schémas compositionnels classiques suffirait à traduire les côtés émotionnels ou passionnels de la musique par des jeux de règles et d'interdits. Pour préserver un certain degré d'expression artistique, le programme simulait l'aspect auto-organisé en introduisant quelques aspects des théories sur la formalisation du hasard (des chaînes de Markov - formulation des processus stochastiques et une méthode aléatoire de tirage des nombres dite de « Monte-Carlo »), très en vogue, elles aussi. Ce qui a fait dire à Hiller que « la musique est un compromis entre la monotonie et le chaos », mais sans jamais se poser le problème de savoir qui effectuait ce compromis.

Algorithmique et programmation[modifier | modifier le code]

Une définition heuristique de la composition a alors été transcrite derrière des algorithmes : c'est la musique algorithmique chère à Pierre Barbaud, (1958, Bull Gén. El.). D'autres systèmes de composition ont été définis par les compositeurs eux-mêmes (exploration des modèles équilibrés d'A. Riotte par exemple). mais ils ne peuvent le faire qu'en étant libres, souples, par rapport au logiciel de la machine. Alors les programmeurs ont dû mettre en place des pilotages de ces programmes. Le programme traduit les valeurs musicales en mesures quantifiées (par exemple le programme SCORE de Leland Smith traduit les calculs de trajectoires, complète des sections, ?). La CAO s'est transformée en aide à la composition. Ces formalisations discrètes de la pensée personnelle du compositeur s'apparentent à une déduction logique. Elles ne constituent pas un cadre obligatoire, rigide, et inatteignable.

Langages informatiques[modifier | modifier le code]

Précisons que les interfaces graphiques, langages spécialisés ou autres logiciel d'aide à la composition ne donnent pas, par définition, au compositeur la même liberté que celle que lui fournirait l'utilisation d'un langage informatique général. Des langages de haut niveau tels que Lisp, OCaml ou Python ou des langages plus anciens tels que Pascal, C, C++ sont des outils plus performants si le compositeur cherche vraiment à échapper à la routine. Malheureusement, peu de compositeurs sont capables d'appréhender de tels langages, et les interfaces (nombreuses) leurs déroulent des démarches processuelles dont ils doivent épouser les contours (programmes MAX et Pure Data (Pd), de Miller Puckette, par exemple).

Le propre de ces interfaces est d'être souvent graphiquement un peu plus avenant que le cycle : rédaction du programme → interprétation (dans le cas de Lisp ou Python) → écoute → correction du programme etc. Cette sorte de convivialité se paie : le compositeur peut voir s'évanouir la liberté qu'il espérait. Pour garantir sa liberté, le compositeur n'a que deux possibilités : soit se faire aider, soit apprendre un langage de haut niveau. Quant à l'apprentissage d'un langage de haut niveau, Lisp - qui est à la base du projet Common Music - est certes difficile à intérioriser[réf. nécessaire], tandis que le langage Python est tout à fait abordable en autodidacte.

Certaines institutions, telle l'IRCAM, ont créé une nouvelle forme de collaboration : le "réalisateur en informatique musicale" ou réalisateur électroacoustique ; anciennement appelé assistant musical ou tuteur. Informaticien et musicien de formation, celui-ci travaille avec le (les) compositeur(s) pour créer des outils compositionnels, interprète la partie électronique des pièces, assure la pérennité des systèmes utilisés. Cette fonction de collaboration est progressivement devenue une véritable profession.

Composition musicale[modifier | modifier le code]

La composition musicale, comme toute forme de création artistique, postule une traduction non réfléchie d'un univers métasensible que l'on a cherché à connaître. Elle réclame donc, de fait, une réflexion sur le bien-fondé des relations entre diverses formes de représentation : son musical, matériau sonore d'une part (son, instrument, timbre…, mais aussi créations virtuelles d'espaces ou illusions auditives), création de l'œuvre d'autre part.

Dans un second temps la réflexion des chercheurs s'est donc focalisée sur certains points forts de la structure musicale, dans une direction fonctionnelle : comment « fonctionne » l'œuvre pour un auditeur ? Des psychologues, des créateurs et des informaticiens ont essayé de propager des réflexions communes au travers d'institutions spécialisées dans l'informatique musicale. Elles débouchent à l'heure actuelle sur des programmes informatiques rebaptisés composition musicale assistée par ordinateur (CMAO), ou aide à la composition, et où la représentation occupe tout à la fois le niveau local du matériau et le niveau global de la structuration de l'œuvre.

État des lieux[modifier | modifier le code]

Aujourd'hui, la progression exponentielle de la capacité des ordinateurs, permet à tout ordinateur individuel la mise en place de productions identiques, où l'auditeur participe à l'élaboration de sa propre œuvre. Les systèmes actuellement mis en œuvre essaient de rassembler, au sein de réseaux ouverts (banque de données de sons ou de modules de composition), des connaissances et des apprentissages particuliers offerts par chacun pour fournir à tous une matrice universelle. En s'attachant à l'architecture de l'œuvre, les compositeurs ont perçu comment la structuration s'effectue non seulement par des modèles théoriques ou développés à partir du matériau, mais aussi par des intuitions immédiates des métamorphoses de ces modèles. Ce formalisme homogène fournit une création, unique par nature et pourtant déjà jointe aux révélations de l'univers.

Une telle création contrecarre notre vision linéaire d'un temps qui s'écoule dans une direction. En introduisant la notion de processus compositionnel, de sémantique processuelle ouverte, les compositeurs sont parvenus, avec l'informatique musicale, à intégrer l'évolution temporelle de l'œuvre ; non plus la procédure elle-même, une quelconque stratégie du changement, mais bien certaines phases continues de ce changement. Les nouvelles modélisations musicales des processus de composition, à l'œuvre dans la musique assistée par ordinateur en devenir, traduisent cet affrontement permanent du sonore informel et de son organisation musicale.

MEDALinside

Plus récemment, les travaux de René-Louis Baron, principalement axés sur l'intelligence artificielle, ont permis d'obtenir la génération automatique d'une multitude de mélodies orchestrées dites « à caractère populaire »[1], c'est-à-dire « agréable à l'oreille » et aisément mémorisables. La découverte est basée sur de nouvelles règles musicales permettant, en temps réel, une interactivité « homme-machine » et, dans le domaine de la robotique, une réactivité musicale à tout paramètre physique extérieur. Le procédé et le dispositif sont actuellement protégés par brevets internationaux. Ils permettent notamment de minimiser le poids des programmes informatiques de composition musicale appliquant ce procédé (20 à 50Ko). Cette faculté majeure permet d'embarquer[2] le logiciel dans une puce musicale à faible coût afin d'envisager une production industrielle visant des applications diverses (téléphonie, jouets, jeux vidéo, etc.)[3].

L'instrument de musique « Lodyone »

En 2013, une première application ludique et didactique est commercialisée sous le nom : « lodyone »[4]. Il s'agit de la première version d'une nouvelle génération d'instruments de musique. L'utilisateur choisit tout d'abord un arrangement musical puis il impose à l'appareil la cadence rythmique de la mélodie qu'il désire à l'aide de touches de jeu (grave à aigu). À chaque pression d'une touche, le dispositif émet un son et plus précisément une hauteur de note en adéquation avec l'harmonie en cours de l'arrangement musical[5].

Notes et références[modifier | modifier le code]

  1. « Musique populaire » : employé ici par opposition à celle généralement dénommée : « musique de recherche » ou « musique savante ».
  2. « Embarquer » : Terminologie du domaine de l'électronique qui peut se traduire par « insérer » ou « couler » (fonderie de puces électroniques).
  3. Article de Béatrice Perret du Cray : [http://realcomposer.fabx.org/Medal%20-%20RevuePresse.htm « Génération automatique d'œuvres numériques », Science et Vie Micro.
  4. « La miniguitare vraiment mini », Science et Vie, mai 2013.
  5. Vidéo : René-Louis Baron joue du lodyone,YouTube.

Annexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]