Musique en réseau

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un concert de musique en réseau ou de télémusique consiste en une ou des interactions en temps réel, en direct et à distance, assurées par un réseau informatique (et télématique) qui permet aux musiciens répartis dans différents lieux distants de jouer ensemble de la même manière que s'ils étaient dans le même espace et dans la même salle de concert[1]. Les applications actuelles comprennent des concerts publics[2], des répétitions d'ensembles instrumentaux et d'orchestres[3], des sessions de musique improvisée et des sessions pédagogiques tels que des master-classes[4]. Ce nouveau type de "scène" (« stage ») se développe donc autant dans la musique la plus actuelle (contemporaine, improvisée, électronique[5]) et dans la musique classique (concerts, répétitions, concours internationaux, master-classes).

Les musiciens utilisent des connexions soit standards comme Internet ou ADSL, soit issues de l'informatique musicale en combinant le langage MIDI, l'Ethernet et l'Internet, soit encore de très haut débit, ISDN et Internet2. Ces dernières sont des connexions multiplex audio et video de haute fidélité[6]. Le développement informatique de la musique en réseau a permis d'élaborer ou de s'appuyer sur des outils logiciels de collaboration à distance[7] et des logiciels spécifiques (tels que « Quintet.net » de Georg Hajdu, et, au milieu des années 1990, « ResRocket ») ou des ajoûts de fonctions à des logiciels existants la plupart modulaires (tels que Max/MSP et PureData). Lorsqu'elle ne se substitue pas au concert traditionnel, les musiciens et les auditeurs étant dans la même salle de concert, la musique en réseau correspond à un dispositif utilisé lorsque la coprésence des musiciens, et des auditeurs, est impossible. Dans ses aspects les plus avancés, la musique en réseau permet l'approche de nouvelles formes d'expression musicale. Le dispositif en réseau peut aussi intégrer des audiences à distance, public réparti, ou permettre des configurations dans lesquelles par exemple la direction d'orchestre est exécutée à distance[8].

De nouvelles initiatives voient le jour, proposées au grand public comme aux musiciens professionnels en exploitant les capacités du réseau internet et l'amélioration des codecs. Le service zikandjam.com qui repose sur le logiciel open source Jamulus permet la création en temps réel d'oeuvres jouées par des musiciens distants de plusieurs milliers de kilomètres avec une latence inférieure à 25ms et une qualité audio réglable ainsi qu'un choix entre une écoute/diffusion en mono ou en stéréo. Cette tendance est désormais connue sous ne nom de Jam Session online ou Jam Session en ligne.

Situation[modifier | modifier le code]

Un instrumentarium ?[modifier | modifier le code]

Les développements et la pratique de la musique en réseau sont animés par un débat en cours : l'objectif est-il de reproduire la configuration du concert tel que nous le connaissons et ainsi de plier les conditions techniques existantes afin de les optimiser et de supprimer les effets de distance et ceux résiduels de la téléprésence ? ou faut-il considérer que la distance et la répartition (des acteurs d'un concert), ainsi que les conditions techniques des flux (streaming), modifient les constituants musicaux, instrumentaux et compositionnels et permettent d'envisager de nouvelles formes musicales d'interprétation, de composition et de public ? Ce même type de question, identifié par Marc Battier (en) en tant que "paradoxe de la lutherie électronique"[9], avait été posé lors de l'apparition des instruments électroniques comme avec les synthétiseurs : devaient-ils simplement reproduire les instruments classiques (voire les remplacer) ou devenir des instruments à part entière avec leur propre registre, facture, répertoire et palette sonore et ainsi solliciter des modes et formes nouveaux d'écriture et de composition ?

La musique en réseau (ou télémusique) peut apparaître moins comme l'identification d'un genre musical en tant que tel (c’est-à-dire s’appuyant sur son propre langage et créant ses propres codes) qu’une mise à jour des conditions musicales — i.e. (c'est-à-dire) un renouvellement des conditions de la musique et de celles de faire de la musique —. Ou alors, hypothèse corollaire, faudrait-il l’apparenter aux autres instrumentariums et auditoriums (tels que la musique de chambre, la musique électroacoustique, etc.), et aux dispositifs qu’ils constituent respectivement pour produire et représenter de la musique ; chacun de ceux-ci présentant aussi des variations de conditions qui leur sont propres ou qui interagissent entre eux, et qui retracent des généalogies : historiques, techniques, d’écoute, etc.

Ces investigations prolongent les réflexions visionnaires d'Edgard Varèse lorsqu'il énonçait en 1917 : « Il faut que notre alphabet musical s'enrichisse. Nous avons aussi terriblement besoin de nouveaux instruments. [...] Les nouveaux instruments ne doivent être après tout, que des moyens temporaires d'expression. Les musiciens doivent aborder cette question avec le plus grand sérieux, aidés par des ingénieurs spécialisés. J'ai toujours senti dans mon œuvre personnelle, le besoin de nouveaux moyens d'expression. Je refuse de ne me soumettre qu'à des sons déjà entendus. Ce que je recherche, ce sont de nouveaux moyens techniques qui puissent se prêter à n'importe quelle expression de la pensée et la soutenir. »[10]; ou encore dans un écrit ultérieur de 1936 : « Moreover, the new musical apparatus I envisage, able to emit sounds of any number of frequencies, will extend the limits of the lowest and highest registers, hence new organizations of the vertical resultants: chords, their arrangements, their spacings, that is, their oxygenation. [...] I am sure that the time will come when the composer, after he has graphically realized his score, will see this score automatically put on a machine which will faithfully transmit the musical content to the listener.»[11]

L'attention et la conscience inter-active[modifier | modifier le code]

Les conditions d'un système de musique en réseau participent aux questions actuelles à propos des interactions à distance médiatées par les réseaux électroniques, dont notamment celles concernant les communications inter-individuelles. Selon Gutwin et Greenberg[12], les notions de perception, d'attention et de conscience (sensible) dans une situation face-à-face, notamment dans les configurations d'échanges, de conversation et de collaboration de travail, font partie intégrante de la communication conséquentielle, de l'alimentation de la conversation inter-individuelle et de la communication intentionnelle (ce que nous pourrions appeler la distinction entre destinataire et destinateur, c'est-à-dire toutes les conventions d'adresse et d'adressage). La configuration d'un concert traditionnel est un exemple de couplage serré et de collaboration synergétique dans lesquels les participants acquièrent un degré élevé d'attention et de conscience collective. Alfred Schütz dans son article « Faire de la musique ensemble » a relevé cet aspect de la relation sociale qui est particulière à la situation musicale; nous pourrions aussi nous reporter à des ouvrages plus anciens tels que « Comment Écouter » (« Peri tou akouein ») de Plutarque[13], et quelques extraits des Livres I et III des « Essais » de Montaigne dont « la parole est à moitié à celui qui parle, moitié à celui qui l'écoute »[14]. Les gestes, expressions faciales et mouvements corporels des musiciens partenaires, tout autant que les sons émis par leurs instruments sont des indices signifiants et intentionnels pour les autres musiciens[15]. D'autres recherches indiquent que les musiciens sont aussi très sensible à la réponse (feedback) acoustique de l'environnement dans lequel ils jouent[16]. Idéalement, un dispositif de musique en réseau devrait faciliter un haut degré d'attention individuelle et collective similaire à celui dont les instrumentistes font l'expérience dans une configuration de concert traditionnel.


La syntonie[modifier | modifier le code]

Dans son article « Faire de la musique ensemble » (1951)[17] Alfred Schütz analyse la situation musicale constituée d’un groupe d’interprètes et d’auditeurs ensemble, s’orientant les uns les autres à partir d’indices et de réactions d’interprétation au long d’un temps musical (ce qu'il appelle la « syntonie ») : « Chaque action de chaque interprète s’oriente non seulement selon la pensée du compositeur et sa relation au public mais, aussi, de façon réciproque, selon les expériences dans les temps externe et interne des autres interprètes ; [...] [c]hacun d’eux doit, par conséquent, prendre en compte ce que l’Autre doit interpréter simultanément. [...] Tout musicien de chambre sait à quel point une disposition qui les empêche de se voir peut être dérangeante »[18].

Ces situations de syntonie basées sur les éléments phatiques et de prosodie musicale dans la télémusique dans laquelle les musiciens sont acousmates, sont essentielles pour les concerts en réseau de musique improvisée expérimentale (c'est-à-dire sans partition ni direction des musiciens) tels qu'ils se développent aujourd'hui (nomusic.org, Le Placard, Sobralasolas !, etc.). Dans ces cadres d’improvisation voire de cocomposition, les musiciens construisent des configurations spécifiques qui leur permettent de se syntoniser, d'engager des et de suivre une conduite commune aussi minimale soit-elle (pour, par exemple, la gestion du début et de la fin d'un set), en plus du suivi effectué par l'écoute : par exemple, en utilisant une interface textuelle de communication (de type IRC, « chat »), ou une communication visuelle (de type « Skype »), ou encore en proposant que le point d'émission à domicile (« at home ») de chaque musicien lorsque ceux-ci sont tous répartis, soit le lieu d'accueil d'un public local. Ainsi il y a autant de lieux d'émission que de lieux de réception publique, le public étant distribué. Une dernière proposition est d'ouvrir à un public internaute (disséminé, pouvant écouter chez eux) en mettant à disposition sur les réseaux l'accès à l'écoute du stream général de la prestation collective[19].

Il s'agit d'explorer les conditions des ensembles instrumentaux distribués et des systèmes de jeux et d’écriture qu’elles engagent vis-à-vis d’un dispositif initial issu des formes concertantes et performatives : les places du public, de l’audience, de l’auditeur et des musiciens s’ajustent sur cette question de participation et de syntonie. C'est l'enjeu, aujourd’hui, de plusieurs projets d’œuvres et de composition musicales en réseau sont menés par les compositeurs[20]. Durant les années 1980, le collectif The Hub[note 1] pratiquait également lors de concerts ce type d’improvisation informatique sur une configuration en réseau à laquelle les exécutants sur scène étaient tous reliés, interagissant les uns les autres ; nous pouvons aussi nous référer aux improvisations électroniques qui se sont développées antérieurement à cette date (David Tudor, John Cage, AMM, Karlheinz Stockhausen, etc.)[21], même si ces structures de participation peuvent sembler plus éloignées.

L'écoute et le direct[modifier | modifier le code]

La composition peut s'emparer aujourd'hui de cette question fondamentale, après que celle-ci a traversé successivement dans l'Histoire de la musique, l'interprétation instrumentale (comme moyen d'éclairer et de moduler plus ou moins une œuvre écrite, ou allographique), les pratiques d'arrangement de musiques existantes[22] et le développement des supports d'écoute qui sont devenus jouables (Djs, iPod battles, etc.). Les moyens de l'écoute s'étant multipliés à partir des techniques d'enregistrement et des télécommunications, il est possible d'écouter à présent chez soi, à domicile, ou encore de manière ambulatoire (radio, walkman, lecteurs mp3, téléphones mobiles) des musiques enregistrées en différé que nous pouvons reproduire à l'infini (et ceci depuis le début du XXIe siècle). Il est possible d'envisager avec la musique en réseau ce qui serait une extension des pratiques en direct avec la radio (duplex, full duplex), des musiques jouées en direct simultanément à distance grâce aux techniques de streaming et composées spécialement pour ce medium. La musique en réseau poursuit donc l'aventure de la musique diffusée (par la radio, et ensuite celle composée « pour » la radio) en intégrant dans son dispositif de réalisation (ou d'exécution) et de composition les conditions du direct et de la présence simultanée à distance (« hic et nunc », « illic et simul »).

Il semble important de ne pas ignorer également l’intervention interprétative de l’auditeur / internaute en tant qu’acte créatif et interprétatif, et par là, de souligner que son auteur/auditeur devient un créateur en droit[23]. il participe lui-même activement à la transformation de la musique en une expérience « environnementale » d’un genre nouveau, qui est proprement une expérience esthétique, engagée au-delà de la simple manipulation des cadrans et des boutons (G. Gould[24]) et du pilotage (C. Kihm[25]) de machines d'écoute ou de fonctions pré-programmés de logiciels.


Objectifs[modifier | modifier le code]

Les objectifs d'un concert en réseau pourraient être résumés ainsi :

  • Il devrait permettre aux musiciens et également aux auditeurs (et/ou chef d'orchestre) de pouvoir collaborer et interagir à distance
  • Il devrait créer et proposer un espace virtuel immersif et réaliste (c-a-d qui donne l'impression d'une situation réelle, ou dont les conditions n'empêchent pas la perception de la réalité de la situation) pour optimiser les interactions synchrones
  • Il devrait garantir l'attention et la conscience sensible collective des participants afin qu'ils soient conscients des actions des autres partenaires présents dans l'espace virtuel commun, et faciliter toutes les formes de communication entre eux.


Définitions et approches[modifier | modifier le code]

Nous sommes certainement au début d’une ère musicale marquant le développement des formes musicales de collaboration et de participation en ligne et en réseau. Simultanément à cette exploration nous devons continuer à interroger les notions historiques musicales et à élucider les nouveaux problèmes et problématiques qui progressivement apparaissent au sein de ces pratiques, d’auteur et d’auditeur, impliquées dans les relations et les intrications entre musique et technologies, tout autant que les modifications et corrélations sociales qu’elles décèlent ou prolongent.

Depuis 2000, des publications et articles importants[26] ont été publiés sur cette question de la musique en réseau, et dans le même temps plusieurs approches d’une définition de la musique en réseau ont été énoncées :

  • une représentation en réseau a lieu lorsque le comportement de l’instrument de l'exécutant reçoit en entrée une source autre que l'exécutant lui-même, ou lorsque ce comportement est modifié par une influence extérieure (Stephan Moore & Timothy A. Place)[27]
  • la musique en réseau est une situation musicale dans laquelle les connexions traditionnelles orales et visuelles entre les musiciens sont augmentées, médiatées, relayées ou remplacées par des connexions contrôlées électroniquement (Jason Freeman) [28]
  • dans l’art audio et la musique, l’expression « en réseau » implique communément une distribution spatiale multi-sites de points de transmission et de réception, et d’interactions simultanées entre ces sites distants : captures sonores à distance, acoustiques à distance, interconnexions entre lieux physiques et virtuels, et émergences au travers de ce dispositif de collectifs distribués de “joueurs” (Locus Sonus)[29];
  • Dans la même veine que l’approche précédente, la notion d’ensembles ou de groupes distribués peut être un point d’entrée : un ensemble musical distribué consiste en un groupe de musiciens qui est distribué entre deux lieux ou plus. Quand la prestation d’un ensemble musical traditionnel repose sur un espace acoustique commun entre le musicien et les auditeurs, les prestations d’un ensemble musical distribué ont besoin de prendre en compte la superposition d’espaces acoustiques différents et distants : acoustiques à distance, paysages sonores distants, improvisation laptop en réseau (Alain Renaud & Pedro Rebelo) [30]


Ceci peut comprendre une palette de nombreux aspects :

  • concernant le public : audiences partagées et distribuées, pratiques en réseau d’écoute [31]
  • les réseaux en tant qu’instrument et source musicale [32]
  • les interconnexions d’espaces [33]
  • les conditions techniques et contraintes internes des réseaux : temps réel, synchronicité, latence, délais et retards, bande passante, qualité sonore, feedbacks et échos [34]...
  • créativité sociale, interactions, collaborations et facilitateurs impliqués dans les systèmes collectifs d’attention [35]


Ces transports de sons, ou de données relatives du son, amènent plusieurs types de dispositif et d’action : déplacements, transmissions, contrôles de dispositifs sonores distants, captations à distance, interactions, etc.

La nature d’un contenu en flux continu permet d’emblée son utilisation comme élément de variabilité entre deux dispositifs :

  • un flux variable de données à distance peut nourrir et contrôler le comportement d’un processus local,
  • des interactions de variables respectivement localisées créent de l’empathie et de la sympathie entre des processus et leurs comportements,
  • des déplacements et transmissions sonores entre différents lieux contrôlés et joués collectivement en direct et en temps réel (streaming, duplex, unicast, multiplex, multicast), etc. : les contenus sonores, émis et reçus, sont diffusés d’un lieu à l’autre.

Afin d’illustrer cette approche et pour commencer une typologie d’états et de natures d’espace modifié par la transmission du son à distance, voici quelques repères et catégories d’utilisation d’espaces distants en tant que lieux sonores génératifs et diffusés, dans les domaines de la musique en réseau et également de l'art sonore et audio.


Acoustiques à distance[modifier | modifier le code]

  • acoustiques entrelacées : des envois et transferts de son via Internet viennent exciter l’acoustique d’espaces distants avec la possibilité de retour d’écoute des résultantes dans un autre espace, en l’occurrence, personnel (« Silophone » du collectif The User, « Netrooms — The Long Feedback » de Pedro Rebelo)
  • espace virtuel et acoustique : à partir d’un instrument « étendu » entre deux lieux connectés, des capteurs manipulés par le public excitent et activent l’acoustique et les résonances virtuelles des réseaux (« Global String » de Atau Tanaka et Kasper T. Toeplitz, « Le Poulpe » d’Apo33 (Jean-François Rolez, Sophie Gosselin, Emmanuel Leduc, Julien Ottavi) [36]
  • transmission entre des milieux sonores non-aériens : enregistrement et diffusion sonores dans des milieux différents, comme en milieu aquatique (« Water Whistle » de Max Neuhaus, « Underwater Music » de Michel Redolfi)

Transmissions à distance[modifier | modifier le code]

  • matériaux sonores distants : avant l’Internet, l’utilisation de téléphones ouverts pour capter et transmettre à distance des ambiances et du matériau sonore, qui sont ainsi mixés dans un travail musical (« Variations VII » de John Cage, durant l’événement “Nine Evenings” produit par E.A.T.), ou qui sont mixés à l’antenne à la radio (« Public Supply », « RadioNet » de Max Neuhaus), ou encore mis à disposition via Internet sur une interface en ligne comme ressources publiques disponibles à l’utilisation (« SoundExplorer » de Yoshihiro Kawasaki, « Resonance fm London Soundscape » de Tom Wallace, « Locustream SoundMap » de Locus Sonus)
  • transmissions sonores continues en direct et insérées dans des lieux distants : un ou des réseaux ou dispositifs de microphones localisés captent des ambiances et environnements sonores et ces captations sont transférées d’un lieu à un autre et diffusées dans ce dernier par des haut-parleurs (« Sound Field Insertion » de Bill Viola, « Oscillating Steel Grids along the Cincinnati-Covington Suspension Bridge » et « Landscape Sculpture with Fog Horns » de Bill Fontana, « City Links » de Maryanne Amacher, et par extension « Hole in Space » de Kit Galloway & Sherrie Rabinowitz, « Locustream » de Locus Sonus)
  • représentations en direct à l’aide de systèmes multipartites de téléconférence et de transmissions via satellite (« The Last 9 minutes » à la Documenta 6 de Douglas Davis, Nam June Paik, Charlotte Moorman et Joseph Beuys) et concerts « at home » (à domicile) diffusés en direct par streaming vers un réseau d’auditeurs et de radios (« ISDN » de FSOL, « Festival X », « Arenas », « Tournaments » et « Battles » organisés par nomusic.org).


composition et interactions à distance[modifier | modifier le code]

  • composition en direct et jeu en inter-communication en réseau, distant et local : interactions de flux de données sonores entre exécutants en local, puis plus tard à distance, pour créer une musique réactive basée sur des principes de décision partagés et distribués (concerts et représentations de The League of Automatic Composers et de The Hub)
  • écoute distribuée et jeu distribué en streaming : construction d’interfaces en ligne de mixage en direct de sources streamées simultanées, soient captées soient jouées, et d’écoute partagée par des contrôles multi-utilisateurs (« RadioMatic » de radiostudio.org & Jérôme Joy, « userradio » de August Black)
  • représentation en direct distribuée et collaborative : interactions entre des exécutants disséminés dans différents lieux en utilisant une interface en ligne commune (« Brain Opera » de Tod Machover, « FMOL » de Sergi Jorda, « mp3q » de Atau Tanaka, « Auracle » de Max Neuhaus)
  • écoute en direct distribuée basée sur la structure des réseaux utilisée en tant que système de synthèse sonore et de support de composition, à l’image d’un “studio étendu” et d’un système distribué de diffusion : composition à l’aide de programmations de processus sonores en direct, génératifs, infinis et continus, en utilisant les protocoles web et de relais d’information (serveurs, machines clientes), les contraintes techniques des réseaux (latences et retards dus au trafic) et les ordinateurs personnels et les espaces acoustiques locaux des auditeurs (audience “à la maison”) (« Hypermusic — Vocales » de Jérôme Joy)
  • envoi et échanges de fichiers son en vue d’une composition collaborative : corollaire au peer-to-peer, échanger des fichiers sonores via les réseaux électroniques et ainsi composer à plusieurs à partir de fichiers et de matériaux communs, à l’image de palimpsestes, a permis de joindre la dimension collective (liée généralement à l’improvisation) dans les pratiques de composition (« Phonographic Migrations » de Yannick Dauby), et par extension de considérer le peer-to-peer et le streaming comme des pratiques collectives de l’écoute (« Collective JukeBox » et « RadioMatic » de Jérôme Joy, The Thing et RadioStudio.org), qualifiée dans ce cas, d'écoute partagée (Yannick Dauby)


Spatialisation sonore à distance et sons localisés[modifier | modifier le code]

  • extension de la spatialisation sonore dans des espaces articulés et interactifs, du local au distant (et vice-versa) par l’amplification électroacoustique, la téléphonie mobile et l’Internet, jusqu’aux espaces virtuels (field spatialization, Locus Sonus) : des espaces synthétiques et acoustiques peuvent être joints ensembles et réagir les uns aux autres par la navigation de l’auditeur et le jeu avec des objets sonores mobiles, déplacés, qui excitent ces espaces, afin de les faire résonner selon leurs propriétés naturelles ou calculées, et selon la position de l’auditeur (« New Atlantis » de Locus Sonus et SAIC Sound Department Chicago)
  • organisation de sources sonores et de diffusions dans des espaces publics, éloignés des studios et des salles d’exposition et de concert : campagne et scénario d’enregistrement et de prise de son à partir de trajets géographiques (« A Dip in the Lake » de John Cage), diffusé en direct sur des fréquences radio FM que les auditeurs peuvent captées dans des périmètres définis (« Drive-in Music » de Max Neuhaus)
  • transmissions spatialisées de sons entre deux lieux : prise de son mobile et contrôlée, transmise en direct et simultanément dans un autre lieu (« Virtual acoustic-space system » de Ron William, « Wimicam » de Locus Sonus), ou captations microphoniques en direct basées sur plusieurs lieux contrôlées et traitées par des processus sur un serveur qui les fait utilise comme matériaux de composition sonore et d’installation dans les espaces de ces lieux (« Le Poulpe » d’Apo33)
  • re-création de points d’écoute multi-sites : enregistrements microphoniques simultanés en plusieurs points, plus ou moins éloignés, d’un même site ou environnement (« Kirribilli Wharf » de Bill Fontana)


Cartographie sonore et son géo-taggé et géo-localisé[modifier | modifier le code]

  • en construisant des représentations visuelles de localisations sonores, le plus généralement situées dans des environnements extérieurs, à l’aide de cartes géographiques ou auditives à partir desquelles les auditeurs peuvent accéder aux séquences sonores enregistrées or aux streams sonores captés sur les lieux indiqués (« Acoustic World Atlas » de Thomas Gerwin, « SoundBum » par un collectif japonais, « H|U|M|B|O|T » durant net_condition ZKM, « fmwalks » d’Udo Noll, « Soinu Mapa » d’Audiolab Arteleku, « Phonographic Migrations / Paysages Sonores Partagés » de Yannick Dauby, « SoundTransit » de Derek Holzer et al., « Radio Aporee » d’Udo Noll, « NY SoundMap Seeker » de NYSAE, « World Listening Project » basé à Chicago, « Locustream SoundMap » de Locus Sonus)
  • en représentant le procédé d’une campagne d’enregistrement de prises de son (« A Sound Map of the Hudson River » d’Annea Lockwood), en reliant et en associant une production sonore à des lieux spécifiques celle-ci étant enregistrée (les soundwalks de Janett Cardiff), ou en streaming à l’aide de techniques satellitaires ou de géo-localisation, tel que le GPS - Global Positioning System (disponible depuis 2000) -, les réseaux de téléphonie et de smart phones (« Audio Nomad » de Nick Mariette, « Aura » de Steve Symons , « SIGNAL_SEVER! - TRANSIGNAL 1 » du Projekt Atol, Makrolab et Pact Systems, « Net_dérive » d’Atau Tanaka)


Détournements et sonification de données à distance[modifier | modifier le code]

La sonification de données peut être considérée comme la contrepartie acoustique de la visualisation graphique des données, c'est-à-dire la traduction de données dans le domaine sonore[37]. Ce terme désigne toute diffusion d’un son – qui ne contient pas de paroles – ayant pour but de traduire en son une donnée qui n’est a priori pas sonore[38].

  • lorsque le son est généré ou contrôlé par des fluctuations de sources distantes non-sonores, telles que des variations électriques, électromagnétiques, d’ondes courtes et d’ondes HF/ELF/VLF (« Natural VLF Radio Phenomena » de Stephen McGreevy, « Pygmy Gamelan » de Paul DeMarinis, « Electrical Walks » de Christina Kubisch, « Radio Astronomy » d’Adam Hyde, « The Bio-Kinetic Sonusphere Interrogator » de Robin McGinley, « Sky Ear » d’Usman Haque, « xxxxx » de Martin Howse), des mouvements visuels et des captures vidéo de déplacements de corps dans l’espace (« VNS » de David Rokeby), ou encore de variations de flux de données provenant d’activités robotisées ou d’interfaces visuelles et tactiles manipulées (« Space Bodies » de Mia Zabelka, « Piano-as image media » de Toshiro Iwai), ou de flux d’information sur Internet (« The Messenger » de Paul DeMarinis, « Ping » de Chris Chafe, « Ping Melody » de Pawel Janicki), ou finalement tout autre flux d’information qui peut être capté et numérisé.
  • lorsque le son capté à partir de sources en direct de communication privée ou publique, devient un matériau dans un processus musical ou sonore (les prestations de l'artiste et musicien anglais Scanner qui capte et syntonise (illicitement) les conversations sur les téléphones cellulaires à partir d’un scanner, « AudioTrace » de NoMusic par la captation des fréquences radio de la police, des radars et de la CB).

Conditions techniques d'un concert de musique en réseau[modifier | modifier le code]

Telles qu'elles sont listées dans l'ouvrage de Xiaoyuan Gu[39], les facteurs techniques liés à la réussite d'un concert en réseau sont la sollicitation de la bande passante de la connexion, la sensibilité de la latence et l'optimisation de la synchronisation requise pour une transmission en streaming audio. Ces différents facteurs sont décrits avec plus de détail ci-dessous.

Les commentaires actuels proposent d’accentuer la perfectibilité technique, c’est-à-dire que l’influence des appareils sur le rendu doit être supprimée au maximum avant de pouvoir parler véritablement de l’exécution et de la réalisation d’une œuvre musicale.

Bande passante[modifier | modifier le code]

Le streaming[40] audio de haute définition (de très haut débit et de type « full audio ») utilisé pour rendre les concerts en réseau aussi « réaliste » que possible, requiert une bande passante très optimisée et large et donc une technologie très avancée qui dépasse la configuration standard de connexion.

Toutefois, et selon l'objectif fixé, il est tout à fait possible de monter des configurations assez sophistiquées (multipoints) de concerts en réseau sur des connexions de type ADSL, en sachant que les taux de compression audio et les temps de latences seront dans un registre correspondant à la qualité de la bande passante. Dans ce cas, plusieurs paramètres peuvent venir perturber la réception et l'émission des streams, et causer, d'une part, la nécessité de prendre une compression basse ou standard, et, d'autre part, des pertes de données (drops, clicks). Ces effets peuvent être pris en compte en tant que matériau sonore (généré par le système) par les musiciens.

Temps de latence[modifier | modifier le code]

Un des plus grands problèmes de la musique en réseau est que le temps de latence fait partie intégrante du son car il est généré par le système local du musicien et envoyé au travers du système en réseau. Pour que l'interaction musicale dans un concert en réseau soit perçue comme « naturelle », le temps de latence doit être inférieur à 30 millisecondes, en dessous du seuil de la perception humaine[41]. S'il a trop de délai (retard) dans le système en réseau, cela rend difficile la jouabilité collective si les musiciens veulent adjuster leur jeu et se coordonner en fonction des sons qu'ils entendent (reçoivent) et qui sont joués par les autres instrumentistes et musiciens[42]. Toutefois, la tolérance à cette difficulté liée au temps de la latence est fixée par le caractère, la nature et la structure de l'œuvre jouée, les musiciens, et les types d'instruments ou systèmes utilisés[16]. Des éléments de synchronisation autres que l'écoute directe (ou plus justement, médiatisée) peuvent être utilisés dans un concert en réseau, afin de rendre possible un jeu musical réactif et interactif dans le cadre de temps longs de latence[42].

Synchronisation des streams audio[modifier | modifier le code]

Les points d'émission et de réception d'un système en réseau multipoints doivent synchroniser les streams audio afin de garantir une présentation homogène et intègrale de la musique selon le degré de perfection choisi[43]. C'est l'enjeu actuel de la musique en réseau.

Un point de vue intéressant est de considérer les imperfections de la synchronisation musicale en réseau, à titre d'exemple, comme faisant partie des qualités et des propriétés du dispositif en réseau, qu’il faut exploiter[44]. Par exemple, la latence et le retard (delay) sont perçus dans les systèmes de streaming (de ruissellement selon l’adaptation franco-québécoise), quel que soit le débit technique de transfert autorisé par la structure de communication, comme des défauts qu’il resterait à améliorer pour obtenir une synchronisation quasi parfaite (à l’égal d’une synchronisation d’événements dans un même espace).

Ces défauts peuvent réintroduire des effets de « distance », et ainsi induire une acoustique artificielle et fluctuante liée aux variations de transferts de données sur le réseau ; cette « presqu’acoustique » s’additionne à l’acoustique de l’espace d’émission/captation et à celle de l’espace de diffusion où le son transmis est réinjecté. Les effets de latence influant sur cette acoustique « artificielle » créent, d’une part, des décalages temporels (delays), et, d’autre part, des erreurs de transferts — et qui peuvent sembler être des parasites dans le son transmis — . Á titre d'exemple, sur un système de streaming standard en Icecast, les variations de latence peuvent aller de 10 secondes à 30 secondes. Ces erreurs sont principalement causées par des pertes de paquets lors du parcours des données, par des désynchronisations lors des procédures de compression et de décompression, et par d’autres artéfacts aléatoires liés à la communication, le tout influant sur la reconstitution intégrale du signal envoyé.

Ces défauts présenteraient tout de même une propriété, celle de faire apparaître une matérialité (i.e. du grain, de « l’immatériau ») liée à la technique des flux en streaming, qui peut être acceptée en tant que matériau sonore. En l’état actuel, ces effets ou artéfacts de matérialité ne sont ni contrôlables ni jouables en tant que tels (à part dans le cas d’un bouclage du système en feedback et en modifiant volontairement des paramètres et des fonctions des organes contrôlant les transferts et l’encodage/décodage) ; par contre, ils peuvent être interprétables dans le jeu musical. Cette propriété de granularité acoustique résultante produite par le système télématique peut prendre une importance dans la perception de la traversée d’un troisième environnement, jusqu’à présent, peu tangible, entre l’espace destinateur et l’espace destinataire.


Le contexte historique de la musique en réseau[modifier | modifier le code]

La musique en réseau poursuit et participe à tout un cortège de problématiques qui animent l'histoire de la musique.

Il semble opportun de considérer et de bâtir aujourd’hui un historique de la télémusique, c’est-à-dire de mettre à jour un corpus, d'une part, de visions et d'anticipations littéraires, et, d'autre part, d’expériences et de réalisations artistiques qui ont exploré la prise en compte d’interconnexions d’espaces (par les transports de sons) et de l’écoute à distance au sein même du processus musical et de la réalisation sonore[45].


L'extension des matériaux sonores et de la lutherie[modifier | modifier le code]

Le développement de nouveaux instruments est une question majeure dans la musique du XXIe siècle depuis la naissance de l'électroacoustique, mais aussi depuis l'exploration du timbre musical et de la microtonalité au début du siècle dernier qui a pu amené les compositeurs a intégré des modifications ou préparations d'instruments, voire la création d'instruments. Quelques exemples emblématiques sont ceux de John Cage avec le piano préparé (à la suite d'Henry Cowell), d'Harry Partch avec ses instruments fabriqués à partir d'accordages non tempérés, et de Conlon Nancarrow avec la musique mécanisée.

De même, les instrumentistes n'ont cessé durant la seconde moitié du XXe siècle d'explorer les modes techniques de jeux[réf. nécessaire] qui ont permis d'étendre la palette sonore acoustique (puis électroacoustique) des instruments à partir de leur facture historique. Chaque famille d'instruments a ainsi élargi son vocabulaire en se basant d'une part sur un prolongement des modes de jeux connus en leur offrant une variabilité plus fine et plurielle en termes de timbre et d'articulation de jeux (par exemple, les doigtés pour les instruments à vent), d'autre part en intégrant dans le jeu les registres autrefois délaissés ou écartés car considérés comme exogènes à la musique (les sons bruités, sons des mécaniques, etc.), et finalement en réinvestissant les connaissances physiques et organologiques des instruments (les multiphoniques, les sons transitoires, etc.). Ceci a pu se développer jusqu'à l'intégration de l'instrumentiste comme matériau sonore lui-même, ou parfois en tant qu'acteur (dans le sens du théâtre musical et parfois pour répondre et problématiser le concert en tant qu'événement audio-visuel); dans certains cas la voix de l'instrumentiste en tant qu'excitateur supplémentaire de l'instrument a été très souvent employée pour construire des sonorités plus complexes. La conjonction entre l'exploration des limites instrumentales par les compositeurs dans l'écriture et celle développée par les instrumentistes pour offrir des registres instrumentaux élargis, a permis l'invention de notations et de modes nouveaux d'écriture[réf. nécessaire]. Un peu plus tard, les découvertes et recherches en psycho-acoustique et en physique / acoustique instrumentale (notamment à l'IRCAM[réf. nécessaire]) ont poursuivi ces investigations menées par les compositeurs et les instrumentistes, et ont permis d'envisager la construction d'extensions d'instruments, voire d'articuler des parties virtuelles (ou prothèses) aux instruments existants (par exemple, la flûte virtuelle développée à l'IRCAM[réf. nécessaire]) et de midifier des instruments en les assemblant avec des processus de contrôle (« controllers ») et de captation (capteurs) — un des exemples notables est celui du Disklavier. Il s'agit en quelque sorte d'une nouvelle lutherie combinant électronique et acoustique (ainsi qu'informatique) à la fois sollicitant et répondant à un nouveau répertoire, accompagnant également l'arrivée des synthétiseurs et échantillonneurs dans l'instrumentarium de la musique contemporaine. Ceci prolonge la construction d'instruments depuis l'avènement de l'électricité dont quelques exemples sont notoires : Ondes Martenot, Theremin, etc. (à la suite du saxophone (1846), tuba Wagner (1875), sousaphone (1898), tubax (1999), etc.). L'évolution de la facture instrumentale et de la lutherie n'a jamais cessé et il est tout à fait légitime de penser que la musique en réseau peut mettre à jour à nouveau des questions de facture, d'organologie et de lutherie.

En parallèle, de nouveaux modes de composition liés à l'intégration de l'aléatoire et de processus de variabilité (des jeux, des matériaux, des combinatoires; comme chez John Cage, Cornelius Cardew ou Earle Brown, jusqu'aux partitions graphiques qu'ils ont réalisées[note 2]) se sont développés; ce qui n'avait rien d'inédit si nous nous référons à la « Musikalisches Opfer » (L'Offrande Musicale) de J.S. Bach (1747), œuvre dans laquelle l'instrumentation n'est déterminée qu'en partie, ou encore au « Musikalisches Würfelspiel » (Jeu de dés musical) de W.A. Mozart (1787). Par ailleurs, la composition combinatoire a trouvé un de ses aboutissements dans la musique répétitive (« Vexations » de d'Erik Satie, les œuvres de Steve Reich) et dans la musique dodécaphonique (à l'exemple des œuvres d'Anton Webern) et sérielle.

L'électroacoustique (et la musique acousmatique), de son côté, a permis d'intégrer entre autres la manipulation des sons à partir de leur enregistrement et de leur diffusion dans des dimensions spatiales (par le biais de l'amplification et de la construction de systèmes voire d'orchestre de haut-parleurs), et le développement de la synthèse électronique des sons a élargi la palette des matériaux sonores et des timbres.

Á peu près à la même époque, l'apparition des techniques des télécommunications, notamment avec le téléphone, a donné la possibilité de développer des instruments pour jouer et écouter à distance la musique et d'envisager ainsi le développement actuel de la musique en réseau. Deux références historiques sont le « Telharmonium » de Thaddeus Cahill en 1897, et l'« Aconcryptophone » (ou « Acoucryphone » ou encore « Enchanted Lyre) de Charles Wheatstone en 1821 (et son « Diaphonicon » en 1822)[46]; nous pourrions y associer aussi plusieurs références littéraires qui ont imaginé la musique en réseau et le transport des sons à distance par des techniques de transmission, dont, par exemple: la description d'un concert en réseau par Jules Verne dans « Une Ville Idéale » (1875)[47] (en parallèle de sa description d'un concert acousmatique, qu'il appelle « concert électrique », dans son ouvrage « Paris au XXe siècle »[48]); le globe terrestre sonore sur lequel le toucher d'un lieu permet d'entendre en direct les sons de l'environnement qui y est capté à distance par l'entremise de tuyaux, dans « Giphantie » de Tiphaigne de la Roche[49] (ce qui rappelle la description des « sound-houses » de Francis Bacon dans « New Atlantis » en 1627[50]); et à une époque plus récente, le piano microphonique décrit par Guillaume Apollinaire dans « Le Roi-Lune »[51], chaque touche étant reliée à un microphone placé dans différents lieux du monde; deux dernières références peuvent être aussi associées, la première plus éloignée étant celle des « Paroles Gelées » citée par Rabelais[52], et la seconde au début du XXe siècle, étant le texte « La Conquête de l'Ubiquité » par Paul Valéry en 1928[53].

Nous retrouvons au XXe siècle quelques réalisations musicales qui avant l'Internet en font écho : « Credo in US (en) » de John Cage en 1942 avec l'utilisation de radios comme matériau musical, investigation qu'il a poursuivie dans « Imaginary Landscape No. 4 for Twelve Radios » créée en 1951[54] et dans d'autres œuvres dont notamment en 1966 avec les « Variations VII » qui intègrent des sons provenant en direct de téléphones décrochés dans certains lieux de la ville de New York (Variations (Cage) (en)); les « City Links » de Maryanne Amacher en 1967 constitués de prises de sons continues à l'aide de microphones placés dans des lieux disséminés, et transmises de manière permanente par téléphone ; « RadioNet » et surtout « Public Supply » de Max Neuhaus (en) en 1966 qui consistent en des sons envoyés par les auditeurs par téléphone, et mixés en direct à la radio par l'auteur; et, enfin, comme dernier exemple, la plupart des œuvres de Bill Fontana utilisent la transmission en direct des sons de lieux à d'autres, à partir de « Kirribilli Wharf » en 1976, jusqu'à « Sound Island » réalisé à Paris en 1994 et « Cologne San Francisco Sound Bridge » en 1987. En novembre 1983, plusieurs musiciens et artistes participent à un événement de « telephone music » à partir de trois lieux (durant 20 minutes) : Artpool (Budapest), Blix/ÖKS (Vienne) et la galerie Aufbau-Abbau (Berlin).

Une des références majeures est le collectif « The Hub »[55] (issu de The League of Automatic Composers) actif de 1976 à 1987, qui jouait sur des configurations informatiques et électroniques interconnectées. « The Hub » a expérimenté des concerts en réseau basés sur des communications MIDI sur Internet et distribués sur plusieurs lieux — toutefois, "il a été plus difficile que prévu de résoudre les problèmes logiciel sur chacun des ordinateurs placés dans chaque lieu à cause de la disparité des OS et des vitesses de CPU"[56]. Le CIRM à Nice organise un concert transatlantique avec l'Electronic Cafe à Santa Monica : Terry Riley improvise sur ses claviers en Californie et pilote en même temps un Disklavier à Nice, la liaison (MIDI) s'effectuant par modem et visiophone avec le logiciel MidiPhone[57]. En 1993, l'University of Southern California Information Sciences Institute a commencé à réaliser des concerts en réseau sur Internet[16]. Le collectif ResRocket (Willy Henshall, Tim Bran, Matt Moller et Canton Becker) a développé en 1995 une application permettant de faire des concerts MIDI en réseau, chaque musicien ayant son « studio virtuel » et à l'aide de ce programme, baptisé « DRGN » (Distributed Realtime Groove Network), participe à des jam sessions et compose ensemble simultanément sur le même morceau. Entre 1992 et 1998, le CIRM a réalisé plusieurs types de concert en réseau : au Festival Manca en 1995, concert durant lequel David Hykes chantait avec son ensemble vocal à New York (The Harmonic Choir), le son étant transporté via ISDN et diffusé dans l'espace acoustique réverbérant (12 secondes) de l'Abbaye du Thoronet dans le Sud de la France, et ainsi « traité », retransmis en temps réel dans la salle de concert de The Kitchen; en 1997, la voix d'une chanteuse à Nice est traitée en temps réel par Lawrence Casserley à Londres et rediffusée dans la salle de concert en France, la chanteuse jouant ainsi en direct avec sa propre voix traitée, filtrée et harmonisée à distance; en 1997, Jérôme Joy crée « Gestes » au Festival Manca[58], un œuvre instrumentale et électroacoustique en réseau (en ISDN) avec des musiciens à Nice et à Londres (d'où la combinaison avec le Festival Lust à I.C.A., les deux lieux accueillant un public. La communication visuelle était prévue mais malheureusement des problèmes de compatibilité avec les standards anglais (BBC) ont empêché son utilisation. Il avait réalisé l'année précédente en 1996, « Vocales », une œuvre d'hypermusique (ou télémusique) entièrement conçue sur des protocoles Internet (référence Libération)); la même année, Luc Martinez organise un concert en réseau pour la séance d'ouverture de l'Union internationale des télécommunications à Genève : un percussionniste (Alex Grillo) joue sous terre sur les stalactites des grottes de Saint-Cézaire dans les environs de Nice, les sons étant retransmis via des lignes ISDN en Suisse[59]. Comme il est mentionné dans « From remote media immersion to Distributed Immersive Performance » de Sawchuk en 2003, un concert entre des musiciens répartis à Varsovie, Helsinki et Oslo, a été réalisé en 1998 sur un dispositif en réseau à partir de technologies RealMedia. Trois œuvres de ces musiciens répartis furent créées : « Mélange à Trois » (Shinji Kanki), « Nanawatai » (Håkon Berge) et « AV-Quintet plus many » (Maciej Walczak).

Ces premiers concerts en réseau ont tous fait face à des problèmes liés à des conditions de latence, de synchronisation des signaux, et d'écho et de feedback, rendant difficile la restitution de la dimension potentielle (audio et video) de tels concerts qui à l'époque n'étaient pas encore complètement immersifs[60].

L'espace et la distance comme paramètres dans la composition[modifier | modifier le code]

Les questions de l'instrument et de la composition live (en direct) en tant que modes d'expérimentation parcourent tout un pan de la musique du XXe siècle. Ces dimensions expérimentales représentent une partie des conditions de la musique actuelle et définissent les enjeux d'un horizon musical : celui engagé par Karlheinz Stockhausen dans « Mikrophonie (I et II) » (1964/1965), œuvre dans laquelle expérimenter l'instrument fait œuvre (Mikrophonie (Stockhausen) (en)), par David Tudor dans « Rainforest » (1968/1976), par John Cage dans « Cartridge Music » (1960), à propos de l'intégration du direct dans la composition, ou encore les enjeux lancés par les initiatives permettant de prendre l'enregistrement comme support de création (comme avec la « GrammophonMusik » envisagée par Alexander Dillmann (en 1910) et Heinz Stuckenschmidt (en 1925), puis réalisée en 1929 par Paul Hindemith et Ernst Toch avant que Pierre Schaeffer ne lance l'aventure de la musique concrète, puis électroacoustique et acousmatique).

Ces expérimentations riches en formes et en contenus semblent rejoindre une autre question, celle concernant l'intention de jouer et de faire sonner le réel au sein d'une œuvre : à l'image de l'utilisation d'emprunts dans les œuvres de Charles Ives, de Gustav Mahler, voire de Bela Bartok (mais aussi, au travers d'exemples plus éloignés dans le temps, comme dans certaines œuvres de Jean-Philippe Rameau [61]) jusqu'à celles, avant l'accès aux techniques d'échantillonnage (ou sampling), de John Cage (« Roaratorio » en 1979), Luciano Berio (« Sinfonia », 1968), Karlheinz Stockhausen (« Telemusik », 1966 , « Hymnen », 1967) et de la musique électroacoustique (Luc Ferrari avec ses « Presque-Rien », 1967-1998), pour arriver à des œuvres plus récentes liées aux techniques de sonification pour générer du matériau sonore et musical à partir de variations de données captées dans des environnements (Andrea Polli). De même la prise en compte de l'environnement dans une œuvre avait trouvé son apogée dans « 4'33" » de John Cage lorsque le 29 août 1952 cette œuvre (silencieuse) avait été créée par David Tudor dans une salle de concert (le Maverick Concert Hall) dont l'arrière était ouvert directement au plein air, laissant le mixage fortuit des sons environnants venant de l'extérieur et du public faire « œuvre ».

Quant aux expérimentations liées à l'espace et aux multi-dimensionnalités acoustiques qui peuvent se déployer dans une réalisation musicale, elles sont présentes dans la musique depuis de nombreux siècles — un seul exemple avec les «  Cori Spezzati (en) » de Giovanni Gabrieli (1557-1612) —, et le développement de dimensions instrumentales liées à l'espace trouve aujourd'hui son expression par l'appropriation et la musicalisation des techniques informatiques[62] ainsi que de celles liées aux réseaux et au techniques de streaming. Concernant l'utilisation de la distance par le positionnement, le parcours ou le déplacement des musiciens au-delà des murs d'une salle de concert, afin de créer des effets acoustiques d'intensité et de relief, Hector Berlioz dans son livre « Les Soirées de L'Orchestre », et plus spécifiquement dans une fiction intitulée « Euphonia ou la Ville Musicale »[63], décrit des concerts monumentaux de plus de dix mille musiciens répartis dans la ville. Un autre exemple est celui de Charles Ives et de sa « Universe Symphony » de 1911, restée inachevée, pour laquelle il imagine plusieurs orchestres et ensembles instrumentaux, chacun accordé sur des systèmes harmoniques différents et jouant simultanément tout en étant répartis dans les montagnes et les vallées. De son côté, Karlheinz Stockhausen avec ses œuvres « Sternklang — Parkmusic » pour 5 groupes d'instrumentistes pour une durée d'environ 3 heures (1971) et « Musik für ein Haus » (1968) consistant en des compositions collectives données simultanément dans quatre pièces d'une même maison[64], ou encore « Alphabet für Liège » (1972) une œuvre de 4 heures répartie dans quatorze salles ouvertes les unes sur les autres que les auditeurs traversaient et parcouraient (dans les sous-sols du Palais des Congrès de Liège qui était alors en chantier). D'autres œuvres déambulatoires (les musiciens et/ou les auditeurs) sont celles plus récentes de Rebecca Saunders dont la série des « Chroma » (2003), œuvre instrumentale « spatialisée » jouant sur la distribution des musiciens dans différents espaces acoustiques d'un même bâtiment[65]. De son côté, le groupe de recherche « Locus Sonus » explore au travers des espaces sonores en réseau la notion de « field spatialization » (spatialisation de terrains, ou spatialisation ambulatoire)[66] dans laquelle les sons peuvent traverser et être diffusés dans des espaces acoustiques de natures différentes (naturels ou synthétiques, en proximité ou à distance — de la diffusion sur haut-parleurs dans un espace local, dans des espaces « outdoor » parcourus, à la diffusion par streaming dans des espaces disjoints et distants, jusqu'à des intrications de diffusions et d'acoustiques entre espaces physiques et virtuels), chacun de ceux-ci donnant ses qualités propres de réverbération et d'ambiance selon la position des auditeurs qui peuvent être répartis également dans ces différents espaces (physiques, virtuels, mobiles, etc.)[67].


Métaphores[modifier | modifier le code]

Une variété de métaphores présentes dans la littérature sont utilisées pour les transports de sons à distance, enregistreurs, musiciens et musiques en réseau : les sons capturés et transportés d’un lieu à un autre par des éponges (Charles Sorel, 1632), et des paroles gelées (Mandeville, 1356 ; Balthasar de Castillon, 1528 ; Rabelais, 1552) — en ayant soin de bien choisir la saison —, ou encore dans une canne de bambou (légende de Chine) et conduits et tuyaux (Francis Bacon, 1627); il s’agit aussi d’inventer des interfaces tel que ce globe tissé de canaux imperceptibles (Tiphaigne de la Roche, 1760), et ce clavier ou orgue à microphones en multiplex, chaque touche déclenchant le fonctionnement de microphones distants autour de la planète, l’ensemble jouant la symphonie du monde (« Le Roi-Lune », Apollinaire, 1916), ou de les substituer par un cortège de machines et appareils inventés dont le « téléchromophotophonotétroscope » imaginé par Didier de Chousy dans « Ignis » (1883) et des capteurs microphoniques à distance, comme ceux installés par Télek (« Le Château des Carpathes », Jules Verne, 1892) et le « téléphonoscope », proposé en 1878 par George Daphné du Maurier, imaginé par Camille Flammarion en 1894 pour relier la Terre à la planète Mars (« La fin du monde ») ou permettant de suivre à distance et en direct les représentations musicales ou théâtrales (« Le Vingtième Siècle - La Vie Électrique », Albert Robida, 1883). Jules Verne décrit en 1875 un concert en réseau par le pianiste Pianowski jouant à Moscou sur des pianos à distance situés dans différentes salles de concert autour du globe (« Une Ville Idéale », Jules Verne, 1875). De son côté, Philip K. Dick imaginent des concerts « psychokinétiques » joués et transmis à distance, sans le toucher des instruments et la diffusion acoustique ou électroacoustique, par le pianiste Richard Kongrosian (« Simulacres », 1963).

Le développement de la téléphonie puis de la radio à la fin du XIXe siècle et au début du XXe siècle, techniques de communication qui ont été conçues pour la transmission du son, a permis de soulever les enjeux quasi anthropologiques liés aux transports de son et à l'écoute à distance. Citons deux extraits de Paul Valéry, le premier relevant l'opposition de l'homme mobile et de l'homme enraciné dans un texte de 1937, et le second datant de 1928, s'appuyant sur l'avenir d'un monde tout-connecté :

« Un monde transformé par l’esprit n’offre plus à l’esprit les mêmes perspectives et les directions que jadis ; il lui impose des problèmes entièrement nouveaux, des énigmes innombrables. (…) Après votre dîner, et dans le même instant de votre perception ou de votre durée, vous pouvez être par l’oreille à New York (et bientôt, par la vue), tandis que votre cigarette fume et se consume à Paris. Au sens propre du terme, c’est là une dislocation, qui ne sera pas sans conséquence. »[68]

« Je ne sais si jamais philosophe a rêvé d’une société pour la distribution de Réalité Sensible à domicile. (...) Cette circonstance, jointe aux récents progrès dans les moyens de transmission, suggérait deux problèmes techniques : I. – Faire entendre en tout point du globe, dans l’instant même, une œuvre musicale exécutée n’importe où. II. – En tout point du globe, et à tout moment, restituer à volonté une œuvre musicale. Ces problèmes sont résolus. Les solutions se font chaque jour plus parfaites. » [69]

Bibliographie[modifier | modifier le code]

  • Baranski Sandrine, La musique en réseau, une musique de la complexité ?, Éditions universitaires européennes, mai 2010. Musique en réseau
  • Baranski Sandrine, "Topographie de la musique en réseau sur Internet" in Revue Filigrane n°12 - Musique et Lieu, Editions Delatour, 2010 Topographie de la musique en réseau sur Internet
  • Barbosa A., Kaltenbrunner M. (2002, Public sound objects: A shared musical space on the web. In Proc. Intl. Conf. on Web Delivering of Music.
  • Barbosa A. (2008), Displaced Soundscapes - Computer Supported Cooperative Work for Music Applications, VDM Verlag.
  • Barger R., Church S., Fukada A., Grunke J., Keisler D., Moses B., Novak B., Pennycook B., Settel Z., Strawn J., Wiser P., and Woszczyk W. (1998), Networking Audio and Music Using Internet2 and Next Generation Internet Capabilities. AES White Paper, New York: Audio Engineering Society.
  • Bischoff J., Gold R., and Horton J. (1978), Microcomputer Network Music. Computer Music Journal 2(3):24–29, 1978.
  • Bischoff J., Gold R., Horton J. (1978), Music for an interactive network of microcomputers. Computer Music Journal, 2:24–29, 1978. Music Journal, 1:103–105, 1991.
  • Bosma J. (2000), Musik und das Internet ~ Musaic, Crossfade, SFMoma, the Walker Art Centre, ZKM and the Goethe Institute.
  • Bouillot N. (2003), Un algorithme d’auto synchronisation distribuée de flux audio dans le concert virtuel réparti. In Proc. of The Conférence Française sur les Systèmes d’Exploitation (CFSE’3), La Colle sur Loup, France, October 2003.
  • Braasch J. (2008), Telematic Music - Restrictions and Advantages compared to traditional one-site music events, Proceedings of ICMC’08, SARC Belfast, p. 538–539, August 24-29, 2008.
  • Brown C., Bischoff J. (2003), Eternal Network Music, http://crossfade.walkerart.org/brownbischoff2/eternal/
  • Burk P. (2000), Jammin' on the web – a new client/server architecture for multi-user performance. Proceedings of the International Music Conference (Berlin, Germany). International Computer Music Association, ICMC 2000, p. 117-120.
  • Carôt A., Jens H., Kraemer U., Schuller G., Wabnik S., Werner C. (2007), Network Music Performance with ultra-low-delay audio coding under unreliable network conditions. Proceedings of the 123rd AES Convention, New-York.
  • Casey M., Smaragdis P. (1996), NetSound. ICMC96 Paper, Proceedings of the International Computer Music Conference 1996, Hong Kong.
  • Chafe C. (2008), Tapping into the Internet as an Acoustical and Musical Medium. Proceedings of ICMC’08, SARC Belfast, p. 544-545, August 24-29, 2008.
  • Cooperstock J.R. (?), History of Spatially Distributed Performance, http://www.cim.mcgill.ca/sre/projects/rtnm/history.html
  • Costa J., Barbosa A. Coimbra D. (2006), Shared Soundscapes: A social environment for collective music creation. 9th International Conference on Music and Cognition (ICMPC 9), Bologna, Italy.
  • Davis E. (1997), Acoustic Cyberspace”, http://www.techgnosis.com/acoustic.html
  • Didkovsky N. (1997), Metamusic / Metatext: The Blurry Boundaries Around Distributed Compositional Systems. Leonardo Music Journal 7/1997, p. 73-76.
  • Duckworth W. (2005), Virtual Music – How the web got wired the sound. Routledge Publishing, 2005.
  • Fober D., Orlarey Y., Letz S. (2001), Real time musical events streaming over Internet. Proceedings of the International Conference on WEB Delivering of Music, p. 147-154.
  • Foellmer G. (2000), Musik aus dem Internet. AkuNeueMusik und Medien, Altenburg 2000, p. 69-76.
  • Foellmer G. (2002), Netzmusik. Elektronische, ästhetische und soziale Strukturen einer partizipativen Musik. Dissertation Martin-Luther-Universität Halle-Wittenberg 2002; Wolke Verlag, Hofheim 2005.
  • Foellmer G. (2004), Netzmusik / NetMusic, revue and CD-rom, in Neue Zeitschrift für Musik, no. CLXV, Wergo Ed., Sept./Oct. 2004.
  • Foellmer G. (2009), Musik im Internet. In Handbuch Musik und Medien, hrsg. v. Holger Schramm, Konstanz 2009, p. 235-275.
  • Gerlach T. (2000), Musiker im Netz - Breakdown oder Added Value für ausübende Künstler?. Musikforum 36:92/2000, p. 44-48.
  • Giuli, D., Pirri, F., Bussotti, P. (1999), Orchestra ! : a distributed platform for virtual musical groups and music distance learning over the Internet in JavaTMtechnology. In Multimedia Computing and Systems, 1999. IEEE International Conference on Volume 2, Issue Jul 1999, p. 987-988.
  • Gresham-Lancaster S. (1998), The aesthetics and history of The Hub: The effects of changing technology on network computer music. Leonardo Music Journal, 8, p. 39-44.
  • Griffith N. (1999), Musical Networks. Parallel Distributed Perception and Performance. Cambridge, MA: MIT Press.
  • Gu, X., Dick, M., Noyer, U., Wolf, L. (2004), NMP - a new networked music performance system, in Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, p. 176-185.
  • Gu X., Dick M., Kurtisi Z., Noyer U., Wolf L. (2005), Network-centric music performance: Practice and experiments. IEEE Communications, Vol.43, No. 6, p. 86–93.
  • Gurevich M. (2006), JamSpace: Designing A Collaborative Networked Music Space for Novices, Proceedings of the 2006 International Conference on New Interfaces for Musical Expression (NIME06), Paris, France.
  • Helmuth M. (2000), Sound exchange and performance on Internet2. Proceedings of the 2000 International Computer Music Conference.San Francisco, California: International Computer Music Association, p. 121–124.
  • Jordà S. (1999), Faust music on line (FMOL): An approach to real-time collective composition on the Internet. Leonardo Music Journal, 9, p. 5-12.
  • Joy J. (1998), Hypermusic, composition and programmings, Imagina 98 Proceedings, Monaco.
  • Joy J., Sinclair P. (2008), Networked Sonic Spaces - Locus Sonus. Proceedings of ICMC’08, SARC Belfast, p. 553-555, August 24-29, 2008.
  • Joy J., Sinclair P. (2009), Networked Music and Sound Art Timeline (NMSAT) - A panoramic view of practices & technics related to sound transmission and distance listening. Contemporary Music Review, Vol. 28, "Network Performance", Issues 4 & 5.
  • Kapur A., Wang G., Davidson P., Cook P.R. (2005), Interactive Network Performance : a dream worth dreaming ? Organised Sound 10(3), p. 209-219.
  • Konstantas D, Orlarey Y., Gibbs S., Carbonel O. (1997), Distributed Musical Rehearsals. Proceedings of the International Computer Music Conference 97, September 25-30 1997, Thessaloniki, Greece.
  • Landre S., Mocquillon Y. (2005), Groupes Musicaux Virtuels et Concerts Virtuels, Master IL, Laboratoire Informatique des Systèmes Complexes, Brest.
  • Lazzaro J., Wawrzynek J. (2001), A Case for Network Musical Performance. The 11th International Workshop on Network and Operating Systems Support for Digital Audio and Video (NOSSDAV 2001), Port Jefferson, New York, June 25-26, 2001.
  • Locher H-N., Bouillot N., Becquet E., Dechelle F., and Gressier-Soudan E. (2003), Monitoring the distributed virtual orchestra with a corba based object oriented real-time data distribution service. In Proceedings DOA’03 International Symposium on Distributed Objects and Applications, Catagna, Italy, November 2003.
  • Machover T. (1991), Hyperinstruments: A Composer’s Approach to the Evolution of Intelligent Musical Instruments. Cyberarts, San Francisco 1991, p. 67-76.
  • Madden T., R. B., Smith, Wright M., and Wessel D. (2001), Preparation for interactive live computer performance in collaboration with a symphony orchestra. In Proceedings of the International Computer Music Conference, p. 310–13. Havana, Cuba: ICMA, 2001.
  • Magnusson T. (2007), Musical Collaboration Over High-speed Networks. AHRC ICT Methods Network Workshop, Centre for Computing in the Humanities, Kay House, King’s College, 19 March 2007.
  • Moore S., Place T. (2001), KromoZone: A Platform for Networked Multimedia Performance. Proceedings of the International Conference “Music without Walls? Music Without Instruments?”, De Montfort University, Leicester.
  • Narine T., Leganchuk A., Mantei M. & Buxton W. (1997), Collaboration awareness and its use to consolidate a disperse group. Proceedings of Interact '97, Sydney, Australia.
  • Neuhaus M. (1994), The Broadcast Works and Audium. In Zeitgleich. Vienna: Triton.
  • Nezvanova N. (2000), The Internet, A Musical Instrument in Perpetual Flux. Computer Music Journal 24 (3), p. 38-41.
  • Oliveros P. (2008), Networked Music : Low & High Tech. In Proceedings of ICMC’08, SARC Belfast, p. 546, August 24-29, 2008.
  • Packer R. (2000), Telemusic 1. Presentation. Sonic Circuits VIII, International Festival of Electronic Music and Art, St. Paul, Minnesota, 3 November 2000.
  • Paradiso J .A. (1999), The Brain Opera Technology: New Instruments and Gestural Sensors for Musical Interaction and Performance. Journal of New Music Research 28:2/1999, p. 130-149.
  • Ramachandra S., Bouillot N. (2006), Diffusion Multicast et cache Multimedia pour le Concert Virtuel Réparti : Expérimentations avec Pastry/SplitStream/Past. Rapport de recherche CEDRIC No 1208..
  • Ramakrishnan C. , Freeman J., Varnik K. (2004), The architecture of auracle: a real-time, distributed, collaborative instrument. Proceedings of the 2004 conference on New interfaces for musical expression, p.100-103, June 03-05, 2004, Hamamatsu, Shizuoka, Japan.
  • Renaud A., Rebelo P. (2006), Network Performance : Strategies and Applications'. NIME 06, SARC Belfast.
  • Renaud A., Carôt A., Rebelo P. (2007), Networked Music Performance : State of the Art. Proceedings of the 30th AES International Conference, Saariselkä, Finland.
  • Rowe R., Rolnick N. (2004), The Technophobe and the Madman: an Internet2 distributed musical. In Proc. of the Int. Computer Music Conf. Miami, Florida, November.
  • Rowe R. (2005), Real and Unreal Time : Expression in Distributed Performance. Journal of New Music Research 34:1, p. 87-95.
  • Rowe R. (2008), Composing for Relative Time in Distributed Performance. In Proceedings of ICMC’08, SARC Belfast, p. 542-543, August 24-29, 2008.
  • Sawchuk A. A., Chew E., Zimmermann R., Papadopoulos C., Kyriakakis C. (2004), Distributed Immersive Performance. Proceedings of the Corporation of Education Networks in California (CENIC 2004) Meeting, Marina del Rey, CA, Mar 15-17, 2004.
  • Schooler E. (1993), Distributed music: a foray into networked performance. International Network Music Festival, Santa Monica, CA.
  • Schroeder, Franziska, Renaud, Alain, Rebelo, Pedro & Gualda, Fernando (2007), Adressing the Network: Performative Strategies for Playing Apart. In Proceedings of the International Computer Music Conference 2007, p. 133-140, Copenhagen, Denmark, August 2007.
  • Schuett N. (2002), The Effects of Latency on Ensemble Performance. Ph.D. Thesis, Stanford University, California, USA.
  • Seggern J. W. v. (2001), Network Effects: the Evolution of Music in Cyberspace. University of Hong Kong.
  • Sinclair P., Joy J. (2007), Locus Sonus. In "Autumn Leaves - Sound and the Environment in Artistic Practice", edited by Angus Carlyle, CRiSAP, University of the Arts London, Ed. Double-Entendre, Paris.
  • Stelkens J. (2003), peerSynth: A P2P multi-user software with new techniques for integrating latency in real time collaboration. In Proc. 2003 Intl. Computer Music Conf..
  • Stelkens J. (2003), Network Synthesizer'. Ph.D. Thesis, Ludwig Maximilians Universität, München, Germany.
  • Tanaka A. (2000), Interfacing Material Space and Immaterial Space: network music projects. In The Journal of the Institute of Artificial Intelligence of Chukyo University, Winter. Toyota, Japan.
  • Tanaka A. (2001), Relier l’immatériel et l’espace immatériel. Les projets de musique en réseau en 2000. Dossiers de l’audiovisuel 96, INA, Bry-sur-Marne.
  • Tanaka A., Bongers B. (2001), Global String: A Musical Instrument for Hybrid Space. In Fleischmann, M., Strauss, W., editor, Proceedings: Cast01 // Living in Mixed Realities, pages 177-181. MARS Exploratory Media Lab FhG - Institut Medienkommunikation.
  • Tanaka A. (2001), Musical implications of media and network infrastructures: Perturbations of traditional artistic roles. In Balpe, J.-P., Leleu-Merveil, S. et al., editor, Actes de H2PTM'01: Hypertextes hypermédias, nouvelles écritures, nouveaux langages, Hermes Science Publications, pages 241-250. Université de Valenciennes Lavoisier.
  • Tanaka A. (2004), Mobile music making. In Proc. 4th Intl. Conf. on New Interfaces for Musical Expression (NIME04).
  • Tanaka A. (2004), From Telepresence to Co-experience: A Decade of Network Music. In Neue Zeitschrift,2004. ed. Golo Foellmer.
  • Tanaka A. (2005), Malleable contents and future musical forms. Vodafone Receiver, July 2005.
  • Tanaka A., Tokui N., Momeni A. (2005), Facilitating Collective Musical Creativity. Sony CSL Paris, MM’05, Singapore.
  • Tanaka A. (2006), Interaction, Experience, and the Future of Music. Computer Supported Cooperative Work (vol. 35 ), pages 267-288, Springer. 2006. In K. O'Hara and B. Brown (eds) Consuming Music Together: Social and collaborative Aspects of Music Consumption Technologies, p. 267-288, 2007.
  • Tanaka A., Gemeinboeck P., Momeni A. (2007), Net_Dérive, A Participative Artwork For Mobile Media. In Proceedings of Mobile Media 2007 Conference. Sydney, Australia.
  • Tanzi D. (?), Musical Experience and Online Communication, http://crossings.tcd.ie/issues/3.1/Tanzi/
  • Traub P. (2005), Sounding the Net: Recent Sonic Works for the Internet and Computer Networks. Contemporary Music Review, Vol. 24, No. 6, December 2005, p. 459-481.
  • Varnik K., Freeman J., Ramakrishnan C. (2004), Tools used while developing auracle: a voice-controlled networked instrument. Proceedings of the 12th annual ACM international conference on Multimedia, October 10-16, 2004, New York, NY, USA.
  • Vesna V. (2000), Networked Public Spaces - An Investigation into Virtual Embodiment PhD Thesis, University of Wales College, Newport.
  • Weinberg G. (2002), Interconnected Musical Networks - Bringing Expression and Thoughtfulness to Collaborative Music Making. Massachusetts Institute of Technology Media Laboratory, Cambridge, MA.
  • Weinberg G. (2002), The Aesthetics, History, and Future Challenges of Interconnected Music Networks. MIT Media Laboratory.
  • Weinberg G. (2003), Interconnected Musical Networks – Bringing Expression and Thoughtfulness to Collaborative Music Making. Ph.D. Thesis, Massachusetts Institute of Technology, Massachusetts, USA.
  • Weinberg G. (2005), Interconnected Musical Networks: Toward a Theoretical Framework. Computer Music Journal, Vol. 29, Issue 2, p. 23-29.
  • Welzl M. (1997), NetMusic: Real time concepts and systems for telecooperative exchange of musical informatik (in German). Diploma Thesis, University of Linz: Teleco-operation.
  • Welzl M., Mühlhäuser M., Borchers J. (2007), MINI - Making MIDI fit for Real-time Musical Interaction over the Internet. IEEE International Workshop on Advances in Multimedia (AIM-07), co-located with IEEE ISM-07, 10-12 December 2007, Taichung, Taiwan, IEEE CS press.
  • Wozniewski M., Settel Z., Cooperstock J.R. (2006), A framework for immersive spatial audio performance. In New Interfaces for Musical Expression (NIME), Paris, p. 144-149.
  • Xu A., Woszczyk W., Settel Z., Pennycook B., Rowe R., Galanter P., Bary J., Martin G., Corey J., and Cooperstock J. (2000), Real time streaming of multichannel audio data through the Internet. In Journal of the Audio Engineering Society 48 (7/8), p. 627-641, July/August 2000.
  • Yamagishi S., Setoh K. (1998), Variations for WWW: network music by MAX and the WWW. Proceedings of the International Computer Music Conference. p. 510-13. Ann Arbor, MI: ICMA, 1998.
  • Young J.P., Fujinaga I. (1999), Piano master classes via the Internet. Proceedings of the International Computer Music Conference. p. 135-7. Beijing, China: ICMA, 1999.
  • Young J.P. (2001), Networked Music: Bridging Real and Virtual Space. In Organised Sound archive Volume 6, Issue 2 (August 2001), p. 107-110, Presented at 'Music without Walls? Music without Instruments?' 2001 in Leicester, UK.
  • Young J.P. (2001), Using the Web for Live Interactive Music. Presented at ICMC 2001 in Havana, Cuba, Proceedings of the International Computer Music Conference. Havana, Cuba: ICMA. 2001.
  • Zimmermann R., Chew E., Arslan Ay S., Pawar M. (2004), Distributed Musical Performances: Architecture and Stream Management. ACM Transactions on Multimedia Computing Communications and Applications. ACM Transactions on Multimedia Computing Communications and Applications.

Notes et références[modifier | modifier le code]

Notes
  1. http://crossfade.walkerart.org/brownbischoff/
  2. Par exemple : « Teatrise » (1963-1967) de Cornelius Cardew.
Références
  1. Lazzaro, J.;Wawrzynek, J., A case for network musical performance, In NOSSDAV '01: Proceedings of the 11th international workshop on Network and operating systems support for digital audio and video, 2001, p. 157-166, ACM Press New York, NY, USA. http://doi.acm.org/10.1145/378344.378367
  2. Renaud, Alain, Carôt, Alexander & Rebelo, Pedro (2007), « Networked Music Performance: State of the Art ». Paper, AES 30th International Conference, Saariselkä, Finland, 2007 March 15-17; Schroeder, Franziska, Renaud, Alain, Rebelo, Pedro & Gualda, Fernando (2007), « Adressing the Network: Performative Strategies for Playing Apart ». In Proceedings of the International Computer Music Conference 2007, Copenhagen, Denmark, August 2007, (p. 133-140); Renaud, Alain & Rebelo, Pedro (2006), « Network Performance: Strategies and Applications ». Paper NIME 2006; Barbosa, Àlvaro (2003), « Displaced SoundScapes: A Survey of Network Systems for Music and Sonic Art Creation ». In Leonardo Music Journal, Vol. 13, No. 1, (p. 53-59).
  3. Le GRAME-EOC music ensemble a effectué des répétitions réparties entre l'Université de Genève et le Research Center for Information Technology à Bonn, le 15 novembre 1996. L'œuvre en répétition était « Dérive » (1984) de Pierre Boulez. Les 6 musiciens étaient à Genève et le chef d'orchestre à Bonn. En 1998, pour la cérémonie d'ouverture des Jeux Olympiques de Nagano, Seiji Osawa a dirigé un ensemble de chœurs répartis sur les 5 continents pour jouer l'« Ode à la Joie » de Ludwig Van Beethoven. Il y avait 200 chanteurs dans chaque ville (Sydney, New York, Pékin, Berlin, False Bay), ainsi que 2000 chanteurs, le chef d'orchestre, huit solistes et l'orchestre sur place à Nagano.
  4. Alexandraki, C.; Koutlemanis, P.; Gasteratos, P.; Valsamakis, N.; Akoumianakis, D.; Milolidakis, G.; Vellis, G.; Kotsalis, D., Towards the implementation of a generic platform for networked music performance: The DIAMOUSES approach, In EProceedings of the ICMC 2008 International Computer Music Conference (ICMC 2008), p. 251-258
  5. Le groupe Future Sound of London (FSOL) a réalisé la tournée et le cd « ISDN » en 1994 en restant « à la maison ». Ils jouaient à partir de chez eux avec une connexion ISDN.
  6. Sawchuk, A.;Chew, E.; Zimmermann, R.;Papadopoulos,C.; Kyriakakis,C., From remote media immersion to Distributed Immersive Performance, In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, p. 110-120, ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506
  7. IrC, chat, ResRocket, etc.
  8. Voir note 2 ci-dessus
  9. Marc Battier, « Une nouvelle géométrie du son : le paradoxe de la lutherie électronique », Cahiers de l'IRCAM no 7, 1995
  10. (Varèse, Edgar (1917), « Verbe » & « Que la musique sonne », REVUE 391, n° 5, New York, June 1917, p. 1 & p. 3.)
  11. (Varèse, Edgard (1936), « New Instruments and New Music », In « The Liberation of Sound. Perspectives on New Instruments and New Music », Elliott Schwartz & Barney Childs (eds.), 1936.)
  12. Gutwin, C.; Greenberg, S. The Importance of Awareness for Team Cognition in Distributed Collaboration, In Report 2001-696-19, Dept Computer Science, University of Calgary, Alberta, Canada, p. 1-33, 2001.
  13. Plutarque (ca. 100), Comment Écouter, Traduit du grec par Pierre Maréchaux, collection Petite Bibliothèque, 1995, p. 52-53, Paris: Éd. Payot & Rivages.
  14. Montaigne (1580), Essais, I, 40 - Considérations sur Cicéron, Collection Quadridge, 2004, p. 251, Paris: Presses Universitaires de France; Et aussi: Montaigne (1588), Essais, III, XIII — De l'Expérience, Collection Quadridge, 2004, p. 1067-1088, Paris: Presses Universitaires de France.
  15. Malhotra, V., The Social Accomplishment of Music in a Symphony Orchestra: A Phenomenological Analysis, In Qualitative Sociology, Vol. 4, no. 2, p. 102-125, 1981.
  16. a, b et c Sawchuck, 2003
  17. Schütz, Alfred. 1951 [2007]. Ibid., p. 133-138. Citons par exemple ce passage: « A travers cette re-création du processus musical, l’interprète prend part au courant de conscience du compositeur aussi bien que de l’auditeur. De ce fait il aide ce dernier à s’immerger dans l’articulation particulière du flux du temps interne qui est le sens propre du morceau de musique considéré. Que l’interprète et l’auditeur partagent entre eux un présent vivant dans une relation de face-à-face ou qu’ils ne partagent, par l’interposition de procédés mécaniques comme le disque, qu’une quasi-simultanéité de leur courant de conscience, importe peu. Ce dernier cas renvoie toujours au premier. La différence qui existe entre les deux démontre seulement que la relation entre l’interprète et le public est sujette à des variations d’intensité, d’intimité et d’anonymat. On comprend cela très bien si l’on imagine un auditoire constitué d’une seule personne, d’un petit groupe de personnes dans un lieu privé, d’une foule remplissant une grande salle de concert ou des auditeurs entièrement inconnus d’une exécution radiophonique ou d’un disque vendu dans le commerce. Dans toutes ces circonstances, l’interprète et l’auditeur se syntonisent l’un sur l’autre. »
  18. Schütz, Alfred. 1951. Op. Cit. p. 136.
  19. comme dans les concerts réalisés par les collectifs « Sobralasolas ! » et « nnybinap », ainsi que dans le cadre des événements « nomusic » et du « Placard » (Emmanuelle Gibello).
  20. Par exemple : Pedro Rebelo (« NetRooms — The Long Feedback », http://www.sarc.qub.ac.uk/~prebelo/netrooms/), Georg Hajdu (« Net.Quintet », http://www.quintet-net.org/), et le collectif « Sobralasolas! » initié par Jérôme Joy, http://sobralasolas.org/).
  21. http://www.emf.org/tudor/, http://www.fondation-langlois.org/flash/f/index.php?NumPage=571, http://www.efi.group.shef.ac.uk/mamm.html, « Aus den Sieben Tagen » (1968, créée en 1969) de Karlheinz Stockhausen.
  22. Szendy, Peter (2001), Écoute - Une histoire de nos oreilles, Paris: Les Éditions de Minuit.
  23. During, Élie. 2004. « La Coupe, l’Écran, la Trame ». In Révolutions Industrielles de la Musique, Cahiers de la Médiologie / IRCAM, no 18, (p. 57-64). Paris: Librairie Arthème Fayard.
  24. Gould, Glenn (1983), « Les Perspectives de l'Enregistrement », In "Le Dernier Puritain — Écrits 1", édité par Bruno Monsaigeon, Paris: Fayard.
  25. Kihm, Christophe (2004), « Platinisme et Pratiques d'Amplification ». In "Révolutions Industrielles de la Musique", édité par Nicolas Donin et Bernard Stiegler, Cahiers de Médiologie, no. 18, p. 123-129. Paris: Librairie Arthème Fayard.
  26. Golo Föllmer (2002), Making Music on the Net, social and aesthetic structures in participative music; Nathan Schuett (2002), The Effects of Latency on Ensemble Performance; Jörg Stelkens (2003), Network Synthesizer; Gil Weinberg (2003), Interconnected Musical Networks: Bringing Expression and Thoughtfulness to Collaborative Music; Álvaro Barbosa (2006°, Displaced Soundscapes; Alain Renaud & Pedro Rebelo (2007), Networked Music Performance - State of the Art.
  27. Stephan Moore & Timothy A. Place (2001), KromoZone : a platform for networked multimedia Performance, In Proceedings of the International Conference “Music without Walls? Music Without Instruments?”, De Montfort University, Leicester.
  28. « In one sense, almost all music is networked music: whenever musicians play together, their eyes and ears are connected by a complex, real-time network of aural and visual signals that have a tremendous impact on what they play and how they play it. And musicians are usually part of a second network as well, which connects them back to the composer who created the score and the listeners who hear the performance (or a recording of it). That formulation, of course, is too broad to be particularly useful. So here is a more restricted version: networked music is music in which we consciously manipulate, transform, or mediate the connections between performing musicians and/or between the composer, performers, and listeners. » (Jason Freeman).
  29. Jérôme Joy & Peter Sinclair (2008), Networked Sonic Spaces — Locus Sonus, ICMC’08, International Computer Music Conference, SARC Sonic Art Research Center, Queen's University, Belfast.
  30. Alain Renaud & Pedro Rebelo (2006), Network Performance: Strategies and Applications, SARC Belfast, NIME’06.
  31. Media without an audience d’Eric Kluitenberg, Singing without Being Together - juxtaposed music for an invisible public de Dana Rappoport.
  32. The Internet, a musical instrument in perpetual flux de Netochka Nezvanova, la notion d’organologie des dispositifs en réseau que Locus Sonus tente de développer (Networked Sonic Spaces), The Environment as a Musical Resource de Bill Fontana, The World as an Instrument de Francisco Lopez.
  33. « The use of remote acoustics and the idea of exchanging acoustic spaces suggests the network acting as an extension of a closed acoustic space. The combination of several geographically displaced acoustic spaces is only possible in a networked situation. » (In Network Performance : Strategies and Applications par Alain Renaud et Pedro Rebelo)
  34. Jonas Braasch (2008), Telematic Music - restrictions and Advantages Compared to Traditional One-Site Music Events, Rensselaer Polytechnic Institute, ICMC’08, SARC Belfast.
  35. Facilitating Collective Musical Creativity d'Atau Tanaka, CultureLab, University of Newcastle. « L'union des technologies de la communication et de l'informatique permet un développement des pratiques sonores. La connectivité permise est proportionnelle à la remise en question de la géographie. Assurant du coup, l'émergence de champs d'expérience perceptive, et favorisant, peut-être, l'échange et la collaboration créative. » (Yannick Dauby, Paysages Sonores Partagés, p. 8, 2004.)
  36. Sophie Gosselin, Apo33, Sound mutations: from radio diffusion to radio communication, http://apo33.org/poulpe , publié dans “Radio Territories”, édité par Errant Bodies.
  37. « Sonification is the use of non-speech audio to convey information data to sound ». (G. Kramer, B. Walker, T. Bonebright, P. Cook, J. Flowers, N. Miner, and J. Neuhoff, “Sonification report: Status of the field and research agenda,” Tech. Rep., International Community for Auditory Display, 1999, http://www.icad.org/websiteV2.0/References/nsf.html); et aussi, Barrass, S. et Kramer, G. (1999), Using sonification. In Multimedia Systems, Vol. 7, No 1, 1999, p. 23-31.
  38. Demersseman, Corentin (2009), Le Flobule : un dispositif de sonification d’une captation physiologique sur le corps d’un musicien en jeu, Mémoire de fin d'études, ENS Louis Lumière, Paris.
  39. Gu, X.; Dick, M.; Noyer, U.; Wolf, L., NMP - a new networked music performance system, in Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, p. 176-185. http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570
  40. Le streaming (en français : lecture en continu ou ruissellement), aussi appelée lecture en transit ou encore diffusion en mode continu ou diffusion de flux continu, désigne un principe utilisé principalement pour l'envoi de contenu en « direct » (ou en léger différé). Très utilisée sur Internet, cette technique permet la lecture d'un flux audio ou vidéo à mesure qu'il est diffusé. Elle s'oppose (ou se différencie de) à la diffusion par téléchargement qui nécessite de récupérer l'ensemble des données d'un morceau ou d'un extrait vidéo avant de pouvoir l'écouter ou le regarder.
  41. Kurtisi, Z; Gu, X.; Wolf, L., Enabling network-centric music performance in wide-area networks, Communications of the ACM, 2006, vol. 49, no 11, p. 52-54. http://doi.acm.org/10.1145/1167838.1167862
  42. a et b Lazzaro
  43. Gu, 2004
  44. Tanaka, Atau, Tokui, Nao & Momeni, Ali. 2005. Facilitating Collective Musical Creativity. In Proceedings of MM’05, Singapore, 2005 November 6-11; Föllmer, Golo. 2001. Soft Music. In Crossfade – Sound Travels on the Web, San Francisco Museum of Modern Art. http://crossfade.walkerart.org/
  45. C'est la mission actuelle du « NMSAT — Networked Music & SoundArt Timeline » développé et édité par Jérôme Joy et Locus Sonus, http://locusonus.org/nmsat/.
  46. Munro, John (1891), “Heroes of the Telegraph”, Published by BiblioBazaar, 2008, Chapter 1, p. 22-23, and Published by Icon Group International Inc (Webster’s French Thesaurus Edition), p. 14.
  47. Verne, Jules (1875), “Une Ville Idéale en l’an 2000”, Édition annotée par Daniel Compère, maître de conférence à l’Université de Paris III Sorbonne Nouvelle, Édition CDJV - La Maison de Jules Verne, sous la direction de Jean Paul Dekiss, Amiens, 1999, p. 18-29.
  48. Verne, Jules (1863), « Paris au XXe siècle », Hachette, Le Cherche Midi éditeur, Le Livre de Poche, 1994, p. 61 et p. 163-164.
  49. Tiphaigne de la Roche, C-F (1760), « Giphantie », In “Voyages aux pays de nulle part”, éd. Francis Lacassin, Paris, Robert Laffont (Coll. Bouquins), 1990.
  50. Bacon, Francis (1627), « The New Atlantis », In “The Works of Francis Bacon”, collected and edited by James Spedding, Robert Leslie Ellis, Douglas Denon Heath, Vol. V, New York: Hurd and Houghton, Boston: Taggard and Thompson, 1864; Bacon, Francis (1627), « La Nouvelle Atlantide », translated by Michèle le Dœuff et Margaret Llasera, Paris : GF Flammarion (1995), 2e édition revue 2000.
  51. Apollinaire, Guillaume (1916), « Le Roi-Lune », Mercure de France, 1916; In “Le Poète Assassiné”, 1917 & “Le Poète Assassiné, contes”, L'Édition, Bibliothèque de Curieux, 1916; Ed. Mille et Une Nuits, texte intégral, 1995.
  52. Rabelais, François (1552), « Gargantua and Pantagruel », Livre IV, Chap. LV - fabulae LXXXIX - VOCES FRIGORE CONCRETÆ, p. 80-84, et Livre IV, Chap. LVI - Comment entre les parolles gelees Pantagruel trouva des mots de gueule, p. 86-91, In “Œuvres de Rabelais”, Édition variorum, avec des remarques de Le Duchat, de Bernier, de Le Motteux, de l’Abbé de Marsy, de Voltaire, de Ginguené, etc., Tome Septième, “Commentaire historique - Livre IV, Chapitre LV, Dalibon Libraire, Paris, Palais Royal, Galerie de Nemours, Imprimerie Jules Didot aîné, imprimeur du roi, Rue du Pont-de-Lodi, no 6, MDCCCXXIII, 1823.
  53. Valéry, Paul (1928), « La Conquête de l’Ubiquité », In “Pièces sur l’Art’, and in “De la musique avant toute chose” (textes de Paul Valéry, Henri Massis, Camille Bellaigue, etc.), éditions du Tambourinaire, Paris, 1928; Reprint in “Œuvres”, vol.II, Coll. "La Pléiade", Gallimard, Paris, 1960, p. 1284-1287.
  54. Les instructions précisaient que l'œuvre « used radio transistors as a musical instrument. The transistors were interconnected thus influencing each other.» Pritchett, J. (1993). The Music Of John Cage. Cambridge University Press, Cambridge, UK.
  55. Bischoff, J.; Brown, C., http://crossfade.walkerart.org/brownbischoff/
  56. « It was more difficult than imagined to debug all of the software problems on each of the different machines with different operating systems and CPU speeds in different cities », Bischoff, J.; Brown, C., http://crossfade.walkerart.org/brownbischoff/
  57. Martinez, Luc (1999), Réseau Haut-Débit. Territoire de Création Musicale, JIM 99, Paris, 17-19 mai 1999.
  58. « Gestes »(1997) de Jérôme Joy, avec Alex Grillo (« KAT midi percussion controller et vibraphone, Nice), Daniel Biro (piano, London), Lawrence Casserley (« sound treatments, London) et Jérôme Joy (bande magnétique et diffusion, Nice)
  59. Martinez, Luc (1999).
  60. Sawchuk, (2003). Joy, (1998).
  61. Cf. l'introduction de Zaïs avec les clusters instrumentaux très bruités rappelant le son du tonnerre et le chaos.
  62. Avec la réalisation des « spatialisateurs » tel que l'« Holophon » développé au GMEM à Marseille/
  63. Berlioz, Hector (1852), “Euphonia ou la Ville Musicale”, In “Les Soirées de l’Orchestre”, Paris : Michel Lévy Frères, libraires-éditeurs, Rue Vivienne, 2bis, 1852. And In second edition, 1854, p. 292-354.
  64. « Dans une représentation que j’ai donnée à Darmstadt avec une pièce qui s’appelle « Musik für ein Haus », (Musique pour une maison), nous avons, comme je l’ai dit, mis toute une maison sous musique. Pendant le concert, nous enregistrions ce que nous jouions sur des bandes magnétiques que nous passions ensuite sur haut-parleurs ; à la fin, nous sommes partis les uns après les autres. Pendant toute la soirée, les musiciens changeaient de pièce, s’assemblaient toujours de manière différente dans des pièces différentes, et nous étions convenus que vers minuit, nous n’irions plus dans une pièce différentes, mais que nous sortirions peu à peu de la maison, les uns après les autres. Les gens sont restés longtemps encore, ne sachant pas s’il y avait encore des musiciens. Les enregistrements passaient toujours sur les haut-parleurs et, pour ainsi dire, il n’y avait pas de fin. Finalement, les gens se sont dit : " Bien. rentrons à la maison." » (Karlheinz Stockhausen, In « La musique du XXe siècle », Éd. Robert Laffont, 1975)
  65. Gallet, Bastien (2004), Composer des Étendues — L'art de l'installation sonore, ESBA Genève.
  66. Joy, Jérôme et Sinclair, Peter (2008), Networked Sonic Spaces, In Proceedings ICMC'08, SARC Belfast, Queen's University.
  67. « LS in SL » (2007), « New Atlantis » (2008/2010), http://locusonus.org/
  68. Valéry, Paul. 1945 [1937]. Notre Destin et les Lettres. In Regards sur le Monde Actuel et Autres Essais. Paris: Gallimard.
  69. Valéry, Paul. 1928. La Conquête de l’Ubiquité. In “Pièces sur l’Art’, and in “De la musique avant toute chose”, Paris: Éditions du Tambourinaire, 1928 ; et aussi, In “Œuvres”, vol. II, Coll. La Pléiade, (p. 1284-1287). Paris: Gallimard. 1960.