Hi-fi

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Hi-Fi)

Hi-fi ou hifi est l'abréviation du terme anglophone « high fidelity », qui signifie en français « haute-fidélité », utilisé dans l'électronique grand public ou l'électroacoustique. Ce terme est censé indiquer que le matériel paré de cette qualification offre une qualité supérieure aux équipements courants. Le but étant d'obtenir une reproduction sonore aussi proche que possible de l'original. Contrairement à une opinion largement répandue, les appareils « hi-fi » ne doivent pas répondre impérativement à des « normes hi-fi » : si des tentatives pour imposer des normes ont existé dans le passé, aucune vérification des performances n'est réalisée par un organisme officiel. L'idée même de « norme Hi-fi » est peu satisfaisante : le but des normes est généralement d'assurer la sécurité et l'interopérabilité des équipements, d'indiquer des méthodes de mesure, pas d'exiger un niveau de performance, ici difficile à définir et devant être réactualisé sans cesse. Le terme « hifi » peut donc être utilisé pratiquement sans contrainte par les fabricants, distributeurs, revendeurs. Les normes pouvant être invoquées sont soit obsolètes soit ne pouvant s'imposer en France car émanant d'organismes étrangers.

L'idée majeure de la haute-fidélité, contenue dans son nom même, est de reproduire un enregistrement de façon à obtenir une diffusion sonore aussi parfaitement conforme que possible à l'original. L'original étant la prestation d'artistes (musiciens, chanteurs, etc.) et l'enregistrement ou la retransmission qui en sont faits. Dans la pratique, la haute-fidélité se définit avant tout comme des équipements domestiques grand public destinés à la reproduction d'enregistrements disponibles dans le commerce. Elle diffère donc aussi bien de la création musicale que de la sonorisation et autres « renforcements sonores ». On peut d'ailleurs remarquer que le terme « haute-fidélité » est absent des ouvrages scientifiques et techniques portant sur le domaine dont elle relève[1]. En effet, la haute-fidélité peut aussi se définir comme une activité commerciale et un loisir, avec de nombreuses dérives[2], auxquels les scientifiques et les professionnels du son ne souhaitent surtout pas être associés.

Histoire[modifier | modifier le code]

En 1906, Lee De Forest un ingénieur de Bell Labs invente l'audion qui permet de réaliser les premiers amplificateurs électroniques. Cette invention améliore la qualité et la fidélité sonore des enregistrements radio. Lors de la Première Guerre mondiale, Le gouvernement américain crée la Radio Corporation of America qui va monopoliser de ces nouvelles technologies pour améliorer les transmissions radios dans les zones de guerre. Au début des années 1920, Major Armstrong, un autre ingénieur de Bell Labs, apporte une meilleure compréhension de cette nouvelle technologie. Ce développement va améliorer la qualité des appareils d’enregistrement et va permettre aux radios publiques de diffuser un son de bien meilleure qualité. Cette innovation popularise la radio car la musique peut maintenant être écoutée comme si on l’écouterait dans une salle de concert. Ces avancées vont aussi améliorer les appels téléphoniques à plus longue distance[3].

Dans les années 1930, l’industrie du cinéma américain remarque que la fidélité de la bande audio de leurs films apporte à ceux-ci une nouvelle dimension émotionnelle aux spectateurs et que cela devient alors un argument commercial important. La fidélité sonore permet une meilleure et nouvelle sensation d'immersion dans les films. Cette nouvelle demande du public va placer la qualité des bandes-son cinématographiques comme le principal défi de l’électronique à cette époque. Bell Labs et RCA sont alors en compétition pour développer la technologie qui aura le meilleur rendu sonore pour le cinéma. Cette compétition va amener, jusque’à la fin des années 1930, de nombreuses améliorations et nouvelles technologies qui vont poser les fondations de l'industrie moderne de la Hi-fi. Le développement de l'audio va alors stagner durant la Seconde Guerre mondiale car les ingénieurs en électronique vont se concentrer sur d'autres domaines importants pour la guerre comme l'amélioration des radars. C’est après le conflit, à la fin des années 1940, que de nouvelles avancées ont lieu dans le domaine avec la création par David Theodore Nelson Williamson (en) d'un nouvel amplificateur nommé « Williamson ». Ce dernier améliore la fidélité des basses[3].

Au début des années 1950, l’arrivée de nouveaux formats de LP par Columbia Records et RCA ainsi que la création de nouvelles stations FM de haute qualité va faire naître une industrie de la Hi-fi. Cette période, nommée l’« âge d’or de l’audio » par certains, va durer jusqu’au milieu des années 1960, et va voir l’arrivée de nombreux nouveaux acteurs dans le domaine[3].

Dès la fin d’année 1960, le passage à la stéréo, l’invention des cassettes puis du CD (commercialisé depuis le début des années 1980) vont contribuer au changement des pratiques sonores. La baisse des coûts et la numérisation des matériels d'écoute vont privilégier la quantité à la qualité du son. Ces changements vont alors causer un certain déclin de la Hi-fi selon certains spécialistes[4].

Dans le sillage du succès des DVD (début des années 2000), la généralisation actuelle des liaisons sans fil (wifi, Bluetooth) et des appareils connectés à Internet imposent une nouvelle forme de domotique sonore dans les foyers. On constate ainsi une évolution inéluctable de la Hi-fi vers une forme de plus en plus intégrée et qui tend vers le tout numérique.

Les systèmes multi-canaux nécessaires pour exploiter pleinement les disques SACD, DVD audio et autres Blu-ray musicaux (auxquels il faut ajouter les films et les jeux vidéo) sont devenus pratiquement incontournables.

Encore plus récemment, la dématérialisation des sources musicales[5] liée aux gains en puissance permanents de l’informatique domestique séduit de plus en plus d’adeptes, y compris parmi les puristes audiophiles.

Seul le domaine de la reproduction acoustique proprement dite se trouve peu affecté par cette (r)évolution et le marché des enceintes acoustiques classiques demeure aussi international que pléthorique.

En parallèle avec l’équipement traditionnel (l’inamovible trilogie lecteur-ampli-paire d’enceintes) plutôt situé en haut de gamme mais toujours disponible — on observe même un regain d’intérêt significatif pour le « vinyle »[6] — une offre considérable de nouveaux équipements soutient cette tendance : processeurs audio-vidéo, lecteurs réseaux dédiés (en concurrence avec les sites de streaming musical), convertisseurs de tous formats, barres de son, systèmes « multi-rooms », casques et enceintes sans fil ont ainsi envahi les allées des salons spécialisés.

Principes de base[modifier | modifier le code]

La définition la plus courante, bien qu'elle soit trop connotée « électronique » est « un fil droit avec du gain ». Ce qu'on pourrait traduire en termes plus courants par « reproduction à l'identique avec la puissance nécessaire ». Suivant cette définition, la haute-fidélité s'interdirait toute modification du signal original. Il s'agit toutefois d'une sorte de déclaration de principe, loin d'être toujours suivie.

  • La stéréophonie : même si rien n'interdit une haute-fidélité monophonique, la haute-fidélité a été indissolublement associée à la stéréophonie, couramment nommée « stéréo ». En effet son développement technique et commercial a été contemporain de l'apparition puis de la diffusion du vinyle stéréo au cours des années 1960. La stéréo a aussi l'intérêt de permettre une restitution réaliste de l'espace sonore (placement des instruments et des artistes sur une scène par exemple) qui permet donc de se rapprocher de la prestation originale[7].
  • La bande passante : l'exigence sans doute la plus difficile à remplir pour reproduire fidèlement un message musical est la restitution sans atténuation ni accentuation de toutes les fréquences du spectre audible. Les équipements audio traditionnels se contentent d'en restituer l'essentiel soit, très souvent, la simple bande téléphone (300 Hz - 3 400 Hz). Le grave et les sons les plus aigus sont sacrifiés. La haute-fidélité entend naturellement les reproduire ou du moins en reproduire l'essentiel[8].
  • La dynamique : une musique peut contenir des passages très forts et d'autres très faibles. La différence entre les deux est appelé dynamique. Pour la reproduire, il faut naturellement que le système haute-fidélité reproduise les passages les plus faibles au-dessus du bruit de fond. Il devra alors être capable de reproduire les passages les plus forts à un niveau conforme à la dynamique de l'enregistrement. De ce fait, une chaîne haute-fidélité doit impérativement (pour utiliser un terme courant) être puissante (par rapport aux équipements courants) et (plus exactement) avoir des capacités dynamiques élevées[9].
  • La distorsion : toute modification autre que le gain entre le signal d'entrée et le signal de sortie est évidemment à proscrire. Il existe de multiples formes de distorsion, la plus connue étant la distorsion harmonique. Les exigences pour la haute-fidélité varient mais se situent à des valeurs inférieures à 1 % pour le taux de distorsion harmonique (THD). En dessous de cette valeur, l'audibilité de la distorsion est très discutable[10]. Pour une très bonne qualité d'écoute, il faudrait envisager un THD inférieur à 0,1 %.

Normes et leurs caractéristiques[modifier | modifier le code]

Il existe différentes normes (NF, DIN, ISO, CEI, JISetc.) censées assurer que l'on peut bien appliquer l'étiquette « haute-fidélité » à un équipement. Certaines sont anciennes et obsolètes, les autres se rejoignent dans les grandes lignes, mais diffèrent dans les détails. Par exemple, certaines de ces normes ne se contentent pas de garantir une large gamme de fréquence, mais incorporent des règles relatives au rapport signal sur bruit, à la compression sonoreetc. Toutes les normes utilisées actuellement incluent la stéréophonie dans leurs caractéristiques de base.
La norme allemande DIN 45500, qui est la plus connue en France et sert souvent de référence, date des années 1960. Complètement obsolète, elle a été remplacée, en Allemagne, par la norme DIN EN 61305 qui dispose d'une déclinaison française NF EN 61305.

Les normes à caractère national ont souvent été utilisées pour protéger un marché intérieur en rendant plus difficile l'importation et la diffusion de matériels venus d'autres pays. Même si cette époque semble largement révolue, il faut s'en souvenir et ne pas attacher trop d'importance à certaines normes qui correspondent plus à une époque et des circonstances qu'à des logiques scientifiques et techniques.

Chaîne haute-fidélité[modifier | modifier le code]

Chaîne haute-fidélité grand public des années 1980.

Pour restituer le son d'un enregistrement, il faut réunir un certain nombre d'équipements : au minimum, l'appareil lecteur (source), l'amplificateur (qui amplifie le signal issu de la source et fournit la puissance) et les haut-parleurs, enceintes ou casque (qui transforment le signal électrique en ondes sonores). Ces équipements sont reliés les uns aux autres et forment donc une chaîne. Ce terme en est venu à désigner, surtout pendant une période, l'ensemble des équipements haute-fidélité dont on disposait[11].

Sur le plan technique, l'interconnexion d'un nombre, plus ou moins grand, d'éléments séparés se justifiait pleinement aux débuts de la haute-fidélité, les circuits utilisés pouvant faire l'objet d'interférences par d'autres circuits trop proches et bon nombre d'entre eux étant susceptibles de dégager une chaleur importante. En revanche, les progrès de l'électronique ont rapidement permis de réunir dans un même appareil un grand nombre de fonctions sans réel inconvénient. Cette possibilité n'a cependant pas réellement conquis le monde de la haute-fidélité. D'une part le fait de pouvoir choisir un par un les éléments formant la chaîne était regardé comme important par les passionnés et d'autre part, c'était un atout pour le commerce des équipements haute-fidélité, chaque revendeur pouvant se singulariser par le choix des éléments proposés. Toutefois des ensembles « tout en un » étaient évidemment une option intéressante pour le grand public, offrant à la fois une plus grande simplicité de mise en œuvre, un encombrement et un coût réduit. D'autant plus qu'à la chaîne haute-fidélité classique (souvent au format 19 pouces ou approchant) se sont ajoutées les chaînes « Midi » puis « Mini » et enfin « Micro » de taille de plus en plus réduite[12]. Sur ces réalisations, le terme de « chaîne » est d'ailleurs souvent abusif : ces ensembles ont l'aspect d'éléments séparés (censés être plus prestigieux) mais, sur le plan technique, leurs éléments sont indissociables. Quand ils ne sont pas contenus dans un unique coffret, ils partagent des éléments techniques (comme l'alimentation) et sont interconnectés par des liaisons propriétaires : ils ne peuvent fonctionner séparément.

Sources Hi-fi[modifier | modifier le code]

Le problème premier de la haute-fidélité a toujours été celui de la source d'enregistrements et, plus largement, de musique de qualité. Naturellement, il ne s'agit pas de goûts musicaux mais de qualité technique.

  • Le disque microsillon : introduit à partir des années 1950 et devenu stéréophonique à partir de 1958, il a longtemps été le seul support possible pour la hi-fi. Il est resté le support principal jusqu'à l'arrivée sur le marché du disque compact (CD) en 1983. La recherche d'une lecture optimale de ses disques a été un souci constant de la part de l'amateur.
  • Le tuner FM est un récepteur radio sans amplification ni haut-parleur, à raccorder sur un amplificateur hi-fi. Dès les années 1950, la Radiodiffusion-télévision française (RTF) commençait des émissions en modulation de fréquence (FM) monophoniques puis stéréophoniques. Pendant longtemps, la radio FM fut la seule source hi-fi permettant d'accéder à de la musique dont on ne possédait pas l'enregistrement. Le tuner FM a donc fait partie des éléments importants d'une chaîne hi-fi. En France, son importance s'est d'ailleurs accrue à partir de 1981 avec la fin du monopole étatique sur la radiodiffusion et le phénomène des « radios libres ».
  • Les magnétophones et la cassette : les magnétophones à bande, utilisés pour les enregistrements professionnels, ont connu des déclinaisons grand public et des modèles hi-fi. Toutefois, leur coût et leur encombrement en ont fortement limité la diffusion. Une solution de remplacement a été trouvée avec la cassette qui n'était en rien prévue pour la hi-fi mais qui a été adaptée pour cet usage par une amélioration de sa qualité et de celle des appareils. La « platine cassette » est ainsi vite devenue un élément essentiel de la « chaîne », même si nombre d'amateurs lui ont toujours dénié le qualificatif de « haute-fidélité ». C'était, en effet, le seul outil pratique pour enregistrer (par exemple la radio FM) et pour dupliquer un disque.
  • le CD est arrivé sur le marché à partir de 1983 ; il est rapidement devenu, en dépit des réticences de nombre d'amateurs peu enclins à faire le saut vers le numérique, la source de référence de la hi-fi[13]. Offrant à la fois une utilisation beaucoup plus pratique et sûre que le « vinyle » et des performances techniques bien meilleures, il s'est d'autant plus imposé que le coût des lecteurs de CD n'a cessé de diminuer au fil des années.

Limites techniques et solutions[modifier | modifier le code]

Spectres sonores réels[modifier | modifier le code]

Le spectre sonore est souvent divisé, par convention, en trois sections. Le grave, le médium et l'aigu, avec respectivement des gammes de fréquences approximatives variant de 20 à 150 Hz, de 150 Hz à 2 kHz et de 2 à 20 kHz. Des divisions plus fines sont souvent utilisées par les spécialistes, telles qu'extrême-grave, bas-médium, haut-médium, extrême-aigu. Dans tous les cas il s'agit de conventions, une approche plus technique se référant à l'échelle des fréquences. On retrouve logiquement la gamme de fréquences 20 Hz - 20 kHz que l'oreille humaine jeune perçoit. Le spectre sonore est représenté suivant une échelle logarithmique sur un diagramme de Bode afin d'offrir une correspondance avec les sensations de l'audition humaine.

Problèmes[modifier | modifier le code]

Les matériaux utilisés pour l'enregistrement à partir de microphones et pour la restitution sonore à l'aide de haut-parleurs ne permettent pas facilement de travailler sur un signal de qualité hi-fi.

La restitution du numérique pose principalement trois problèmes :

Le transport quant à lui est en général très largement maîtrisé, tant que l'on reste sur la partie numérique.

La restitution du signal analogique pose principalement quatre problèmes :

  • le transport qui est pollué par tout l'environnement électromagnétique ;
  • les systèmes de lectures qui sont influencés par leur environnement ;
  • le couplage entre amplificateur et enceintes, qui réagissent entre eux ;
  • le couplage des enceintes avec leur environnement.

En conclusion, l'introduction du numérique permet d'optimiser le transport du signal analogique initial, il suffit de repousser la conversion au plus près de l'appareil de restitution final (l'amplificateur et les enceintes), et la conversion inverse au plus près des instruments. Mais s'il élimine une bonne partie des défauts liés à l'environnement, il crée ses propres défauts que l'on retrouve aux deux extrémités dans les conversions analogique-numérique et inversement.

Techniques de restitution[modifier | modifier le code]

À partir d'une source (numérique ou analogique), un signal électrique est créé, il est ensuite amplifié et envoyé vers des haut-parleurs qui transforment le signal électrique en ondes sonores qui voyageront jusqu'à l'oreille de l'auditeur. Chacune de ces étapes doit être réalisée avec soin, chaque élément étant source de dégradation possible. C'est ainsi qu'est née la notion de chaîne haute-fidélité ou chaque élément fait partie d'une chaîne.

Le processus de restitution du son était relativement stable jusqu'à l'arrivée de l'informatique, qui offre des possibilités très diverses dans la restitution du son. (Voir Son numérique.)

Historiquement, la restitution du son se faisait avec la voix ou avec des instruments dédiés qui produisaient leur propre son (bâton de pluie). En 1877, Edison a déposé le brevet d'un outil permettant de graver le son : le phonographe (littéralement). L'appareil consiste en quatre éléments : un système d'amplification, un système de captation du son, un outil d'écriture et un support d'enregistrement. Dans les faits, on a un cornet, un diaphragme, une aiguille et un cylindre sur lequel on grave le son. Ce système est réversible.

Ces éléments sont toujours valables de nos jours, mais, de la même manière que l'on a des cordes vocales et une oreille, la technologie a préféré optimiser ces éléments pour chaque activité : enregistrement sonore et reproduction.

L'arrivée de l'électricité a été une formidable aide dans l'enregistrement et la reproduction sonore. En effet, l'élément critique de la chaîne est le couple diaphragme/aiguille qui est très peu efficace car de très faibles énergies sont en jeu, ce qui rend la gravure difficile et peu fidèle à l'original. La restitution est également d'un niveau très faible. L'électricité a permis de capter les vibrations du diaphragme (via un couple aimant/bobine), de les amplifier et ainsi de bouger l'aiguille de manière plus précise et plus fidèle (via un couple aimant bobine aussi). Le support est finalement devenu un disque (pour des raisons de capacité de stockage). La restitution du son possède le même étage d'amplification électrique mais à l'envers : le signal électrique produit par la bobine est amplifié puis transmis à un haut-parleur. Finalement, le diaphragme a évolué en une très fine et petite membrane pour le microphone, et en une membrane plus large pour ce que l'on appelle « haut-parleur ». Finalement, on se retrouve face au triplet microphone - platine tourne-disques - haut-parleur.

Il reste deux évolutions : la préamplification et la numérisation.

  • La préamplification consiste à amplifier directement à la source le signal électrique produit par le microphone ou l'aiguille de la platine tourne-disques afin de limiter les parasites (soufflement et autres). En effet, le signal est tellement faible (mesuré en microvolts) qu'il est très facilement parasitable. Le signal est donc amplifié jusqu'à un ordre de grandeur proche du volt, beaucoup plus robuste et ainsi beaucoup plus facilement manipulable.
  • Enfin, la numérisation permet une conservation parfaite du signal du moment qu'il a été numérisé : même avec tous les progrès réalisés, l'enregistrement et la lecture par une aiguille sont toujours restés les points critiques, détériorant plus ou moins le son. La numérisation consiste à mesurer très souvent (44 100 fois par seconde pour un disque compact) l'intensité du signal électrique provenant du microphone, et de lui attribuer une valeur entière (entre −32 768 et 32 767 pour un enregistrement 16 bits, comme sur un CD). Ces nombres sont enregistrés sur un support numérique (bande, puis disque laser, puis clé USB). En stéréo, cela fait 2 × 44 100 × 16 bit/s, soit 635 mégaoctets par heure. C'est ce qui explique que sur un CD, on ne puisse coder qu'environ 74 min de musique.

Aujourd'hui, différents effets et filtres sont venus s'intercaler entre les différents éléments de cette chaîne sonore afin d'optimiser le son. De plus des formats de compression numériques sont arrivés pour faire prendre moins de place à la musique, souvent avec une perte du signal minimisée (MP3, WMAetc.).

Fidélité sonore[modifier | modifier le code]

Définition[modifier | modifier le code]

La fidélité sonore et la hi-fi sont nées du désir de capturer le monde et de le reproduire le plus fidèlement possible afin de moins en moins être capable de distinguer l’original de la copie[14].

Analogique et numérique[modifier | modifier le code]

Au milieu des années 1980, les audiophiles débattent quant à la supériorité de l'analogique sur le numérique et plus spécifiquement du vinyle sur le disque compact (CD). Ils reprochent au son numérique d’être stérile, froid et dépourvu d’émotion, en contraste avec l’analogique qui retransmet un son plus riche. Durant les deux décennies qui suivent, les ingénieurs réussissent à améliorer le rendu sonore des CD, mais il manque toujours de cohésion, d’intégrité et de musicalité selon ses détracteurs[15].

Les formats audio numériques haute définition modernes, PCM et DSD, offrent toutefois aujourd'hui des performances qui peuvent largement dépasser celles constatées lors des débuts de l'audio numérique. À tel point que le débat les concernant porte aujourd'hui sur l'utilité d'encoder de manière encore plus précise le signal audio numérique, dans la mesure où l’ouïe humaine semble dépassée au-delà de certaines fréquences d’échantillonnage et profondeurs de bit[16].

Les composants utilisés dans les convertisseurs numériques-analogiques (DAC) ont également bénéficié des progrès de la micro-informatique, avec des puces DAC toujours plus puissantes, des filtres numériques de meilleure qualité, et un soin porté à la conception des circuits d'alimentation et à l'isolation plus poussé. Ces améliorations qualitatives permettent de préserver la pureté du signal audio numérique à chaque étape du transport dans les appareils de bonne facture[17].

Enfin, l'enregistrement et la manière dont le processus de mixage et de mastering ont été réalisés ont également un effet notable sur la fidélité de la reproduction sonore offerte par une chaîne hi-fi[17].

Selon Eric Rothenbuhler et John Peters, deux professeurs de l’histoire des médias, l'analogique serait plus proche du son original car les bandes magnétiques utilisées garderaient une trace de la musique. Cette trace est matérialisée par les bosses et les creux que laisse l’enregistrement du son sur les bandes magnétiques. Ces reliefs sont même visibles à l’aide d’un microscope et d’un liquide spécial. Selon eux, il y a alors un lien physique et un rapport de fidélité entre le son d’origine et la copie sur bandes. Au contraire, ils pensent que le numérique ne fait que convertir le signal en binaire et serait donc plus éloigné et moins fidèle du son de départ. Ainsi l’enregistrement ne serait plus qu’une donnée et non plus de la musique[18].

Ethnographie des audiophiles[modifier | modifier le code]

Aujourd’hui, il existe une classe d’auditeurs qui investissent beaucoup d’argent pour acheter des équipements d’une fidélité extrême pour écouter de la musique. Souvent ils installent leurs propres espaces dédiés à l’écoute de musique, par exemple dans leur cave[19].

On distingue alors deux groupes d’auditeurs :

  • les « golden ears » ou « oreilles d’or », qui vont plutôt faire confiance à leur oreille et investir dans des installations sonores qui selon eux ont une bonne fidélité sans en considérer les caractéristiques technologiques ;
  • les « meter readers » ou les « mesureurs », qui vont plutôt mesurer et utiliser les caractéristiques techniques à la recherche du meilleur son.

Références[modifier | modifier le code]

  1. Mario Rossi, Électro-acoustique, Dunod, (ISBN 2-04-016532-0)
  2. Hifi Book 1981 : Tout ce qu'il faut savoir de la hifi, La Courneuve/Bondoufle, Pietri, , 187 p. (ISBN 2-903538-01-8), p. 15
  3. a b et c « A Tiny History of High Fidelity, Part 1 », sur www.nutshellhifi.com (consulté le )
  4. « A Tiny History of High Fidelity, Part 2 », sur www.nutshellhifi.com (consulté le )
  5. « Exploiter la Musique Dématérialisée - Mode d'Emploi - CTA-HIFI », sur www.cta-hifi.com (consulté le )
  6. « Musique : à l'heure du streaming, le vinyle confirme son grand retour », Le Figaro,‎ (lire en ligne, consulté le )
  7. Condamines R., Stéréophonie, Masson, Paris, 1978, (ISBN 2-225-49577-7)
  8. Hifi Book 1981 : Tout ce qu'il faut savoir de la hifi, La Courneuve/Bondoufle, Pietri, , 187 p. (ISBN 2-903538-01-8), p. 37
  9. Hifi Book 1981 : Tout ce qu'il faut savoir de la hifi, Pietri, (ISBN 2-903538-01-8), p. 40
  10. Le Livre des Techniques du Son, t. 2, Dunod, Paris, (ISBN 2-903055-21-1)
  11. Définition de « chaîne », sur larousse.fr
  12. Hifi Book 1981 : Tout ce qu'il faut savoir de la hifi, Pietri, (ISBN 2-903538-01-8), p. 28
  13. Bourreau Marc et Labarthe-Piol Benjamin, « Le peer to peer et la crise de l'industrie du disque », sur www.cairn.info, Réseaux 3/2004, no 125, p. 17-54, DOI 10.3917/res.125.0017
  14. Jonathan Sterne (trad. Maxime Boidy), Une histoire de la modernité sonore, La Découverte, (ISBN 978-2-7071-8583-9, OCLC 922873283, lire en ligne)
  15. (en) Evens Aden, Sound ideas music, machines, and experience, University of Minnesota Press, (ISBN 0-8166-4536-1, OCLC 748859003).
  16. (en) Joshua D. Reiss, « A Meta-Analysis of High Resolution Audio Perceptual Evaluation », Journal of the Audio Engineering Society, vol. 64, no 6,‎ , p. 364–379 (DOI 10.17743/jaes.2016.0015, lire en ligne, consulté le ).
  17. a et b Paul, « L'audio numérique haute définition face à l'analogique », sur Concert Home, (consulté le ).
  18. (en) Eric W. Rothenbuhler et John Durham Peters, « Defining Phonography: An Experiment in Theory », The Musical Quarterly,‎ .
  19. (en) Trevor Pinch et Karin Bijsterveld, « Sound Studies: New Technologies and Music », Social Studied of Science,‎ .

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]