Les années 1940 inaugurent une période charnière dans l’histoire du son. Si la stéréophonie ou le vinyle long playing n’apparaîtront que plus tard, c’est bien au tournant de cette décennie que prennent racine les technologies et les standards qui façonneront toute l’industrie hi-fi. De la miniaturisation de l’électronique à la digitalisation militaire — souvent passée sous silence —, cette époque pose les fondations d’une nouvelle ère d’écoute, bousculée par le contexte mondial de la Seconde Guerre mondiale. Plongée dans l’un des grands laboratoires d’innovation sonore du XXe siècle.
L’après-guerre : catalyseur inattendu d’innovations sonores
La Seconde Guerre mondiale fut paradoxalement une période de bouleversements techniques profonds pour le monde de l’audio. Les urgences militaires obligent à l’invention et à la perfection d’appareillages électroniques jusque-là balbutiants. Dès 1942, avec la création du Signal Corps Laboratory, le département américain de la Défense investit massivement dans la recherche sur les communications radio, la miniaturisation des composants et la transmission sans fil.
- L’arrivée des tubes miniatures : Les fameux tubes “miniature” 7 et 9 broches (type 12AX7, 6AU6, etc.), inventés par RCA et d’autres, deviennent à la fois plus petits, plus fiables et moins énergivores — une nécessité pour équiper avions et chars. Ces modèles trouveront leur place, après-guerre, dans l’équipement grand public (amplificateurs, récepteurs hi-fi, etc.). (Source : Radiomuseum.org)
- Naissance du concept “haute fidélité” : Début des années 1940, on emploie déjà le terme high fidelity dans des revues spécialisées, en particulier aux États-Unis, pour désigner un son précis, étendu et exempt de distorsion perceptible (Audio Engineering, 1947).
Le micro-sillon, encore en gestation : la révolution à venir du disque
Avant l’invention du disque vinyle 33 tours (LP) par Columbia en 1948, la musique enregistrée se diffuse presque exclusivement par 78 tours en gomme-laque. Les années 1940 voient se cristalliser la demande d’un support plus durable, de meilleure qualité sonore, et plus pratique. Le contexte de guerre accélère la recherche de nouveaux matériaux, dont les plastiques de type vinyle, qui finiront par détrôner la gomme-laque, alors rationnée pour la fabrication d’isolants électriques militaires.
- Dégradation rapide du 78 tours : Un disque 78 tours pouvait perdre de la qualité dès quelques dizaines de lectures, l’aiguille en acier abrasant le sillon à chaque passage, là où le futur vinyle supportera 1000 écoutes sans usure notable (Stanley, "The History of the LP", 2013).
- Premiers essais pré-LP : Dès 1945, de premiers enregistrements expérimentaux sur disques en vinyle à micro-sillon sont menés dans certains studios et laboratoires, bien avant la sortie commerciale du LP.
Les amplificateurs : du simple radiocassette à l’artisanat de la haute fidélité
Les années 1940 marquent l’apogée du tube électronique pour l’amplification audio. Le schéma le plus courant, le montage push-pull en classe A ou AB (déjà employé dans les radios et sonos militaires), permet de délivrer une puissance, une dynamique et une pureté sonore inégalées jusqu’alors. L’amplificateur HH Scott Model 122, sorti tout juste après la guerre, s’inspirera de ces architectures.
- Standardisation des schémas : Publications américaines et britanniques déploient plans et standards pour l’amplification — l’ouvrage Radiotron Designer’s Handbook (1940) devient la référence pour tout un pan de la communauté “DIY” de l’époque.
- Augmentation linéaire de la bande passante : Sur des amplis hi-fi de studio dès 1946 : 30 Hz – 15 kHz à ±2 dB ; à titre de comparaison, la plupart des radios grand public plafonnent à 5 – 8 kHz.
- Mise au point des premiers systèmes à correction de tonalité : Les ingénieurs, parmi lesquels Hermon Hosmer Scott lui-même, développent cadrans de correction de graves et d’aigus, prémices de l’égaliseur moderne.
Évolution des haut-parleurs et des enceintes acoustiques
Le haut-parleur électrodynamique existe déjà depuis l’entre-deux-guerres, mais sa fiabilité et sa bande passante restent modestes. Dans les laboratoires de l’U.S. Navy ou de la BBC, la mise au point de nouveaux matériaux pour les membranes (alliages légers, baffle clos), ainsi que l’harmonisation de l’impédance avec les nouveaux amplis, contribuent à offrir un son plus étendu et fidèle.
L’enregistrement magnétique : la “bombe” Magnetophon
Si la bande magnétique a été inventée dès 1928 en Allemagne, c’est bien au tout début des années 1940, avec le Magnetophon AEG/Telefunken, que la technique prend son envol. Entre 1941 et 1945, des dizaines de machines Magnetophon sont utilisées pour les archives de radio et la propagande. Les Alliés, découvrant ces machines en 1945, en ramènent des exemplaires aux USA où elles transforment en profondeur l’industrie du son.
- Son continu, rendement inégalé : Là où le disque impose une rupture (face A, face B), la bande magnétique permet 30 à 45 minutes de son sans interruption ni perte de qualité, avec un rapport signal/bruit exceptionnel pour l’époque (plus de 50 dB).
- La rémanence du signal : Les premières grandes diffusions américaines, dont le concert de Bing Crosby sur ABC en 1947, s’enregistrent sur Magnetophon modifié : c’est la naissance de la post-production moderne. (Source : New York Times, 2007)
La norme NAB et la conquête de la standardisation
En mars 1941, la National Association of Broadcasters (NAB) édicte le premier standard officiel pour la courbe d’égalisation de lecture des disques 78 tours diffusés à la radio. Cette uniformisation, bientôt mondialisée, évite les aberrations de tonalités entre labels et fabricants d’aiguilles. La logique s’étend rapidement à la courbe RIAA pour les futurs LP, jetant les bases des “sonorités standardisées” que l’on considère aujourd’hui comme un critère hi-fi élémentaire.
- Première normalisation de la plage dynamique : Les disques radio des années 40 possèdent une dynamique standardisée : rapport signal/bruit supérieur à 40 dB. (Source : AES Journal, 1947)
- Équilibrage des niveaux : La NAB plafonne le niveau de sortie à 0 dBm (0,775 V), qui deviendra la référence pour le calibrage des futurs lecteurs et amplis.
Des étoiles dans l’ombre : figures marquantes et artisans oubliés
Si la postérité retient parfois des marques ou des modèles précis, il convient de mettre en lumière quelques pionniers de cette décennie :
- Harold Leak : fondateur britannique qui, dès 1945, propose des amplificateurs hi-fi à tubes à destination du marché domestique (Leak Point One, 1945).
- Sidney Harman : à la tête de David Bogen Company puis Harman Kardon, développe certains des premiers amplis hi-fi complets.
- Hermon Hosmer Scott : invente et brevète les circuits de correction de tonalité avancée, fonde en 1947 sa société éponyme.
La Hi-Fi à l’orée du bouleversement : héritage des années 1940
Les années 1940 s’achèvent sur une explosion contrôlée d’innovations. Les fondations techniques (ampoules miniaturisées, support magnétique, baffle clos, courbes de normalisation), validées souvent sous la pression de la guerre, irriguent tout ce qui fera la “grande” Haute Fidélité des décennies suivantes. Le chemin demeure balisé pour les avancées définitives que seront le LP, la stéréophonie ou la miniaturisation à transistors — sésames d’une démocratisation de l’écoute et de la naissance d’une industrie culturelle mondiale.
La décennie des années 1940 n’a pas livré au grand public les objets définitifs de nos salons, mais elle a rendu possible l’idéal même de la haute fidélité : celui d’une musique restituée dans sa complexité et sa plénitude, telle que l’ingénieur et le musicien l’avaient rêvée.
Pour aller plus loin
- La décennie qui a tout changé : comprendre l’essor de la haute fidélité dans les années 1950
- Années 1960 : la décennie qui a propulsé la Hi-Fi dans la modernité
- 1950 : Le coup d’envoi d’une révolution sonore à domicile
- L’Odyssée de la Hi-Fi : 80 ans d’innovations qui ont façonné le son domestique
- Années 1980 : L’explosion des innovations qui a redéfini la Hi-Fi