Rechercher

Quoi de plus humain, émotionnel, charnel, sensoriel que la musique. On la vit, on la ressent, elle nous fait vibrer, danser, pleurer, nous réveille, nous endort, nous rend nostalgique ou heureux. Pourtant la musique est un concentré de technologies, un terrain d’innovation. Aucun morceau aujourd’hui, même le plus simple, n’existe sans technologie.

Musique et technologie, c’est un long roman, c’est une belle histoire

Notre voyage musical commence il y a 35.000 ans. A titre de comparaison, l’agriculture c’était il y a à peine 10.000 ans. Le plus ancien instrument connu, à part la voix, est une sorte de flûte. Déjà, une forme spécifique, cinq trous et une façon de souffler qui nécessite une recherche alliant matériaux, acoustique et agilité.

Faisons un bon de 33000 ans pour découvrir le premier orgue inventé au IIIe siècle avant notre ère par un Grec d’Alexandrie. Appelé aussi orgue hydraulique, il comprenait des réservoirs d’eau qui servaient à égaliser le flux d’air, afin de stabiliser le son. Et oui, tous les instruments puisent dans les technologies du moment. La musique est toujours l’écho d’une époque.

Alors continuons le voyage vers la technologie. En 1874, après avoir déposé le brevet du téléphone, malheureusement une heure après Alexandre Graham Bell, Elisha Gray invente le télégraphe musical. Il se compose d’un petit clavier et utilise les vibrations de lamelles métalliques générées par des électro aimants.

En 1917, le russe Léon Theremine invente le theremin resté mythique dans l’histoire de la musique au point qu’il est encore fabriqué. Il n’a pas de clavier et ressemble à une radio avec deux antennes. Quand on approche les mains, le son apparaît comme par enchantement. Il suffit alors de les faire danser le long des antennes pour créer une mélodie proche d’un chant de sirène. Une antenne sert à piloter la hauteur du son et l’autre le volume. Thérémine est par ailleurs l’inventeur du micro espion laser Bourane, commandé par le prédécesseur du KGB.

On entre donc dans l’ère de l’électroacoustique, c’est-à-dire des générateurs de sons de synthèse. En 1930 Laurens Hammond invente un orgue mythique qui porte encore son nom. L’orgue Hammond avec 2 claviers et des tirettes qui changent la texture du son. C’est l’époque du jazz et des orgues d’église et du gospel. On l’entend plus tard dans la plupart des morceaux des Doors mais aussi Deep Purple ou même le célèbre Charly Oleg de Tournez Manège….

Les années 70 ont vu l’arrivée d’instruments dits électroniques, les premières boîtes à rythmes, ou les synthétiseurs modulaires comme les célèbres Moog, du nom de leur inventeur.

En 1983 Yamaha révolutionne le synthétiseur avec la synthèse FM et sort l’illustre DX7. Adieux les boutons partout qu’on tourne pour changer le son. Le DX7 se programme avec un afficheur digital. Il est omniprésent dans les années 80 de Tina Turner, Michael Jackson, Phil Collins, The Cure, David Bowie, Stevie Wonder, les Commodores, Wham!, Sting, Madonna, et en France Jean-Jacques Goldman l’utilise dans Je marche seul, Indochine, Jean Michel Jarre et même Pierre Bachelet. La liste est vertigineuse.

Et si on parlait des artistes ?

Parlons donc des artistes. Certains sont de vrais inventeurs, ingénieurs, bidouilleurs de génie.

L’un des pionniers des musiques électroacoustique est Pierre Henry connu du grand public pour le morceau Psyché Rock de Messe pour le temps présent (1967). Plus récemment, ceux qui ont influencé la musique dite électronique sont issus des années 70 et 80. Depeche Mode dont le premier album est 100% électronique et a inspiré les plus grands DJ, Kraftwerk, Jean Michel Jarre, ou encore avant Pink Floyd et ses recherches sonores, et Brian Eno qui expliquait avoir été inspiré à son réveil dans une chambre d’hôpital en entendant la pluie tomber et le bip bip répétitif et lancinant du moniteur.

Un groupe de rock comme Muse utilise plus d’électronique que d’instruments. La pop et le rap sont créés en studio. Comme toute technologie, ce qui était réservé aux plus grands il y a 30 ans se retrouve dans les chambres d’étudiants. La musique électronique se compose à la maison dans un home studio sur ordinateur. La house music porte bien son nom.

Exemples et cas d’usages ?

A moins de jouer le crooner avec sa guitare autour du feu de bois, tout ce que vous écoutez aujourd’hui passe par des centaines d’outils et d’algorithmes avant même d’être gravé sur un disque ou posté sur un site. Vous vous dites quand même que certains styles échappent à la technologie comme la belle voix de Norah Jones ? Que nenni. Si la technologie n’est pas dans l’instrument, elle arrive juste après. C’est le travail des ingénieurs du son, du sound design et du mastering.

Pour faire simple, chaque son va passer par une chaîne de traitements numériques. S’il est acoustique (guitare, piano, voix, violon, batterie, etc) il faut d’abord l’enregistrer et choisir le ou les micros, leurs placements, leurs grains. A ce moment, vous influencez déjà la couleur finale du morceau.

Vient l’amplification et l’enregistrement qui selon les matériels donnent aussi un grain au son.

Une fois que tout est dans la boîte, il est sculpté par une longue chaîne d’effets qui compte a minima :

  • L’égalisation des fréquences
  • La compression augmente la dynamique du son. Ce qui fait que vous entendez les doigts glisser sur un manche de guitare ou que les respirations du chanteur sont aussi fortes que sa voix puissante.
  • La réverbération ou un delay pour obtenir de l’ampleur, de la résonance et de la profondeur
  • Un panoramique pour placer les sons dans l’espace stéréophonique.

Au-delà de ces basiques, il existe 1.000 effets pour sculpter notre morceau. Car l’ingénieur du son est un artiste de l’ombre.

Et la voix, là dedans ?

La voix est l’instrument le plus humain mais aussi celui qui subit le plus d’effets. On peut transformer une voix trop criarde en voix suave, jouer sur les fréquences pour apporter de la virilité, de la légèreté, de la présence sensuelle. Vous êtes vraiment joueurs ? Transformez votre voix grâce aux vocoders (voix de robots) et devenez Daft Punk. Vous vous souvenez de Cher et son Do you believe ? Cette voix mi humaine, mi robot c’est l’auto-tune. A l’origine utilisé pour corriger les fausses notes du chant et devenu aujourd’hui un effet artistique à la mode chez les faux rappeurs français que Maître Gims a techniquement inspiré.

Une fois notre chanson travaillée, vient l’étape du mastering qui donnera au morceau sa couleur finale pour être écoutable sur tous les supports, qu’il s’agisse d’un club, une radio ou un téléphone en streaming. Il faut que ça sonne partout. Cette chaine d’effet ressemble à la précédente. Egalisation, compression, spatialisation, limiteur.

Et pour aller plus loin en matière de musique et de technologie ?

La musique n’est que technologie, car la musique est dans son essence de la science. Une onde qui suit des lois électriques et acoustiques. Il est donc facile de les comprendre, de les modéliser, de jouer avec jusqu’à inventer des sons et des machines pour les créer, les simuler, les transformer.

Vous pensez en avoir fini avec la technologie ? Pour l’instant notre morceau n’est pas produit. Comment arrive-t-il dans les bacs ou sur votre téléphone ? Quelle économie digitale se cache derrière ce marché ? Ça sera le sujet d’un autre article.

Photo by Alexey Ruban on Unsplash


logo Discord

Envie de converser en mode Cozy Web avec toute la rédac’room et la formidable communauté bienveillante de plus de 600 personnes qui ont rejoint #BonjourPPC Le Digital pour tous ?
On vous accueille ici avec grand plaisir.



vignette podcast bonjourPPC

Tu cours après le temps ?
Si ça te dit de te joindre à nous et recevoir la newsletter hebdo te permettant d’apprendre plein de choses et de ne pas rater le train du digital, il te suffit de t’inscrire ici

Conférencier / Auteur / Inventeur d’entreprises du 21ème siècle / CEO de Yoomonkeez

Laisser un commentaire

A lire dans cette thématique

La Playlist du DJ

C’est à lire

La newsletter