synthèse sonore
Pour notre cours, on considèrera que générer du son : aussi bien électroniquement qu'en utilisant un ordinateur.
Des liens sur l'histoire des synthétiseurs sonores.
Dès le 18ème siècle, on utilisait de l'électricité et de l'électronique pour générer du son (en utilisant de l'électromagnétisme pour faire vibrer des instruments et générer de la musique électroaccoustique).
Pour revenir au années 60, on y trouve deux chemins dont on peut parler.
- la synthèse analogique, premiers synthétiseurs analogiques commerciaux comme le moog. Élément clé : une architecture modulaire, où vous pouviez relier un module à un autre, un module pouvant générer du son, tandis qu'un autre pouvait par exemple traiter le son. Et en reliant de multiples modules, l'on pouvait obtenir des son très complexes, notamment si vous ajoutiez des modules de modulation.
- la synthèse numérique, que l'on peut retracer, pas aussi loin que le 18ème, mais dès 1950 lorsque l'on a commencé à expérimenter avec des ordinateurs et du son.
transcript
Bienvenue dans cette première semaine de cours. Le sujet de cette semaine est la synthèse sonore. Pour les besoins de notre cours, nous allon spenser la synthèse sonore comme un moyen de générer du son, aussi bien électroniquement, qu'en utilisant un ordinateur. Il y a une longue histoire de la synthèse sonore, et je vous fournis quelques liens qui vous permettrons d'approfondir le sujet concernant l'histoire de la synthèse sonore. Mais l'on peut retracer cela dès le 18ème siècle, où déja, des personnes utilisaient de l'électricité et de l'électronique pour générer du son, utilisant l'électromagnétisme pour faire vibrer des instruments et générer de la musique électroaccoustique. Mais si l'on revient directement aux années 60, on peut trouver deux cheminements différents dont l'on peut parler.
Le premier est celui du mouvement de la synthèse analogique, où l'on a vu les premiers synthétiseurs analogiques apparaître comme le Moog ou le Buchla, je crois, et d'autres types de systèmes. Et la fonctionnalité clé de ces systèmes était qu'ils avaient une architecture modulaire où vous pouviez relier un module à un autre. Ainsi un module pouvait générer un son (quelque chose comme ça - son - ). Et un autre module pouvait, par exemple, traiter ce son.
Et en reliant un ensemble de modules entre eux, vous pouviez produire des sons très compliqués, en particulier si vous ajoutiez des modules de modulation comme celui-ci.
Voilà donc le premier chemin, cette idée de synthèse analogique modulaire, qui a connu un gros gain de popularité récemment, avec ce qu'on pourrait appeler le mouvement eurorack, ou beaucoup de personnes génèrent ce type de module et beaucoup de personnes construisent ce type de systèmes incroyables.
L'autre chemin est celui des ordinateurs numériques, que l'on peut retracer, non pas aussi loin que le 18ème siècle, mais aux années 50, lorsque des personnes ont commencer à expérimenter avec des ordinateurs et du son.
Et dans les années 1960, un des pionners était Max Matthews, qui travaillait aux laboratoires Bell, et qui, avec son équipe, a développé une série entière de langages de programmation spécialisés qui rendait possible de générer plus facilement du son en utilisant des ordinateurs. On appelle ces langages les langages MUSIC-N. Et en réalité, ils ont un modèle très similaire à celui de la synthèse analogique, où vous aviez ces choses appelées générateurs d'unité au lieu de modules, et ces générateurs d'unité pouvaient être reliés ensemble de manière efficace et programmatique dans pour former des graphes de synthèse, lesquels génèreraient du son.
Cette méthode de description des algorithmes de synthèse sonore ont été travaillé jusqu'à obtenir des langages modernes comme supercollider, qui est un langage de musique par ordinateur, et les environnement Pure data et MaxMSP, que de nombreuses personnes utilisent. Et en réalité, l'héritage de cette solution précoce au problème de la musique par ordinateur, si vous voulez, peut être vue dans les systèmes actuels. Et effectivement, l'API web audio, qui est le système javaScript que nous allons utiliser dans ce cours, implémente aussi un modèle de génération d'unité. C'est donc très similaire au systèmes modulaires analogiques.
Donc dans la leçon de cette semaine, ce que nous allons voir est comment utiliser l'API web audio pour construire des générateurs d'unité et les transformer en graphes desynthèse, et générer tout un ensemble de sons intéressants.
[Une superbe ressource couvrant l'histoire de la musique électronique. Cet article traite de Max MAthews et des Music N languages. ](https://120years.net/music-n-max-mathews-usa-1957/) [Un article plutôt détaillé sur l'API web audio, que vous pourriez trouver fort utile par la suite. Ne vous inquiétez pas, nous allons revenir dessus dans le détail durant le cours !](https://developer.mozilla.org/en-US/docs/Web/API/Web_Audio_API)