Signal et électronique pour la musique

1. Présentation

Le rapprochement de l’électro-acoustique, de l’acoustique des instruments de musique, du traitement du signal et de l’informatique musicale est à la fois un mariage d’amour et de raison : la connaissance des particularités acoustiques des instruments permet de guider les choix d’une bonne prise de son en studio ou dans un lieu d’écoute mais la prise de son elle-même est indissociable des choix esthétiques (couleurs sonores) voulus par celui qui la pratique.

Dans un autre registre, la synthèse sonore via les outils modernes de l’informatique musicale, requiert une connaissance fine autant des modèles physique d’instruments (rayonnement, propagation, modes propres, amortissement, …) que des techniques de synthèse (FM, guide d’onde, formantique, non-linéaire,…).

Par ailleurs, le développement de l’électronique embarquée a ouvert de nouvelles opportunités pour le traitement du signal audionumérique sur smartphones bien sûr, mais aussi sur microcontrôleurs ARM et plateformes linux embarquées. Le nombre pléthorique d’applications embarquées autour du son, de la musique, du DJing, … le démontre.

Enfin l’émergence depuis une décennies de techniques performantes dans le domaine du Music Information Retrieval (MIR) ayant abouti au développement d’applications comme Shazam ou de logiciels comme Ableton Live prouve que les liens entre musicologie, informatique distribuée, traitement du signal et intelligence artificielle ouvrent des perspectives extraordinaires.

Notre objectif dans les 64h de l’option est de donner l’opportunié d’approcher ces différentes composantes par la pratique expérimentale (8h de TP et 20h de mini-projets). La partie cours est organisée en trois volets, donnant les grandes lignes de la modélisation en acoustique physique et musicale d’une part, en électroacoustique (transducteurs, amplificateurs) d’autre part, en informatique musicale, traitement du signal pour la musique, audionumérique et MIR enfin.

Complétés par des conférences de spécialistes reconnus du domaine (académique ou industriel), les 30h de cours doivent permettre d’aborder sereinement l’étude bibliographique nécessaire aux TP et/ou mini-projets. Ceux-ci donnent lieu à une démonstration et un rapport écrit.

2. Planning 2018

  • 29/01 : cours de psychoacoustique, gammes, consonance, brève histoire de la musique et de la facture instrumentale
  • 01/02 : cours d’acoustique physique (impédances acoustiques et mécaniques, puissance acoustique rayonnée)
  • 05/02 : cours d’acoustique physique  (rayonnement du dipôle, rayonnement du HP, directivité en fonction de la fréquence)
  • 08/02 : TP#1 (systèmes de gamme vs modélisation des instruments à cordes pincées vs puredata vs webaudio html 5)
  • 12/02 :TP#2 (idem)
  • 15/02 : cours sur les transducteurs electro-acoustiques (micros, HP)
  • 05/03 :  quizz N°1 sur la première partie de l’option puis cours sur les architectures matérielles pour l’audionumérique (échantillonage, quantification, CNA/CAN, bus, …)
  • 12/03 et 15/03 : cours de traitement du signal et machine learning pour la musique et la MIR (Geoffroy Peeters, IRCAM)
  • 19/03, 22/03, 26/03 : séances de nano-projets #1 #2 #3 (sujets)
  • 29/03 : conférence sur le Deep learning par Romain Hennequin (Deezer)
  • 5/4 et 9/4 : séance de nano-projets #4 et #5 (soutenance à la fin de la séance #5)
  • 12/4 : conférence de Thomas Hézard (MWM, ex IRCAM) sur le traitement du signal musical sur plateforme Android/iOS
  • ?/4 : quizz N°2 sur la deuxième partie de l’option

3. Intervenants

Tous les intervenants (ou anciens intervenants) du cours sont à la fois des spécialistes d’acoustique musicale, d’audionumérique ou de traitement du signal pour la musique, et des musiciens accomplis, tous engagés dans une pratique musicale amateur ou semi-professionnelle :

  • Sylvain REYNAL (Responsable de l’option, chercheur ETIS CNRS, violoniste, producteur electro, artiste plasticien)
  • Geoffroy PEETERS (chercheur à l’IRCAM)
  • Thomas HEZARD (ancien chercheur IRCAM, ingénieur R et D chez MWM, pianiste)
  • Dogac BASARAN (chercheur à Telecom Paristech)
  • Romain Hennequin (ingénieur R et D chez Deezer)
  • Laurent SAID (CTO Augmented Acoustics,tromboniste)
  • Bertrand DAVID (chercheur à Telecom Paristech/TSI et pianiste du quintet jazz “les évadés”)
  • Jérémie HUSCENOT (Acoustic Engineer, Philips Consumer Lifestyle)
  • Benjamin LEVY (chercheur IRCAM, violoncelliste de concert)
  • Olivier PASQUET (Producteur à l’IRCAM, artiste performer)(Les intervenants actuels sont indiqués en gras)

4. Supports de cours

  • le polycopié 2017 d’introduction à l’acoustique physique et à l’électro-acoustique (nouvelle édition en cours de publication)
  • les documents de cours de Thomas Hézard : transparents du cours
  • architectures de traitement audionumérique (transparents du cours
  • les transparents du cours sur le pitch Pitch et Chroma
  • le Notebook Mathematica sur les gammes (Pythagore vs. gamme tempérée) et le timbre des instruments à corde.
  • presentation powerpoint systèmes audio-numériques (L. Said)
  • conférence d’électroacoustique sur les haut-parleurs et les casques (Jérémie Huscenot): partie 1 et partie 2
  • Le polycopié sur la synthèse sonore (B. David)

5. Sujets de TD

6. Sujets de TP (séances TP #1 et #2)

7. Sujets de nanoprojets

liste des sujets de l’année en cours.