Signal et électronique pour la musique (Option 2A)

  1. Présentation de l’option
  2. Planning 2024
  3. Intervenants
  4. Supports de cours
  5. Sujets de TD
  6. Sujets de TP
  7. Sujets de projets
  8. Archives d’examens

1. Présentation

Rapprocher l’électro-acoustique, l’acoustique des instruments de musique, le traitement du signal, l’IA et l’informatique musicale, voici le mariage un peu  “irraisonnable” que propose cette option de 2ème année du cycle ingénieur ENSEA (niveau M1).

Du point de vue “ingénierie sonore”, la connaissance des particularités acoustiques des instruments permet de guider les choix d’une bonne prise de son en studio ou dans un lieu d’écoute, mais a contrario la prise de son elle-même est indissociable des choix esthétiques (couleurs sonores) voulus par celui qui la pratique.

Dans un autre registre, la synthèse sonore et la composition musicale contemporaine, via les outils modernes de l’informatique musicale et du Deep Learning, requièrent une connaissance fine autant des modèles physique d’instruments (rayonnement, propagation, modes propres, amortissement, …) que des techniques de synthèse (FM, guide d’onde, formantique, non-linéaire, …) et d’apprentissage machine (synthèse à IA telle que la proposent WaveNet ou aiva.ai, architectures à Variational Auto-Encoder, etc).

Par ailleurs, le développement de l’électronique embarquée a ouvert de nouvelles opportunités pour le traitement du signal audionumérique sur smartphones bien sûr, mais aussi sur microcontrôleurs ARM et plateformes linux embarquées. Le nombre pléthorique d’applications embarquées autour du son, de la musique, du DJing, … le démontre.

Enfin l’émergence depuis une décennies de techniques performantes dans le domaine du Music Information Retrieval (MIR) ayant abouti au développement d’applications comme Shazam ou de logiciels comme Ableton Live prouve que les liens entre musicologie, informatique distribuée, traitement du signal et intelligence artificielle ouvrent des perspectives extraordinaires.

Notre objectif dans les 64h de l’option est de donner l’opportunité d’approcher ces différentes composantes par la pratique expérimentale (9h de TP et 30h de mini-projets). La partie cours est organisée en trois volets, donnant les grandes lignes de la modélisation en acoustique physique et musicale d’une part, en électroacoustique (transducteurs, amplificateurs) d’autre part, en informatique musicale, traitement du signal pour la musique, audionumérique et MIR enfin.

Complétés par des conférences de spécialistes reconnus du domaine (académique ou industriel), les 30h de cours doivent permettre d’aborder sereinement l’étude bibliographique nécessaire aux TP et/ou mini-projets. Ceux-ci donnent lieu à une démonstration et un rapport écrit.

2. Planning 2024

  • 18/1 : de Purcell à Daft Punk, une brève histoire de la facture instrumentale
  • 22/1 : TP Initiation à la synthèse sonore avec Max/MSP
  • 25/1 : Psycho-acoustique, consonance et gammes
  • 29/1 : Deep Learning et IA appliqués à la musique (Romain Hennequin, Deezer)
  • 1/2 : TP sur les systèmes de gamme
  • 5/2 : Acoustique musicale
  • 8/2 : Microphones, haut-parleurs et équipement en studio 
  • Vacances d’hiver
  • 26/2 : Synthèse sonore (FM, Ring mod, etc)
  • 4/3 :  Applications audio pour Android #1 — voir le  code Android
  • 7/3 : Applications audio pour Android #2
  • 11/3 :  Projet #1
  • 14/3  : TP1 studio d’enregistrement
  • 18/3 :  Projet #2
  • 21/3  : TP2 studio d’enregistrement
  • 25/3 :  Projet #3
  • 28/3 :  Projet #4
  • 7/4 : Projet #5
  • 4/4 : Soutenances projet
  • A fixer : Examen écrit (de 10h à 11h en A103)

Intervenants

Tous les intervenants (ou anciens intervenants) du cours sont à la fois des spécialistes d’acoustique musicale, de traitement du signal audio, d’informatique/IA pour la musique ou de SHS (sciences humaines et sociales) “orientées” musique, et des musiciens accomplis, tous engagés dans une pratique musicale amateur ou professionnelle :

  • Dr. Syd REYNAL (Responsable de l’option, enseignant-chercheur ETIS CNRS, musicien pop, artiste)
  • Dr. Thomas HEZARD (diplômé ATIAM et docteur IRCAM, ingénieur R et D chez MWM, pianiste, ingé-son)
  • Dr. Romain Hennequin (chercheur, Deezer, musicien)
  • Dr. Constance DOUWES (chercheuse INRIA, musicienne, DJ & productrice de musique électronique)
  • Dr. Joffrey BECKER (anthropologue, enseignant-chercheur ETIS CNRS)
  • Dr. Laurent FIACK (enseignant ENSEA, spécialiste de modulaire)
  • Wadie MOUTAWAKIL (ingénieur, SONOS)
  • Nicolas PAPAZOGLOU (enseignant ENSEA, diplômé ATIAM, ingénieur du son)

Anciens intervenants :

  • Prof. Geoffroy PEETERS (enseignant-chercheur, Telecom Paris, ex-IRCAM)
  • Dr. Dogac BASARAN (chercheur, Telecom Paristech/IRCAM, bassiste)
  • Prof. Bertrand DAVID (enseignant-chercheur à Telecom Paristech/TSI et pianiste du quintet jazz “les évadés”)
  • Jérémie HUSCENOT (Acoustic Engineer, Philips Consumer Lifestyle)
  • Olivier PASQUET (Producteur à l’IRCAM, artiste performer)
  • etc

4. Supports de cours

5. Sujets de TD

6. Sujets de TP (séances TP #1 et #2)

7. Sujets de projets

liste des sujets de l’année en cours.

Un patchwork des questions posées depuis le début du millénaire.