Signal et électronique pour la musique (Option 2A)

  1. Présentation de l’option
  2. Planning 2019
  3. Intervenants
  4. Supports de cours
  5. Sujets de TD
  6. Sujets de TP
  7. Sujets de projets

1. Présentation

Le rapprochement de l’électro-acoustique, de l’acoustique des instruments de musique, du traitement du signal et de l’informatique musicale est à la fois un mariage d’amour et de raison : la connaissance des particularités acoustiques des instruments permet de guider les choix d’une bonne prise de son en studio ou dans un lieu d’écoute mais la prise de son elle-même est indissociable des choix esthétiques (couleurs sonores) voulus par celui qui la pratique.

Dans un autre registre, la synthèse sonore via les outils modernes de l’informatique musicale, requiert une connaissance fine autant des modèles physique d’instruments (rayonnement, propagation, modes propres, amortissement, …) que des techniques de synthèse (FM, guide d’onde, formantique, non-linéaire,…).

Par ailleurs, le développement de l’électronique embarquée a ouvert de nouvelles opportunités pour le traitement du signal audionumérique sur smartphones bien sûr, mais aussi sur microcontrôleurs ARM et plateformes linux embarquées. Le nombre pléthorique d’applications embarquées autour du son, de la musique, du DJing, … le démontre.

Enfin l’émergence depuis une décennies de techniques performantes dans le domaine du Music Information Retrieval (MIR) ayant abouti au développement d’applications comme Shazam ou de logiciels comme Ableton Live prouve que les liens entre musicologie, informatique distribuée, traitement du signal et intelligence artificielle ouvrent des perspectives extraordinaires.

Notre objectif dans les 64h de l’option est de donner l’opportunié d’approcher ces différentes composantes par la pratique expérimentale (9h de TP et 30h de mini-projets). La partie cours est organisée en trois volets, donnant les grandes lignes de la modélisation en acoustique physique et musicale d’une part, en électroacoustique (transducteurs, amplificateurs) d’autre part, en informatique musicale, traitement du signal pour la musique, audionumérique et MIR enfin.

Complétés par des conférences de spécialistes reconnus du domaine (académique ou industriel), les 30h de cours doivent permettre d’aborder sereinement l’étude bibliographique nécessaire aux TP et/ou mini-projets. Ceux-ci donnent lieu à une démonstration et un rapport écrit.

2. Planning 2019

  • 24/01 : psycho-acoustique, consonance et gammes : une brève histoire de la facture instrumentale ; sujet de TP#1 (systèmes de gamme)
  • 28/01 : propagation, rayonnement et impédances acoustiques : modélisation mécanique du HP et du microphone électrodynamique ; sujet de TP#2 (modélisation du HP)
  • 31/01 : modélisation du HP (suite : impédance de rayonnement)
  • 4/2 : architectures matérielles pour l’audionumérique : DSP, CODEC audio, bus I2S (Laurent Said, CTO, Augmented Acoustics)
  • 7/2 : Music Information Retrieval, ou le traitement du signal appliqué à l’analyse automatique de chansons : détection de BPM, séparation voix/drum (chercheur IRCAM)
  • 11/2 : Deep Learning pour la classification de genre musical (Romain Hennequin, chercheur, Deezer) ; voir les notes de cours ;
  • 14/2 : synthèse sonore ; membranes, cordes et modes propres : modélisation de deux instruments, la guitare, la caisse claire ; sujet de TP#3 (modélisation des instruments à cordes pincées  avec PureData / MaxMSP)
  • 18/2 : applications audio sur plateformes Android/iOS (Thomas Hezard, chercheur MWM, ex IRCAM) ; voir le  code Android
  • 21/2 : examen écrit 1h30, puis 2h30 pour terminer un TP au choix et rédiger un CR
  • du 11/3 au 8/4 : 7 séances de projet  (11/3 – 18/3 – 21/3 – 25/3 – 28/3 – 1/4 – 8/4) puis soutenances le 11/4 ;  salle D261 les lundi, salles 063 ou 070 les jeudi ; voir les sujets 2018 (mise à jour en cours)

3. Intervenants

Tous les intervenants (ou anciens intervenants) du cours sont à la fois des spécialistes d’acoustique musicale, d’audionumérique ou de traitement du signal pour la musique, et des musiciens accomplis, tous engagés dans une pratique musicale amateur ou professionnelle :

  • Sylvain REYNAL (Responsable de l’option, chercheur ETIS CNRS et Institut Actes, musicien pop, artiste plasticien & comédien)
  • Geoffroy PEETERS (chercheur, IRCAM)
  • Thomas HEZARD (ancien chercheur IRCAM, ingénieur R et D chez MWM, pianiste, ingé-son)
  • Dogac BASARAN (chercheur, Telecom Paristech/IRCAM, bassiste)
  • Romain Hennequin (chercheur, Deezer, musicien)
  • Laurent SAID (CTO Augmented Acoustics, tromboniste)
  • Bertrand DAVID (chercheur à Telecom Paristech/TSI et pianiste du quintet jazz “les évadés”)
  • Jérémie HUSCENOT (Acoustic Engineer, Philips Consumer Lifestyle)
  • Benjamin LEVY (chercheur IRCAM, violoncelliste de concert)
  • Olivier PASQUET (Producteur à l’IRCAM, artiste performer)

4. Supports de cours

5. Sujets de TD

6. Sujets de TP (séances TP #1 et #2)

7. Sujets de projets

liste des sujets de l’année en cours.