Jobs

Post-doc position 2019/20

Computational music analysis and machine learning

The Algomus team is seeking to recruit a 12-months post-doc on computational music analysis in the CRIStAL lab (Lille, France), starting in the following months. The position is funded by the CPER MAUVE, and the team is also supported by CNRS, Université de Lille, UPJV and IrDIVE.

The candidate should have defended a PhD in MIR (or have a PhD defense scheduled in the next months), preferably working on symbolic scores and with background or experience in machine learning and musicology.

Throughout the last years, the Algomus team oriented his research in the retrieval of high-level structures, such as fugue [1] and sonata form [2], using and improving computational musical analysis techniques (pattern comparison, harmony [3], texture, polyphony...). The post-doc is intended to work in one of these fields and could develop new MIR and machine learning techniques on some analytical elements as well as on music structures. Project examples can be on methods to analyze piano music, targeting Beethoven piano sonatas, or on the study on the development of sonata forms, working on the concept of rotations as formalized by Hepokoski and Darcy [4].

Interested candidates should contact us before March 10th.


Stage L3/M1 2019 - Développement web Polymer, Informatique musicale

Audio et scénarios pour la musique en classe avec Dezrann

  • Stage L3/M1 développement, printemps/été 2019, 2 à 4 mois
  • Lieu: au choix, Amiens (MIS, Université de Picardie Jules Verne) ou Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq et SCV à Tourcoing)
  • Gratification de stage
  • Encadrants et contacts: Emmanuel Leguy, Richard Groult et Mathieu Giraud

L'équipe Algomus, collaboration entre les laboratoires MIS (UPJV, Amiens) et CRIStAL (CNRS, Université de Lille), développe l'application web Dezrann pour lire et annoter des partitions musicales. L'annotation se fait en ajoutant des éléments graphiques sur la partition: les 'labels'. Cette application utilise le framework Polymer qui implémente la technologie des Web Components (standard du W3C). Nous réalisons un ensemble de balises HTML paramétrables qui s'intègrent aisément dans une page web à la manière des balises HTML5 vidéo ou audio.

Ce stage a pour objectif de rendre Dezrann utilisable en milieu scolaire durant les cours d'éducation musicale. Les élèves font des exercices d'analyse et de culture musicale basés en partie sur l'écoute. Par exemple, ils vont annoter la forme d'onde d'une pièce enregistrée en indiquant l'apparition des différents instruments de l'orchestre. La vue existante dans Dezrann de la partition musicale est ainsi étendue par une vue complémentaire sur la forme d'onde.

Le premier but du stage est de travailler sur cette vue en forme d'onde, et en utilisant la web audio API, de produire de l'audio de manière synchronisée:

  • soit la musique provenant d'un fichier audio (ogg, mp3, wav, flac...) via audio5js,
  • soit une voix isolée de l'oeuvre, le son (midi) étant généré par le navigateur à partir de la partition via midi.js

De plus, la gestion de profils utilisateur va bientôt permettre à Dezrann d'être utilisée à plusieurs. Le second but du stage est de développer des scénarios d'usage dans le cadre d'une classe de musique, notamment pour permettre une interaction entre les élèves et le professeur. Différents cas d'usages (encadrement, suivi, évaluation, gestion des permissions) seront à concevoir et à développer.

Le code sera écrit avec grand soin, documenté et testé. En cas de succès du projet, l'application étendue sera testée en situation réelle dans des classes d'éducation musicale de l'académie d'Amiens.

Mots-clés : partitions musicales, synchronisation musicale, javascript objet, Polymer, web audio API, midi.js, git/gitlab, tests et intégration continue


Stage M1/M2 2019 "Créativité musicale : modèles pour l'aide à la composition dans Guitar Pro"

  • offre close, stage pourvu
  • Stage M1/M2 recherche et développement, printemps/été 2019, 3 à 6 mois
  • Lieu: Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq et SCV à Tourcoing
  • Gratification de stage, thèse CIFRE envisageable à la suite du stage
  • Encadrants et contacts: Louis Bigo, Mathieu Giraud, Nicolas Martin

L'equipe d’informatique musicale Algomus, collaboration entre les laboratoires CRIStAL (UMR CNRS 9189, Université de Lille) et MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales. La société lilloise Arobas Music développe le logiciel Guitar Pro dédié à la saisie et à la consultation de tablatures de guitare, et plus généralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent régulièrement pour l’apprentissage, la transcription ou la composition. La société s’intéresse à l’ajout de nouvelles fonctionnalités pour assister de manière intelligente le processus d’écriture et de composition de l’utilisateur. Arobas Music produit également la base de données mySongBook réunissant plus de 2000 tablatures de haute qualité.

Ce stage s’inscrit dans le cadre d’un co-encadrement entre l’équipe Algomus et la société Arobas Music. L’objectif est d'explorer des pistes pour développer un système stimulant la créativité musicale de l’utilisateur en assistant de manière intelligente son processus de composition, par exemple en proposant la continuation ou la terminaison d’une phrase musicale entamée. La construction d’un modèle reflétant un ensemble de tendances mélodiques, harmoniques et rythmiques associées à style musical peut s’effectuer par apprentissage automatique sur des phrases entrées par l’utilisateur ou sur des bases de données préexistantes, notamment le répertoire mySongBook maintenu par Arobas Music.

Le stage commencera par dresser un état de l’art sur la génération automatique de tablatures, et plus généralement de musique. Il s’agira ensuite d’identifier une représentation pertinente des données afin de tester le potentiel de différentes méthodes issues de l’apprentissage automatique, en particulier les réseaux de neurones, sur le corpus mySongBook.

Profil du candidat. Machine learning, Python. Connaissances musicales souhaitées, si possible en harmonie/écriture. Connaissance de la guitare appréciée.

Références
  • N. dos Santos Cunha, A. Subramanian & D. Herremans. Generating guitar solos by integer programming.
  • M. McVicar, F. Satoru and G. Masataka. "AutoLeadGuitar : Automatic generation of guitar solo phrases in the tablature space." Signal Processing (ICSP), 2014 12th International Conference on. IEEE, 2014.
  • J. P. Briot, G. Hadjeres, and F. Pachet. Deep learning techniques for music generation — A survey. https://arxiv.org/abs/1709.01620 (2017)
  • D. Herremans, C. Ching-Hua, and E. Chew. A functional taxonomy of music generation systems. ACM Computing Surveys 50/5, 69 (2017)



anciennes offres