Job offers / Offres de visites, stages, thèses et emploi

2024

Internship positions are available (2-6 months), this year be around the following themes:

Feel free to contact us at contact@algomus.fr if you are interested in joining our team, even if the subject is not detailed below.

Stages 2024 de recherche et/ou développement en informatique musicale


Stage de recherche M1/M2 : Prédiction personnalisée de la difficulté d’apprentissage à la guitare

Contexte

Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (Université de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). L’équipe d’informatique musicale Algomus s’intéresse à la modélisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des données sur l’apprentissage de la musique. La start-up GSC a été incubée à la Plaine Images à Lille et développe une application pour faciliter l’apprentissage de la guitare, à travers des suggestions automatiques de chansons et exercices. L

La collaboration entre l’équipe Algomus et GSC consiste au développement d’un modèle pour suggérer à l’utilisatrice les prochains morceaux à travailler à partir de ses souhaits et de son niveau actuel. Une première version de cet algorithme est déployée dans la version beta de l’application, sortie en décembre 2023.

Objectifs

De nombreux facteurs influencent la difficulté d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexité du placement des doigts dans une position. L’objectif de ce stage est d’exploiter la littérature existante afin de concevoir et d’étendre un algorithme de prédiction de difficulté plus robuste, généraliste, et adapté au parcours de l’apprenant.

La première étape consistera à prendre connaissance de la littérature existante en analyse de la difficulté musicale (par exemple [1, 2]) et en particulier de reproduire les analyses de [1]. Le stage essaiera d’étendre ces modèles, que ce soit par la prise en compte d’autres facteurs ou par l’ajout de personnalisation à la prédiction de difficulté.

Selon les données disponibles, une perpective pourrait être d’utiliser la solution développée pour entraîner un modèle prédictif. Une attention particulière sera portée au coût environnemental d’un tel modèle, ainsi que son explicabilité et à l’inclusivité et la diversité des résultats générés.

Profil recherché

Master d’informatique, avec compétences en programmation et algorithmes de régression. Connaissances et pratique musicales appréciées (notamment en guitare), mais pas nécessaires.

Débouchés

Des opportunités de poursuite en thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans à CRIStAL ou bien dans notre réseau de collaborateurs académiques ou industriels en France et à l’étranger.

Références

  • [1] Vélez Vásquez, M. A., Baelemans, M., Driedger, J., Zuidema, W., & Burgoyne, J. A. (2023). Quantifying the Ease of Playing Song Chords on the Guitar.
  • [2] Ramoneda, P., Jeong, D., Valero-Mas, J. J., Serra, X. (2023). Predicting Performance Difficulty from Piano Sheet Music Images.
  • [3] Rodriguez, R. C., Marone, V. (2021). Guitar Learning, Pedagogy, and Technology: A Historical Outline.

Stage L3/M1: Écouter, voir et analyser Schubert et du Jazz

Contexte et objectifs

L’équipe Algomus développe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des étiquettes (labels), éléments graphiques sur la partition, pour décrire par exemple la structure, l’harmonie, le rythme, la mélodie ou la texture.

Dezrann est utilisée d’un côté par des classes de collèges pour découvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un véritable service permettant d’accéder à plusieurs centaines de pièces musicales.

Plusieurs équipes de recherche dans le monde ont produit les dernières années des corpus ”multimodaux”, comme par example le Schubert Winterreise Dataset (SWD) et le Weiner Jazz Database (WJD). Ces corpus contiennent des partitions (images ou symboliques), des fichiers audio, mais aussi des annotations comme par exemple des accords ou de la structure. Ces projets ont parfois des visualisations mais qui ne sont pas aussi commodes que celles proposées par Dezrann.

Travail à effectuer

  • Intégrer ou améliorer l’intégration à Dezrann de deux corpus publiés par d’autres équipes, dont au moins un nouveau corpus. À titre d’exemple, en 2022/23 un projet avait travaillé sur le Schubert Winterreise Dataset et la Weimar Jazz Database.

  • Contribuer à quelques fonctionnalités sur le front de Dezrann pour améliorer la plateforme

  • Réaliser une première étude d’analyse et/ou de génération d’informatique musicale en s’appuyant sur les corpus intégrés et en mettant en oeuvres des méthodes simples d’IA.

Développement en TypeScript et/ou python dans un cadre de développement agile (conception, tests, intégration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et étrangers, notamment avec les classes du secondaire de la région utilisant Dezrann. Elle ou il participera enfin aux projets de médiation montés par l’équipe.

Références

2023

Médiation scientifique. Étudiant·es en médiation pour un atelier d’informatique musicale (open)

PhD positions, 2023-26

Permanent position (French required, with French qualification). Un poste de MdC en section 27 à l’Université de Picardie Jules-Verne (UPJV) à Amiens, avec un profil recherche ouvert contenant “informatique musicale” est publié dans le cadre de la session synchronisée de recrutement EC 2023. Les enseignements seront effectués au département informatique de l’UFR sciences de l’UPJV. Contacter Florence Levé.

Visits of PhD students or post-docs (between 2-3 weeks and 2-3 months) can be also arranged through mobility fundings. Contacts should be taken several months in advance. (open)

Two 12-month post-doc positions

Internship positions are available (2-6 months), this year be around the following themes:

Feel free to contact us at contact@algomus.fr if you are interested in joining our team, even if the subject is not detailed below.

Stages 2023 de recherche et/ou développement en informatique musicale


Stage de recherche (M1/M2): Cartographie des tags musicaux sur Bandcamp

L’équipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, Université de Lille), en collaboration avec le MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales.

Contexte et objectifs

Bandcamp est un site de vente et de streaming pour artistes indépendants. Les artistes utilisent des tags pour identifier eux-mêmes les genres musicaux qui décrivent leur musique. La classification par genre musicaux est un problème complexe car mal défini et subjectif. La classification automatique est cependant très utilisées dans le domaine de la Music Information Retrieval (MIR) pour la recherche mais aussi dans l’industrie (notamment par les plateformes de ventes et de streaming (Spotify, Youtube, Apple Music, etc.)

Nous souhaitons à obtenir une meilleure compréhension de comment les artistes utilisent les tags sur Bandcamp pour définir leur musique. Nous nous intéressons donc plutôt à une tâche de musicologie computationnelle descriptive de la pratique des artistes.

Travail à effectuer

  • Récupération automatique des tags et des metadata sur Bandcamp par data crawling
  • Création d’une cartographie relationnelles entre tags
  • Création d’une application web permettant de naviguer la cartographie

Profil recherché

Master d’informatique avec des compétences en théorie des graphes et technologies web. Pratique musicale appréciée mais non obligatoire.

Débouchés

Des opportunités de poursuite en thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre réseau de collaborateurs en France et à l’étranger. L’équipe est également en contact avec des entreprises travaillant sur des sujets connexes.

Références

  • [1] Vitos, B. (2021). Dance Librarian: Sonic Explorations of the Bandcamp Underground. DanceCult 13:1.
  • [2] Haworth, C., & Born, G. (2022). Music and intermediality after the internet: aesthetics, materialities and social forms. Music and Digital Media, 378.
  • [3] Sturm, B. L. (2017). The “horse” inside: Seeking causes behind the behaviors of music content analysis systems. Computers in Entertainment (CIE), 14(2), 1-32.

Stage de recherche (L3/M1/M2): Évaluation du coût carbone de l’intelligence artificielle en informatique musicale

L’équipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, Université de Lille), en collaboration avec le MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales.

Contexte et objectifs

Comme dans de nombreux domaines, l’apprentissage automatique est présent dans beaucoup de travaux en informatique musicale, que ce soit en analyse ou en génération de musique [1].

Ces travaux s’appuient sur des corpus de plus en plus conséquents, qu’ils soient audio, de partitions ou d’autres représentations symboliques, et/ou de métadonnées, et des modèles de plus en plus complexes, en particulier GAN et auto-encodeurs variationnels.

Il y a heureusement une prise de conscience de l’empreinte écologique croissante du numérique en général et de l’IA en particulier [2, 3, 4]. Cependant, en informatique musicale, très peu de travaux sont explicites sur le calcul nécessaire à l’apprentissage de ces modèles, même si par ailleurs on trouve de plus en plus d’études sur l’IA et carbone [5, 6].

Ce stage fera un premier bilan du coût en calcul, et idéalement du coût carbone, des recherches en MIR utilisant l’intelligence artificielle. Il passera par une revue systématique des articles publiés dans une ou deux conférences majeures de la dernière année.

Le stage pourra en particulier regarder quels modèles sont les plus consommateurs et/ou économes et quel effort les équipes cherchent (ou pas) à faire dans ce domaine.

Profil recherché

Master d’informatique et/ou master lié à l’environnement, avec dans les deux cas compétences en IA/science des données. Pratique musicale appréciée mais non obligatoire.

Débouchés

Des opportunités de poursuite en thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre réseau de collaborateurs en France et à l’étranger. L’équipe est également en contact avec des entreprises travaillant sur des sujets connexes.

Références

2022 (archive)

Permanent positions (session synchronisée Galaxie 2022, 31 mars) (closed)

  • Poste en section 27 au CRIStAL, avec un profil recherche contenant “informatique musicale, corpus, co-créativité”: 27 MCF 0035
  • En dehors d’Algomus, poste en section 18 au CEAC / département Arts, profil recherche “musique et nouvelles technologies”: 18 MCF 0016

PhD positions, 2022-25

Ingénieur·e développement web Vue fullstack, rendu/synchro partitions musicales, CollabScore (CDD 18 mois) (closed)

Internship positions are available (2-6 months), this year be around the following themes:

Stages 2022 de recherche et/ou développement en informatique musicale


Stage L3/M1/M2: Vers un corpus de musique pour les grands prématurés

Contexte

Ce stage est proposé dans le cadre d’une collaboration avec le GRAMFC (Groupe de Recherche sur l’Analyse Multimodale de la Fonction Cérébrale), visant à évaluer l’impact de l’exposition des bébés nés très prématurément (à partir de 28 semaines d’âge gestationnel) à des interventions musicales adaptées sur leur développement neural et comportemental, en particulier concernant leur compréhension des mécanismes du langage et de la musique.

L’enjeu de la mission est de proposer un corpus de musique adapté aux grands prématurés, afin que les morceaux sélectionnés soient diffusés/joués dans le service de soin intensif de néonatologie du Centre Hospitalier Universitaire d’Amiens quotidiennement. Il s’agit de proposer un corpus de taille conséquente assurant une diversité musicale (a minima rythmique, mélodique, texturale, voire harmonique), tout en s’adaptant aux capacités auditives des bébés prématurés, qui ne leur permettent pas d’écouter tout type de musique, certains sons ou fréquences pouvant les agresser ou les stresser.

Les tâches réalisées seront, en particulier:

  • Bibliographie (méthodologie de constitution de corpus multi-modaux, contraintes physiologiques et liées à la diffusion de musique en soin intensif)
  • Choix/constitution d’un corpus de départ
  • Développement de descripteurs permettant de sélectionner (automatiquement) les partitions selon certaines caractéristiques musicales (notamment rythmiques, explorant les métriques binaires et ternaires)
  • Évaluation de la diversité des partitions du corpus grâce à des descripteurs adaptés
  • Proposition d’une métrique permettant d’évaluer l’acceptabilité d’une partition
  • Proposition d’une méthode d’extraction/simplification permettant de respecter les contraintes tout en maintenant la diversité

A priori, la majorité de l’étude sera réalisée sur des musiques représentées sous forme symbolique (encodage de la partition : MIDI, MusicXML, …), qui semblent plus adaptées pour développer les descripteurs requis. Une connaissance des principes audio sera appréciée, qui permettra d’évaluer la piste du filtrage à partir de formes d’onde.

Profil recherché

Études d’informatique, avec compétences musicales et intérêt pour les sciences cognitives

Débouchés

Des opportunités de poursuite en stage et/ou thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit à Amiens ou bien dans notre réseau de collaborateurs en France et à l’étranger.

Références

  • Cirelli, L. K., Spinelli, C., Nozaradan, S., & Trainor, L. J. (2016). Measuring Neural Entrainment to Beat and Meter in Infants: Effects of Music Background. Frontiers in neuroscience, 10, 229. doi:10.3389/fnins.2016.00229

  • Haslbeck, F. B., et al. (2020). Creative music therapy to promote brain function and brain structure in preterm infants: A randomized controlled pilot study. NeuroImage: Clinical, 25, 102171. doi:10.1016/j.nicl.2020.102171

  • van der Heijden, M. J., Oliai Araghi, S., Jeekel, J., Reiss, I. K. M., Hunink, M. M., & van Dijk, M. (2016). Do hospitalized premature infants benefit from music interventions? A systematic review of randomized controlled trials. PloS one, 11(9). doi:10.1371/journal.pone.0161848

  • Foroushani, S.M., Herman, C.A., Wiseman, C.A. et al. Evaluating physiologic outcomes of music interventions in the neonatal intensive care unit: a systematic review. J Perinatol 40, 1770–1779 (2020). doi:10.1038/s41372-020-0756-4


Stage M1/M2: Génération d’accompagnements à la guitare basse

Contexte

Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (Université de Lille, CRIStAL) et la société Arobas Music. L’équipe d’informatique musicale Algomus s’intéresse à la modélisation informatique de partitions musicales. La société lilloise Arobas Music développe le logiciel Guitar Pro dédié à la saisie et à la consultation de tablatures de guitare, et plus généralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent régulièrement pour l’apprentissage, la transcription ou la composition. La société s’intéresse à l’ajout de nouvelles fonctionnalités pour assister de manière intelligente le processus d’écriture et de composition de l’utilisateur.

Le corpus mySongBook (MSB), produit et maintenu par la société Arobas Music, comprend plus de 2500 pièces, majoritairement dans le style pop/rock, encodées symboliquement sous la forme de fichiers au format Guitar Pro. Les fichiers Guitar Pro consistent en un alignement de plusieurs parties, chacune associée à un instrument, indiquant le contenu musical joué par cet instrument. Comme fréquemment dans le style pop/rock, une grande partie de ces pièces comprend une partie de guitare basse alignée à une ou plusieurs parties de guitares.

Objectifs

La première tâche de ce stage consistera à entrainer un modèle à prédire le contenu d’une partie de guitare basse étant donné la (les) parties(s) de guitare avec laquelle la partie de basse est alignée. On s’inspirera en premier lieu de méthodes issues de la traduction automatique de séquences (Neural Machine Translation) où un modèle dit Sequence To Sequence (LSTM ou Transformer) est entraîné à produire une séquence de sortie pour toute séquence donnée en entrée. Différentes expériences seront menées et comparées en faisant varier l’architecture du modèle, l’uniformité stylistique du corpus d’apprentissage, la représentation et la résolution des données.

Dans une seconde partie, on étudiera le potentiel d’utilisation de ce type de modèles comme outil dans un contexte d’écriture ou de composition musicale. On étudiera en particulier les possibilités de contrôle du modèle au cours de la génération, permettant à l’utilisateur d’influer sur certains paramètres comme le style ou l’originalité de la séquence produite.

Profil recherché

Master d’informatique, avec compétences en programmation et apprentissage automatique. Connaissances et pratique musicales souhaitées, idéalement pratique de la guitare/basse et une familiarité avec les tablatures.

Débouchés

Des opportunités de poursuite en thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre réseau de collaborateurs en France et à l’étranger.

Références

  • Makris, D., Agres, K. R., & Herremans, D. (2021). Generating lead sheets with affect: A novel conditional seq2seq framework.
  • Grachten, M., Lattner, S., & Deruty, E. (2020). BassNet: A Variational Gated Autoencoder for Conditional Generation of Bass Guitar Tracks with Learned Interactive Control.
  • Ren, Y., He, J., Tan, X., Qin, T., Zhao, Z., & Liu, T. Y. (2020, October). Popmag: Pop music accompaniment generation.
  • McVicar, M., Fukayama, S., & Goto, M. (2015). AutoGuitarTab: Computer-aided composition of rhythm and lead guitar parts in the tablature space.

Stage M1/M2: Pré-entraînement de modèles séquentiels musicaux

Contexte

Les techniques modernes en apprentissage automatique, notamment autour des réseaux de neurones, suscitent de nombreuses recherches dans les domaines du traitement automatique du langage naturel (Natural Language Processing) d’une part et du traitement automatique des données musicales (Music Information Retrieval) d’autre part. Ces recherches ont de multiples applications allant de l’analyse de corpus textuels/musicaux à la génération automatique de texte/musique.

Parmis les différents types de réseaux de neurones, les modèles Sequence To Sequence dédiés à la transformation de séquences, ont permis d’important progrès en NLP dans des tâches de traduction automatique ou de question-réponse. C’est le cas des transformers [1], dont le fonctionnement repose sur le principe de self-attention, qui incite un modèle, lors de son entraînement, à mesurer les relations mutuelles entre les termes composant une séquence, par exemple une séquence de caractères ou de mots. L’aspect séquentiel de la musique a suscité une variété d’initiatives consistant à entraîner des transformers sur des données musicales symboliques (par exemple des séquences de notes issues de fichiers MIDI), qui ont permis d’important progrès en génération, harmonisation et analyse automatique de musique [3].

Le principe d’apprentissage par transfert consiste à entraîner un modèle pour une tâche cible, en partant d’un modèle entraîné en amont sur une tâche plus abstraite (phase dite de pré-entraînement), et pour laquelle on dispose d’un plus grand nombre de données. Par exemple, un modèle entraîné à reconnaître des images de camion gagnera à être entraîné en partant d’un modèle entraîné au préalable à reconnaître des véhicules plutôt qu’à partir de zéro.

Le traitement de données séquentielles, par exemple pour l’entraînement d’un modèle, pose la question de la découpe des séquences en éléments atomiques (ou tokenization). En langage naturel par exemple, une phrase peut être vue comme un séquence de caractères, une séquence de mots, de groupes de mots, ou toute segmentation intermédiaire qui fait sens. La question de la découpe se pose particulièrement en musique, où le contexte et les relations entre les différentes notes jouent un rôle fondamental.

Objectifs

Inspirés par le pré-entraînement de modèles Sequence To Sequence en NLP, ce projet consiste à expérimenter différentes stratégies de découpe des séquences de données musicales pour le pré-entraînement de modèles musicaux. Des tâches cibles en MIR (détection de fin de phrase musicales ou encore détection de tonalité) associées à des corpus annotés permettront d’évaluer la performance des modèles pré-entraînés.

Outre les différentes stratégies de découpe, on pourra expérimenter différents corpus de fichiers musicaux pour le pré-apprentissage : le corpus MAESTRO, issu d’enregistrements de performances, ainsi qu’un regroupement de fichiers fichiers MIDI issus de partitions musicales. Le recours comparatif à ces deux corpus permettra d’évaluer l’impact de l’interprétation musicale (présente uniquement dans le corpus MAESTRO) sur la qualité du pré-entraînement.

Profil recherché

Master d’informatique, avec compétences en programmation et apprentissage automatique.

Débouchés

Des opportunités de poursuite en thèse pourraient être envisagées sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre réseau de collaborateurs en France et à l’étranger.

Références

  • Vaswani, Ashish, et al. “Attention is all you need.” Advances in neural information processing systems. 2017.
  • Huang, Cheng-Zhi Anna, et al. “Music transformer.”
  • Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.”
  • Wang, Ziyu, and Gus Xia. “Musebert: pre-training of music representation for music understanding and controllable generation.”
  • Fradet, Nathan, et al. “MidiTok: A Python Package for MIDI File Tokenization.”

Stage L3/M1/M2: Un réseau social pour l’annotation de musique

L’équipe Algomus développe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des étiquettes (labels), éléments graphiques sur la partition, pour décrire par exemple la structure, l’harmonie, le rythme, la mélodie ou la texture. Si Soundcloud permet d’écouter un morceau de musique et d’y laisser ses impressions, Dezrann donne accès avec bien plus de finesse au contenu musical, forme d’onde ou partition.

Dezrann est utilisée d’un côté par des classes de collèges pour découvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un véritable service permettant d’accéder à plusieurs centaines de pièces musicales. Certaines de ces pièces ne sont accessibles que par des utilisteurs possédant un compte. Ce projet a donc pour objectif de faciliter la communication entre les différents utilisateurs pour faire de l’application un véritable espace collaboratif d’analyse musicale, où chacun·e peut proposer et partager une analyse.

Dans un cadre de développement agile (conception, tests, intégration continue, documentation), le ou la stagiaire travaillera ainsi sur la conception, l’implémentation et le test de l'espace de travail et de gestion des pièces et d’analyses d’un utilisateur, pour permettre notamment:

  • le partage de l’analyse à un ou plusieurs collaborateurs, ou bien au puvlic, en lecture voire en écriture
  • la proposition d’une nouvelle version d’une analyse existante
  • la modification l’analyse d’un collaborateur
  • la publication d’une analyse

Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et étrangers, notamment avec les classes du secondaire de la région utilisant Dezrann. Elle ou il participera enfin aux projets de médiation montés par l’équipe.

2021 (archive)

PhD positions, 2021-24

Médiation scientifique, 2021-2022

Stages de recherche 2021 en informatique musicale