Job offers / Offres de visites, stages, thèses et emploi
Feel free to contact us at contact@algomus.fr if you are interested in joining our team, even if the subject is not detailed below. You can also have a look on job offers in the previous years to see the kind of subjects we like to work on.
Visits of PhD students or post-docs (between 2-3 weeks and 2-3 months) can be also arranged through mobility fundings. Contacts should be taken several months in advance. (open)
2025 Internship positions will be available (2-6 months).
PhD positions, 2024-27
- Co-creativity, Machine learning: Lifelong learning for mixed initiative musical co-creativity, K. DĂ©guernel, M. Giraud (closed) (deadline April 22)
- Harmony, Modeling: Modeling and semi-automatic generation of musical arrangements to foster ensemble music practice, M. Giraud, F. Levé (closed) (deadline April 22)
2024 Internship positions are available (2-6 months), this year be around the following themes:
- Co-creativity / AI / machine learning : Continual learning for co-creativity (K. DĂ©guernel + Scool) (closed)
- Music formal modeling, Analyse, modĂ©lisation et gĂ©nĂ©ration d’hymnes ‘Sacred Harp’ (M. Giraud, K. DĂ©guernel) (closed)
- Guitar / Music modeling: PrĂ©diction personnalisĂ©e de la difficultĂ© d’apprentissage Ă la guitare (A. d’Hooge, M. Giraud) (closed)
- Rap / Music modeling / AI, ModĂ©lisation de toplines de rap pour l’apprentissage en musique (M. Giraud, K. DĂ©guernel, with WorkInMusic) (closed)
- Corpus / Web development / Data analysis: Écouter, voir et analyser Schubert et du Jazz (C. Ballester, E. Leguy, M. Giraud) (closed)
- HCI/IHM / Co-improvisation, Analyser et rendre intelligible la co-improvisation musicale humain-IA à l’aide d’augmentations visuelles (F. Berthaut, Mint, M. Giraud, K. Déguernel) (closed)
Permanent position (French required, with French qualification). Un poste de MdC en section 27 est publié dans le cadre de la session synchronisée de recrutement EC 2024:
- UniversitĂ© de Lille, 27MCF235 “Interaction, humanitĂ©s numĂ©riques”, Algomus est une des Ă©quipes prioritaires (closed)
Stages 2024 de recherche et/ou développement en informatique musicale
Research Internship (Master’s student): Continual learning for music generation
- Stage de recherche M1/M2 (minimum 4 mois)
- Paid internship 2023, 4 months minimum.
- Place: Lille (CRIStAL, CNRS, Université de Lille)
- Supervisor and contact: Ken DĂ©guernel (CR CNRS) ken.deguernel@univ-lille.fr
Context and objectives
Current Mixed Initiative Co-Creative systems have opened new avenues for music generation fostering novel creative process and modes of interactions [1,2]. However, these systems lack the ability for long-term adaptation between user and machine. Our goal is to apply state-of-the-art continual learning [3,4] for machine learning based music generation models [5,6]. In particular, this internship will focus on supervised reinforcement learning method based on user feedback [7]. For instance, systems such as folk-rnn [5] or tradformer [6] could be used as a baseline on which the continual learning methods will be applied. These systems both used an already defined dataset based on the website thesession.org.
This internship takes place in the scope of a collaboration between the Algomus and Scool teams at CRIStAL, providing the student with an environment with both expertise in reinforcement learning and computer music.
Tasks
- Bibliography and familiarisation with a music generation systems such as folk-rnn,
- Implementation of user feedback based reinforcement learning to improve the personalisation of the studied music generation system,
- Evaluation of the system.
Qualifications
Needed
- Master’s student in Computer Science, Artificial Intelligence, or Music Computing,
- Strong background in machine learning, with experience with neural nerwork based systems,
- Good programming skills and experience with libraries like PyTorch.
Preferred
- Musical practice and familiarity with music theory.
References
[1] Jordanous (2017). Co-creativity and perceptions of computational agents in co-creativity. International
Conference on Computational Creativity.
[2] Lin et al. (2023). Beyond prompts: Exploring the design space of Mixed-Initiative Co-Creativity Systems.
International Conference on Computational Creativity.
[3] Parisi et al. (2019). Continual lifelong learning with neural networks: A review. Neural networks, 113.
[4] Irfan et al. (2022). Personalised socially assistive robot for cardiac rehabilitation: Critical reflections on
long-term interactions in the real world. User Modeling and User-Adapted Interaction.
[5] Sturm et al. (2016). Music transcription modelling and composition using deep learning.
arXiv:1604.08723.
[6] Casini & Sturm (2022). Tradformer: A transformer model of traditional music transcriptions. International
Joint Conference on Artificial Intelligence.
[7] Scurto et al. (2021). Designing deep reinforcement learning for human parameter exploration. ACM
Transactions on Computer-Human Interaction, 28(1).
Stage M1/M2, ModĂ©lisation de toplines de rap pour l’apprentissage en musique
- Stage M1/M2 2024, avec gratification, de 3 Ă 5 mois, en collaboration avec l’entrerpise WiM
- Thèmes: rythme, prosodie, rap, informatique musicale, apprentissage automatique
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Mathieu Giraud, Ken DĂ©guernel
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
La musique contribue aux apprentissages. Work In Music (WiM) est une application novatrice qui permet aux lycĂ©ens d’explorer le programme scolaire tout en Ă©tant immergĂ©s dans la musique. Des rythmes entraĂ®nants sont associĂ©s Ă chaque notion clĂ©, favorisant ainsi la mĂ©morisation et rendant l’apprentissage plus ludique.
WiM propose des contenus de divers styles musicaux, notamment le rap. Bien que le travail humain demeure essentiel et souhaitable pour garantir la qualitĂ© de ces contenus, il est tout aussi intĂ©ressant d’explorer des approches co-crĂ©atives qui combinent l’expertise et la crĂ©ativitĂ© humaines avec des algorithmes [1].
Ce stage se concentre ainsi sur l’analyse, la modĂ©lisation et la gĂ©nĂ©ration de toplines, la partie vocale d’une chanson rap en mettant l’accent sur son rythme et ses intonations Ă partir d’un texte structurĂ©. Plus prĂ©cisĂ©ment, le/la stagiaire aura l’opportunitĂ© de :
- Effectuer une revue des approches en informatique musicale et en musicologie sur la prosodie et le rap.
- Constituer un corpus composĂ© de plusieurs dizaines d’exemples de prosodie et de mĂ©lodies structurĂ©es
- Proposer une modélisation de ces toplines, notamment par des structures arborescentes
- Élaborer et tester un premier modèle de génération
La gĂ©nĂ©ration pourrait combiner des Ă©lĂ©ments formels, procĂ©duraux, et un apprentissage automatique s’appuyant sur le corpus Ă©laborĂ© ou d’autres donnĂ©es telles que MCFlow [3].
Profil recherché
Master d’informatique, compétences en modélisation et/ou en apprentissage/IA. Connaissances et pratique musicales appréciées, en particulier en rap.
Débouchés
Des opportunitĂ©s de poursuite en thèse pourraient ĂŞtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit Ă CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă l’étranger. En particulier, une thèse CIFRE avec l’entreprise WiM pourrait ĂŞtre envisagĂ©e.
References
- [1] Huang, AI Song Contest: Human-AI Co-Creation in Songwriting, ISMIR 2020
- [2] Adams, On the Metrical Techniques of Flow in Rap Music, Music Theory Online 15(5), 2009
- [3] Condit-Schultz, MCFlow: A Digital Corpus of Rap Transcriptions, Empirical Musicology Review, 11(2), 2017
- [4] Ohriner, Analysing the pitch content of the rapping voice Journal of New Music Research, 48(5), 2019
Stage de recherche L3/M1/M2 : PrĂ©diction personnalisĂ©e de la difficultĂ© d’apprentissage Ă la guitare
- Stage L3/M1/M2 2024, avec gratification, environ 3 mois (L3) Ă 4/5 mois (M1/M2)
- Thèmes: prédiction de difficulté, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Mathieu Giraud, Alexandre D’Hooge
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
Contexte
Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (UniversitĂ© de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). L’équipe d’informatique musicale Algomus s’intĂ©resse Ă la modĂ©lisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des donnĂ©es sur l’apprentissage de la musique. La start-up GSC a Ă©tĂ© incubĂ©e Ă la Plaine Images Ă Lille et dĂ©veloppe une application pour faciliter l’apprentissage de la guitare, Ă travers des suggestions automatiques de chansons et exercices.
La collaboration entre l’Ă©quipe Algomus et GSC consiste au dĂ©veloppement d’un modèle pour suggĂ©rer Ă l’utilisatrice les prochains morceaux Ă travailler Ă partir de ses souhaits et de son niveau actuel. Une première version de cet algorithme est dĂ©ployĂ©e dans la version beta de l’application, sortie en dĂ©cembre 2023.
Objectifs
De nombreux facteurs influencent la difficultĂ© d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexitĂ© du placement des doigts dans une position. L’objectif de ce stage est d’exploiter la littĂ©rature existante afin de concevoir et d’Ă©tendre un algorithme de prĂ©diction de difficultĂ© plus robuste, gĂ©nĂ©raliste, et adaptĂ© au parcours de l’apprenant.
La première Ă©tape consistera Ă prendre connaissance de la littĂ©rature existante en analyse de la difficultĂ© musicale (par exemple [1, 2]) et en particulier de reproduire les analyses de [1]. Le stage essaiera d’Ă©tendre ces modèles, que ce soit par la prise en compte d’autres facteurs ou par l’ajout de personnalisation Ă la prĂ©diction de difficultĂ©.
Pour un stage de Master, selon les donnĂ©es disponibles, une perpective pourrait ĂŞtre d’utiliser la solution dĂ©veloppĂ©e pour entraĂ®ner un modèle prĂ©dictif. Une attention particulière sera portĂ©e au coĂ»t environnemental d’un tel modèle, ainsi que son explicabilitĂ©, et Ă l’inclusivitĂ© et la diversitĂ© des rĂ©sultats gĂ©nĂ©rĂ©s.
Profil recherché
Licence/Master d’informatique, avec compétences en programmation et algorithmes de régression. Connaissances et pratique musicales appréciées (notamment en guitare), mais pas nécessaires.
Débouchés
Des opportunitĂ©s de poursuite en thèse pourraient ĂŞtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans Ă CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă l’Ă©tranger.
Références
- [1] Vélez Vásquez, M. A., Baelemans, M., Driedger, J., Zuidema, W., & Burgoyne, J. A. (2023). Quantifying the Ease of Playing Song Chords on the Guitar.
- [2] Ramoneda, P., Jeong, D., Valero-Mas, J. J., Serra, X. (2023). Predicting Performance Difficulty from Piano Sheet Music Images.
- [3] Rodriguez, R. C., Marone, V. (2021). Guitar Learning, Pedagogy, and Technology: A Historical Outline.
Stage L3/M1/M2: Écouter, voir et analyser Schubert et du Jazz
- Stage L3/M1/M2 2024, avec gratification, de 2 Ă 5 mois
- Thèmes: informatique musciale, manipulation de donnĂ©es, dĂ©veloppement web agile, TypeScript, Vue.js, initiation Ă l’algorithmique musicale et Ă l’IA
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible
- Encadrement et contacts: Charles Ballester, Emmanuel Leguy et Mathieu Giraud (CRIStAL)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures fermées
Contexte et objectifs
L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture.
Dezrann est utilisĂ©e d’un cĂ´tĂ© par des classes de collèges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă plusieurs centaines de pièces musicales.
Plusieurs équipes de recherche dans le monde ont produit les dernières années des corpus ”multimodaux”, comme par example le Schubert Winterreise Dataset (SWD) et le Weiner Jazz Database (WJD). Ces corpus contiennent des partitions (images ou symboliques), des fichiers audio, mais aussi des annotations comme par exemple des accords ou de la structure. Ces projets ont parfois des visualisations mais qui ne sont pas aussi commodes que celles proposées par Dezrann.
Travail Ă effectuer
-
IntĂ©grer ou amĂ©liorer l’intĂ©gration Ă Dezrann de deux corpus publiĂ©s par d’autres Ă©quipes, dont au moins un nouveau corpus. Ă€ titre d’exemple, en 2022/23 un projet avait travaillĂ© sur le Schubert Winterreise Dataset et la Weimar Jazz Database.
-
Contribuer à quelques fonctionnalités sur le front de Dezrann pour améliorer la plateforme
-
Selon le temps disponiblee, rĂ©aliser une première Ă©tude d’analyse et/ou de gĂ©nĂ©ration d’informatique musicale en s’appuyant sur les corpus intĂ©grĂ©s et en mettant en oeuvres des mĂ©thodes simples algorithmiques et/ou IA.
DĂ©veloppement en TypeScript/Vue.js, et possiblement Python, dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.
Références
-
Garczynski et al., Modeling and Editing Cross-Modal Synchronization on a Label Web Canvas, MEC 2022, https://hal.science/hal-03583179
-
Balke et al., Bridging the Gap: Enriching YouTube Videos with Jazz Music Annotations, 2018 https://www.frontiersin.org/articles/10.3389/fdigh.2018.00001/full
-
Weiss et al., Schubert Winterreise Dataset: A Multimodal Scenario for Music Analysis, 2021 https://dl.acm.org/doi/10.1145/3429743