Job offers / Offres de visites, stages, thĂšses et emploi
Current offers: https://www.algomus.fr/jobs
Archive
2025 (archive)
2025 post-doc position on co-creativity (K. Déguernel): Lifelong learning for co-creative music generation (closed) .
2025 Internship positions will be available (2-6 months), this year including the following themes:
- Co-creativity, Machine learning: Curiosity-Driven Adaptive AI for Co-Creative Music Generation (K. Déguernel, F. Berthaut (MINT)) (closed)
- Music analysis / Harpsichord: Modeling basso continuo realization on the harpsichord (M. Giraud, Y. Teytaut) (closed)
- Corpus / Web development: Création générique de corpus musicaux sur la plateforme web Dezrann (E. Leguy, M. Giraud) (closed)
- Video Game Music / Corpus / Music Perception, Loop perception in Video Game Music: corpus constitution and experimental study (Y. Teytaut, C. Canonne (IRCAM), F. Levé) (closed)
- Pedagogy / Music training: GĂ©nĂ©ration d’exercices pour l’apprentissage du solfĂšge (M. Giraud, with Solfy) (closed)
- Pedagogy / Difficulty modeling / Guitar: Suggestion personnalisĂ©e de parcours pĂ©dagogiques pour l’apprentissage de la guitare (A. D’Hooge, M. Giraud, with Guitar Social Club) (closed)
MĂ©diation scientifique 2025/26. Ătudiant·es en mĂ©diation pour un atelier d’informatique musicale (ouvert)
Stages 2025 de recherche et/ou développement en informatique musicale
Research Internship : Curiosity-Driven Adaptive AI for Co-Creative Music Generation
- Final year of Master’s degree internship
- Duration: 4-6 months, with legal “gratification” (550âŹ-600âŹ/month)
- Location: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons); partial remote work is possible
- Supervisors and contacts: Ken Déguernel (CR CNRS) & Florent Berthaut (MCF Univ. Lille)
- Applications closed
I. Context
Recent advancements in Human-AI co-creative systems, especially within Mixed Initiative Co-Creative (MICC) frameworks, have begun to reshape musical creation, enabling new processes and interactions [1-2]. However, current systems often fall short in adapting to users over time, typically requiring unilateral adaptation â either through the user learning to operate the AI or the system being manually updated by an engineer-musician [3-4]. This internship will focus on laying the foundation for curiosity-driven learning [5] within MICC musicking [6], equipping the AI with mechanisms for adaptive, long-term engagement in creative processes [7-8].
This project sits at the intersection of several key areas, primarily Music Information Retrieval (MIR), Lifelong Learning for Long-Term Human-AI Interaction, and New Interfaces for Musical Expression (NIME). Together, these fields provide a foundation for implementing and exploring AI-driven curiosity in musical settings, ultimately facilitating expressive, intuitive engagement between musicians and adaptive AI systems.
This internship takes place in the scope of the National Research Agency project MICCDroP led by Ken Déguernel, and is part of a collaboration between the Algomus and MINT teams at CRIStAL.
II. Objective
The goal of this internship is to explore and implement curiosity-driven learning mechanisms in an AI music generation model, laying a groundwork for sustained adaptive interactions within a co-creative musical setting. This will involve:
-
Implementing basic curiosity-driven algorithms to encourage the AI to explore its generative space.
-
Testing and refining these algorithms to balance novelty and musical coherence in generated outputs.
-
Conducting preliminary user interaction tests to assess how the AIâs adaptive behavior aligns with user preferences, guiding future refinement.
III. Internship Work Plan
The internship will be structured in three phases, allowing for iterative development and experimentation within a manageable scope for a 4 to 6-month project.
Phase 1: Research and Model Familiarization
The intern will begin by conducting a literature review focused on music generation, music interaction, curiosity-driven learning and novelty search methods. They will then become familiar with the technical tools and frameworks relevant to this project, and gain hands-on experience with existing music generation models. During this phase, the intern will implement a basic curiosity-driven mechanism, such as novelty search or diversity maximization, within an AI-based music generation model.
Phase 2: Implementing and Testing Curiosity-Driven Learning
Building on Phase 1, the intern will now extend the model by refining curiosity-driven exploration methods, specifically focusing on maximizing novelty in generated music. The intern will develop simple evaluation metricsâsuch as novelty scores and coherence scoresâto quantitatively measure the modelâs performance.
Phase 3: User Interaction Testing and Analysis
In the final phase, the intern will design a basic interactive setup, allowing musicians to experiment with and provide feedback on the curiosity-driven AI model. They will conduct initial testing sessions, collecting qualitative insights on how well the AIâs outputs align with user creativity and aesthetic preferences, thereby evaluating its effectiveness in a co-creative context. Following these sessions, the intern will analyze the data to assess how curiosity-driven adaptation affects user engagement and identify areas for potential improvements in personalization and co-creative alignment.
IV. Learning Outcomes for the Intern
This project will give the intern foundational experience in adaptive AI, curiosity-driven learning, and interactive system design for music. They will also gain practical experience in music generation, user interaction testing, and iterative model refinement, key competencies for further research in the field. Opportunities to pursue a Ph.D. in our lab on this topic will be strongly considered.
Qualifications
Needed:
- Last year of Master’s in Computer Science, Artificial Intelligence, or Music Computing
- Strong background in Machine Learning
Preferred:
- Experience with music programming languages (Max/MSP, PureData…)
- Personal musical practice
References
- [1] Jordanous (2017). Co-creativity and perceptions of computational agents in co-creativity. International Conference on Computational Creativity.
- [2] Herremans et al. (2017). A functional taxonomy of music generation systems. ACM Computing Surveys, 50(5).
- [3] Nika et al. (2017). DYCI2 agents: merging the âfreeâ, âreactiveâ and âscenario-basedâ music generation paradigms. International Computer Music Conference.
- [4] Lewis (2021). Co-creation: Early steps and future prospects. *Artisticiel/Cyber-Improvisations.
- [5] Colas et al. (2020). Language as a cognitive tool to imagine goals in curiosity driven exploration. NeurIPS.
- [6] Small, C. (1998). Musicking: The meanings of performing and listening. Wesleyan University Press.
- [7] Parisi et al. (2019). Continual lifelong learning with neural networks: A review. Neural networks, 113.
- [8] Scurto et al. (2021). Designing deep reinforcement learning for human parameter exploration. ACM Transactions on Computer-Human Interaction, 28(1).
Research Internship - “Loop Perception in Video Game Music: Corpus Constitution and Experimental Study”
- Stage M1/M2 2025, avec gratification (550âŹ-600âŹ/mois), 4-6 mois
- ThÚmes : informatique musicale, jeux vidéo, perception
- Lieu : Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons); TĂ©lĂ©travail partiel possible
- Encadrement et contacts: Yann Teytaut (CRIStAL), Clément Canonne (IRCAM), Florence Levé (MIS + CRIStAL)
- Annonce et liens: https://www.algomus.fr/jobs/#loop
- Applications closed
Context
Video Game Music (VGM) refers to the musical genre associated with soundtracks accompanying interactive game-plays with the aim to deepen immersion within virtual worlds and enhance the playerâs overall gaming experience [Gibbons24].
Back in the 70s-80s, early game soundtracks were limited by hardware constraints, and relied on chiptune melodies that became iconic through their memorable and repetitive structure [Collins08]. Following the progress in computer music and music technology, VGM has evolved to intricate compositions that now play a crucial role in intensifying emotions and supporting storytelling via true orchestral scores or even original songs [Phillips14].
Today, from its presence on audio streaming platforms, to specialized training courses in musical conservatories, as well as CD/vinyl releases and themed concerts, VGM fully contributes to the broader cultural landscape, showcasing the unique capabilities of interactive media, and has therefore become a concrete area of study in digital humanities [Lipscomb04; Kamp16]. Yet, it remains only marginally explored in the Music Information Retrieval (MIR) community.
Additionally, one of the key features of VGM is its âseamless loopâ structure: most VGM is composed in repeating patterns, or loops, designed to repeat continuously and as subtly as possible so that the listener hardly notices the transition [Margulis13]. However, exploring whether listeners are actually sensitive to the âseamâ in looping remains an unexplored research area.
The purpose of this internship is thus twofold. On one hand, it aims to provide the MIR community with a resource for analyzing VGM by creating a representative VGM corpus with structural annotations. On the other hand, it seeks to study participantsâ ability to accurately predict the looping point in VGM based on the constituted database.
Related works and objectives
While there already exist several VGM datasets, these offer only a partial view of the diverse audio landscape in modern video games. Indeed, available corpora lack sufficient diversity as they may (1) provide solely MIDI data (e.g., VGMIDI, Lakh MIDI); (2) be focused on one specific game (e.g., GameSound) or aesthetic (e.g., NES-MDB); or (3) include non-official arrangements instead of original works (e.g., VGMix Archive, VGMIDI). As a result, they fall short in representing the full spectrum of game audio, particularly the high-quality recordings of recent orchestral and/or pop/rock soundtracks.
In order to bridge this gap, the first part of this internship will be dedicated to reflect on and identify relevant factors (e.g., video game genres, years, stations, etc.) to build both a diverse and representative VGM database (about 100 pieces). The corpus will then be annotated in terms of structural patterns, following conventions established on other music structure datasets [Smith11].
Finally, experimental studies will be conducted, aiming at assessing the extent to which listeners are sensitive to the âloop-basedâ nature of most VGM, by contrasting, first, several types of VGM relying on various compositional techniques, and, second, a passive (listening only) vs an interactive (listening while playing the game, or a proxy) reception.
Organization
During the course of this internship, the candidate will be incited to understand and get familiar with Video Game Music (VGM), study and discover proximity literature on this genre (i.e., ludomusicology) and existing datasets, reflect on and identify relevant factors to constitute a dedicated dataset, annotate the structural patterns, and conduct experimental studies from a perception perspective.
Environment: The intern will be integrated in the Algorithmic Musicology (Algomus) Team at the CRIStAL Lab of the University of Lille, and will profit from the team knowledge on both music digital humanities and Music Information Retrieval. The annotated corpus could notably be integrated in the Dezrann platform [Giraud18]. For both the theoretical framework and perceptual studies, the intern will also benefit from the expertise of IRCAM’s Musical Practices Analysis (APM) Team.
Desired profile:
- Master of Research (M2) in either computer science, (audio) signal processing or computational musicology;
- interest in video game music and musical structure;
- previous experience in musical algorithmics or perception would be appreciated but is not necessary.
Bibliography
- [Gibbons24] Gibbons, William et Grimshaw-Aagaard, Mark (ed.). The Oxford Handbook of Video Game Music and Sound. Oxford University Press, 2024.
- [Collins08] Collins, Karen. Game sound: an introduction to the history, theory, and practice of video game music and sound design, MIT Press, 2008.
- [Lipscomb04] Lipscomb, Scott D. and Zehnder, Sean M. Immersion in the virtual environment: The effect of a musical score on the video gaming experience. Journal of Physiological Anthropology and Applied Human Science, vol. 23, no 6, p. 337-343, 2004.
- [Kamp16] Kamp, Michiel, Summers, Tim, Sweeney, Mark, et al. Ludomusicology: Approaches to video game music. Intersections: Canadian Journal of Music/Revue Canadienne de Musique, vol. 36, no 2, p. 117-124, 2016.
- [Collins07] Collins, Karen. In the loop: Creativity and constraint in 8-bit video game audio. Twentieth-century music, 2007, vol. 4, no 2, p. 209-227, 2007
- [Margulis13] Margulis, Elizabeth Hellmuth. On repeat: How music plays the mind. Oxford University Press, 2013.
- [Smith11] Smith, Jordan Bennett Louis, Burgoyne, John Ashley, Fujinaga, Ichiro, et al. Design and creation of a large-scale database of structural annotations. In : ISMIR 2011, p. 555-560, 2011.
- [Giraud18] Giraud, Mathieu, Groult, Richard, et Leguy, Emmanuel. Dezrann, a web framework to share music analysis. In : TENOR 2018, pp. 104-110. 2018
- VGMIDI - https://github.com/lucasnfe/VGMIDI
- VGMix Archive - https://vgmixarchive.com/
- Lakh MIDI - https://colinraffel.com/projects/lmd/
- GameSound - https://michaeliantorno.com/gamesound/
- NES-MDB - https://github.com/chrisdonahue/nesmdb
Stage de recherche: Suggestion personnalisĂ©e de parcours pĂ©dagogiques pour lâapprentissage de la guitare
- Stage M1/M2 2025, avec gratification (550âŹ-600âŹ/mois), environ 4/5 mois (M1/M2)
- ThÚmes: prédiction de difficulté, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Mathieu Giraud, Alexandre D’Hooge
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures fermées
Contexte
Ce stage sâinscrit dans le cadre dâune collaboration entre lâĂ©quipe Algomus (UniversitĂ© de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). LâĂ©quipe dâinformatique musicale Algomus sâintĂ©resse Ă la modĂ©lisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des donnĂ©es sur l’apprentissage de la musique. La start-up GSC a Ă©tĂ© incubĂ©e Ă la Plaine Images Ă Lille et dĂ©veloppe une application pour faciliter l’apprentissage de la guitare pour la musique pop/rock, Ă travers des suggestions automatiques de chansons et exercices.
La collaboration entre l’Ă©quipe Algomus et GSC consiste au dĂ©veloppement d’un modĂšle pour suggĂ©rer Ă l’utilisatrice les prochains morceaux Ă travailler Ă partir de ses souhaits et de son niveau actuel. L’application est dĂ©jĂ disponible en version bĂȘta et le dĂ©ploiement complet est prĂ©vu courant 2025.
Objectifs
De nombreux facteurs influencent la difficultĂ© d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexitĂ© du placement des doigts dans une position d’accord. Fort des donnĂ©es d’analyse fournies par GSC, l’algorithme permet dĂ©jĂ des suggestions satisfaisantes pour un niveau donnĂ©. En revanche, ces suggestions sont pour le moment dĂ©nuĂ©es d’intention pĂ©dagogique. Les suggestions sont pertinentes pour aider les guitaristes Ă apprendre de nouvelles chansons Ă leur niveau, mais elles ne garantissent pas une progression sur le moyen/long terme telles que celles que peut concevoir un professeur de guitare. Le but du stage est ainsi de concevoir un chemin pĂ©dagogique qui pourrait ĂȘtre vu, plus gĂ©nĂ©ralement, comme un graphe de progression.
La premiĂšre Ă©tape du stage consistera en la lecture de l’Ă©tat de l’art sur l’analyse de difficultĂ© musicale (par exemple [1, 2, 3]) et l’Ă©tude du principe de l’application GSC [4] afin de se familiariser avec le contexte de ce projet. Dans un second temps, la lecture d’articles sur les systĂšmes de recommandation [5] et la construction de parcours pĂ©dagogiques [6] sera nĂ©cessaire. Le stage consistera notamment en l’Ă©laboration de parcours pĂ©dagogiques test Ă©laborĂ©s en collaboration avec GSC, ainsi que le traitement de donnĂ©es d’utilisation rĂ©elles.
Profil recherché
Master dâinformatique, avec compĂ©tences en programmation, algorithmique, graphes, apprentissage machine. Connaissances et pratique musicales apprĂ©ciĂ©es (notamment en guitare).
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet via une thĂšse CIFRE avec l’entreprise Guitar Social Club. De plus, il existe d’autres possibilitĂ©s sur d’autres sujets proches en informatique musicale, que ce soit dans Ă CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă l’Ă©tranger.
Références
- [1] Vélez Våsquez, M. A., Baelemans, M., Driedger, J., Zuidema, W., & Burgoyne, J. A. (2023). Quantifying the Ease of Playing Song Chords on the Guitar.
- [2] Ramoneda, P., Jeong, D., Valero-Mas, J. J., Serra, X. (2023). Predicting Performance Difficulty from Piano Sheet Music Images.
- [3] Rodriguez, R. C., Marone, V. (2021). Guitar Learning, Pedagogy, and Technology: A Historical Outline.
- [4] D’Hooge, A., Giraud M., Abbou, Y., Guillemain, G. Suggestions PĂ©dagogiques PersonnalisĂ©es pour la Guitare.
- [5] Hafsa, M., Wattebled, P., Jacques, J., Jourdan, L. A Multi-Objective E-learning Recommender System at Mandarine Academy.
- [6] Siren, A., Tzerpos, V. Automatic Learning Path Creation Using OER: A Systematic Literature Mapping.
Stage de recherche: GĂ©nĂ©ration d’exercices pour l’apprentissage du solfĂšge
- Stage L3/M1/M2 2025, avec gratification (550âŹ-600âŹ/mois), 3 Ă 5 mois
- Ouverture du stage soumise Ă obtention d’un financement interne Ă l’UniversitĂ© de Lille (en cours, janvier 2025)
- ThÚmes: informatique musicale, pédagogie, solfÚge, mélodie, rythme
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Anicet Bart, Solfy, Mathieu Giraud, Algomus
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes. Mail et CV Ă envoyer aux encadrants.
Contexte
Solfy est une startup EdTech innovante qui dĂ©veloppe une application ludique dâapprentissage du solfĂšge. BasĂ©e Ă La Plaine Images (Tourcoing), l’Ă©cosystĂšme numĂ©rique dĂ©diĂ© aux industries crĂ©atives, nous sommes convaincus que la meilleure façon dâapprendre câest en sâamusant. Rejoindre Solfy, câest intĂ©grer une Ă©quipe passionnĂ©e au service de lâĂ©veil et lâapprentissage musical.
Algomus est l’Ă©quipe d’informatique musicale du laboratoire CRIStAL, Ă l’UniversitĂ© de Lille. L’Ă©quipe Ă©tudie la modĂ©lisation de haut-niveau, lâanalyse et la gĂ©nĂ©ration co-crĂ©ative de musique, et enfin l’interaction avec les partitions et d’autres donnĂ©es musicales. Elle collabore avec des musicien·nes, des enseignant·es, des artistes et des entreprises sur des sujets liant musique et technologie.
Solfy propose, dans son application, des exercices de lecture gĂ©nĂ©rĂ©s Ă partir de modĂšles probabilistes. Le but du stage est d’amĂ©liorer la gĂ©nĂ©ration de ces contenus (lecture de notes avec rythmes) pour qu’ils soient Ă la fois pĂ©dagogiques et musicaux. On cherchera en particulier Ă obtenir une certaine cohĂ©rence mĂ©lodique, harmonique, rythmique, tout en fixant des critĂšres de difficultĂ© (notes, figures rythmiques).
ConcrĂštement, le stage commencera par un Ă©tat de l’art en informatique musicale, plus particuliĂšrement en estimation de difficultĂ© et en gĂ©nĂ©ration de mĂ©lodies, ainsi qu’avec des Ă©changes avec Solfy et des professeurs de musique pour mieux modĂ©liser les enjeux. Il sera aussi pertinent de consulter un ensemble de mĂ©thodes de formation musicale.
Le stage proposera ensuite de nouvelles mĂ©thodes de gĂ©nĂ©ration et/ou de filtrage de mĂ©lodies, et testera ces mĂ©thodes par un prototype. En cas de succĂšs, certaines de ces mĂ©thodes pourraient ĂȘtre reprises dans l’application, et il pourrait ĂȘtre possible de mener une analyse sur les rĂ©ussites d’Ă©lĂšves travaillant avec l’application.
Profil recherché
Licence ou master dâinformatique, compĂ©tences en programmation, et algorithmique. Connaissances et pratique musicales apprĂ©ciĂ©es.
Débouchés
D’autres possibilitĂ©s de stages les prochaines annĂ©es sont envisageables sur des sujets proches en informatique musicale, dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă l’Ă©tranger. Pour un M2, des opportunitĂ©s de poursuite en thĂšse Ă CRIStAL pourraient aussi ĂȘtre envisagĂ©es sur ce sujet via une thĂšse CIFRE avec l’entreprise Solfy.
Références, ressources
- XXX Biblio
- Solfy: application élÚve, application enseignant
Stage R&D: Création générique de corpus musicaux sur la plateforme web Dezrann
- Stage M1/M2 2025, avec gratification (550âŹ-600âŹ/mois), de 3 Ă 5 mois
- ThÚmes: informatique musciale, manipulation de données, développement web back (et/ou full stack) agile, Node.js, TypeScript
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible
- Encadrement et contacts: Emmanuel Leguy et Mathieu Giraud (CRIStAL)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures fermées
Contexte et objectifs
L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture.
Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă plusieurs centaines de piĂšces musicales. Aujourd’hui plus de dix corpus musicaux sont ainsi disponibles, produits par l’Ă©quipe comme par des collaborateurs internationaux.
Travail Ă effectuer
Afin de rendre la plateforme utilisable plus largement, des fonctionnalités back sont nécessaires pour avoir une plus grande souplesse dans la gestion des corpus et des utilisatrices et utilisateurs.
-
L’objectif premier est d’avoir une meilleure solution reproductible pour gĂ©rer la crĂ©ation de piĂšces/corpus, via une API robuste, permettant d’ĂȘtre utilisĂ©e aussi bien par des scripts externes que par une interface web dĂ©veloppĂ©e avec Vue.js.
-
Un objectif secondaire pourrait ĂȘtre d’amĂ©liorer la gestion des profils d’utilisatrices et d’utilisateurs, en particulier pour la gestion de leurs piĂšces et des permissions.
DĂ©veloppement en TypeScript/node.js, et possiblement Python, dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.
Références
-
Garczynski et al., Modeling and Editing Cross-Modal Synchronization on a Label Web Canvas, MEC 2022, https://hal.science/hal-03583179
-
Balke et al., Bridging the Gap: Enriching YouTube Videos with Jazz Music Annotations, 2018 https://www.frontiersin.org/articles/10.3389/fdigh.2018.00001/full
-
Weiss et al., Schubert Winterreise Dataset: A Multimodal Scenario for Music Analysis, 2021 https://dl.acm.org/doi/10.1145/3429743
MĂ©diation scientifique 2025/26. Ătudiant·es en mĂ©diation pour un atelier d’informatique musicale (fermĂ©)
2024 (archive)
2024 Internship positions are available (2-6 months), this year be around the following themes:
- Co-creativity / AI / machine learning : Continual learning for co-creativity (K. Déguernel + Scool) (closed)
- Music formal modeling, Analyse, modĂ©lisation et gĂ©nĂ©ration d’hymnes ‘Sacred Harp’ (M. Giraud, K. DĂ©guernel) (closed)
- Guitar / Music modeling: PrĂ©diction personnalisĂ©e de la difficultĂ© d’apprentissage Ă la guitare (A. d’Hooge, M. Giraud) (closed)
- Rap / Music modeling / AI, ModĂ©lisation de toplines de rap pour l’apprentissage en musique (M. Giraud, K. DĂ©guernel, with WorkInMusic) (closed)
- Corpus / Web development / Data analysis: Ăcouter, voir et analyser Schubert et du Jazz (C. Ballester, E. Leguy, M. Giraud) (closed)
- HCI/IHM / Co-improvisation, Analyser et rendre intelligible la co-improvisation musicale humain-IA Ă lâaide dâaugmentations visuelles (F. Berthaut, Mint, M. Giraud, K. DĂ©guernel) (closed)
Permanent position (French required, with French qualification). Un poste de MdC en section 27 est publié dans le cadre de la session synchronisée de recrutement EC 2024:
- UniversitĂ© de Lille, 27MCF235 “Interaction, humanitĂ©s numĂ©riques”, Algomus est une des Ă©quipes prioritaires (closed)
PhD positions, 2024-27
- Co-creativity, Machine learning: Lifelong learning for mixed initiative musical co-creativity, K. Déguernel, M. Giraud (closed) (deadline April 22)
- Harmony, Modeling: Modeling and semi-automatic generation of musical arrangements to foster ensemble music practice, M. Giraud, F. Levé (closed) (deadline April 22)
Stages 2024 de recherche et/ou développement en informatique musicale
Research Internship (Masterâs student): Continual learning for music generation
- Stage de recherche M1/M2 (minimum 4 mois)
- Paid internship 2023, 4 months minimum.
- Place: Lille (CRIStAL, CNRS, Université de Lille)
- Supervisor and contact: Ken Déguernel (CR CNRS) ken.deguernel@univ-lille.fr
Context and objectives
Current Mixed Initiative Co-Creative systems have opened new avenues for music generation fostering novel creative process and modes of interactions [1,2]. However, these systems lack the ability for long-term adaptation between user and machine. Our goal is to apply state-of-the-art continual learning [3,4] for machine learning based music generation models [5,6]. In particular, this internship will focus on supervised reinforcement learning method based on user feedback [7]. For instance, systems such as folk-rnn [5] or tradformer [6] could be used as a baseline on which the continual learning methods will be applied. These systems both used an already defined dataset based on the website thesession.org.
This internship takes place in the scope of a collaboration between the Algomus and Scool teams at CRIStAL, providing the student with an environment with both expertise in reinforcement learning and computer music.
Tasks
- Bibliography and familiarisation with a music generation systems such as folk-rnn,
- Implementation of user feedback based reinforcement learning to improve the personalisation of the studied music generation system,
- Evaluation of the system.
Qualifications
Needed
- Masterâs student in Computer Science, Artificial Intelligence, or Music Computing,
- Strong background in machine learning, with experience with neural nerwork based systems,
- Good programming skills and experience with libraries like PyTorch.
Preferred
- Musical practice and familiarity with music theory.
References
[1] Jordanous (2017). Co-creativity and perceptions of computational agents in co-creativity. International
Conference on Computational Creativity.
[2] Lin et al. (2023). Beyond prompts: Exploring the design space of Mixed-Initiative Co-Creativity Systems.
International Conference on Computational Creativity.
[3] Parisi et al. (2019). Continual lifelong learning with neural networks: A review. Neural networks, 113.
[4] Irfan et al. (2022). Personalised socially assistive robot for cardiac rehabilitation: Critical reflections on
long-term interactions in the real world. User Modeling and User-Adapted Interaction.
[5] Sturm et al. (2016). Music transcription modelling and composition using deep learning.
arXiv:1604.08723.
[6] Casini & Sturm (2022). Tradformer: A transformer model of traditional music transcriptions. International
Joint Conference on Artificial Intelligence.
[7] Scurto et al. (2021). Designing deep reinforcement learning for human parameter exploration. ACM
Transactions on Computer-Human Interaction, 28(1).
Stage M1/M2, ModĂ©lisation de toplines de rap pour l’apprentissage en musique
- Stage M1/M2 2024, avec gratification, de 3 Ă 5 mois, en collaboration avec l’entrerpise WiM
- ThĂšmes: rythme, prosodie, rap, informatique musicale, apprentissage automatique
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Mathieu Giraud, Ken Déguernel
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
La musique contribue aux apprentissages. Work In Music (WiM) est une application novatrice qui permet aux lycĂ©ens d’explorer le programme scolaire tout en Ă©tant immergĂ©s dans la musique. Des rythmes entraĂźnants sont associĂ©s Ă chaque notion clĂ©, favorisant ainsi la mĂ©morisation et rendant l’apprentissage plus ludique.
WiM propose des contenus de divers styles musicaux, notamment le rap. Bien que le travail humain demeure essentiel et souhaitable pour garantir la qualitĂ© de ces contenus, il est tout aussi intĂ©ressant d’explorer des approches co-crĂ©atives qui combinent l’expertise et la crĂ©ativitĂ© humaines avec des algorithmes [1].
Ce stage se concentre ainsi sur l’analyse, la modĂ©lisation et la gĂ©nĂ©ration de toplines, la partie vocale d’une chanson rap en mettant l’accent sur son rythme et ses intonations Ă partir d’un texte structurĂ©. Plus prĂ©cisĂ©ment, le/la stagiaire aura l’opportunitĂ© de :
- Effectuer une revue des approches en informatique musicale et en musicologie sur la prosodie et le rap.
- Constituer un corpus composĂ© de plusieurs dizaines d’exemples de prosodie et de mĂ©lodies structurĂ©es
- Proposer une modélisation de ces toplines, notamment par des structures arborescentes
- Ălaborer et tester un premier modĂšle de gĂ©nĂ©ration
La gĂ©nĂ©ration pourrait combiner des Ă©lĂ©ments formels, procĂ©duraux, et un apprentissage automatique s’appuyant sur le corpus Ă©laborĂ© ou d’autres donnĂ©es telles que MCFlow [3].
Profil recherché
Master dâinformatique, compĂ©tences en modĂ©lisation et/ou en apprentissage/IA. Connaissances et pratique musicales apprĂ©ciĂ©es, en particulier en rap.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur dâautres sujets proches en informatique musicale, que ce soit Ă CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă lâĂ©tranger. En particulier, une thĂšse CIFRE avec l’entreprise WiM pourrait ĂȘtre envisagĂ©e.
References
- [1] Huang, AI Song Contest: Human-AI Co-Creation in Songwriting, ISMIR 2020
- [2] Adams, On the Metrical Techniques of Flow in Rap Music, Music Theory Online 15(5), 2009
- [3] Condit-Schultz, MCFlow: A Digital Corpus of Rap Transcriptions, Empirical Musicology Review, 11(2), 2017
- [4] Ohriner, Analysing the pitch content of the rapping voice Journal of New Music Research, 48(5), 2019
Stage de recherche L3/M1/M2 : PrĂ©diction personnalisĂ©e de la difficultĂ© d’apprentissage Ă la guitare
- Stage L3/M1/M2 2024, avec gratification, environ 3 mois (L3) Ă 4/5 mois (M1/M2)
- ThÚmes: prédiction de difficulté, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible.
- Encadrement et contacts: Mathieu Giraud, Alexandre D’Hooge
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
Contexte
Ce stage sâinscrit dans le cadre dâune collaboration entre lâĂ©quipe Algomus (UniversitĂ© de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). LâĂ©quipe dâinformatique musicale Algomus sâintĂ©resse Ă la modĂ©lisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des donnĂ©es sur l’apprentissage de la musique. La start-up GSC a Ă©tĂ© incubĂ©e Ă la Plaine Images Ă Lille et dĂ©veloppe une application pour faciliter l’apprentissage de la guitare, Ă travers des suggestions automatiques de chansons et exercices.
La collaboration entre l’Ă©quipe Algomus et GSC consiste au dĂ©veloppement d’un modĂšle pour suggĂ©rer Ă l’utilisatrice les prochains morceaux Ă travailler Ă partir de ses souhaits et de son niveau actuel. Une premiĂšre version de cet algorithme est dĂ©ployĂ©e dans la version beta de l’application, sortie en dĂ©cembre 2023.
Objectifs
De nombreux facteurs influencent la difficultĂ© d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexitĂ© du placement des doigts dans une position. L’objectif de ce stage est d’exploiter la littĂ©rature existante afin de concevoir et d’Ă©tendre un algorithme de prĂ©diction de difficultĂ© plus robuste, gĂ©nĂ©raliste, et adaptĂ© au parcours de l’apprenant.
La premiĂšre Ă©tape consistera Ă prendre connaissance de la littĂ©rature existante en analyse de la difficultĂ© musicale (par exemple [1, 2]) et en particulier de reproduire les analyses de [1]. Le stage essaiera d’Ă©tendre ces modĂšles, que ce soit par la prise en compte d’autres facteurs ou par l’ajout de personnalisation Ă la prĂ©diction de difficultĂ©.
Pour un stage de Master, selon les donnĂ©es disponibles, une perpective pourrait ĂȘtre d’utiliser la solution dĂ©veloppĂ©e pour entraĂźner un modĂšle prĂ©dictif. Une attention particuliĂšre sera portĂ©e au coĂ»t environnemental d’un tel modĂšle, ainsi que son explicabilitĂ©, et Ă l’inclusivitĂ© et la diversitĂ© des rĂ©sultats gĂ©nĂ©rĂ©s.
Profil recherché
Licence/Master dâinformatique, avec compĂ©tences en programmation et algorithmes de rĂ©gression. Connaissances et pratique musicales apprĂ©ciĂ©es (notamment en guitare), mais pas nĂ©cessaires.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans Ă CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă l’Ă©tranger.
Références
- [1] Vélez Våsquez, M. A., Baelemans, M., Driedger, J., Zuidema, W., & Burgoyne, J. A. (2023). Quantifying the Ease of Playing Song Chords on the Guitar.
- [2] Ramoneda, P., Jeong, D., Valero-Mas, J. J., Serra, X. (2023). Predicting Performance Difficulty from Piano Sheet Music Images.
- [3] Rodriguez, R. C., Marone, V. (2021). Guitar Learning, Pedagogy, and Technology: A Historical Outline.
Stage L3/M1/M2: Ăcouter, voir et analyser Schubert et du Jazz
- Stage L3/M1/M2 2024, avec gratification, de 2 Ă 5 mois
- ThĂšmes: informatique musciale, manipulation de donnĂ©es, dĂ©veloppement web agile, TypeScript, Vue.js, initiation Ă l’algorithmique musicale et Ă l’IA
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail partiel possible
- Encadrement et contacts: Charles Ballester, Emmanuel Leguy et Mathieu Giraud (CRIStAL)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures fermées
Contexte et objectifs
L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture.
Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă plusieurs centaines de piĂšces musicales.
Plusieurs Ă©quipes de recherche dans le monde ont produit les derniĂšres annĂ©es des corpus âmultimodauxâ, comme par example le Schubert Winterreise Dataset (SWD) et le Weiner Jazz Database (WJD). Ces corpus contiennent des partitions (images ou symboliques), des fichiers audio, mais aussi des annotations comme par exemple des accords ou de la structure. Ces projets ont parfois des visualisations mais qui ne sont pas aussi commodes que celles proposĂ©es par Dezrann.
Travail Ă effectuer
-
IntĂ©grer ou amĂ©liorer l’intĂ©gration Ă Dezrann de deux corpus publiĂ©s par d’autres Ă©quipes, dont au moins un nouveau corpus. Ă titre d’exemple, en 2022/23 un projet avait travaillĂ© sur le Schubert Winterreise Dataset et la Weimar Jazz Database.
-
Contribuer à quelques fonctionnalités sur le front de Dezrann pour améliorer la plateforme
-
Selon le temps disponiblee, rĂ©aliser une premiĂšre Ă©tude d’analyse et/ou de gĂ©nĂ©ration d’informatique musicale en s’appuyant sur les corpus intĂ©grĂ©s et en mettant en oeuvres des mĂ©thodes simples algorithmiques et/ou IA.
DĂ©veloppement en TypeScript/Vue.js, et possiblement Python, dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.
Références
-
Garczynski et al., Modeling and Editing Cross-Modal Synchronization on a Label Web Canvas, MEC 2022, https://hal.science/hal-03583179
-
Balke et al., Bridging the Gap: Enriching YouTube Videos with Jazz Music Annotations, 2018 https://www.frontiersin.org/articles/10.3389/fdigh.2018.00001/full
-
Weiss et al., Schubert Winterreise Dataset: A Multimodal Scenario for Music Analysis, 2021 https://dl.acm.org/doi/10.1145/3429743
2023 (archive)
MĂ©diation scientifique. Ătudiant·es en mĂ©diation pour un atelier d’informatique musicale (closed)
Two 12-month post-doc positions
- MIR, Neonatalogy: Computational generation and selection of musical stimuli for premature children (closed)
- (French required) La guitare dans les musiques actuelles : études des pratiques de composition (closed)
Internship positions are available (2-6 months), this year be around the following themes:
- Metadata / Web: Cartographie des tags musicaux sur Bandcamp (K. Déguernel) (closed)
- Corpus / Web development / Data analysis: Ăcouter, voir et analyser Schubert et du Jazz (C. Ballester, E. Leguy, M. Giraud) (closed)
- MIR / Carbon footprint: Ăvaluation du coĂ»t carbone de l’intelligence artificielle en informatique musicale (M. Giraud) (closed)
Stages 2023 de recherche et/ou développement en informatique musicale
Stage de recherche (M1/M2): Cartographie des tags musicaux sur Bandcamp
- Stage 2023, avec gratification, de 3 Ă 5 mois en informatique musicale et technologie web
- Lieu: Lille (CRIStAL, CNRS, UniversitĂ© de Lille, Ă Villeneuve d’Ascq), tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrant et contacts : Ken Déguernel (CR CNRS, CRIStAL, Université de Lille),
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
L’Ă©quipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, UniversitĂ© de Lille), en collaboration avec le MIS (UPJV, Amiens) sâintĂ©resse Ă lâanalyse informatique de partitions musicales.
Contexte et objectifs
Bandcamp est un site de vente et de streaming pour artistes indĂ©pendants. Les artistes utilisent des tags pour identifier eux-mĂȘmes les genres musicaux qui dĂ©crivent leur musique. La classification par genre musicaux est un problĂšme complexe car mal dĂ©fini et subjectif. La classification automatique est cependant trĂšs utilisĂ©es dans le domaine de la Music Information Retrieval (MIR) pour la recherche mais aussi dans l’industrie (notamment par les plateformes de ventes et de streaming (Spotify, Youtube, Apple Music, etc.)
Nous souhaitons à obtenir une meilleure compréhension de comment les artistes utilisent les tags sur Bandcamp pour définir leur musique. Nous nous intéressons donc plutÎt à une tùche de musicologie computationnelle descriptive de la pratique des artistes.
Travail Ă effectuer
- Récupération automatique des tags et des metadata sur Bandcamp par data crawling
- CrĂ©ation d’une cartographie relationnelles entre tags
- CrĂ©ation d’une application web permettant de naviguer la cartographie
Profil recherché
Master d’informatique avec des compĂ©tences en thĂ©orie des graphes et technologies web. Pratique musicale apprĂ©ciĂ©e mais non obligatoire.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă l’Ă©tranger. L’Ă©quipe est Ă©galement en contact avec des entreprises travaillant sur des sujets connexes.
Références
- [1] Vitos, B. (2021). Dance Librarian: Sonic Explorations of the Bandcamp Underground. DanceCult 13:1.
- [2] Haworth, C., & Born, G. (2022). Music and intermediality after the internet: aesthetics, materialities and social forms. Music and Digital Media, 378.
- [3] Sturm, B. L. (2017). The âhorseâ inside: Seeking causes behind the behaviors of music content analysis systems. Computers in Entertainment (CIE), 14(2), 1-32.
Stage de recherche (L3/M1/M2): Ăvaluation du coĂ»t carbone de l’intelligence artificielle en informatique musicale
- Stage 2023, avec gratification, de 2 Ă 4 mois en informatique musicale et apprentissage automatique
- Lieu: Lille (CRIStAL, CNRS, UniversitĂ© de Lille, Ă Villeneuve d’Ascq), tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrant et contacts : Mathieu Giraud (DR CNRS, CRIStAL, Université de Lille),
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
L’Ă©quipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, UniversitĂ© de Lille), en collaboration avec le MIS (UPJV, Amiens) sâintĂ©resse Ă lâanalyse informatique de partitions musicales.
Contexte et objectifs
Comme dans de nombreux domaines, l’apprentissage automatique est prĂ©sent dans beaucoup de travaux en informatique musicale, que ce soit en analyse ou en gĂ©nĂ©ration de musique [1].
Ces travaux s’appuient sur des corpus de plus en plus consĂ©quents, qu’ils soient audio, de partitions ou d’autres reprĂ©sentations symboliques, et/ou de mĂ©tadonnĂ©es, et des modĂšles de plus en plus complexes, en particulier GAN et auto-encodeurs variationnels.
Il y a heureusement une prise de conscience de l’empreinte Ă©cologique croissante du numĂ©rique en gĂ©nĂ©ral et de l’IA en particulier [2, 3, 4]. Cependant, en informatique musicale, trĂšs peu de travaux sont explicites sur le calcul nĂ©cessaire Ă l’apprentissage de ces modĂšles, mĂȘme si par ailleurs on trouve de plus en plus d’Ă©tudes sur l’IA et carbone [5, 6].
Ce stage fera un premier bilan du coĂ»t en calcul, et idĂ©alement du coĂ»t carbone, des recherches en MIR utilisant l’intelligence artificielle. Il passera par une revue systĂ©matique des articles publiĂ©s dans une ou deux confĂ©rences majeures de la derniĂšre annĂ©e.
Le stage pourra en particulier regarder quels modÚles sont les plus consommateurs et/ou économes et quel effort les équipes cherchent (ou pas) à faire dans ce domaine.
Profil recherché
Master d’informatique et/ou master liĂ© Ă l’environnement, avec dans les deux cas compĂ©tences en IA/science des donnĂ©es. Pratique musicale apprĂ©ciĂ©e mais non obligatoire.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă l’Ă©tranger. L’Ă©quipe est Ă©galement en contact avec des entreprises travaillant sur des sujets connexes.
Références
- [1] J. P. Briot, G. Hadjeres, F. Pachet, Deep Learning Techniques for Music Generation - A Survey, 2019, https://arxiv.org/abs/1709.01620
- [2] https://www.greenit.fr/empreinte-environnementale-du-numerique-mondial/
- [3] Un séminaire avec des liens et documents
- [4] Payal Dhar, The carbon impact of artificial intelligence, 2020, https://www.nature.com/articles/s42256-020-0219-9
- [5] Anne-Laure Ligozat, Sasha Luccioni, 2021, A Practical Guide to Quantifying Carbon Emissions for Machine Learning researchers and practitioners https://hal.archives-ouvertes.fr/hal-03376391/
- [6] Lasse F. Wolff Anthony et al., Carbontracker: Tracking and Predicting the Carbon Footprint of Training Deep Learning Models, 2020, https://arxiv.org/abs/2007.03051
2022 (archive)
Permanent positions (session synchronisée Galaxie 2022, 31 mars) (closed)
- Poste en section 27 au CRIStAL, avec un profil recherche contenant “informatique musicale, corpus, co-crĂ©ativitĂ©”: 27 MCF 0035
- En dehors d’Algomus, poste en section 18 au CEAC / dĂ©partement Arts, profil recherche “musique et nouvelles technologies”: 18 MCF 0016
PhD positions, 2022-25
- NLP + Music: Natural Language Processing approaches in the musical domain (with the Magnet team, M. Tommasi, L. Bigo, M. Keller) (closed)
Ingénieur·e développement web Vue fullstack, rendu/synchro partitions musicales, CollabScore (CDD 18 mois) (closed)
Internship positions are available (2-6 months), this year be around the following themes:
- Music + Neonatology: Vers un corpus de musique pour les grands prématurés (F. Levé) (closed)
- Bass guitar: GĂ©nĂ©ration d’accompagnements Ă la guitare basse (L. Bigo, N. Martin) (closed)
- NLP + Music: Pré-entraßnement de modÚles séquentiels musicaux (L. Bigo, M. Keller) (closed)
- Web development: Dezrann, un rĂ©seau social pour l’annotation de musique (E. Leguy, M. Giraud) (closed)
Stages 2022 de recherche et/ou développement en informatique musicale
Stage L3/M1/M2: Vers un corpus de musique pour les grands prématurés
- Stage L3/M1/M2 2022, avec gratification, de 2 Ă 5 mois
- ThÚmes: informatique musicale, santé
- Lieu: Amiens, Laboratoire MIS, UPJV tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrement et contact: Florence Levé (UPJV)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures closes
Contexte
Ce stage est proposĂ© dans le cadre dâune collaboration avec le GRAMFC (Groupe de Recherche sur lâAnalyse Multimodale de la Fonction CĂ©rĂ©brale), visant Ă Ă©valuer lâimpact de lâexposition des bĂ©bĂ©s nĂ©s trĂšs prĂ©maturĂ©ment (Ă partir de 28 semaines dâĂąge gestationnel) Ă des interventions musicales adaptĂ©es sur leur dĂ©veloppement neural et comportemental, en particulier concernant leur comprĂ©hension des mĂ©canismes du langage et de la musique.
Lâenjeu de la mission est de proposer un corpus de musique adaptĂ© aux grands prĂ©maturĂ©s, afin que les morceaux sĂ©lectionnĂ©s soient diffusĂ©s/jouĂ©s dans le service de soin intensif de nĂ©onatologie du Centre Hospitalier Universitaire dâAmiens quotidiennement. Il sâagit de proposer un corpus de taille consĂ©quente assurant une diversitĂ© musicale (a minima rythmique, mĂ©lodique, texturale, voire harmonique), tout en sâadaptant aux capacitĂ©s auditives des bĂ©bĂ©s prĂ©maturĂ©s, qui ne leur permettent pas dâĂ©couter tout type de musique, certains sons ou frĂ©quences pouvant les agresser ou les stresser.
Les tùches réalisées seront, en particulier:
- Bibliographie (méthodologie de constitution de corpus multi-modaux, contraintes physiologiques et liées à la diffusion de musique en soin intensif)
- Choix/constitution dâun corpus de dĂ©part
- Développement de descripteurs permettant de sélectionner (automatiquement) les partitions selon certaines caractéristiques musicales (notamment rythmiques, explorant les métriques binaires et ternaires)
- Ăvaluation de la diversitĂ© des partitions du corpus grĂące Ă des descripteurs adaptĂ©s
- Proposition d’une mĂ©trique permettant dâĂ©valuer lâacceptabilitĂ© dâune partition
- Proposition d’une mĂ©thode dâextraction/simplification permettant de respecter les contraintes tout en maintenant la diversitĂ©
A priori, la majoritĂ© de lâĂ©tude sera rĂ©alisĂ©e sur des musiques reprĂ©sentĂ©es sous forme symbolique (encodage de la partition : MIDI, MusicXML, âŠ), qui semblent plus adaptĂ©es pour dĂ©velopper les descripteurs requis. Une connaissance des principes audio sera apprĂ©ciĂ©e, qui permettra dâĂ©valuer la piste du filtrage Ă partir de formes dâonde.
Profil recherché
Ătudes dâinformatique, avec compĂ©tences musicales et intĂ©rĂȘt pour les sciences cognitives
Débouchés
Des opportunitĂ©s de poursuite en stage et/ou thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit Ă Amiens ou bien dans notre rĂ©seau de collaborateurs en France et Ă l’Ă©tranger.
Références
-
Cirelli, L. K., Spinelli, C., Nozaradan, S., & Trainor, L. J. (2016). Measuring Neural Entrainment to Beat and Meter in Infants: Effects of Music Background. Frontiers in neuroscience, 10, 229. doi:10.3389/fnins.2016.00229
-
Haslbeck, F. B., et al. (2020). Creative music therapy to promote brain function and brain structure in preterm infants: A randomized controlled pilot study. NeuroImage: Clinical, 25, 102171. doi:10.1016/j.nicl.2020.102171
-
van der Heijden, M. J., Oliai Araghi, S., Jeekel, J., Reiss, I. K. M., Hunink, M. M., & van Dijk, M. (2016). Do hospitalized premature infants benefit from music interventions? A systematic review of randomized controlled trials. PloS one, 11(9). doi:10.1371/journal.pone.0161848
-
Foroushani, S.M., Herman, C.A., Wiseman, C.A. et al. Evaluating physiologic outcomes of music interventions in the neonatal intensive care unit: a systematic review. J Perinatol 40, 1770â1779 (2020). doi:10.1038/s41372-020-0756-4
Stage M1/M2: GĂ©nĂ©ration d’accompagnements Ă la guitare basse
- Stage M1/M2 2022, avec gratification, de 4 Ă 6 mois
- ThĂšmes: apprentissage machine, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrement et contacts: Louis Bigo (CRIStAL), Nicolas Martin (Arobas Music)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures fermées
Contexte
Ce stage sâinscrit dans le cadre dâune collaboration entre lâĂ©quipe Algomus (UniversitĂ© de Lille, CRIStAL) et la sociĂ©tĂ© Arobas Music. LâĂ©quipe dâinformatique musicale Algomus sâintĂ©resse Ă la modĂ©lisation informatique de partitions musicales. La sociĂ©tĂ© lilloise Arobas Music dĂ©veloppe le logiciel Guitar Pro dĂ©diĂ© Ă la saisie et Ă la consultation de tablatures de guitare, et plus gĂ©nĂ©ralement de partitions musicales. Plus de 10 millions de musiciens lâutilisent rĂ©guliĂšrement pour lâapprentissage, la transcription ou la composition. La sociĂ©tĂ© sâintĂ©resse Ă lâajout de nouvelles fonctionnalitĂ©s pour assister de maniĂšre intelligente le processus dâĂ©criture et de composition de lâutilisateur.
Le corpus mySongBook (MSB), produit et maintenu par la société Arobas Music, comprend plus de 2500 piÚces, majoritairement dans le style pop/rock, encodées symboliquement sous la forme de fichiers au format Guitar Pro. Les fichiers Guitar Pro consistent en un alignement de plusieurs parties, chacune associée à un instrument, indiquant le contenu musical joué par cet instrument. Comme fréquemment dans le style pop/rock, une grande partie de ces piÚces comprend une partie de guitare basse alignée à une ou plusieurs parties de guitares.
Objectifs
La premiĂšre tĂąche de ce stage consistera Ă entrainer un modĂšle Ă prĂ©dire le contenu d’une partie de guitare basse Ă©tant donnĂ© la (les) parties(s) de guitare avec laquelle la partie de basse est alignĂ©e. On s’inspirera en premier lieu de mĂ©thodes issues de la traduction automatique de sĂ©quences (Neural Machine Translation) oĂč un modĂšle dit Sequence To Sequence (LSTM ou Transformer) est entraĂźnĂ© Ă produire une sĂ©quence de sortie pour toute sĂ©quence donnĂ©e en entrĂ©e. DiffĂ©rentes expĂ©riences seront menĂ©es et comparĂ©es en faisant varier l’architecture du modĂšle, l’uniformitĂ© stylistique du corpus d’apprentissage, la reprĂ©sentation et la rĂ©solution des donnĂ©es.
Dans une seconde partie, on Ă©tudiera le potentiel d’utilisation de ce type de modĂšles comme outil dans un contexte d’Ă©criture ou de composition musicale. On Ă©tudiera en particulier les possibilitĂ©s de contrĂŽle du modĂšle au cours de la gĂ©nĂ©ration, permettant Ă l’utilisateur d’influer sur certains paramĂštres comme le style ou l’originalitĂ© de la sĂ©quence produite.
Profil recherché
Master dâinformatique, avec compĂ©tences en programmation et apprentissage automatique. Connaissances et pratique musicales souhaitĂ©es, idĂ©alement pratique de la guitare/basse et une familiaritĂ© avec les tablatures.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă l’Ă©tranger.
Références
- Makris, D., Agres, K. R., & Herremans, D. (2021). Generating lead sheets with affect: A novel conditional seq2seq framework.
- Grachten, M., Lattner, S., & Deruty, E. (2020). BassNet: A Variational Gated Autoencoder for Conditional Generation of Bass Guitar Tracks with Learned Interactive Control.
- Ren, Y., He, J., Tan, X., Qin, T., Zhao, Z., & Liu, T. Y. (2020, October). Popmag: Pop music accompaniment generation.
- McVicar, M., Fukayama, S., & Goto, M. (2015). AutoGuitarTab: Computer-aided composition of rhythm and lead guitar parts in the tablature space.
Stage M1/M2: Pré-entraßnement de modÚles séquentiels musicaux
- Stage M1/M2 2022, avec gratification, de 3 Ă 6 mois
- ThĂšmes: apprentissage automatique, NLP, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrement et contacts: Louis Bigo (CRIStAL), Mikaela Keller (CRIStAL, Inria)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures ouvertes
Contexte
Les techniques modernes en apprentissage automatique, notamment autour des rĂ©seaux de neurones, suscitent de nombreuses recherches dans les domaines du traitement automatique du langage naturel (Natural Language Processing) dâune part et du traitement automatique des donnĂ©es musicales (Music Information Retrieval) dâautre part. Ces recherches ont de multiples applications allant de lâanalyse de corpus textuels/musicaux Ă la gĂ©nĂ©ration automatique de texte/musique.
Parmis les diffĂ©rents types de rĂ©seaux de neurones, les modĂšles Sequence To Sequence dĂ©diĂ©s Ă la transformation de sĂ©quences, ont permis d’important progrĂšs en NLP dans des tĂąches de traduction automatique ou de question-rĂ©ponse. C’est le cas des transformers [1], dont le fonctionnement repose sur le principe de self-attention, qui incite un modĂšle, lors de son entraĂźnement, Ă mesurer les relations mutuelles entre les termes composant une sĂ©quence, par exemple une sĂ©quence de caractĂšres ou de mots. L’aspect sĂ©quentiel de la musique a suscitĂ© une variĂ©tĂ© d’initiatives consistant Ă entraĂźner des transformers sur des donnĂ©es musicales symboliques (par exemple des sĂ©quences de notes issues de fichiers MIDI), qui ont permis d’important progrĂšs en gĂ©nĂ©ration, harmonisation et analyse automatique de musique [3].
Le principe d’apprentissage par transfert consiste Ă entraĂźner un modĂšle pour une tĂąche cible, en partant d’un modĂšle entraĂźnĂ© en amont sur une tĂąche plus abstraite (phase dite de prĂ©-entraĂźnement), et pour laquelle on dispose d’un plus grand nombre de donnĂ©es. Par exemple, un modĂšle entraĂźnĂ© Ă reconnaĂźtre des images de camion gagnera Ă ĂȘtre entraĂźnĂ© en partant d’un modĂšle entraĂźnĂ© au prĂ©alable Ă reconnaĂźtre des vĂ©hicules plutĂŽt qu’Ă partir de zĂ©ro.
Le traitement de donnĂ©es sĂ©quentielles, par exemple pour l’entraĂźnement d’un modĂšle, pose la question de la dĂ©coupe des sĂ©quences en Ă©lĂ©ments atomiques (ou tokenization). En langage naturel par exemple, une phrase peut ĂȘtre vue comme un sĂ©quence de caractĂšres, une sĂ©quence de mots, de groupes de mots, ou toute segmentation intermĂ©diaire qui fait sens. La question de la dĂ©coupe se pose particuliĂšrement en musique, oĂč le contexte et les relations entre les diffĂ©rentes notes jouent un rĂŽle fondamental.
Objectifs
InspirĂ©s par le prĂ©-entraĂźnement de modĂšles Sequence To Sequence en NLP, ce projet consiste Ă expĂ©rimenter diffĂ©rentes stratĂ©gies de dĂ©coupe des sĂ©quences de donnĂ©es musicales pour le prĂ©-entraĂźnement de modĂšles musicaux. Des tĂąches cibles en MIR (dĂ©tection de fin de phrase musicales ou encore dĂ©tection de tonalitĂ©) associĂ©es Ă des corpus annotĂ©s permettront d’Ă©valuer la performance des modĂšles prĂ©-entraĂźnĂ©s.
Outre les diffĂ©rentes stratĂ©gies de dĂ©coupe, on pourra expĂ©rimenter diffĂ©rents corpus de fichiers musicaux pour le prĂ©-apprentissage : le corpus MAESTRO, issu d’enregistrements de performances, ainsi qu’un regroupement de fichiers fichiers MIDI issus de partitions musicales. Le recours comparatif Ă ces deux corpus permettra d’Ă©valuer l’impact de l’interprĂ©tation musicale (prĂ©sente uniquement dans le corpus MAESTRO) sur la qualitĂ© du prĂ©-entraĂźnement.
Profil recherché
Master dâinformatique, avec compĂ©tences en programmation et apprentissage automatique.
Débouchés
Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă l’Ă©tranger.
Références
- Vaswani, Ashish, et al. “Attention is all you need.” Advances in neural information processing systems. 2017.
- Huang, Cheng-Zhi Anna, et al. “Music transformer.”
- Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.”
- Wang, Ziyu, and Gus Xia. “Musebert: pre-training of music representation for music understanding and controllable generation.”
- Fradet, Nathan, et al. “MidiTok: A Python Package for MIDI File Tokenization.”
Stage L3/M1/M2: Un rĂ©seau social pour l’annotation de musique
- Stage L3/M1/M2 2022, avec gratification, de 2 Ă 5 mois
- ThÚmes: développement web agile, TypeScript, Vue.js, informatique musicale
- Lieu: Lille (Villeneuve d’Ascq, Laboratoire CRIStAL, mĂ©tro 4 Cantons), tĂ©lĂ©travail Ă©galement possible selon l’Ă©volution de la situation
- Encadrement et contacts: Emmanuel Leguy et Mathieu Giraud (CRIStAL)
- Annonce et liens: https://www.algomus.fr/jobs
- Candidatures closes
L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture. Si Soundcloud permet d’Ă©couter un morceau de musique et d’y laisser ses impressions, Dezrann donne accĂšs avec bien plus de finesse au contenu musical, forme d’onde ou partition.
Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă plusieurs centaines de piĂšces musicales. Certaines de ces piĂšces ne sont accessibles que par des utilisteurs possĂ©dant un compte. Ce projet a donc pour objectif de faciliter la communication entre les diffĂ©rents utilisateurs pour faire de l’application un vĂ©ritable espace collaboratif d’analyse musicale, oĂč chacun·e peut proposer et partager une analyse.
Dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation), le ou la stagiaire travaillera ainsi sur la conception, l’implĂ©mentation et le test de l’espace de travail et de gestion des piĂšces et d’analyses d’un utilisateur, pour permettre notamment:
- le partage de l’analyse Ă un ou plusieurs collaborateurs, ou bien au puvlic, en lecture voire en Ă©criture
- la proposition d’une nouvelle version d’une analyse existante
- la modification l’analyse d’un collaborateur
- la publication d’une analyse
Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.
2021 (archive)
PhD positions, 2021-24
- Modeling musical texture for computer-aided analysis and composition (closed) (texture, algorithms, machine learning), Amiens (and Lille)
- Indexing melodic and harmonic patterns (closed) (harmony, text algorithmics), Lille (and Rouen)
- Modeling symphonic writing (closed) (orchestration, machine learning), Lille (and Amiens)
Médiation scientifique, 2021-2022
Stages de recherche 2021 en informatique musicale
- Notes influentes et réseaux Transformers (apprentissage machine, NLP), Lille (closed)
- Indexation, mélodies et harmonies (algorithmique du texte), Rouen ou Lille (closed)
- Ăcriture symphonique (apprentissage machine, orchestration), Lille ou Amiens (closed)
- Techniques de jeu pour la guitare (apprentissage machine, guitare), Lille (closed)
- Texture pianistique (modélisation, apprentissage, piano), Amiens ou Lille (closed)