Job offers / Offres de visites, stages, thĂšses et emploi

Current offers: https://www.algomus.fr/jobs

Archive

2025 (archive)

2025 post-doc position on co-creativity (K. Déguernel): Lifelong learning for co-creative music generation (closed) .

2025 Internship positions will be available (2-6 months), this year including the following themes:

MĂ©diation scientifique 2025/26. Étudiant·es en mĂ©diation pour un atelier d’informatique musicale (ouvert)

Stages 2025 de recherche et/ou développement en informatique musicale


Research Internship : Curiosity-Driven Adaptive AI for Co-Creative Music Generation

I. Context

Recent advancements in Human-AI co-creative systems, especially within Mixed Initiative Co-Creative (MICC) frameworks, have begun to reshape musical creation, enabling new processes and interactions [1-2]. However, current systems often fall short in adapting to users over time, typically requiring unilateral adaptation — either through the user learning to operate the AI or the system being manually updated by an engineer-musician [3-4]. This internship will focus on laying the foundation for curiosity-driven learning [5] within MICC musicking [6], equipping the AI with mechanisms for adaptive, long-term engagement in creative processes [7-8].

This project sits at the intersection of several key areas, primarily Music Information Retrieval (MIR), Lifelong Learning for Long-Term Human-AI Interaction, and New Interfaces for Musical Expression (NIME). Together, these fields provide a foundation for implementing and exploring AI-driven curiosity in musical settings, ultimately facilitating expressive, intuitive engagement between musicians and adaptive AI systems.

This internship takes place in the scope of the National Research Agency project MICCDroP led by Ken Déguernel, and is part of a collaboration between the Algomus and MINT teams at CRIStAL.

II. Objective

The goal of this internship is to explore and implement curiosity-driven learning mechanisms in an AI music generation model, laying a groundwork for sustained adaptive interactions within a co-creative musical setting. This will involve:

  1. Implementing basic curiosity-driven algorithms to encourage the AI to explore its generative space.

  2. Testing and refining these algorithms to balance novelty and musical coherence in generated outputs.

  3. Conducting preliminary user interaction tests to assess how the AI’s adaptive behavior aligns with user preferences, guiding future refinement.

III. Internship Work Plan

The internship will be structured in three phases, allowing for iterative development and experimentation within a manageable scope for a 4 to 6-month project.

Phase 1: Research and Model Familiarization

The intern will begin by conducting a literature review focused on music generation, music interaction, curiosity-driven learning and novelty search methods. They will then become familiar with the technical tools and frameworks relevant to this project, and gain hands-on experience with existing music generation models. During this phase, the intern will implement a basic curiosity-driven mechanism, such as novelty search or diversity maximization, within an AI-based music generation model.

Phase 2: Implementing and Testing Curiosity-Driven Learning

Building on Phase 1, the intern will now extend the model by refining curiosity-driven exploration methods, specifically focusing on maximizing novelty in generated music. The intern will develop simple evaluation metrics—such as novelty scores and coherence scores—to quantitatively measure the model’s performance.

Phase 3: User Interaction Testing and Analysis

In the final phase, the intern will design a basic interactive setup, allowing musicians to experiment with and provide feedback on the curiosity-driven AI model. They will conduct initial testing sessions, collecting qualitative insights on how well the AI’s outputs align with user creativity and aesthetic preferences, thereby evaluating its effectiveness in a co-creative context. Following these sessions, the intern will analyze the data to assess how curiosity-driven adaptation affects user engagement and identify areas for potential improvements in personalization and co-creative alignment.

IV. Learning Outcomes for the Intern

This project will give the intern foundational experience in adaptive AI, curiosity-driven learning, and interactive system design for music. They will also gain practical experience in music generation, user interaction testing, and iterative model refinement, key competencies for further research in the field. Opportunities to pursue a Ph.D. in our lab on this topic will be strongly considered.

Qualifications

Needed:

  • Last year of Master’s in Computer Science, Artificial Intelligence, or Music Computing
  • Strong background in Machine Learning

Preferred:

  • Experience with music programming languages (Max/MSP, PureData…)
  • Personal musical practice

References

  • [1] Jordanous (2017). Co-creativity and perceptions of computational agents in co-creativity. International Conference on Computational Creativity.
  • [2] Herremans et al. (2017). A functional taxonomy of music generation systems. ACM Computing Surveys, 50(5).
  • [3] Nika et al. (2017). DYCI2 agents: merging the ‘free’, ‘reactive’ and ‘scenario-based’ music generation paradigms. International Computer Music Conference.
  • [4] Lewis (2021). Co-creation: Early steps and future prospects. *Artisticiel/Cyber-Improvisations.
  • [5] Colas et al. (2020). Language as a cognitive tool to imagine goals in curiosity driven exploration. NeurIPS.
  • [6] Small, C. (1998). Musicking: The meanings of performing and listening. Wesleyan University Press.
  • [7] Parisi et al. (2019). Continual lifelong learning with neural networks: A review. Neural networks, 113.
  • [8] Scurto et al. (2021). Designing deep reinforcement learning for human parameter exploration. ACM Transactions on Computer-Human Interaction, 28(1).

Research Internship - “Loop Perception in Video Game Music: Corpus Constitution and Experimental Study”

Context

Video Game Music (VGM) refers to the musical genre associated with soundtracks accompanying interactive game-plays with the aim to deepen immersion within virtual worlds and enhance the player’s overall gaming experience [Gibbons24].

Back in the 70s-80s, early game soundtracks were limited by hardware constraints, and relied on chiptune melodies that became iconic through their memorable and repetitive structure [Collins08]. Following the progress in computer music and music technology, VGM has evolved to intricate compositions that now play a crucial role in intensifying emotions and supporting storytelling via true orchestral scores or even original songs [Phillips14].

Today, from its presence on audio streaming platforms, to specialized training courses in musical conservatories, as well as CD/vinyl releases and themed concerts, VGM fully contributes to the broader cultural landscape, showcasing the unique capabilities of interactive media, and has therefore become a concrete area of study in digital humanities [Lipscomb04; Kamp16]. Yet, it remains only marginally explored in the Music Information Retrieval (MIR) community.

Additionally, one of the key features of VGM is its “seamless loop” structure: most VGM is composed in repeating patterns, or loops, designed to repeat continuously and as subtly as possible so that the listener hardly notices the transition [Margulis13]. However, exploring whether listeners are actually sensitive to the “seam” in looping remains an unexplored research area.

The purpose of this internship is thus twofold. On one hand, it aims to provide the MIR community with a resource for analyzing VGM by creating a representative VGM corpus with structural annotations. On the other hand, it seeks to study participants’ ability to accurately predict the looping point in VGM based on the constituted database.

While there already exist several VGM datasets, these offer only a partial view of the diverse audio landscape in modern video games. Indeed, available corpora lack sufficient diversity as they may (1) provide solely MIDI data (e.g., VGMIDI, Lakh MIDI); (2) be focused on one specific game (e.g., GameSound) or aesthetic (e.g., NES-MDB); or (3) include non-official arrangements instead of original works (e.g., VGMix Archive, VGMIDI). As a result, they fall short in representing the full spectrum of game audio, particularly the high-quality recordings of recent orchestral and/or pop/rock soundtracks.

In order to bridge this gap, the first part of this internship will be dedicated to reflect on and identify relevant factors (e.g., video game genres, years, stations, etc.) to build both a diverse and representative VGM database (about 100 pieces). The corpus will then be annotated in terms of structural patterns, following conventions established on other music structure datasets [Smith11].

Finally, experimental studies will be conducted, aiming at assessing the extent to which listeners are sensitive to the “loop-based” nature of most VGM, by contrasting, first, several types of VGM relying on various compositional techniques, and, second, a passive (listening only) vs an interactive (listening while playing the game, or a proxy) reception.

Organization

During the course of this internship, the candidate will be incited to understand and get familiar with Video Game Music (VGM), study and discover proximity literature on this genre (i.e., ludomusicology) and existing datasets, reflect on and identify relevant factors to constitute a dedicated dataset, annotate the structural patterns, and conduct experimental studies from a perception perspective.

Environment: The intern will be integrated in the Algorithmic Musicology (Algomus) Team at the CRIStAL Lab of the University of Lille, and will profit from the team knowledge on both music digital humanities and Music Information Retrieval. The annotated corpus could notably be integrated in the Dezrann platform [Giraud18]. For both the theoretical framework and perceptual studies, the intern will also benefit from the expertise of IRCAM’s Musical Practices Analysis (APM) Team.

Desired profile:

  • Master of Research (M2) in either computer science, (audio) signal processing or computational musicology;
  • interest in video game music and musical structure;
  • previous experience in musical algorithmics or perception would be appreciated but is not necessary.

Bibliography

  • [Gibbons24] Gibbons, William et Grimshaw-Aagaard, Mark (ed.). The Oxford Handbook of Video Game Music and Sound. Oxford University Press, 2024.
  • [Collins08] Collins, Karen. Game sound: an introduction to the history, theory, and practice of video game music and sound design, MIT Press, 2008.
  • [Lipscomb04] Lipscomb, Scott D. and Zehnder, Sean M. Immersion in the virtual environment: The effect of a musical score on the video gaming experience. Journal of Physiological Anthropology and Applied Human Science, vol. 23, no 6, p. 337-343, 2004.
  • [Kamp16] Kamp, Michiel, Summers, Tim, Sweeney, Mark, et al. Ludomusicology: Approaches to video game music. Intersections: Canadian Journal of Music/Revue Canadienne de Musique, vol. 36, no 2, p. 117-124, 2016.
  • [Collins07] Collins, Karen. In the loop: Creativity and constraint in 8-bit video game audio. Twentieth-century music, 2007, vol. 4, no 2, p. 209-227, 2007
  • [Margulis13] Margulis, Elizabeth Hellmuth. On repeat: How music plays the mind. Oxford University Press, 2013.
  • [Smith11] Smith, Jordan Bennett Louis, Burgoyne, John Ashley, Fujinaga, Ichiro, et al. Design and creation of a large-scale database of structural annotations. In : ISMIR 2011, p. 555-560, 2011.
  • [Giraud18] Giraud, Mathieu, Groult, Richard, et Leguy, Emmanuel. Dezrann, a web framework to share music analysis. In : TENOR 2018, pp. 104-110. 2018
  • VGMIDI - https://github.com/lucasnfe/VGMIDI
  • VGMix Archive - https://vgmixarchive.com/
  • Lakh MIDI - https://colinraffel.com/projects/lmd/
  • GameSound - https://michaeliantorno.com/gamesound/
  • NES-MDB - https://github.com/chrisdonahue/nesmdb

Stage de recherche: Suggestion personnalisĂ©e de parcours pĂ©dagogiques pour l’apprentissage de la guitare

Contexte

Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (UniversitĂ© de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). L’équipe d’informatique musicale Algomus s’intĂ©resse Ă  la modĂ©lisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des donnĂ©es sur l’apprentissage de la musique. La start-up GSC a Ă©tĂ© incubĂ©e Ă  la Plaine Images Ă  Lille et dĂ©veloppe une application pour faciliter l’apprentissage de la guitare pour la musique pop/rock, Ă  travers des suggestions automatiques de chansons et exercices.

La collaboration entre l’Ă©quipe Algomus et GSC consiste au dĂ©veloppement d’un modĂšle pour suggĂ©rer Ă  l’utilisatrice les prochains morceaux Ă  travailler Ă  partir de ses souhaits et de son niveau actuel. L’application est dĂ©jĂ  disponible en version bĂȘta et le dĂ©ploiement complet est prĂ©vu courant 2025.

Objectifs

De nombreux facteurs influencent la difficultĂ© d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexitĂ© du placement des doigts dans une position d’accord. Fort des donnĂ©es d’analyse fournies par GSC, l’algorithme permet dĂ©jĂ  des suggestions satisfaisantes pour un niveau donnĂ©. En revanche, ces suggestions sont pour le moment dĂ©nuĂ©es d’intention pĂ©dagogique. Les suggestions sont pertinentes pour aider les guitaristes Ă  apprendre de nouvelles chansons Ă  leur niveau, mais elles ne garantissent pas une progression sur le moyen/long terme telles que celles que peut concevoir un professeur de guitare. Le but du stage est ainsi de concevoir un chemin pĂ©dagogique qui pourrait ĂȘtre vu, plus gĂ©nĂ©ralement, comme un graphe de progression.

La premiĂšre Ă©tape du stage consistera en la lecture de l’Ă©tat de l’art sur l’analyse de difficultĂ© musicale (par exemple [1, 2, 3]) et l’Ă©tude du principe de l’application GSC [4] afin de se familiariser avec le contexte de ce projet. Dans un second temps, la lecture d’articles sur les systĂšmes de recommandation [5] et la construction de parcours pĂ©dagogiques [6] sera nĂ©cessaire. Le stage consistera notamment en l’Ă©laboration de parcours pĂ©dagogiques test Ă©laborĂ©s en collaboration avec GSC, ainsi que le traitement de donnĂ©es d’utilisation rĂ©elles.

Profil recherché

Master d’informatique, avec compĂ©tences en programmation, algorithmique, graphes, apprentissage machine. Connaissances et pratique musicales apprĂ©ciĂ©es (notamment en guitare).

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet via une thĂšse CIFRE avec l’entreprise Guitar Social Club. De plus, il existe d’autres possibilitĂ©s sur d’autres sujets proches en informatique musicale, que ce soit dans Ă  CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă  l’Ă©tranger.

Références


Stage de recherche: GĂ©nĂ©ration d’exercices pour l’apprentissage du solfĂšge

Contexte

Solfy est une startup EdTech innovante qui dĂ©veloppe une application ludique d’apprentissage du solfĂšge. BasĂ©e Ă  La Plaine Images (Tourcoing), l’Ă©cosystĂšme numĂ©rique dĂ©diĂ© aux industries crĂ©atives, nous sommes convaincus que la meilleure façon d’apprendre c’est en s’amusant. Rejoindre Solfy, c’est intĂ©grer une Ă©quipe passionnĂ©e au service de l’éveil et l’apprentissage musical.

Algomus est l’Ă©quipe d’informatique musicale du laboratoire CRIStAL, Ă  l’UniversitĂ© de Lille. L’Ă©quipe Ă©tudie la modĂ©lisation de haut-niveau, l’analyse et la gĂ©nĂ©ration co-crĂ©ative de musique, et enfin l’interaction avec les partitions et d’autres donnĂ©es musicales. Elle collabore avec des musicien·nes, des enseignant·es, des artistes et des entreprises sur des sujets liant musique et technologie.

Solfy propose, dans son application, des exercices de lecture gĂ©nĂ©rĂ©s Ă  partir de modĂšles probabilistes. Le but du stage est d’amĂ©liorer la gĂ©nĂ©ration de ces contenus (lecture de notes avec rythmes) pour qu’ils soient Ă  la fois pĂ©dagogiques et musicaux. On cherchera en particulier Ă  obtenir une certaine cohĂ©rence mĂ©lodique, harmonique, rythmique, tout en fixant des critĂšres de difficultĂ© (notes, figures rythmiques).

ConcrĂštement, le stage commencera par un Ă©tat de l’art en informatique musicale, plus particuliĂšrement en estimation de difficultĂ© et en gĂ©nĂ©ration de mĂ©lodies, ainsi qu’avec des Ă©changes avec Solfy et des professeurs de musique pour mieux modĂ©liser les enjeux. Il sera aussi pertinent de consulter un ensemble de mĂ©thodes de formation musicale.

Le stage proposera ensuite de nouvelles mĂ©thodes de gĂ©nĂ©ration et/ou de filtrage de mĂ©lodies, et testera ces mĂ©thodes par un prototype. En cas de succĂšs, certaines de ces mĂ©thodes pourraient ĂȘtre reprises dans l’application, et il pourrait ĂȘtre possible de mener une analyse sur les rĂ©ussites d’Ă©lĂšves travaillant avec l’application.

Profil recherché

Licence ou master d’informatique, compĂ©tences en programmation, et algorithmique. Connaissances et pratique musicales apprĂ©ciĂ©es.

Débouchés

D’autres possibilitĂ©s de stages les prochaines annĂ©es sont envisageables sur des sujets proches en informatique musicale, dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă  l’Ă©tranger. Pour un M2, des opportunitĂ©s de poursuite en thĂšse Ă  CRIStAL pourraient aussi ĂȘtre envisagĂ©es sur ce sujet via une thĂšse CIFRE avec l’entreprise Solfy.

Références, ressources


Stage R&D: Création générique de corpus musicaux sur la plateforme web Dezrann

Contexte et objectifs

L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture.

Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă  plusieurs centaines de piĂšces musicales. Aujourd’hui plus de dix corpus musicaux sont ainsi disponibles, produits par l’Ă©quipe comme par des collaborateurs internationaux.

Travail Ă  effectuer

Afin de rendre la plateforme utilisable plus largement, des fonctionnalités back sont nécessaires pour avoir une plus grande souplesse dans la gestion des corpus et des utilisatrices et utilisateurs.

  • L’objectif premier est d’avoir une meilleure solution reproductible pour gĂ©rer la crĂ©ation de piĂšces/corpus, via une API robuste, permettant d’ĂȘtre utilisĂ©e aussi bien par des scripts externes que par une interface web dĂ©veloppĂ©e avec Vue.js.

  • Un objectif secondaire pourrait ĂȘtre d’amĂ©liorer la gestion des profils d’utilisatrices et d’utilisateurs, en particulier pour la gestion de leurs piĂšces et des permissions.

DĂ©veloppement en TypeScript/node.js, et possiblement Python, dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.

Références

MĂ©diation scientifique 2025/26. Étudiant·es en mĂ©diation pour un atelier d’informatique musicale (fermĂ©)

2024 (archive)

2024 Internship positions are available (2-6 months), this year be around the following themes:

Permanent position (French required, with French qualification). Un poste de MdC en section 27 est publié dans le cadre de la session synchronisée de recrutement EC 2024:

ÂČ

PhD positions, 2024-27

Stages 2024 de recherche et/ou développement en informatique musicale


Research Internship (Master’s student): Continual learning for music generation

Context and objectives

Current Mixed Initiative Co-Creative systems have opened new avenues for music generation fostering novel creative process and modes of interactions [1,2]. However, these systems lack the ability for long-term adaptation between user and machine. Our goal is to apply state-of-the-art continual learning [3,4] for machine learning based music generation models [5,6]. In particular, this internship will focus on supervised reinforcement learning method based on user feedback [7]. For instance, systems such as folk-rnn [5] or tradformer [6] could be used as a baseline on which the continual learning methods will be applied. These systems both used an already defined dataset based on the website thesession.org.

This internship takes place in the scope of a collaboration between the Algomus and Scool teams at CRIStAL, providing the student with an environment with both expertise in reinforcement learning and computer music.

Tasks

  • Bibliography and familiarisation with a music generation systems such as folk-rnn,
  • Implementation of user feedback based reinforcement learning to improve the personalisation of the studied music generation system,
  • Evaluation of the system.

Qualifications

Needed

  • Master’s student in Computer Science, Artificial Intelligence, or Music Computing,
  • Strong background in machine learning, with experience with neural nerwork based systems,
  • Good programming skills and experience with libraries like PyTorch.

Preferred

  • Musical practice and familiarity with music theory.

References

[1] Jordanous (2017). Co-creativity and perceptions of computational agents in co-creativity. International Conference on Computational Creativity.
[2] Lin et al. (2023). Beyond prompts: Exploring the design space of Mixed-Initiative Co-Creativity Systems. International Conference on Computational Creativity.
[3] Parisi et al. (2019). Continual lifelong learning with neural networks: A review. Neural networks, 113.
[4] Irfan et al. (2022). Personalised socially assistive robot for cardiac rehabilitation: Critical reflections on long-term interactions in the real world. User Modeling and User-Adapted Interaction.
[5] Sturm et al. (2016). Music transcription modelling and composition using deep learning. arXiv:1604.08723.
[6] Casini & Sturm (2022). Tradformer: A transformer model of traditional music transcriptions. International Joint Conference on Artificial Intelligence.
[7] Scurto et al. (2021). Designing deep reinforcement learning for human parameter exploration. ACM Transactions on Computer-Human Interaction, 28(1).


Stage M1/M2, ModĂ©lisation de toplines de rap pour l’apprentissage en musique

La musique contribue aux apprentissages. Work In Music (WiM) est une application novatrice qui permet aux lycĂ©ens d’explorer le programme scolaire tout en Ă©tant immergĂ©s dans la musique. Des rythmes entraĂźnants sont associĂ©s Ă  chaque notion clĂ©, favorisant ainsi la mĂ©morisation et rendant l’apprentissage plus ludique.

WiM propose des contenus de divers styles musicaux, notamment le rap. Bien que le travail humain demeure essentiel et souhaitable pour garantir la qualitĂ© de ces contenus, il est tout aussi intĂ©ressant d’explorer des approches co-crĂ©atives qui combinent l’expertise et la crĂ©ativitĂ© humaines avec des algorithmes [1].

Ce stage se concentre ainsi sur l’analyse, la modĂ©lisation et la gĂ©nĂ©ration de toplines, la partie vocale d’une chanson rap en mettant l’accent sur son rythme et ses intonations Ă  partir d’un texte structurĂ©. Plus prĂ©cisĂ©ment, le/la stagiaire aura l’opportunitĂ© de :

  • Effectuer une revue des approches en informatique musicale et en musicologie sur la prosodie et le rap.
  • Constituer un corpus composĂ© de plusieurs dizaines d’exemples de prosodie et de mĂ©lodies structurĂ©es
  • Proposer une modĂ©lisation de ces toplines, notamment par des structures arborescentes
  • Élaborer et tester un premier modĂšle de gĂ©nĂ©ration

La gĂ©nĂ©ration pourrait combiner des Ă©lĂ©ments formels, procĂ©duraux, et un apprentissage automatique s’appuyant sur le corpus Ă©laborĂ© ou d’autres donnĂ©es telles que MCFlow [3].

Profil recherché

Master d’informatique, compĂ©tences en modĂ©lisation et/ou en apprentissage/IA. Connaissances et pratique musicales apprĂ©ciĂ©es, en particulier en rap.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit Ă  CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă  l’étranger. En particulier, une thĂšse CIFRE avec l’entreprise WiM pourrait ĂȘtre envisagĂ©e.

References


Stage de recherche L3/M1/M2 : PrĂ©diction personnalisĂ©e de la difficultĂ© d’apprentissage Ă  la guitare

Contexte

Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (UniversitĂ© de Lille, CRIStAL) et la start-up Guitar Social Club (GSC). L’équipe d’informatique musicale Algomus s’intĂ©resse Ă  la modĂ©lisation informatique de la musique, que ce soit des partitions, des tablatures ou encore, dans le cadre de ce stage, des donnĂ©es sur l’apprentissage de la musique. La start-up GSC a Ă©tĂ© incubĂ©e Ă  la Plaine Images Ă  Lille et dĂ©veloppe une application pour faciliter l’apprentissage de la guitare, Ă  travers des suggestions automatiques de chansons et exercices.

La collaboration entre l’Ă©quipe Algomus et GSC consiste au dĂ©veloppement d’un modĂšle pour suggĂ©rer Ă  l’utilisatrice les prochains morceaux Ă  travailler Ă  partir de ses souhaits et de son niveau actuel. Une premiĂšre version de cet algorithme est dĂ©ployĂ©e dans la version beta de l’application, sortie en dĂ©cembre 2023.

Objectifs

De nombreux facteurs influencent la difficultĂ© d’une partition ou d’une tablature [1, 2, 3], comme par exemple, pour la guitare, la complexitĂ© du placement des doigts dans une position. L’objectif de ce stage est d’exploiter la littĂ©rature existante afin de concevoir et d’Ă©tendre un algorithme de prĂ©diction de difficultĂ© plus robuste, gĂ©nĂ©raliste, et adaptĂ© au parcours de l’apprenant.

La premiĂšre Ă©tape consistera Ă  prendre connaissance de la littĂ©rature existante en analyse de la difficultĂ© musicale (par exemple [1, 2]) et en particulier de reproduire les analyses de [1]. Le stage essaiera d’Ă©tendre ces modĂšles, que ce soit par la prise en compte d’autres facteurs ou par l’ajout de personnalisation Ă  la prĂ©diction de difficultĂ©.

Pour un stage de Master, selon les donnĂ©es disponibles, une perpective pourrait ĂȘtre d’utiliser la solution dĂ©veloppĂ©e pour entraĂźner un modĂšle prĂ©dictif. Une attention particuliĂšre sera portĂ©e au coĂ»t environnemental d’un tel modĂšle, ainsi que son explicabilitĂ©, et Ă  l’inclusivitĂ© et la diversitĂ© des rĂ©sultats gĂ©nĂ©rĂ©s.

Profil recherché

Licence/Master d’informatique, avec compĂ©tences en programmation et algorithmes de rĂ©gression. Connaissances et pratique musicales apprĂ©ciĂ©es (notamment en guitare), mais pas nĂ©cessaires.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans Ă  CRIStAL ou bien dans notre rĂ©seau de collaborateurs acadĂ©miques ou industriels en France et Ă  l’Ă©tranger.

Références


Stage L3/M1/M2: Écouter, voir et analyser Schubert et du Jazz

Contexte et objectifs

L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture.

Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă  plusieurs centaines de piĂšces musicales.

Plusieurs Ă©quipes de recherche dans le monde ont produit les derniĂšres annĂ©es des corpus ”multimodaux”, comme par example le Schubert Winterreise Dataset (SWD) et le Weiner Jazz Database (WJD). Ces corpus contiennent des partitions (images ou symboliques), des fichiers audio, mais aussi des annotations comme par exemple des accords ou de la structure. Ces projets ont parfois des visualisations mais qui ne sont pas aussi commodes que celles proposĂ©es par Dezrann.

Travail Ă  effectuer

  • IntĂ©grer ou amĂ©liorer l’intĂ©gration Ă  Dezrann de deux corpus publiĂ©s par d’autres Ă©quipes, dont au moins un nouveau corpus. À titre d’exemple, en 2022/23 un projet avait travaillĂ© sur le Schubert Winterreise Dataset et la Weimar Jazz Database.

  • Contribuer Ă  quelques fonctionnalitĂ©s sur le front de Dezrann pour amĂ©liorer la plateforme

  • Selon le temps disponiblee, rĂ©aliser une premiĂšre Ă©tude d’analyse et/ou de gĂ©nĂ©ration d’informatique musicale en s’appuyant sur les corpus intĂ©grĂ©s et en mettant en oeuvres des mĂ©thodes simples algorithmiques et/ou IA.

DĂ©veloppement en TypeScript/Vue.js, et possiblement Python, dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation) et reproductible. Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.

Références

2023 (archive)

MĂ©diation scientifique. Étudiant·es en mĂ©diation pour un atelier d’informatique musicale (closed)

Two 12-month post-doc positions

Internship positions are available (2-6 months), this year be around the following themes:

Stages 2023 de recherche et/ou développement en informatique musicale


Stage de recherche (M1/M2): Cartographie des tags musicaux sur Bandcamp

L’Ă©quipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, UniversitĂ© de Lille), en collaboration avec le MIS (UPJV, Amiens) s’intĂ©resse Ă  l’analyse informatique de partitions musicales.

Contexte et objectifs

Bandcamp est un site de vente et de streaming pour artistes indĂ©pendants. Les artistes utilisent des tags pour identifier eux-mĂȘmes les genres musicaux qui dĂ©crivent leur musique. La classification par genre musicaux est un problĂšme complexe car mal dĂ©fini et subjectif. La classification automatique est cependant trĂšs utilisĂ©es dans le domaine de la Music Information Retrieval (MIR) pour la recherche mais aussi dans l’industrie (notamment par les plateformes de ventes et de streaming (Spotify, Youtube, Apple Music, etc.)

Nous souhaitons à obtenir une meilleure compréhension de comment les artistes utilisent les tags sur Bandcamp pour définir leur musique. Nous nous intéressons donc plutÎt à une tùche de musicologie computationnelle descriptive de la pratique des artistes.

Travail Ă  effectuer

  • RĂ©cupĂ©ration automatique des tags et des metadata sur Bandcamp par data crawling
  • CrĂ©ation d’une cartographie relationnelles entre tags
  • CrĂ©ation d’une application web permettant de naviguer la cartographie

Profil recherché

Master d’informatique avec des compĂ©tences en thĂ©orie des graphes et technologies web. Pratique musicale apprĂ©ciĂ©e mais non obligatoire.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă  l’Ă©tranger. L’Ă©quipe est Ă©galement en contact avec des entreprises travaillant sur des sujets connexes.

Références

  • [1] Vitos, B. (2021). Dance Librarian: Sonic Explorations of the Bandcamp Underground. DanceCult 13:1.
  • [2] Haworth, C., & Born, G. (2022). Music and intermediality after the internet: aesthetics, materialities and social forms. Music and Digital Media, 378.
  • [3] Sturm, B. L. (2017). The “horse” inside: Seeking causes behind the behaviors of music content analysis systems. Computers in Entertainment (CIE), 14(2), 1-32.

Stage de recherche (L3/M1/M2): Évaluation du coĂ»t carbone de l’intelligence artificielle en informatique musicale

L’Ă©quipe d’informatique musicale Algomus, du laboratoire CRIStAL (UMR CNRS 9189, UniversitĂ© de Lille), en collaboration avec le MIS (UPJV, Amiens) s’intĂ©resse Ă  l’analyse informatique de partitions musicales.

Contexte et objectifs

Comme dans de nombreux domaines, l’apprentissage automatique est prĂ©sent dans beaucoup de travaux en informatique musicale, que ce soit en analyse ou en gĂ©nĂ©ration de musique [1].

Ces travaux s’appuient sur des corpus de plus en plus consĂ©quents, qu’ils soient audio, de partitions ou d’autres reprĂ©sentations symboliques, et/ou de mĂ©tadonnĂ©es, et des modĂšles de plus en plus complexes, en particulier GAN et auto-encodeurs variationnels.

Il y a heureusement une prise de conscience de l’empreinte Ă©cologique croissante du numĂ©rique en gĂ©nĂ©ral et de l’IA en particulier [2, 3, 4]. Cependant, en informatique musicale, trĂšs peu de travaux sont explicites sur le calcul nĂ©cessaire Ă  l’apprentissage de ces modĂšles, mĂȘme si par ailleurs on trouve de plus en plus d’Ă©tudes sur l’IA et carbone [5, 6].

Ce stage fera un premier bilan du coĂ»t en calcul, et idĂ©alement du coĂ»t carbone, des recherches en MIR utilisant l’intelligence artificielle. Il passera par une revue systĂ©matique des articles publiĂ©s dans une ou deux confĂ©rences majeures de la derniĂšre annĂ©e.

Le stage pourra en particulier regarder quels modÚles sont les plus consommateurs et/ou économes et quel effort les équipes cherchent (ou pas) à faire dans ce domaine.

Profil recherché

Master d’informatique et/ou master liĂ© Ă  l’environnement, avec dans les deux cas compĂ©tences en IA/science des donnĂ©es. Pratique musicale apprĂ©ciĂ©e mais non obligatoire.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă  l’Ă©tranger. L’Ă©quipe est Ă©galement en contact avec des entreprises travaillant sur des sujets connexes.

Références

2022 (archive)

Permanent positions (session synchronisée Galaxie 2022, 31 mars) (closed)

  • Poste en section 27 au CRIStAL, avec un profil recherche contenant “informatique musicale, corpus, co-crĂ©ativitĂ©”: 27 MCF 0035
  • En dehors d’Algomus, poste en section 18 au CEAC / dĂ©partement Arts, profil recherche “musique et nouvelles technologies”: 18 MCF 0016

PhD positions, 2022-25

Ingénieur·e développement web Vue fullstack, rendu/synchro partitions musicales, CollabScore (CDD 18 mois) (closed)

Internship positions are available (2-6 months), this year be around the following themes:

Stages 2022 de recherche et/ou développement en informatique musicale


Stage L3/M1/M2: Vers un corpus de musique pour les grands prématurés

Contexte

Ce stage est proposĂ© dans le cadre d’une collaboration avec le GRAMFC (Groupe de Recherche sur l’Analyse Multimodale de la Fonction CĂ©rĂ©brale), visant Ă  Ă©valuer l’impact de l’exposition des bĂ©bĂ©s nĂ©s trĂšs prĂ©maturĂ©ment (Ă  partir de 28 semaines d’ñge gestationnel) Ă  des interventions musicales adaptĂ©es sur leur dĂ©veloppement neural et comportemental, en particulier concernant leur comprĂ©hension des mĂ©canismes du langage et de la musique.

L’enjeu de la mission est de proposer un corpus de musique adaptĂ© aux grands prĂ©maturĂ©s, afin que les morceaux sĂ©lectionnĂ©s soient diffusĂ©s/jouĂ©s dans le service de soin intensif de nĂ©onatologie du Centre Hospitalier Universitaire d’Amiens quotidiennement. Il s’agit de proposer un corpus de taille consĂ©quente assurant une diversitĂ© musicale (a minima rythmique, mĂ©lodique, texturale, voire harmonique), tout en s’adaptant aux capacitĂ©s auditives des bĂ©bĂ©s prĂ©maturĂ©s, qui ne leur permettent pas d’écouter tout type de musique, certains sons ou frĂ©quences pouvant les agresser ou les stresser.

Les tùches réalisées seront, en particulier:

  • Bibliographie (mĂ©thodologie de constitution de corpus multi-modaux, contraintes physiologiques et liĂ©es Ă  la diffusion de musique en soin intensif)
  • Choix/constitution d’un corpus de dĂ©part
  • DĂ©veloppement de descripteurs permettant de sĂ©lectionner (automatiquement) les partitions selon certaines caractĂ©ristiques musicales (notamment rythmiques, explorant les mĂ©triques binaires et ternaires)
  • Évaluation de la diversitĂ© des partitions du corpus grĂące Ă  des descripteurs adaptĂ©s
  • Proposition d’une mĂ©trique permettant d’évaluer l’acceptabilitĂ© d’une partition
  • Proposition d’une mĂ©thode d’extraction/simplification permettant de respecter les contraintes tout en maintenant la diversitĂ©

A priori, la majoritĂ© de l’étude sera rĂ©alisĂ©e sur des musiques reprĂ©sentĂ©es sous forme symbolique (encodage de la partition : MIDI, MusicXML, 
), qui semblent plus adaptĂ©es pour dĂ©velopper les descripteurs requis. Une connaissance des principes audio sera apprĂ©ciĂ©e, qui permettra d’évaluer la piste du filtrage Ă  partir de formes d’onde.

Profil recherché

Études d’informatique, avec compĂ©tences musicales et intĂ©rĂȘt pour les sciences cognitives

Débouchés

Des opportunitĂ©s de poursuite en stage et/ou thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit Ă  Amiens ou bien dans notre rĂ©seau de collaborateurs en France et Ă  l’Ă©tranger.

Références

  • Cirelli, L. K., Spinelli, C., Nozaradan, S., & Trainor, L. J. (2016). Measuring Neural Entrainment to Beat and Meter in Infants: Effects of Music Background. Frontiers in neuroscience, 10, 229. doi:10.3389/fnins.2016.00229

  • Haslbeck, F. B., et al. (2020). Creative music therapy to promote brain function and brain structure in preterm infants: A randomized controlled pilot study. NeuroImage: Clinical, 25, 102171. doi:10.1016/j.nicl.2020.102171

  • van der Heijden, M. J., Oliai Araghi, S., Jeekel, J., Reiss, I. K. M., Hunink, M. M., & van Dijk, M. (2016). Do hospitalized premature infants benefit from music interventions? A systematic review of randomized controlled trials. PloS one, 11(9). doi:10.1371/journal.pone.0161848

  • Foroushani, S.M., Herman, C.A., Wiseman, C.A. et al. Evaluating physiologic outcomes of music interventions in the neonatal intensive care unit: a systematic review. J Perinatol 40, 1770–1779 (2020). doi:10.1038/s41372-020-0756-4


Stage M1/M2: GĂ©nĂ©ration d’accompagnements Ă  la guitare basse

Contexte

Ce stage s’inscrit dans le cadre d’une collaboration entre l’équipe Algomus (UniversitĂ© de Lille, CRIStAL) et la sociĂ©tĂ© Arobas Music. L’équipe d’informatique musicale Algomus s’intĂ©resse Ă  la modĂ©lisation informatique de partitions musicales. La sociĂ©tĂ© lilloise Arobas Music dĂ©veloppe le logiciel Guitar Pro dĂ©diĂ© Ă  la saisie et Ă  la consultation de tablatures de guitare, et plus gĂ©nĂ©ralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent rĂ©guliĂšrement pour l’apprentissage, la transcription ou la composition. La sociĂ©tĂ© s’intĂ©resse Ă  l’ajout de nouvelles fonctionnalitĂ©s pour assister de maniĂšre intelligente le processus d’écriture et de composition de l’utilisateur.

Le corpus mySongBook (MSB), produit et maintenu par la société Arobas Music, comprend plus de 2500 piÚces, majoritairement dans le style pop/rock, encodées symboliquement sous la forme de fichiers au format Guitar Pro. Les fichiers Guitar Pro consistent en un alignement de plusieurs parties, chacune associée à un instrument, indiquant le contenu musical joué par cet instrument. Comme fréquemment dans le style pop/rock, une grande partie de ces piÚces comprend une partie de guitare basse alignée à une ou plusieurs parties de guitares.

Objectifs

La premiĂšre tĂąche de ce stage consistera Ă  entrainer un modĂšle Ă  prĂ©dire le contenu d’une partie de guitare basse Ă©tant donnĂ© la (les) parties(s) de guitare avec laquelle la partie de basse est alignĂ©e. On s’inspirera en premier lieu de mĂ©thodes issues de la traduction automatique de sĂ©quences (Neural Machine Translation) oĂč un modĂšle dit Sequence To Sequence (LSTM ou Transformer) est entraĂźnĂ© Ă  produire une sĂ©quence de sortie pour toute sĂ©quence donnĂ©e en entrĂ©e. DiffĂ©rentes expĂ©riences seront menĂ©es et comparĂ©es en faisant varier l’architecture du modĂšle, l’uniformitĂ© stylistique du corpus d’apprentissage, la reprĂ©sentation et la rĂ©solution des donnĂ©es.

Dans une seconde partie, on Ă©tudiera le potentiel d’utilisation de ce type de modĂšles comme outil dans un contexte d’Ă©criture ou de composition musicale. On Ă©tudiera en particulier les possibilitĂ©s de contrĂŽle du modĂšle au cours de la gĂ©nĂ©ration, permettant Ă  l’utilisateur d’influer sur certains paramĂštres comme le style ou l’originalitĂ© de la sĂ©quence produite.

Profil recherché

Master d’informatique, avec compĂ©tences en programmation et apprentissage automatique. Connaissances et pratique musicales souhaitĂ©es, idĂ©alement pratique de la guitare/basse et une familiaritĂ© avec les tablatures.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă  l’Ă©tranger.

Références

  • Makris, D., Agres, K. R., & Herremans, D. (2021). Generating lead sheets with affect: A novel conditional seq2seq framework.
  • Grachten, M., Lattner, S., & Deruty, E. (2020). BassNet: A Variational Gated Autoencoder for Conditional Generation of Bass Guitar Tracks with Learned Interactive Control.
  • Ren, Y., He, J., Tan, X., Qin, T., Zhao, Z., & Liu, T. Y. (2020, October). Popmag: Pop music accompaniment generation.
  • McVicar, M., Fukayama, S., & Goto, M. (2015). AutoGuitarTab: Computer-aided composition of rhythm and lead guitar parts in the tablature space.

Stage M1/M2: Pré-entraßnement de modÚles séquentiels musicaux

Contexte

Les techniques modernes en apprentissage automatique, notamment autour des rĂ©seaux de neurones, suscitent de nombreuses recherches dans les domaines du traitement automatique du langage naturel (Natural Language Processing) d’une part et du traitement automatique des donnĂ©es musicales (Music Information Retrieval) d’autre part. Ces recherches ont de multiples applications allant de l’analyse de corpus textuels/musicaux Ă  la gĂ©nĂ©ration automatique de texte/musique.

Parmis les diffĂ©rents types de rĂ©seaux de neurones, les modĂšles Sequence To Sequence dĂ©diĂ©s Ă  la transformation de sĂ©quences, ont permis d’important progrĂšs en NLP dans des tĂąches de traduction automatique ou de question-rĂ©ponse. C’est le cas des transformers [1], dont le fonctionnement repose sur le principe de self-attention, qui incite un modĂšle, lors de son entraĂźnement, Ă  mesurer les relations mutuelles entre les termes composant une sĂ©quence, par exemple une sĂ©quence de caractĂšres ou de mots. L’aspect sĂ©quentiel de la musique a suscitĂ© une variĂ©tĂ© d’initiatives consistant Ă  entraĂźner des transformers sur des donnĂ©es musicales symboliques (par exemple des sĂ©quences de notes issues de fichiers MIDI), qui ont permis d’important progrĂšs en gĂ©nĂ©ration, harmonisation et analyse automatique de musique [3].

Le principe d’apprentissage par transfert consiste Ă  entraĂźner un modĂšle pour une tĂąche cible, en partant d’un modĂšle entraĂźnĂ© en amont sur une tĂąche plus abstraite (phase dite de prĂ©-entraĂźnement), et pour laquelle on dispose d’un plus grand nombre de donnĂ©es. Par exemple, un modĂšle entraĂźnĂ© Ă  reconnaĂźtre des images de camion gagnera Ă  ĂȘtre entraĂźnĂ© en partant d’un modĂšle entraĂźnĂ© au prĂ©alable Ă  reconnaĂźtre des vĂ©hicules plutĂŽt qu’Ă  partir de zĂ©ro.

Le traitement de donnĂ©es sĂ©quentielles, par exemple pour l’entraĂźnement d’un modĂšle, pose la question de la dĂ©coupe des sĂ©quences en Ă©lĂ©ments atomiques (ou tokenization). En langage naturel par exemple, une phrase peut ĂȘtre vue comme un sĂ©quence de caractĂšres, une sĂ©quence de mots, de groupes de mots, ou toute segmentation intermĂ©diaire qui fait sens. La question de la dĂ©coupe se pose particuliĂšrement en musique, oĂč le contexte et les relations entre les diffĂ©rentes notes jouent un rĂŽle fondamental.

Objectifs

InspirĂ©s par le prĂ©-entraĂźnement de modĂšles Sequence To Sequence en NLP, ce projet consiste Ă  expĂ©rimenter diffĂ©rentes stratĂ©gies de dĂ©coupe des sĂ©quences de donnĂ©es musicales pour le prĂ©-entraĂźnement de modĂšles musicaux. Des tĂąches cibles en MIR (dĂ©tection de fin de phrase musicales ou encore dĂ©tection de tonalitĂ©) associĂ©es Ă  des corpus annotĂ©s permettront d’Ă©valuer la performance des modĂšles prĂ©-entraĂźnĂ©s.

Outre les diffĂ©rentes stratĂ©gies de dĂ©coupe, on pourra expĂ©rimenter diffĂ©rents corpus de fichiers musicaux pour le prĂ©-apprentissage : le corpus MAESTRO, issu d’enregistrements de performances, ainsi qu’un regroupement de fichiers fichiers MIDI issus de partitions musicales. Le recours comparatif Ă  ces deux corpus permettra d’Ă©valuer l’impact de l’interprĂ©tation musicale (prĂ©sente uniquement dans le corpus MAESTRO) sur la qualitĂ© du prĂ©-entraĂźnement.

Profil recherché

Master d’informatique, avec compĂ©tences en programmation et apprentissage automatique.

Débouchés

Des opportunitĂ©s de poursuite en thĂšse pourraient ĂȘtre envisagĂ©es sur ce sujet ou sur d’autres sujets proches en informatique musicale, que ce soit dans l’un des laboratoires des encadrants ou bien dans notre rĂ©seau de collaborateurs en France et Ă  l’Ă©tranger.

Références

  • Vaswani, Ashish, et al. “Attention is all you need.” Advances in neural information processing systems. 2017.
  • Huang, Cheng-Zhi Anna, et al. “Music transformer.”
  • Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.”
  • Wang, Ziyu, and Gus Xia. “Musebert: pre-training of music representation for music understanding and controllable generation.”
  • Fradet, Nathan, et al. “MidiTok: A Python Package for MIDI File Tokenization.”

Stage L3/M1/M2: Un rĂ©seau social pour l’annotation de musique

L’Ă©quipe Algomus dĂ©veloppe Dezrann, une application web fullstack open-source (TypeScript, Vue.js, node.js) pour lire et annoter des partitions musicales. L’annotation se fait en ajoutant des Ă©tiquettes (labels), Ă©lĂ©ments graphiques sur la partition, pour dĂ©crire par exemple la structure, l’harmonie, le rythme, la mĂ©lodie ou la texture. Si Soundcloud permet d’Ă©couter un morceau de musique et d’y laisser ses impressions, Dezrann donne accĂšs avec bien plus de finesse au contenu musical, forme d’onde ou partition.

Dezrann est utilisĂ©e d’un cĂŽtĂ© par des classes de collĂšges pour dĂ©couvrir activement la musique, et de l’autre, par des musicologues annotant des corpus. C’est un vĂ©ritable service permettant d’accĂ©der Ă  plusieurs centaines de piĂšces musicales. Certaines de ces piĂšces ne sont accessibles que par des utilisteurs possĂ©dant un compte. Ce projet a donc pour objectif de faciliter la communication entre les diffĂ©rents utilisateurs pour faire de l’application un vĂ©ritable espace collaboratif d’analyse musicale, oĂč chacun·e peut proposer et partager une analyse.

Dans un cadre de dĂ©veloppement agile (conception, tests, intĂ©gration continue, documentation), le ou la stagiaire travaillera ainsi sur la conception, l’implĂ©mentation et le test de l’espace de travail et de gestion des piĂšces et d’analyses d’un utilisateur, pour permettre notamment:

  • le partage de l’analyse Ă  un ou plusieurs collaborateurs, ou bien au puvlic, en lecture voire en Ă©criture
  • la proposition d’une nouvelle version d’une analyse existante
  • la modification l’analyse d’un collaborateur
  • la publication d’une analyse

Le ou la stagiaire sera aussi en contact avec nos utilisateurs, français et Ă©trangers, notamment avec les classes du secondaire de la rĂ©gion utilisant Dezrann. Elle ou il participera enfin aux projets de mĂ©diation montĂ©s par l’Ă©quipe.

2021 (archive)

PhD positions, 2021-24

Médiation scientifique, 2021-2022

Stages de recherche 2021 en informatique musicale