Defense date : 03/04/2026
Associated team :
Waves and ImagingSound
Développement de l'Audiosphère : une plateforme audio spatiale pour tester la catégorisation auditive naturaliste chez les animaux non-humains
La thèse dépendra administrativement de l’université de Lyon et est en partenariat entre
- le CRNL (avec Pierre Le Merre à Lyon - pour la partie neuroscience) et
- le LMA (avec Renaud Côte, Sandrine Rakotonarivo et Vincent Roggerone pour la partie acoustique).
Description
Ce projet de thèse s'inscrit dans le cadre du projet Audiosphère, qui vise à établir un nouveau cadre expérimental et théorique pour comprendre comment les animaux forment et utilisent des catégories mentales auditives. Le projet étudie particulièrement les circuits cérébraux sous-jacents à la liaison entre les caractéristiques acoustiques abstraites et les actions comportementales, à travers trois phases : la détermination des catégories mentales auditives chez la souris, la caractérisation des circuits neuronaux de catégorisation, et le déploiement de ces catégories pour optimiser la flexibilité comportementale.
Cette thèse contribue à la première phase en développant les outils expérimentaux nécessaires aux études de catégorisation mentale auditive. L'objectif principal est de concevoir et réaliser un dispositif innovant de spatialisation sonore permettant de synthétiser des sources sonores, fixes ou mobiles, positionnées dans un demi-espace face à une souris maintenue en position d'écoute fixe.
Missions principales
1. Conception de l'antenne audio spatiale : Développer une antenne basée sur une technique de spatialisation par synthèse VBAP (Vector Base Amplitude Panning), adaptée aux contraintes de l'expérimentation sur petit animal. Cette technologie permettra de créer des sources sonores virtuelles précisément positionnées dans l'espace.
2. Réalisation du dispositif expérimental : Concevoir et assembler l'ensemble du système comprenant la structure mécanique, les chaînes audio multicanaux et le système de pilotage. Les chaînes audio seront optimisées pour fonctionner dans la gamme 1-20 kHz et, si possible, conçues pour étendre cette gamme jusqu'à 40 kHz. Le système sera transportable pour être installé ultérieurement dans un laboratoire de neurosciences.
3. Développement d'un système de caractérisation acoustique : Concevoir et réaliser un dispositif permettant de mesurer et valider les performances acoustiques de l'antenne. Ce système pourra initialement reposer sur un microphone mobile confronté à des simulations numériques, avec la perspective d'évoluer vers une antenne fixe de microphones pour une caractérisation spatiale complète.
4. Étude de faisabilité : Explorer les possibilités de restitution d'un paysage sonore tridimensionnel en utilisant des techniques avancées alternatives telles que la synthèse de front d'onde (WFS), l'Ambisonique d'ordre élevé (HOA) ou le beam forming. Ces techniques pourront être testées en comparaison avec le VBAP, soit théoriquement soit expérimentalement.
5. Mise en uvre expérimentale : Installer, tester et exploiter l'antenne pour réaliser des études de catégorisation mentale auditive chez la souris. Le système de stimulation audio devra être synchronisé avec un dispositif d'enregistrement de l'activité neuronale à haute densité spatiale (sondes Neuropixels). Cette phase impliquera l'analyse de signaux acoustiques et neuronaux.
Déroulement et encadrement
Le travail doctoral se déroulera en deux phases géographiques distinctes. La première partie, consacrée à la conception, la réalisation et la caractérisation du dispositif, se déroulera au Laboratoire de Mécanique et d'Acoustique (LMA) à Marseille, où le candidat bénéficiera de l'encadrement de Renaud Côte, avec l'appui de Vincent Roggerone et Sandrine Rakotonarivo. L'utilisation de l'antenne avec des sujets vivants se fera au Centre de Recherche en Neurosciences de Lyon (CRNL) durant la dernière année de thèse, sous l'encadrement de Pierre Le Merre et en collaboration avec l'équipe FORGETTING, dirigée par Audrey Hay et Gaël Malleret.
Compétences requises
Nous recherchons un(e) candidat(e) titulaire d'un Master 2 ou diplôme d'ingénieur (ou équivalent) en acoustique, physique, ingénierie, traitement du signal ou dans un domaine connexe. Une formation solide en acoustique physique et/ou en instrumentation scientifique est indispensable. Compétences techniques requises : - Connaissances solides en acoustique fondamentale et appliquée - Maîtrise de la conception et de la réalisation de systèmes expérimentaux - Compétences en programmation (Python, MATLAB ou équivalent) - Expérience en traitement du signal - Capacités en simulation numérique et modélisation Compétences appréciées : - Connaissance des techniques de spatialisation sonore (VBAP, Ambisonique, WFS) - Expérience en électronique et/ou en systèmes audio multicanaux - Familiarité avec les méthodes d'apprentissage automatique - Connaissances en neurosciences ou intérêt marqué pour ce domaine Qualités personnelles : Le projet étant hautement pluridisciplinaire et se déroulant sur deux sites géographiques, nous recherchons un(e) candidat(e) faisant preuve d'autonomie, de rigueur scientifique, de créativité technique et de fortes capacités d'adaptation. L'aptitude à travailler efficacement au sein d'équipes interdisciplinaires est essentielle. Une excellente capacité de communication, tant à l'écrit qu'à l'oral, en français et en anglais, est attendue. La mobilité géographique entre Marseille et Lyon est un prérequis du projet. Le/la candidat(e) devra démontrer une forte motivation pour un projet alliant développements techniques innovants et recherche fondamentale en neurosciences, ainsi qu'une volonté d'acquérir des compétences dans des domaines variés (acoustique, instrumentation, neurosciences comportementales, analyse de données). Modalités de candidature : Les candidats intéressés sont invités à soumettre un dossier comprenant : CV détaillé, lettre de motivation exposant leur intérêt pour le projet et leurs compétences pertinentes, relevés de notes de Master, coordonnées de deux personnes de référence.
Bibliographie
Pour les techniques acoustiques:
1. Pulkki, V.: Virtual sound source positioning using vector base amplitude panning. J Audio Eng. Soc., 45(6) (1997), 456466
2. Roggerone, V., Vacher, J., Tarlao, C. & Guastavino, C. Auditory motion perception emerges from successive sound localizations integrated over time. Sci Rep 9, 16437 (2019).
3. Ahrens, J., Rabenstein, R. & Spors, S. The Theory of Wave Field Synthesis Revisited. in (Audio Engineering Society, 2008).
4. Daniel, J., Moreau, S. & Nicol, R. Further Investigations of High-Order Ambisonics and Wavefield Synthesis for Holophonic Sound Imaging. in (Audio Engineering Society, 2003).
5. Ziemer, T. Source Width in Music Production. Methods in Stereo, Ambisonics, and Wave Field Synthesis. in Studies in Musical Acoustics and Psychoacoustics (ed. Schneider, A.) 299340 (Springer International Publishing, Cham, 2017). doi:10.1007/978-3-319-47292-8_10
6. Frank, M., Zotter, F. & Sontacchi, A. Producing 3D Audio in Ambisonics. in (Audio Engineering Society, 2015).
7. Ahrens, J. & Spors, S. Wave field synthesis of moving virtual sound sources with complex radiation properties. The Journal of the Acoustical Society of America 130, 28072816 (2011).
Pour le volet Neurosciences:
8. Le Merre, P. et al. Reward-Based Learning Drives Rapid Sensory Signals in Medial Prefrontal Cortex and Dorsal Hippocampus Necessary for Goal-Directed Behavior. Neuron 97, 83-91.e5 (2018).
9. Le Merre, P., Ährlund-Richter, S. & Carlén, M. The mouse prefrontal cortex: Unity in diversity. Neuron 109, 19251944 (2021).
10. Le Merre, P. et al. A prefrontal cortex map based on single-neuron activity. Nat Neurosci 19 (2026) doi:10.1038/s41593-025-02190-z
11. Reinert, S., Hübener, M., Bonhoeffer, T. & Goltstein, P. M. Mouse prefrontal cortex represents learned rules for categorization. Nature 593, 411417 (2021).
Voir l'annonce sur le site web de l'Association Bernard Gregory (avec version en anglais)