New paper: « Audio-Visual Speaker Diarization in the Framework of Multi-User Human-Robot Interaction. »

Timothée Dhaussy, Bassam Jabaian, Fabrice Lefèvre, Radu Horaud. Audio-Visual Speaker Diarization in the Framework of Multi-User Human-Robot Interaction. ICASSP 2023 – IEEE International Conference on Acoustics, Speech and Signal Processing, IEEE Signal Processing Society, Jun 2023, Ixia-Ialyssos, Greece. pp.1-5, ⟨10.1109/ICASSP49357.2023.10096295⟩. ⟨hal-04140076⟩ DOI Ref HAL

Lire la suite

New paper (in French): « muDialBot, vers l’interaction humain-robot multimodale pro-active ».

Fabrice Lefèvre, Timothée Dhaussy, Bassam Jabaian, Ahmed Njifenjou, Virgile Sucal. muDialBot, vers l’interaction humain-robot multimodale pro-active. 18e Conférence en Recherche d’Information et Applications, 16e Rencontres Jeunes Chercheurs en RI, 30e Conférence sur le Traitement Automatique des Langues Naturelles, 25e Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues, 2023, Paris, France. pp.26-29. ⟨hal-04208590⟩ […]

Lire la suite

New paper: « Language Portability Strategies for Open-domain Dialogue with Pre-trained Language Models from High to Low Resource Languages ».

Ahmed Njifenjou, Virgile Sucal, Bassam Jabaian, Fabrice Lefèvre. Language Portability Strategies for Open-domain Dialogue with Pre-trained Language Models from High to Low Resource Languages. The 13th International Workshop on Spoken Dialogue Systems Technology (IWSDS’23), Feb 2023, Los Angeles, United States. ⟨hal-04631021⟩ DOI Ref HAL

Lire la suite

PhD Position in computer vision @LabHC, 2021

PhD position in context-aware affective human behaviour analysis @Laboratoire Hubert Curien, UMR CNRS 5516, Université Jean Monnet, Saint-Etienne Candidats motivés pour une thèse en IA, vision par ordinateur (computer vision), apprentissage profond (deep learning) L’objectif principal de ce doctorat est de se concentrer sur l’analyse du comportement d’une personne en prenant en compte son environnement, […]

Lire la suite