Annonce

Les commentaires sont clos.

Stage M2:Détection de l’empathie à travers la reconnaissance des expressions faciales avec intégration d’explicabilité

8 Novembre 2024


Catégorie : Stagiaire


Cette recherche vise à approfondir la compréhension de l’empathie à travers l’analyse des expressions faciales, en renforçant la transparence grâce aux techniques d’explicabilité. S’appuyant sur les dernières avancées en vision par ordinateur, apprentissage automatique et IA explicable (XAI), le projet a pour objectif de développer un système robuste capable de détecter, quantifier et expliquer les réponses empathiques dans des environnements immersifs.

Le projet se concentrera sur le développement d’un système d’analyse d’empathie fondé sur des techniques de vision par ordinateur et de machine learning, intégrant des méthodes d’explicabilité. Les modèles mis en œuvre seront capables de fournir des justifications transparentes pour les réponses empathiques détectées, permettant une meilleure interprétation des émotions exprimées dans des contextes immersifs.

References :

BENTOUMI, Mohamed, DAOUD, Mohamed, BENAOUALI, Mohamed, et al. Improvement of emotion recognition from facial images using deep learning and early stopping cross validation. Multimedia Tools and applications, 2022, vol. 81, no 21, p. 29887-29917.

DEBNATH, Tanoy, REZA, Md Mahfuz, RAHMAN, Anichur, et al. Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity. Scientific Reports, 2022, vol. 12, no 1, p. 6991.

Mathur, Leena, et al. "Modeling user empathy elicited by a robot storyteller." 2021 9th International Conference on Affective Computing and Intelligent Interaction (ACII). IEEE, 2021

J. Goto, Y. Nakata, K. Abe, Y. Ishii and T. Yamashita, "Learning Intra-class Multimodal Distributions with Orthonormal Matrices," 2024 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA, 2024, pp. 1859-1868, doi: 10.1109/WACV57701.2024.00188.

Guikun Chen, Xia Li, Yi Yang, and Wenguan Wang. Neural clustering based visual representation learning. arXiv, 2024.

Wenguan Wang, Cheng Han, Tianfei Zhou, and Dongfang Liu. Visual recognition with deep nearest centroids. arXiv, 2022.

Profil recherché

Une ou plusieurs :

Maîtrise des bases de l’apprentissage automatique et de l’apprentissage profond

Maîtrise des concepts de base de vision par ordinateur

Programmation en C++/Python et utilisation de librairies d’apprentissage : tensorflow, keras, pytorch

Apprentissage automatique et XAI (explicabilité de l’intelligence artificielle) et/ou expérience avec des techniques d’explicabilité telles que LIME et SHAP

Informations sur le stage

Stage de 6 mois avec date de début entre fevrier 2025

Localisation: Laboratoire Heudiasyc à l’UTC Compiègne

Superviseurs: Insaf Setitra (UTC), Domitile Lourdeaux (UTC)

Les candidatures doivent être envoyées à insaf.setitra@hds.utc.fr et domitile.lourdeaux@hds.utc.fr. Elles comprendront CV détaillé, relevés de notes, lettre de motivation.