50 years of KPN – Call for participation
The famous paper of Gilles Kahn on KPN, entitled « The semantics of a simple language...
8 Novembre 2024
Catégorie : Stagiaire
Cette recherche vise à approfondir la compréhension de l’empathie à travers l’analyse des expressions faciales, en renforçant la transparence grâce aux techniques d’explicabilité. S’appuyant sur les dernières avancées en vision par ordinateur, apprentissage automatique et IA explicable (XAI), le projet a pour objectif de développer un système robuste capable de détecter, quantifier et expliquer les réponses empathiques dans des environnements immersifs.
Le projet se concentrera sur le développement d’un système d’analyse d’empathie fondé sur des techniques de vision par ordinateur et de machine learning, intégrant des méthodes d’explicabilité. Les modèles mis en œuvre seront capables de fournir des justifications transparentes pour les réponses empathiques détectées, permettant une meilleure interprétation des émotions exprimées dans des contextes immersifs.
References :
BENTOUMI, Mohamed, DAOUD, Mohamed, BENAOUALI, Mohamed, et al. Improvement of emotion recognition from facial images using deep learning and early stopping cross validation. Multimedia Tools and applications, 2022, vol. 81, no 21, p. 29887-29917.
DEBNATH, Tanoy, REZA, Md Mahfuz, RAHMAN, Anichur, et al. Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity. Scientific Reports, 2022, vol. 12, no 1, p. 6991.
Mathur, Leena, et al. "Modeling user empathy elicited by a robot storyteller." 2021 9th International Conference on Affective Computing and Intelligent Interaction (ACII). IEEE, 2021
J. Goto, Y. Nakata, K. Abe, Y. Ishii and T. Yamashita, "Learning Intra-class Multimodal Distributions with Orthonormal Matrices," 2024 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), Waikoloa, HI, USA, 2024, pp. 1859-1868, doi: 10.1109/WACV57701.2024.00188.
Guikun Chen, Xia Li, Yi Yang, and Wenguan Wang. Neural clustering based visual representation learning. arXiv, 2024.
Wenguan Wang, Cheng Han, Tianfei Zhou, and Dongfang Liu. Visual recognition with deep nearest centroids. arXiv, 2022.
Profil recherché
Une ou plusieurs :
Maîtrise des bases de l’apprentissage automatique et de l’apprentissage profond
Maîtrise des concepts de base de vision par ordinateur
Programmation en C++/Python et utilisation de librairies d’apprentissage : tensorflow, keras, pytorch
Apprentissage automatique et XAI (explicabilité de l’intelligence artificielle) et/ou expérience avec des techniques d’explicabilité telles que LIME et SHAP
Informations sur le stage
Stage de 6 mois avec date de début entre fevrier 2025
Localisation: Laboratoire Heudiasyc à l’UTC Compiègne
Superviseurs: Insaf Setitra (UTC), Domitile Lourdeaux (UTC)
Les candidatures doivent être envoyées à insaf.setitra@hds.utc.fr et domitile.lourdeaux@hds.utc.fr. Elles comprendront CV détaillé, relevés de notes, lettre de motivation.