Titre de la thèse :
Améliorer la reconnaissance des expressions faciales grâce à des techniques d’IA explicables
Directeur de thèse :
Domitile Lourdeaux, Laboratoire Heudiasyc (HEUristique et DIAgnostic des SYstèmes Complexes) UMR-CNRS 7253, Université de Technologie de Compiègne UTC
Co-directeur de thèse :
Insaf Setitra, Laboratoire Heudiasyc (HEUristique et DIAgnostic des SYstèmes Complexes) UMR-CNRS 7253, Université de Technologie de Compiègne UTC
Objet de la thèse :
La reconnaissance des expressions faciales (Facial Expression Recognition FER) est devenue un élément crucial dans divers domaines tels que la sécurité, la défense, la conduite autonome et l’interaction homme-machine. Les systèmes FER, souvent basés sur des modèles d’apprentissage profond comme les réseaux de neurones convolutifs (CNN), sont efficaces pour reconnaître les émotions à partir des expressions faciales (Johnson et al., 2024). Cependant, malgré leur grande précision, ces modèles fonctionnent généralement comme des systèmes « boîte noire », n’offrant aucune transparence dans la prise de décision. Ce manque d’interprétabilité constitue un obstacle majeur, notamment pour les applications critiques où la compréhension des décisions du modèle est essentielle. Cette thèse vise à répondre au besoin d’explicabilité en FER en intégrant des techniques d’IA explicable (XAI). La recherche explorera l’intégration de méthodes telles que SHAP (Shapley Additive Explanations) et LIME (Local Interpretable Model-Agnostic Explanations), ainsi que des architectures d’apprentissage profond avancées, afin d’améliorer l’interprétabilité et la robustesse des systèmes FER. En intégrant XAI dans FER, cette recherche vise à améliorer la transparence, la confiance et l’applicabilité dans le monde réel dans des domaines à enjeux élevés tels que la sécurité et la défense.
Descriptif (objectifs, aspects innovants) :
La thèse vise les objectifs suivants :
– Développement de modèles FER explicables : développer des modèles FER explicables en intégrant des techniques XAI telles que SHAP, LIME et GradCAM dans des systèmes FER basés sur l’apprentissage profond afin de fournir des explications claires et interprétables pour les classifications d’émotions.
Plusieurs sous-objectifs sont visés :
– Amélioration de la précision et de la généralisation de la classification : Mise en œuvre d’algorithmes de clustering et d’approches non paramétriques (par exemple, Deep Nearest Centroid) pour améliorer les performances de classification des émotions et la généralisation des modèles dans divers domaines.
– Utilisation de l’explicabilité pour l’amélioration des modèles : Exploitation de l’XAI pour analyser les erreurs de classification et affiner le modèle de manière itérative. En cas d’échec, des méthodes d’explicabilité seront utilisées pour analyser les causes de l’erreur de classification et guider le réapprentissage grâce à des représentations de données améliorées.
– Test du système FER dans plusieurs domaines : Évaluation de modèles FER explicables dans des applications réelles, afin de garantir leur robustesse et leur précision dans divers scénarios.
– Amélioration de la transparence du modèle : Développement d’interfaces interactives permettant aux utilisateurs d’explorer et de comprendre comment les caractéristiques faciales contribuent aux prédictions du modèle, renforçant ainsi leur confiance et leur engagement dans les applications sensibles.
– Optimisation pour un déploiement en temps réel : Garantir le bon fonctionnement du système FER dans des environnements temps réel, où une détection rapide et précise des émotions est essentielle.
Résultats attendus :
– Modèles FER explicables : L’intégration de techniques XAI permettra de créer des modèles FER non seulement précis, mais aussi fournissant des explications claires et interprétables de leurs prédictions. Ces modèles aideront les utilisateurs à comprendre le raisonnement derrière la classification.
– Précision et robustesse améliorées : L’utilisation de modèles de clustering et non paramétriques améliorera la précision et la robustesse du système FER, le rendant plus fiable dans divers scénarios réels.
– Déploiement en temps réel : Le système FER sera optimisé pour une utilisation en temps réel.
– Confiance des utilisateurs : En fournissant des explications interactives, cette recherche vise à renforcer la confiance des utilisateurs. La capacité à comprendre comment le modèle parvient à ses décisions sera cruciale pour les applications où les utilisateurs doivent s’appuyer sur le système pour des tâches à enjeux élevés.
Application(s) défense potentielle(s) :
Dans les applications militaires et de défense, maintenir la concentration et la conscience situationnelle des opérateurs est crucial, notamment dans les environnements à haute pression où ils sont exposés à de nombreux appareils connectés pouvant entraîner une surcharge cognitive. Cette recherche peut être appliquée à l’utilisation de FER combiné à l’XAI pour la surveillance et d’amélioration de la concentration cognitive des opérateurs en détectant les niveaux de distraction grâce aux expressions faciales.
– Collaboration homme-machine améliorée : Les modèles FER explicables peuvent renforcer la confiance dans les systèmes de défense assistés par l’IA en fournissant un retour d’information transparent sur l’état mental des soldats interagissant avec les systèmes automatisés, garantissant ainsi que les décisions prises par les systèmes d’IA sont en adéquation avec les conditions humaines.
– Applications d’entraînement et de simulation : Le système pourrait être intégré aux programmes d’entraînement militaire pour évaluer les réponses émotionnelles des stagiaires à divers scénarios, contribuant ainsi à affiner les protocoles d’entraînement et à améliorer la résilience au stress.
– Analyse des erreurs et perfectionnement des modèles : Si le système classe mal les états émotionnels, les techniques d’explicabilité permettront d’identifier les sources d’erreur, ce qui entraînera des améliorations itératives et une meilleure adaptation du modèle aux conditions spécifiques de la défense.
– Surveillance de la charge cognitive en temps réel : Le système FER pourra évaluer l’état émotionnel et cognitif des opérateurs en temps réel, fournissant des informations sur les niveaux de stress, de fatigue et de distraction causés par une interaction excessive avec les appareils connectés.
– Systèmes d’alerte et d’intervention adaptatifs : Grâce à des méthodes d’explicabilité, le système identifiera les schémas conduisant à une surcharge cognitive et alertera les centres de commandement ou les systèmes autonomes afin de suggérer des interventions adaptatives. Par exemple, si un soldat présente des signes de stress ou de distraction, le système pourrait déclencher des alertes ou ajuster le flux d’informations pour réduire la tension cognitive.
– Aide à la décision critique : Dans les opérations de défense, où la conscience situationnelle est essentielle, le système pourrait aider les commandants à évaluer l’état mental des troupes et à prendre des décisions éclairées concernant l’affectation des tâches, les rotations ou les stratégies d’intervention.
En intégrant l’explicabilité aux modèles FER pour les applications de défense, cette recherche vise à améliorer la prise de décision, les performances des soldats et le succès des missions en maintenant la clarté cognitive dans des environnements à enjeux élevés.
Mots clés :
Reconnaissance des expressions faciales, IA explicable, XAI, apprentissage profond, réseaux de neurones convolutifs, SHAP, LIME, GradCAM, charge cognitive, applications de défense, interaction homme-machine, systèmes autonomes
References:
(Johnson et al., 2024) D. S. Johnson, O. Hakobyan, J. Paletschek and H. Drimalla,
« Explainable AI for Audio and Visual Affective Computing: A Scoping Review, »
in IEEE Transactions on Affective Computing, doi:
10.1109/TAFFC.2024.3505269.
(Lundberg et al., 2017) Lundberg, Scott M. and Su-In Lee. “A Unified Approach
to Interpreting Model Predictions.” Neural Information Processing Systems
(2017).
(Ribeiro et al., 2016 ) Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). « Why
should I trust you? » Explaining the predictions of any classifier. Proceedings of
the 22nd ACM SIGKDD International Conference on Knowledge Discovery and
Data Mining, 1135–1144.
Date de début de la thèse :
Octobre 2025
Lieu de travail de thèse :
Université de technologie de Compiègne
Laboratoire Heudiasyc UMR-CNRS 7253
Conditions particulières :
Le(la) candidat(e) doit être de nationalité française ou européenne
Cadidature :
Pour candidater, merci d’envoyer un CV, une lettre de motivation, des copies des relevés de notes et diplômes (de préférence accompagnés des classements), ainsi qu’éventuellement une lettre de recommandation ou contact référant.
Email :
Domitile Lourdeaux, Insaf Setitra
prenom (point) nom (at) hds (point) utc (point) fr
Seules les candidatures complètes seront examinées. Tous les documents doivent être rédigés en français ou en anglais.