50 years of KPN – Call for participation
The famous paper of Gilles Kahn on KPN, entitled « The semantics of a simple language...
13 Novembre 2024
Catégorie : Stagiaire
Ce stage se déroule dans le cadre du projet ANR AdaV qui a pour but d'améliorer la détection d'objects dans des conditions de visibilité défavorables. Ce stage vise à développer une méthode permettant d’estimer et de modéliser les incertitudes associées aux données multimodales collectées en conditions de visibilité dégradée. L’objectif est de quantifier ces incertitudes et d’améliorer la robustesse de la fusion de données en vue d’applications critiques (navigation autonome, détection d'obstacles, etc.).
Contexte
Les systèmes de perception multimodale (caméras, radars, lidars, capteurs infrarouges) sont de plus en plus utilisés dans les applications de mobilité autonome (véhicules, drones) et de surveillance, en particulier pour surmonter les situations de visibilité dégradée (brouillard, pluie, faible luminosité). Dans ces conditions, les données provenant des différents capteurs peuvent être sujettes à des incertitudes importantes qui impactent la fiabilité des décisions prises par les systèmes automatisés. Pour cela, ce stage se tient dans le cadre du projet ANR AdaV (2025-2028) qui a pour but d’étudier les possibilités d’extraction de caractéristiques environnementales pour l’amélioration de la fusion adaptative des modalités pour la détection d’objets multiples.
Objectifs du stage
Ce stage vise à développer une méthode permettant d’estimer et de modéliser les incertitudes associées aux données multimodales collectées en conditions de visibilité dégradée. L’objectif est de quantifier ces incertitudes et d’améliorer la robustesse de la fusion de données en vue d’applications critiques (navigation autonome, détection
d’obstacles, etc.).
Dans un second temps, l’objectif est d’appliquer une approche de perception basée sur une fusion adaptative d’information provenant d’une caméra polarimétrique et d’une caméra RGB ainsi que de données provenant d’un LiDAR . Une partie du stage portera également sur la réalisation d’expérimentations en collaboration avec Lucas Deregnaucourt, doctorant au LITIS, pour la détection d’objets dynamiques dans le cadre de conduite en situation de visibilité réduite [1]. Le LITIS dispose d’une plateforme robotique, PERMIS, qui comprend différents robots ainsi qu’un dispositif permettant de simuler une dégradation de visibilité par la génération d’un brouillard artificiel. L’objectif du stagiaire sera de mener à bien l’entraînement de réseaux de neurones évidentiel et d’appliquer un modèle à l’un des robots en utilisant l’environnement ROS.
[1] L. Deregnaucourt, A. Lerchervy, H. Laghmara, and S. Ainouz, “An evidential deep network based on dempster-shafer theory for large dataset,” Advances and Applications of DSmT for Information Fusion, p. 907, 2023.
Mots clés:
Capteurs non-conventionnels, fusion multi-capteurs, analyse de scènes routières, physical attention learning, incertitude, traitement de signal et des images, deep learning.
Profil recherché
— Niveau Master 2 ou ingénieur (ou équivalent) en informatique ou mathématiques appliquées ou science
des données (ou disciplines similaires)
— Bonnes compétences en Machine Learning et vision par ordinateur
— Bonnes compétences en programmation par Python
— Un intérêt pour la robotique et la mobilité intelligente, ainsi que l’utilisation de l’environnement ROS.
Candidature
Merci d’envoyer votre CV et relevés de notes aux encadrants :
— Hind Laghmara, LITIS – EA 4108, hind.laghmara@insa-rouen.fr
— Alexis Lechervy, GREYC - UMR CNRS 6072 alexis.lechervy@unicaen.fr
— Paul Honeine, LITIS – EA 4108 paul.honeine@univ-rouen.fr