École d’Été Peyresq 2025
Thème Quantification d’incertitude Le GRETSI et le GdR IASIS organisent depuis 2006 une École d’Été...
3 December 2024
Catégorie : Stagiaire
Offre de stage M2 au Laboratoire d'Informatique Gaspard Monge conjointement avec le laboratoire ESYCOM pour le Développement et validation des algorithmes de perception et contrôle pour véhicules autonomes.
Durée : 4-6mois
Localisation : Le candidat/la candidate sera accueilli(e) à l'ESIEE Paris, école membre de l'Université Gustave Eiffel et associé(e) aux recherches du Laboratoire d'informatique Gaspard Monge.
Gratification habituelle
Merci d’envoyer votre candidature (CV, lettre de motivation, relevé de notes) à eva.dokladalova@esiee.fr
Contexte :
Dans le cadre des recherches sur l'urbanisme durable menées à l'Univ GUstave Eiffel par le laboratoires ESYCOM et LIGM, nous nous intéressons à l’amélioration des systèmes de perception et de contrôle pour les véhicules autonomes. Ces véhicules sont équipés de capteurs avancés tels que le LiDAR, des caméras, des modules GNSS/GPS, des accéléromètres, d'une centrale inertielle (IMU)..., permettant une perception fine de l’environnement et une navigation autonome dans des environnements urbains complexes.
L'objectif du stage est de développer, tester et valider des algorithmes de perception et de contrôle à partir de ces équipements, en utilisant des environnements de simulation et des plateformes robotiques disponibles. Les outils à disposition incluent des simulateurs 3D (Carla, Gazebo, Webots,...), le middleware ROS2 ainsi que des cartes de calcul embarquées pour l’implémentation en conditions réelles.
Objectifs du stage :
L’objectif principal est de stabiliser et d'optimiser l’environnement de développement pour les algorithmes de perception et de contrôle, puis de valider ces algorithmes en simulation et sur des plateformes robotiques réelles. Le/la stagiaire participera à l'intégration, l'évaluation et l'amélioration des stratégies de perception et des fonctions d’aide à la conduite déjà existantes.
Missions principales :
Mise en place de l’environnement de développement et de simulation :
Implémentation des algorithmes de perception basés sur les données issues du LiDAR, des caméras, du GPS/GNSS et des accéléromètres
Optimisation des stratégies de fusion de capteurs pour améliorer la compréhension de l'environnement et la localisation du véhicule, les approches par apprentissage par renforcement sont à privilégier.
Validation en simulation et sur plateformes robotiques.
Compétences requises :
Connaissances en robotique, traitement de signal et systèmes embarqués.
Compétences en programmation (Python, C++) et utilisation du middleware ROS2.
Expérience avec les simulateurs de véhicules autonomes (Carla, Gazebo, Webots, ...) serait appréciée.