Stage Master 2 / Ingénieur – 2026
Mots-clés : traitement d’images, deep learning, détection, classification
Contexte et Objectifs
Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques.
Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité. L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité. Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire.
Programme de travail
- Etude bibliographique : d’abord balayer rapidement le domaine du traitement d’image pour la télédétection dans le contexte des risques naturels. Puis s’intéresser aux travaux récents qui exploitent les images GSV pour extraire des informations sur les bâtiments à partir de leurs façades.
- Prise en main des outils et frameworks de deep learning : explorer et expérimenter dans ce cadre de développement appliqué ici à la détection des façades et à l’extraction de leurs caractéristiques à l’aide de modèles de deep learning (PyTorch, TensorFlow, etc.).
- Proposition d’architectures d’apprentissage profond et implémentation de modèles pour détecter les façades et extraire des caractéristiques pertinentes pour calculer ensuite une vulnérabilité : position des portes et fenêtres, présence d’un garage, période de construction, usage du bâtiment, etc …expérimentation sur une base d’apprentissage réduite d’images de façades fournies par le doctorant.
- Mise en place d’un pipeline complet à plus grande échelle et produisant des résultats sous forme de base de données structurée avec développement d’un environnement de travail structuré (bibliothèques, scripts, notebooks) facilitant la reproductibilité des expériences.
- Rédaction du rapport de stage.
Modalités pratiques
- Le stage se déroulera au Laboratoire PRISME de l’université d’Orléans au sein de l’axe Images Vision installé à Polytech Orléans (site Galilée)
- La durée de stage est de 4 à 7 mois suivant date de début de stage ( ≥ février 2026).
- Ce stage donne lieu à la rémunération de 600 € / mois.
- Le stagiaire sera installé dans les locaux du laboratoire où il sera doté d’un poste informatique scientifique ainsi que d’un accès au centre de calcul CaSciModOT.
Profil recherché
- BAC+5 (Master 2/ école ingénieur) en informatique
- Bonnes connaissances en traitement d’images
- Maîtrise de la programmation Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond
- Bon niveau d’anglais.
- Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées.
Candidature
- Date limite d’envoi : 15 déc 2025
- Fichier unique pdf contenant CV, lettre de motivation, relevés de notes, et programme du Master.
Contacts
yves.lucas@univ-orleans.fr, youssef.fouzai@etu.univ-orleans.fr, c.gracianne@brgm.fr
Bibliographie
[1] J. Kang, M. Körner, Y. Wang, H. Taubenböck, and X. X. Zhu, “Building instance classification using street view images,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 145, pp. 44–59, Nov. 2018, doi: 10.1016/j.isprsjprs.2018.02.006.
[2] Y. Ogawa, C. Zhao, T. Oki, S. Chen, and Y. Sekimoto, “Deep Learning Approach for Classifying the Built Year and Structure of Individual Buildings by Automatically Linking Street View Images and GIS Building Data,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 16, pp. 1740–1755, 2023, doi: 10.1109/JSTARS.2023.3237509.[3] A. Al-Habashna, “Building Height Estimation using Street-View Images, Deep-Learning, Contour Processing, and Geospatial Data,” in 2021 18th Conference on Robots and Vision (CRV), May 2021, pp. 103–110. doi: 10.1109/CRV52889.2021.00022.
[4] P. Aravena Pelizari, C. Geiß, P. Aguirre, H. Santa María, Y. Merino Peña, and H. Taubenböck, “Automated building characterization for seismic risk assessment using street-level imagery and deep learning,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 180, pp. 370–386, Oct. 2021, doi: 10.1016/j.isprsjprs.2021.07.004.
[5] Y. Li, Y. Chen, A. Rajabifard, K. Khoshelham, and M. Aleksandrov, “Estimating Building Age from Google Street View Images Using Deep Learning (Short Paper),” LIPIcs, Volume 114, GIScience 2018, vol. 114, p. 40:1-40:7, 2018, doi: 10.4230/LIPICS.GISCIENCE.2018.40.
