Annonce

Les commentaires sont clos.

STAGE M2 - Imagerie Aérospatiale

20 December 2023


Catégorie : Stagiaire


En télédétection, la production intensive de données satellitaires et aériennes multi capteurs et de résolution spatiale croissante (visible, IR, hyperspectral, lidar, radar, topographie, librairies spectrales de matériaux …) donne accès à une observation très fine de la terre qui pourrait notamment être exploitée dans le cadre de la gestion et la prévention des catastrophes naturelles. En particulier, ces données sont particulièrement intéressantes pour la cartographie sémantique des éléments exposés, qui correspondent aux éléments d'un territoire qui peuvent être affectés par une catastrophe naturelle. Connaître leurs caractéristiques, comme leur géométrie, leur localisation, leur âge etc. est un prérequis indispensable à toute étude d'analyse de risques. Dans un contexte de changement climatique, où les catastrophes naturelles se multiplient, ces données représentent donc un enjeu majeur pour l’actualisation des scénarios de risques utilisés pour protéger un territoire.

Pour autant, l’exploitation des données satellitaires et aériennes représente un véritable challenge à cause de leur volumétrie et de leur forte hétérogénéité. Les techniques de machine learning, qui ont déjà révolutionné le domaine de la Computer Vision, semblent prometteuses pour lever ces contraintes, mais doivent encore être adaptées à la problématique spécifique de l’estimation de la vulnérabilité d’un territoire. Dans ce contexte, l’objectif de ce stage est de préparer l’extraction automatique des caractéristiques des éléments exposés à partir des images aérospatiales.

Il s’agira plus précisément de répertorier les sources de données exploitables, de mettre en place un pipeline de collecte et de traitement de ces données gérant de façon automatique le flot entrant de nouvelles données, puis d’expérimenter l’extraction de quelques caractéristiques pertinentes à partir de modèles d’apprentissage profond issus de l’état de l’art en segmentation sémantique.

Ces travaux, proposés par le laboratoire PRISME de l'Université d'Orléans et le BRGM, s’inscrivent dans le cadre du projet Région Centre Val de Loire CERES - Cartographie et caractérisation des éléments exposés de la région CVL à partir d'images satellites – qui vise à développer la connaissance des éléments exposés de la Région Centre Val de Loire pour la mettre à disposition de l'ensemble des acteurs socio-économiques régionaux impliqués dans la gestion des risques induits par les catastrophes naturelles.

 

Programme de travail

- Sources de données : répertorier les sources de données et d’images disponibles pour la cartographie et leurs modalités d’accès et mettre en place les fonctionnalités nécessaires à l’intégration automatique de nouvelles données dès leur parution.

- Caractérisation des éléments exposés : identifier les caractéristiques spatiales, géométriques, spectrales, documentaires ... d’intérêt, exploitables dans les différentes sources de données et pertinentes pour la prévention des risques naturels.

- Traitement des données : évaluer les performances de différentes solutions de calcul en ligne ou locales et expérimenter quelques modèles deep learning avancés de l’état de l’art pour l’extraction de caractéristiques des éléments exposés aux aléas climatiques.

- Rédaction du mémoire de Master 2

 

Profil recherché

- étudiant(e) en Master 2 Recherche à dominante informatique

- Compétences indispensables :

- traitement des images (librairie OpenCV) et analyse de données

- ingénierie informatique pour le déploiement applicatif des modèlesdeep learning (librairies Python Pytorch, Keras, TensorFlow…)

- intérêt pour le domaine de l’imagerie satellitaire apprécié

- bonne pratique de l’anglais scientifique indispensable

- autonomie, rigueur scientifique et forte motivation pour le sujet

 

Modalités pratiques

Durée du stage : 6 mois max (avril-sept 2024)

Gratification de stage M2

Lieu du stage : BRGM - 3 avenue Claude Guillemin, 45100 Orléans – Bureau et poste de travail informatique.

NB : plusieurs résidences universitaires du campus de la Source à proximité du BRGM. Accès au restaurant BRGM.

 

Contacts

Yves LUCAS – Axe Images Vision - Laboratoire PRISME Université d’Orléans

yves.lucas@univ-orleans.fr

 

Cécile GRACIANNE – Département Risques Naturels et Prévention – BRGM Orléans

c.gracianne@brgm.fr

 

Envoyer par mail un CV détaillé + lettre de motivation + notes déjà obtenues en Master dans un document pdf unique.

 

Bibliographie

Le Cozannet, G., Kervyn, M., Russo, S., Ifejika Speranza, C., Ferrier, P., Foumelis, M., Lopez, T., Modaressi, H., 2020. Space-Based Earth Observations for Disaster Risk Management. Surv. Geophys. 41, 1209–1235. https://doi.org/10.1007/s10712-020-09586-5

Yuri Boykov, Fatih Porikli, Antonio Plaza, Nasser Kehtarnavaz, and Demetri Terzopoulos

Image Segmentation Using Deep Learning: A Survey Shervin Minaee, arXiv:2001.05566v4 [cs.CV] 10 Apr 2020

Prakash, N., Manconi, A., Loew, S., 2020. Mapping Landslides on EO Data: Performance of Deep Learning Models vs. Traditional Machine Learning Models. Remote Sens. 12, 346. https://doi.org/10.3390/rs12030346

Yang, H., Yu, B., Luo, J., Chen, F., 2019. Semantic segmentation of high spatial resolution images with deep neural networks. GIScience Remote Sens. 56, 749–768. https://doi.org/10.1080/15481603.2018.1564499

Jia Song Shaohua Gao, Yunqiang Zhu & Chenyan Ma A survey of remote sensing image classification based on CNNs Big Earth Data, Vol.3, N°3, 232-254, 2019|

X.X. Zhu, D.Tuia, L.Mou, G-S. Xia,L. Zhang, F.Xu, F.Fraundorfer, Deep Learning in Remote Sensing, IEEE Geoscience and Remote Sensing magazine, dec. 2017

L. Ma, Y. Liu, X. Zhang, Y. Ye, G. Yin, B.A. Johnson, Deep learning in remote sensing applications : a meta-analysis and review, ISPRS Journal of Phtogrammetry and Remote Sensing, 1552 (2019) 166-177

E. Colin Koeniguer, G. Le Besnerais, A. Chan Hon,Tong, B. Le Saux, A. Bouich, P. Trouvé, R. Caye Daudt, N. Audebert, G. Brigo, P. Godet, B. Le Teurnier, M. Varvalho, J. Castillo-Navaro, Recent examples of deep learning contributions for earth observation issues , AeroscpaceLab journal, issue 15, sept. 2020

D. Hong, L. Gao, N.Yokoya, J.Yao, J. Chanussot, Q. Du, B. Zhang, More diverse means better : multimodal deep learning meets remote sensing imagery classification, IEEE transactions on geoscience and remote sensing, vol.59, n°5, may 2021

Vali, A., Comai, S., Matteucci, M., 2020. Deep Learning for Land Use and Land Cover Classification Based on Hyperspectral and Multispectral Earth Observation Data: A Review. Remote Sens. 12, 2495. https://doi.org/10.3390/rs12152495

Signoroni, A., Savardi, M., Baronio, A., Benini, S., 2019. Deep Learning Meets Hyperspectral Image Analysis: A Multidisciplinary Review. J. Imaging 5, 52. https://doi.org/10.3390/jimaging5050052

Paoletti, M.E., Haut, J.M., Plaza, J., Plaza, A., 2019. Deep learning classifiers for hyperspectral imaging: A review. ISPRS J. Photogramm. Remote Sens. 158, 279–317. https://doi.org/10.1016/j.isprsjprs.2019.09.006