École d’Été Peyresq 2025
Thème Quantification d’incertitude Le GRETSI et le GdR IASIS organisent depuis 2006 une École d’Été...
Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
31 personnes membres du GdR ISIS, et 21 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 150 personnes.
(Journée colabellisée par le GDR Climat et le COMET Traitement du Signal et des Images du CNES, soutenue par l'IGN)
La télédétection permet une observation de la Terre systématique, régulière dans le temps et à l'échelle globale, ce qui en fait un outil primordial pour l'étude de l'évolution de l'environnement terrestre, et notamment de son climat. L'objectif de cette journée est de présenter des avancées récentes dans l'exploitation de ces données de télédétection pour les applications liées au changement climatique. Ces applications sont très variées, on peut citer par exemple la mesure de la vitesse d'écoulement des glaciers, l'estimation de la température ou de l'humidité des sols, ou la détection des zones forestières touchées par les incendies ou la déforestation.
Les verrous méthodologiques sont divers, et recoupent les problématiques que l'on retrouve dans l'analyse des données d'observation de la Terre : variabilité spatiale/spectrale/temporelle, hétérogénéité dans les résolutions et l'échantillonnage, couplage aux modèles physiques, estimation et prise en compte des incertitudes.
Nous lançons un appel à contributions pour les personnes souhaitant présenter leurs travaux, sous forme de présentation orale ou de posters. Les propositions (titre, résumé et format préféré, oral ou poster) sont à envoyer par email à thomas.oberlin@isae-supaero.fr avant le 11 novembre 2023.
Merci à l'IGN pour la mise à disposition de la salle.
Programme
9h : Welcome
9h30 : Roman Malinowski (UTC & CNES) : Estimation d'Incertitudes dans la Création de Modèles Numériques de Surface issus d'Imagerie Spatiale
9h50 : Lucrezia Tosato (ONERA & Université Paris Cité) : How visual question answering from remote sensing images can help in the prevention of tragedies due to natural disasters?
10h10 : Marta Bottani (ISAE-SUPAERO, TESA & CNES) : Online Change Detection for Near Real-Time Deforestation Monitoring Using Time Series of SAR Images
10h30 : Coffee break
11h00 : Antoine Rabatel (Univ. Grenoble Alpes, OSUG & IGE) : Suivi des glaciers par télédétection spatiale : apports et enjeux
12h : Sarah Safieddine (CNRS & LATMOS) : La mission IASI : 16 ans de mesures de la température et de la composition atmosphérique
12h30 : lunch break
14h : Cécile Mallet (LATMOS & UVSQ) : Quantitative Precipitation Estimation from Microwave Radiometric Satellite Observations
15h : Coffee break and posters
15h40 : Anne Barnoud et al. (Magellium) : Monitoring of the Earth's energy imbalance from satellite geodetic observations
16h : Robin Jarry (LIRMM & Université de Montpellier) : Comparaison de modèles d'apprentissage profond spatial et spatio-temporel pour l'estimation d'évolutions à partir d'images satellites.
16h20 : Claire Monteleoni (INRIA & University of Colorado Boulder) : AI for Climate Change and Environmental Sustainability
17h : concluding remarks
Posters :
- Michaël Ablain et al. (Magellium) : Seal Level Budget Closure CCI+ project (ESA, 2023-2026): from validation of the Earth's observing system to scientific questions
- Clémence Allietta (ENAC) : Projet SPARROW - Sparse Radio Occultation Using Wavelets
- Wassim Bdiri (Univ. Rennes, IETR & Univ. Sfax) : Unsupervised classification for change detection. Applications to polarimetric and multi-look synthetic aperture images
- Matthieu Gallet (LISTIC & USMB) : Apprentissage explicable d'un ensemble de divergences pour la similarité inter-classe de données SAR
Orateurs invités
Despite the scientific consensus on climate change, drastic uncertainties remain. Crucial questions about regional climate trends, changes in extreme events, such as heat waves and mega-storms, and understanding how climate varied in the distant past, must be answered in order to improve predictions, assess impacts and vulnerability, and inform mitigation and sustainable adaptation strategies. Machine learning can help answer such questions and shed light on climate change. I will give an overview of our climate informatics research, focusing on challenges in learning from spatiotemporal data, along with semi- and unsupervised deep learning approaches to studying rare and extreme events, and precipitation and temperature downscaling.
Documenter la dynamique des glaciers et calottes polaires ainsi que leurs évolutions à des échelles annuelle à décennale constituent des enjeux capitaux pour comprendre la réponse des glaciers aux changements climatiques et contraindre les modèles d'évolution future pour, notamment, estimer les impacts sur le niveau des mers et la ressource en eau. A plus courtes échelles temporelles (e.g., hebdomadaire, saisonnière), la variabilité de la dynamique glaciaire nous renseigne sur l'impact des changements de conditions aux limites comme les variations de la position du front de vêlage ou les conditions à la base du glacier dont notamment le rôle de l'hydrologie sous glaciaire. Comprendre ces interactions nous permet de mieux décrire les processus physiques en jeu et d'affiner les modélisations de l'évolution des glaciers sur le long terme.
L'émergence des satellites d'observation (actifs ou passifs) depuis les années 1970-80 permet théoriquement de quantifier la dynamique pour l'ensemble des glaciers de la surface de la Terre. Cependant, avant l'avènement récent des nouvelles générations de satellites à haute résolution spatiale (i.e. < 30 m), haute fréquence d'acquisition, et à acquisitions systématiques, les données acquises étaient la plupart du temps sporadiques (demandes de programmations nécessaires) et non exhaustives spatialement (peu d'acquisitions systématiques sur l'ensemble de la surface terrestre). Les défis auxquels nous confrontent les nouvelles générations de capteurs spatiaux (e.g., programme Sentinel de l'ESA) sont ceux du traitement massif des données et de la combinaison de données hétérogènes. Nous aborderons ces aspects à partir d'exemples sur les changements d'altitude de surface et de vitesse d'écoulement des glaciers.
Precipitation plays a major role in the water cycle, exerting significant influence on various aspects of human life and the climate system. Changes in precipitation, including alterations in amount, intensity, and distribution, can have profound effects. Quantifying global rainfall patterns is vital for predicting future changes in Earth's climate and is equally indispensable for enabling societies to adapt to the challenges posed by climate change. Nevertheless, precise measurement of rainfall poses challenges due to its inherent properties, including extreme variability, intermittency, and its multifractal characteristics. One of the main difficulties is the highly unbalanced nature of rainfall datasets. The scarcity of observations for extreme precipitation events in the datasets, which hold paramount scientific and societal importance, complicates the task of rainfall measurement. Deep learning methods, due to their powerful feature learning and nonlinearity-fitting capacities have recently garnered attention in the remote sensing and climate science communities, resulting in a growing number of contributions. Nevertheless, a notable issue arises as classical empirical risk minimization principles assume independently and identically distributed (i.i.d.) data for both training and inference. This is not always the case for remote sensing observation of rain events a slightly different context (atmospheric conditions or sensor characteristics) may lead to completely different field structure.
The Global Precipitation Measurement (GPM) constellation, equipped with spaceborne passive microwave radiometers, is dedicated to observing precipitation and offers a valuable tool for meeting these challenges. The first part of this seminar focuses on the extraction of precipitation from the Core Observatory satellite, which carries a radar and a microwave imager on the same platform. A deep learning model, trained in a supervised manner, is used to estimate precipitation from the GPM microwave imager (GMI). This model has demonstrated unparallel performances, setting a new standard in the field. The developed algorithm retrieves cumulative distribution of rain intensity probability and this likely relates to the dynamic and macro-physical properties of the rain systems.
The second part of the seminar is devoted to extracting precipitation from other satellites in the constellation equipped only with microwave imagers. The direct application of the previous model to all the radiometers in the GPM constellation comes up against difficulties stemming from the inherent differences in viewing angles, frequency bands, and spatial resolutions between the different satellites in the constellation. The lack of co-located radar data means that supervised learning is not possible. A learning strategy based on unsupervised domain adaptation makes it possible to extend the application of the inversion model to the entire GPM constellation.
Contributions orales
Measuring the Earth energy imbalance (EEI) at the top of the atmosphere is challenging as it is a globally integrated variable whose variations are small (0.5-1 W.m-2) compared to the amount of energy entering the climate system (~ 340 W.m-2). Accuracies better than 0.1 W.m-2 are needed to evaluate the temporal variations of the EEI at decadal and longer time-scales. The CERES experiment provides EEI time variations with a typical uncertainty of ± 0.1 W.m-2 and shows a trend in EEI of 0.50 ± 0.47 W.m-2 per decade over the period 2005-2019. Alternatively, estimating the global ocean heat content (GOHC) change is an accurate proxy of EEI (because >90% of the excess of energy stored in response to the EEI is accumulated in the ocean in the form of heat). The GOHC can be estimated either from in-situ oceanographic temperature measurements or from the combination of satellite altimetry and satellite gravimetry observations.
Here we present how the GOHC and EEI are estimated based on the combination of satellite gravimetry and altimetry measurements since 2002. Changes in the EEI are derived with realistic estimates of its uncertainties (Marti et al., 2021). The satellite geodetic GOHC-EEI product is available on the ODATIS/AVISO portal at https://doi.org/10.24400/527896/a01-2020.003.
Reference: Marti, F., Blazquez, A., Meyssignac, B., Ablain, M., Barnoud, A., Fraudeau, R., Jugier, R., Chenal, J., Larnicol, G., Pfeffer, J., Restano, M., and Benveniste, J.: Monitoring the ocean heat content change and the Earth energy imbalance from space altimetry and space gravimetry, Earth Syst. Sci. Data, 14, 229-249, https://doi.org/10.5194/essd-14-229-2022, 2022.
The world's forests have undergone substantial changes in the last decades. In the tropics, 17% of moist forests disappeared between 1990 and 2019, through deforestation and forest degradation. These changes contribute greatly to biodiversity loss through habitat destruction, soil erosion, terrestrial water cycle disturbances, and anthropogenic CO 2 emissions. Continuous monitoring of global deforestation is a fundamental tool to support preservation actions and to stop further destruction of vegetation. Several forest disturbance detection systems have already been developed, mainly based on spaceborne optical remote sensing which is severely limited by cloud coverage in the tropics. Contrarily to optical imagery, SAR products have the great potential of being insensitive to the presence of clouds. In recent years, several SAR-based systems have been developed and are now operational in different dense forest areas across the tropics. Despite the extensive coverage and temporal density of acquisitions, C-band SAR data like Sentinel-1 are not ideal for deforestation monitoring since the returned backscatter can be altered by variations in soil moisture and others. In this work, we investigate a statistical approach to monitor forest loss in a near real-time manner exploiting the principle of Bayesian inference.
In particular, forest loss is treated as a change-point detection problem within a univariate time series (i.e. Sentinel-1 single polarization), in which each new observation contributes to the probability of having or not deforestation based on prior information and a model of the data [1]. Detection delay and false alarm reduction have been investigated through the extension of the algorithm to the multivariate case of dual-polarization Sentinel-1 acquisitions. Given the synchronous nature of VV, VH acquisitions, such a modification allows an increase in the equivalent number of looks on a pixel on the ground, hence augmenting the level of confidence of an issued alert. Furthermore, a method to consider spatial correlation between neighboring pixels when deciding in favor or against a deforestation event has been developed starting from the assumption that the probability of deforestation increases with proximity to previous deforestation. A validation campaign in test sites located in French Guiana and Brazil has been conducted to assess the performance of the method. Additionally, both a comparison with the well-known deforestation detector Maximum Likelihood Ratio Test, and with the existing operational deforestation monitoring systems have been performed to further evaluate the proposed method. Conclusively, the potential of extending the current method to asynchronous data sources such as Sentinel-2 optical data is addressed.
Les modèles d'apprentissage profond, de plus en plus utilisés en imagerie satellitaire, offrent des moyens efficaces pour estimer des variables scalaires au sol, qui peuvent être environnementales comme la température de l'air (Shen et al., 2020), le type de sol (Yuan et al., 2022), la détection de feux de forêts (Seydi et al., 2022) ou socio-économiques comme la pauvreté (Yeh et al. 2020). La première approche pour estimer une évolution de cette variable est alors de faire deux estimations sur les images de la même zone acquises à deux dates différentes, et d'en calculer la différence. Cependant, cette approche sous-exploite l'information temporelle contenue dans les données, en particulier si on dispose d'une séquence d'images entre les deux dates. Des travaux récents (Yuan et al., 2020, Tarasiou et al. 2023) montrent l'importance d'intégrer l'information temporelle dans les modèles d'apprentissage profond, pour améliorer la précision des estimations d'évolutions. Néanmoins, il est difficile de conclure d'un point de vue général, car les résultats sont obtenus sur des jeux de données spécifiques, et surtout, couvrant une période temporelle souvent très limitée (quelques années). Cela est d'autant plus vrai pour les applications climatiques, où collecter régulièrement des données de terrain, sur une grande surface, reste difficile.
Nous proposons un cadre expérimental permettant de comparer deux modèles d'apprentissage profond : l'un spatial et l'autre spatio-temporel. Notre étude utilise comme variable à estimer l'évolution de l'intensité lumineuse nocturne sur une période de vingt années, et comme modèle d'apprentissage profond l'architecture Transformer. Sur une zone géographique restreinte (voisinage de Zanzibar), nous observons que le modèle spatio-temporel est plus performant que le modèle spatial, en particulier pour les évolutions longues (15 à 20 ans). Nous présentons aussi des résultats préliminaires qui semblent confirmer cette tendance à une plus grande échelle spatiale.
La génération de Modèles Numériques de Surface (MNS) par imagerie satellite permet de bénéficier de la revisite et du large champ de vue des satellites. Il est ainsi possible de suivre l'évolution du manteau neigeux, des glaciers ou de la végétation. Dans le cadre de la mission satellite CO3D, le CNES a développé une chaine de restitution automatique de MNS haute résolution, nommée CARS. Nous avons implémenté, au sein de cet outil, une méthode de création d'intervalles de confiances pour les MNS. Notre méthode s'appuie sur des modèles d'incertitudes robustes appelés Possibilités. Nous proposons de présenter les différents concepts et méthodes permettant de modéliser et de propager l'incertitude au sein d'une chaîne de restitution 3D, afin de fournir en sortie un intervalle de confiance à 90% sur la hauteur du MNS. Nous mettons en application notre approche sur des images Pléiades de glaciers et les comparons à une vérité terrain LiDAR.
Les données satellitaires permettent aujourd'hui de suivre de façon globale et en quasi temps réel la composition chimique de l'atmosphère, ainsi que des variables météorologiques. En particulier, les sondeurs atmosphériques IASI (Infrared Atmospheric Sounding Interferometer), développés par le CNES (Centre National d'Etudes Spatiale), lancés en 2006, 2012 et 2018 à bord des satellites Metop (Meteorological Operational), ont pu mesurer une trentaine de composés atmosphériques, incluant des gaz à effet de serre qui sont peu variables dans l'atmosphère et des gaz très variables qui peuvent être impliqués dans des évènements extrêmes tels que le monoxyde de carbone, l'ozone, le dioxyde de soufre, l'ammoniac et l'acide formique. Depuis le début de la mission, IASI a pu surveiller des pics de pollution, les émissions d'ammoniac associées à l'agriculture intensive, les éruptions volcaniques et l'évolution de l'ozone. Les variables météorologiques issues de IASI telle la température est exploitée pour fournir des prévisions météorologiques mais aussi pour étudier le changement climatique, les évènements extrêmes et les ilots de chaleur urbains. Dans cette présentation, des différents exemples et applications de la surveillance constante de l'atmosphère par IASI seront montrés.
Satellite images can provide us with information for forecasting, analysing and monitoring natural disasters such as hurricanes, tornadoes, volcanoes, earthquakes and avalanches. The precision with which this is done is increasing day by day with ever more accurate techniques. Why then do tragedies from natural disasters continue to occur today?
The answer may lie in the fact that, although the methods for making these predictions and a large part of the satellite images are public, citizens are unable to access them because they do not possess the appropriate knowledge to understand them. Our study aims to make the information in satellite images more comprehensible to humans through visual question-answering methods. In a preliminary analysis, we checked how the fusion of SAR and optical images could be advantageous for answering general questions, and then analysed which classes were more sensitive to one modality than the other.
Posters
Closing the Sea Level Budget (SLB) at monthly, yearly and interannual time scales, at the best level of accuracy and precision is an essential and central problem of modern physical oceanography. First because closing the SLB is a prerequisite for stating that all the important causes for sea level variability are identified and well quantified. Second, closing the SLB is a useful tool to cross-validate worldwide complex observing systems such as the Argo network, the satellite gravimetry missions GRACE/GRACE-FO and the satellite altimetry constellation, and to keep a close watch on their performances. Third, because closing the SLB is an efficient approach to test the consistency of different observed variables of the climate system such as sea level, ocean temperature and ocean mass, land ice melt and land water storage changes, with regard to conservation laws including those of mass and energy.
Since 2010, ESA has developed the Climate Change Initiative (CCI) programme in order to produce consistent and continuous space-based records for Essential Climate Variables (ECVs). The Sea Level Budget Closure CCI (SLBC_cci) project was conducted from 2017 to 2019 as the first cross-ECV project within CCI. The project aimed at taking advantage of the improved quality of sea level-related Earth observation datasets produced within the CCI programme to assess the closure of the global mean SLB over 1993-2016. Rencently, a second phase of the SLBC_cci project (called SLBC_cci+) has been launched for a 3-year period (2023-2026). Here, we will present the main objectives of the SLBC_cci+ project to pursue the work initiated in the first phase: i) improving the closure of the global mean SLB and extending the global mean SLB time series, ii) assessing the closure of the SLB at regional scales and iii) explaining the time and space variability in SLB both at global and regional spatial scales. More specifically, the global SLB will be updated up to 2023. We also intend to go further by extending the SLB exercise at regional scale for the 2002-2023 period (i.e. during the GRACE and Argo era). Extending the SLB to regional spatial scales will allow us to identify regions where the SLB does not close, leading to a regional breakdown of the assessment of the CCI products that represent a large part of the individual components used in the SLB. In addition, the SLBC_cci+ project aspires to tackle questions such as "Is the SLB non-closure due to a structural deficiency of the observing system associated with inconsistent effective resolution across the different observing sub-systems such as Argo, GRACE and satellite altimetry? Or is it due to measurement errors in a single observing sub-system? Can we isolate in terms of time and space the potential errors?". The project also aims at tackling scientific questions such as the attribution of sea level variations and the assessment of the Earth's energy budget.
La Radio Occultation est une technique permettant de caractériser l'atmosphère d'une planète depuis un satellite ou une sonde. Elle est fondée sur le principe suivant : un satellite en orbite moyenne (un satellite GNSS par exemple) émet un signal. Ce signal se propage tout d'abord dans le vide, puis dans l'atmosphère et de nouveau dans le vide avant d'être reçu par un satellite en orbite basse (LEO). Du fait du gradient d'indice de réfraction existant dans l'atmosphère, le rayon décrivant la trajectoire du signal va subir une réfraction. Il est alors possible, à partir de la mesure de l'angle de propagation du signal sur le recepteur, de remonter au profil d'indice de réfraction local de l'atmosphère, c'est à dire quand le rayon passe au plus près de la planète. Ce profil d'indice de réfraction permet par la suite de déduire les propriétés de l'atmosphère telles que sa température, sa concentration en vapeur d'eau ou encore sa pression. Les applications possibles de la Radio Occultation sont nombreuses. Initialement appliquée pour
l'étude des atmosphères de Mars et Vénus, la Radio Occultation est aujourd'hui considérée par le GIEC comme le meilleur thermomètre de l'atmosphère. Des études ont également été menées afin d'utiliser les résultats issus de la Radio Occultation pour le suivi des fumées de feux de forêt ou encore pour la compréhension des mécanismes de formation des cyclones tropicaux. Cette technique a donc un potentiel important en ce qui concerne l'étude du réchauffement climatique et son impact sur les écosystèmes terrestres.
Actuellement, les méthodes d'inversions classiquement utilisées en radio occultation présentent plusieurs limites. Elles font tout d'abord l'hypothèse d'une symétrie sphérique de l'atmosphère, hypothèse qui n'est en réalité pas vérifiée. De plus, elles postulent qu'un seul rayon se propage dans l'atmosphère, alors que des multi-trajets atmosphériques peuvent exister et doivent être pris en compte. Ce sont ainsi entre 10 et 15% des données de Radio Occultation qui souffrent d'un manque de précision. Le projet SPARROW se propose d'étudier de nouvelles méthodes d'inversion à même de prendre en compte les multi-trajets atmosphériques et ne faisant pas l'hypothèse de symétrie sphérique de l'atmosphère.
This communication proposes a new method for detecting multi-temporal changes in multilook polarimetric synthetic aperture SAR (PolSAR) images by proceeding with unsupervised classification of these images. Firstly, the proposed classification is based on the machine learning algorithm K-means. After that, an infinite mixture model is investigated to estimate the number of components in a PolSAR image.
Nous proposons une méthode de classification de données bivariées positives en utilisant des divergences basées sur des statistiques descriptives, une modélisation paramétrique des marginales et la modélisation des dépendances via des copules. Ces divergences sont combinées via des opérateurs de réseaux neuronaux pour classifier les couples d'entrée. Cette approche est testée sur un dataset SAR du satellite PAZ, donnant l'explication de la décision à partir des a priori statistiques