École d’Été Peyresq 2025
Thème Quantification d’incertitude Le GRETSI et le GdR IASIS organisent depuis 2006 une École d’Été...
Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
25 personnes membres du GdR ISIS, et 16 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.
Le traitement et l'analyse de données pour l'astronomie recouvre de nombreuses problématiques du traitement du signal et des images comme la reconstruction, la fusion de données ou la séparation de sources. En outre, la France est impliquée dans de nombreux projets d'envergure actuels ou futurs par exemple les télescopes spatiaux Euclid, JWST et l'Extremely Large Telescope (ELT). Les mesures sont cependant souvent entachées d'effets instrumentaux ou parasites, les modalités d'acquisition sont très diverses et le faible rapport signal sur bruit met au défi les méthodes établies. Par ailleurs, le volume de données est en forte croissance, en particulier pour les mesures au sol, et les instruments sont plus complexes.
L'objectif de cette journée est tout d'abord de faire un point sur les récentes avancées en inversion, détection et analyses de données en astronomie et de discuter des verrous actuels. Le second objectif est de faire un tour des défis induits par le grand volume de données, la complexité des instruments et les difficultés posées pour extraire une information complexe des mesures.
Appel à communications : Les propositions de communications concernant des méthodes d'inversion en astronomie sont les bienvenues. Les personnes intéressées sont invitées à envoyer leurs propositions (titre et résumé en quelques lignes) aux organisateurs avant le vendredi 31 mai.
Accès à la salle : document PDF téléchargeable.
Il sera possible d'assister à la réunion à distance, via Zoom :
https://universite-paris-saclay-fr.zoom.us/j/97497869871?pwd=81xUHRkuqIJu9G1A4MKJggyMNh12TV.1
Matinée :
12h40 - 14h00 : Pause déjeuner
Après-midi :
Pierre Guillard1 : Challenges to improve and enhance JWST data products
1 : Sorbonne Université, Institut d'Astrophysique de Paris, Paris, France
The James Webb Space telescope provides imaging and spectroscopic capabilities from 0.6 to 28 microns, and its performance is in line with expectations. However, because space weather at L2 is worse than expected, because of the complexity of its optical elements and detectors, the JWST data suffers from a wide range of artefacts. I will first review some of the remaining challenges to model detector and PSF artefacts. Then I will touch on areas of research to enhance JWST data products, focusing of background estimation, optimal spectral extraction and stitching, as well as multi-band data fusion.
Ferréol Soulez1 : De l'intérêt de prendre en compte les incertitudes de mesure
1 : Centre de Recherche Astrophysique de Lyon, Université Lyon 1, ENS de Lyon, CNRS, Saint-Genis-Laval, France
Appliquée directement à des observations astrophysiques, les méthodes inverses se révèlent parfois décevantes. Elles peuvent en effet faire apparaître des artefacts trahissant la non-stationnarité du bruit et la présence de corrélations dans les mesures. Il semble donc indispensable de modéliser correctement ces incertitudes pour extraire de manière optimale l'information présente dans les mesures.
Dans cette présentation, je montrerai l'intérêt qu'il y a à modéliser finement l'incertitude des mesures et comment y parvenir. J'illustrerai cela dans le contexte des observations infrarouges en haute résolution angulaire.
François Lanusse1,2 : Generative AI: The key to Manipulating Implicit Distributions for Solving Inverse Problems (en distanciel)
1 : AIM, CEA, CNRS, Université Paris-Saclay, Université Paris Diderot, Sorbonne Paris Cité, Gif-sur-Yvette, France
2 : Flatiron Institute, New-York City, États-Unis
As we move towards the next generation of large galaxy surveys, our field is facing outstanding challenges at all levels of scientific analysis, from pixel-level data reduction to cosmological inference. As powerful as deep learning has proven to be in recent years, in most cases deep learning alone proves to be insufficient to meet these challenges, and is typically plagued by issues including robustness to covariate shifts, interpretability, and proper uncertainty quantification, impeding its integration in scientific analyses.
In this talk, I will instead advocate for a unified approach merging the robustness and interpretability of physical models, the proper uncertainty quantification provided by a Bayesian framework, and the inference methodologies and computational frameworks brought about by the deep learning revolution. In practice this will mean using deep generative models as a practical way to manipulate implicit distributions (either data- or simulation-driven) within a larger Bayesian framework. I will illustrate these concepts in a range of applications in the context of cosmological galaxy surveys, from pixel-level astronomical data processing (e.g. deconvolution, deblending), to inferring cosmological fields.
Cédric Dubois1, Bastien Laville2 et Wilfried Mercier1 : Off-the-grid reconstruction methods for Astronomical data : Introduction, Application with Turbo-SFW on JWST images and Challenges
1 : Laboratoire d'Astrophysique de Marseille, Marseille, France
2 : Université Côte d'Azur, Inria, CNRS, Nice, France
Off-the-grid reconstruction methods have been developed over the last decade to address inverse problems such as spikes estimation and super-resolution imaging. With strong theoretical reconstruction guarantees and the Sliding Frank-Wolfe (SFW) algorithm (with proved convergence in a finite number of steps), this framework is well suited to be used in astronomy.
In practice, the computation of continuous reconstructions is not tractable for large-scale data commonly used in astronomy. Hence, one main remaining challenge is to handle such computation efficiently in real-world scenarios. In this context, we are developing a new efficient implementation called Turbo-SFW, leveraging on the JAX library.
In this communication, I will introduce off-the-grid reconstruction methods and highlight their potential for astronomical data by showing concrete applications on simulated and real data. More specifically, I will present our first direct astronomical application : 250 clumps reconstruction with Turbo-SFW in a local dwarf galaxy observed with JWST.
Léontine Ségal1,2, Antoine Roueff2, Jérôme Pety1,3 et Maryvonne Gerin3 : Analyse multi-espèces du milieu interstellaire fondée sur les observations millimétriques de la nébuleuse de la Tête de Cheval
1 : Institut de Radioastronomie Millimétrique (IRAM), Saint-Martin-d'Hères, France
2 : Université de Toulon, Aix-Marseille Université, CNRS, IM2NP, Toulon, France
3 : Laboratoire d'Études du Rayonnement et de la Matière en Astrophysique et Atmosphères (LERMA), Observatoire de Paris, PSL Research University, CNRS, Sorbonne Université, Paris, France
Le processus de formation des étoiles s'accomplit au sein de nuages de gaz moléculaires géants [1]. Un tel environnement (~20 K et 500 particules par cm-3) n'étant pas reproductible en laboratoire, l'analyse des spectres moléculaires issus de ces régions est un moyen essentiel pour caractériser le milieu et comprendre les processus physico-chimiques mis en jeux. Les principaux paramètres d'intérêt à estimer sont la température cinétique du gaz et sa densité volumique. Ce gaz est très majoritairement constitué de dihydrogène (H2), mais celui-ci est presque invisible aux températures typiques du milieu. Les estimations sont donc fondées sur des espèces chimiques minoritaires pour lesquelles le rapport signal-à-bruit est très variable en fonction des lignes de visée considérées.
Les récentes observations millimétriques réalisées avec le télescope de 30m de l'IRAM (https://www.iram-institute.org) sont spectaculaires en termes de quantité d'information spatiale (106 pixels) et spectrale (240 000 canaux). La gamme de fréquences couverte, entre 86 et 116 GHz, permet de détecter de nombreux traceurs moléculaires. Lors de la journée du GdR, nous présenterons la méthodologie proposée pour résoudre le problème d'estimation des paramètres physiques [2,3]. Celle-ci s'appuie sur des outils statistiques (maximum de vraisemblance, borne de Cramér-Rao, étude des biais, sélection de modèles). Elle aboutit non seulement à une mesure quantitative des caractéristiques physiques des nuages, mais surtout à proposer un nouveau mode de représentation et d'analyse des données multi-espèces.
Références
[1] Physics of the Interstellar and Intergalatic Medium by Bruce T. Draine. Published by Princeton University Press, 2011. ISBN: 978-0-691-12214-4
[2] Roueff et al., 2024, A&A, https://arxiv.org/abs/2403.20057
[3] Ségal et al., en préparation
Julia Lascar1, Jérôme Bobin1 et Fabio Acero1,2 : Fusion hyperspectrale pour l'astrophysique X
1 : Université Paris-Saclay, Université Paris Cité, CEA, CNRS, AIM, Gif-sur-Yvette, France
2 : FSLAC IRL 2009, CNRS/IAC, La Laguna, Tenerife, Espagne
En astrophysique, les télescopes à rayons X dotés de spectro-imageurs peuvent collecter des cubes de données appelés images hyperspectrales (HS), ayant deux dimensions spatiales et une dimension spectrale.
Une nouvelle génération de capteurs, appelés micro-calorimètres (avec XRISM, récemment lancé, ou les futurs projets Athena-XIFU) fournissent un bond spectaculaire en résolution spectrale comparé à leur prédécesseurs. Cependant cette technologie est pour l'instant limitée à des capteurs à petit nombres de pixels, et donc à une faible résolution spatiale.
La fusion hyperspectrale peut résoudre ce compromis, en combinant des images HS des deux générations d'instruments afin d'obtenir un cube avec la meilleure résolution spatiale et spectrale. En imagerie X pour l'astrophysique, ce problème est complexe car les images sont dominées par du bruit de Poisson, ont un faible ratio de signal sur bruit, et présentent de fortes variabilités spectrales.
Nous avons implémenté un algorithme adapté pour la fusion HS-HS en astrophysique X, avec trois options de régularisations: une contrainte de parcimonie ondelette 2D-1D, une contrainte de faible rang avec régularisation Sobolev, et une contrainte de faible rang avec régularisation ondelette 2D. Nous testons et comparons les trois approches sur des jeux de données simulées ressemblant des vestiges de supernovae.
Guilhem Lavaux1 : Défis et accomplissements de la méthode d'inférence "plein champ" BORG
1 : CNRS, Sorbonne Université, Institut d'Astrophysique de Paris, Paris, France
BORG (Jasche et al. 2013, Jasche & Lavaux 2019, Kodi Ramanah et al. 2019, https://git.aquila-consortium.org/aquila-consortium/borg_public) est un outil puissant de reconstruction bayésienne des conditions initiales de l'univers à partir de relevé de galaxies. Cependant, cette tâche complexe implique de relever plusieurs défis majeurs, tels que la gestion d'un espace de paramètres extrêmement vaste (de l'ordre de 109), la prise en compte d'effets systématiques et statistiques dans les données issues de grands relevés de galaxies (pouvant atteindre jusqu'à 109 d'objets), la non-linéarité des systèmes physiques, ou encore la compréhension fine de la physique des galaxies. Je dresserai un panorama des avancées significatives réalisées dans ce domaine au cours des dix dernières années, ainsi que d'identifier les prochains défis à relever, en particulier dans le cadre de l'analyse du relevé Euclid.
Mostafa Bella1, Shahram Hosseini1, Thierry Contini1, Hicham Saylani2 et Yannick Deville1 : Décontamination des spectres de galaxies mesurés par le satellite Euclid
1 : IRAP, UPS, CNRS, CNES, Université de Toulouse, Toulouse, France
2 : LETSMP, Faculté des Sciences, Université Ibn Zohr, Agadir, Maroc
Dans cette intervention, nous présentons les derniers développements réalisés par notre équipe concernant la décontamination avancée de spectres adaptés à la mission spatiale Euclid.
Euclid est un télescope spatial de l'Agence Spatiale Européenne, lancé avec succès le 1er juillet 2023. Son objectif principal est de comprendre la nature de l'énergie noire et d'expliquer comment cette énergie est responsable de l'accélération croissante de l'expansion de l'Univers. Pour atteindre cet objectif, Euclid est équipé d'un spectrographe sans fente proche infrarouge qui mesure les spectres 2D de millions de galaxies. Ces spectres sont ensuite analysés pour estimer les décalages spectraux vers le rouge (redshifts) des galaxies observées. Cependant, ces estimations sont affectées par une confusion résultant de la superposition des spectres des objets astronomiques voisins. Ainsi, une étape de décontamination efficace est nécessaire pour minimiser les erreurs dans les mesures des redshifts. Cette décontamination a pour objectif d'estimer le spectre 1D de premier ordre d'un objet d'intérêt à partir de plusieurs observations 2D contaminées.
Dans ce travail, la décontamination de spectres est traitée comme un problème de séparation de sources qui consiste à estimer un ensemble de signaux inconnus, appelés sources, à partir de plusieurs mélanges de ces sources, appelés observations. Nous avons ainsi développé plusieurs méthodes de séparation adaptées à Euclid et basées sur trois approches différentes. Les deux premières approches reposent sur un modèle de mélange linéaire instantané approximatif, tandis que la troisième approche s'appuie sur un modèle de mélange convolutif plus réaliste. Les résultats des tests, obtenus en utilisant des données réalistes et bruitées, montrent l'efficacité des méthodes proposées pour la décontamination des spectres d'Euclid.
Jonathan Kern1, Jérôme Bobin1 et Christophe Kervazo2 : Efficient Variability-Informed Learned Deconvolution of Radio Interferometric Images Using Deep Unrolling
1 : Université Paris-Saclay, Université Paris Cité, CEA, CNRS, AIM, Gif-sur-Yvette, France
2 : Télécom Paris, Palaiseau, France
Many existing image deconvolution methods rely on iterative optimization algorithms which lack of computational efficiency for new emerging applications such as radio-interferometric imaging with large scale data provided by telescopes like the future Square Kilometer Array Observatory (SKAO). In this work, we propose a new deconvolution algorithm building upon algorithm unrolling, which allows to merge model-based iterative methods and deep learning ones.
Our approach leads to a dramatic decrease of the computational burden and to a large improvement of the deconvolution quality.
In addition, the method is designed to be flexible enough to cope with large variabilities of the convolution kernels, limiting the need to retrain the neural network for new kernels. Experimental results on realistic astrophysical radio-interferometric images show that our method can outperform iterative and existing unrolled algorithms with a 100 times less iterations than Plug-and-Play methods.
Sunrise Wang1, Simon Prunet1, Shan Mignot1, Andre Ferrari1 : Parallelizing radio interferometric image reconstruction by baseline
1 : Laboratoire J.-L. Lagrange, Université Côte d'Azur, Observatoire de la Côte d'Azur, CNRS, Nice, France
The advent of large aperture arrays, such as the currently under construction Square Kilometer Array (SKA), allows for observing the universe in the radio-spectrum at unprecedented resolution and sensitivity. However, these telescopes produce data on the scale of exabytes, introducing a slew of hardware and software design challenges. We propose a multi-step image reconstruction method that allows for partitioning visibility data by baseline. This enables more flexible data distribution and parallelization, aiding in processing radio-astronomical observations within given constraints. The reconstruction is separated into two-steps, first reconstructing a low-resolution image with only short-baseline visibilities, and then using this image together with the long-baseline visibilities to reconstruct the full-resolution image. We also discuss two different parallelization strategies for our method. The first employs pipeline parallelism between the low and full-resolution reconstructions, where the two are performed in tandem, offset by half a major-cycle. The second employs an interleaved approach where two full-resolution images are reconstructed simultaneously, with the final reconstructed image being a combination of these. We show that our proposed method allows for more flexible visibility partitioning and parallelization without introducing significant additional drawbacks compared to reconstructing using all baselines simultaneously, having similar computational costs and producing images of comparable quality.
Jianhua Wang1, Pascal Larzabal1, Mohammed Nabil El Korso2 et Lucien Bacharach1 : Algorithmes EM pour l'imagerie interférométrique avec commutations de sous-réseaux d'antennes
1 : SATIE, Université Paris-Saclay, Gif-sur-Yvette, France
2 : L2S, Université Paris-Saclay, Gif-sur-Yvette, France
Dans le contexte de l'imagerie radio-interférométrique avec les nouveaux télescopes, comme par exemple le projet Square Kilometre Array (SKA), la gestion de la charge de calcul et la présence d'interférences constituent de véritables défis. Nous proposons une nouvelle méthodologie d'imagerie radio-astronomique basée sur la commutation entre différents sous-réseaux préalablement sélectionnés selon des caractéristiques recherchées. Elle permet un compromis intéressant entre la précision de l'imagerie et l'efficacité computationnelle. A cet effet nous utilisons la t-distribution pour modéliser le bruit additif en présence d'interférences radio. Étant donnée la difficulté de maximiser directement la vraisemblance dans ces conditions, nous introduisons un algorithme d'imagerie de type Espérance-Maximisation (EM) avec commutations entre sous-réseaux pour résoudre ce problème. Pour cela nous mettons en évidence tout d'abord, à l'aide de simulations, la pertinence de la modélisation des RFI par une t-distribution, ainsi que sa supériorité par rapport à une distribution gaussienne. Les résultats montrent que l'imagerie par commutations peut s'avérer intéressante et prometteuse. Les performances d'imagerie obtenues sont ainsi similaires à celles obtenues avec un réseau d'antennes complet, tout en réduisant la complexité computationnelle. Nous montrons aussi, qu'à nombre de visibilités égale, les commutations de sous réseaux permettent de surpasser les performances obtenues avec des configurations géométriques statiques.