Lauréats AAP2026

Le comité de direction du GdR IASIS remercie l’ensemble des participants à l’AAP 2026. Cette année, 24 projets recevables ont été soumis avec une belle pluralité thématique et géographique. L’appel est un succès et nous en remercions l’ensemble des collègues qui ont investi du temps pour formaliser leurs propositions. Les huit lauréats de cet appel sont :

  • Apprentissage de représentations par similarité robuste avec a-priori Statistiques
    • Antoine Bralet, ICube & LISTIC, abralet@unistra.fr
    • Résumé : L’apprentissage auto-supervisé permet de construire des représentations latentes sans annotations coûteuses. Toutefois, les tâches prétextes classiques reposent sur certaines hypothèses statistiques et géométriques (nature des tâches, fonctions de coût et métriques utilisées), limitant leur efficacité sur des données réelles issues de capteurs actifs tels que les images provenant de radar à synthèse d’ouverture (SAR). Ces dernières assurent un suivi régulier de la surface terrestre, indépendamment des conditions météorologiques et d’illumination, et permettent de surveiller des phénomènes dynamiques tels que les déformations du sol, les catastrophes naturelles ou l’évolution de l’occupation des sols. Toutefois, l’exploitation de ces données est impactée par la présence de distorsions géométriques et de bruit multiplicatif (chatoiement), qui dégradent la qualité radiométrique. En particulier, le bruit de chatoiement nécessite la modélisation des données SAR par des distributions non-gaussiennes positives à queues plus ou moins lourdes (gaussiennes composées comme les lois K ou G0, distributions de Weibull), capturant la variabilité du chatoiement et des scènes étudiées.
  • Adaptive suppression of interference for radio transients analysis
    • Sara El Bouch, J-L. Lagrange, sara.el-bouch@univ-cotedazur.fr
    • Résumé : ASTRA vise à améliorer la détection de transitoires radio rares (Fast Radio Burdts (FRB), So-lar Radio Bursts (SRB), émissions joviennes) dans les spectrogrammes issus de la station radio-astronomique de Nançay, fortement contaminés par des interférences radiofréquences (RFI) terrestres et satellitaires. Dans les pipelines traditionnelles, la mitigation des RFI repose sur des méthodes sta-tistiques à seuils adaptatifs ou sur des outils spécialisés comme AOFlagger et IQRM, qui génèrent des masques binaires temps-fréquence appliqués en amont de la détection des transitoires astrophy-siques. Ces approches restent fortement heuristiques, elles produisent des masques volumineux et paramétrés à la main, et peuvent entraîner un sur- ou sous-masquage, une inflation du nombre de faux candidats et un besoin de validation humaine difficilement compatible avec les débits attendus pour SKA-Low. Parallèlement, l’intelligence artificielle est surtout utilisée en aval pour classer les candidats issus après masquage par ces méthodes. Ces modèles profonds, majoritairement supervisés, n’adressent pas directement la génération de masques RFI optimisés au niveau des spectrogrammes. Le projet ASTRA propose de considérer la mitigation de RFI comme un problème de segmentation sémantique semi-supervisée en exploitant des architectures du type (RefineNet/ U-Net), multi-échelles, adaptés aux structures temps-fréquence des RFI et des transitoires. ASTRA s’attaque ainsi à trois verrous : (i) l’apprentissage à partir de labels faibles et de masques incomplets, (ii) la robustesse à un paysage RFI en évolution (nouvelles sources terrestres et satel-litaires), et (iii) le lien quantitatif entre qualité de masque et performance de détection des transi-toires. Un benchmark end-to-end comparera systématiquement méthodes traditionnelles et modèles profonds, depuis les métriques de segmentation jusqu’à l’impact sur les pipelines FRB/SRB Nenu-FAR. En s’appuyant sur les expertises complémentaires du laboratoire Lagrange, du CREA et du LPC2E/Nançay, ASTRA vise à proposer une nouvelle méthodologies de masquage de RFI adaptés aux contraintes de temps réel des instruments actuels et futurs.
  • Apprentissage multimodal temps réel pour la détection d’avalanches dans les réseaux sismiques
    • Antoine LUCAS, IPGP, lucas@ipgp.fr
    • Résumé : Les avalanches de neige génèrent des signaux sismiques faibles, souvent noyés dans un bruit complexe et non stationnaire. Aujourd’hui, leur détection repose essentiellement sur des analyses a posteriori, manuelles ou semi-automatiques, ce qui limite fortement l’alerte précoce et la compréhension fine de leur dynamique. Parallèlement, des bases d’alertes et de témoignages d’avalanches issues pas ou peu exploitées de façon systématique ni couplées aux données sismiques. Le projet AVALIASIS vise à développer de nouveaux algorithmes d’apprentissage automatique temps réel pour la détection d’avalanches à partir de réseaux denses de stations sismiques, en exploitant conjointement (i) les flux continus de signaux sismiques multicanaux et (ii) des flux d’alertes web d’avalanches (rapports d’observation, bases d’événements). Nous proposons des approches de type apprentissage multimodal faiblement supervisé, dans lesquelles les signaux sismiques sont annotés de façon indirecte par des informations web souvent incertaines (localisation, date, type d’événement). Méthodologiquement, le projet combinera modèles de diffusion sur graphes de stations, beamforming appris, et analyse de réseaux pour dépolluer le signal et isoler des signatures d’avalanches très faibles. Les méthodes développées seront validées sur des cas d’étude réels de zones avalancheuses instrumentées. Au-delà des avalanches, les contributions d’AVALIASIS s’inscrivent pleinement dans les axes « Apprentissage machine » et « Fusion, multimodalité, réseaux de capteurs, traitement multicanal » du GdR IASIS, et sont transférables à d’autres scénarios de détection d’événements faibles dans des réseaux de capteurs hétérogènes.
  • Réseaux de neurones à divergence nulle avec application au débruitage d’images
    • Sébastien Herbreteau ENSAI / CREST UMR 9194 sebastien.herbreteau@ensai.fr
    • Résumé : Nous proposons d’explorer la pertinence des réseaux de neurones à divergence identiquement nulle pour des applications principales en débruitage d’images. L’étude des champs de vecteurs à divergence identiquement nulle, également appelés champs solénoïdaux ou champs incompressibles, constitue déjà un domaine de recherche à la croisée de l’apprentissage machine et de la physique. Ces champs interviennent naturellement dans de nombreux phénomènes physiques ; on peut notamment penser au champ magnétique, probablement l’exemple le plus connu, tel que décrit par les équations de Maxwell. Dans le domaine du débruitage d’images, les estimateurs à divergence nulle présentent des avantages théoriques majeurs pour l’apprentissage auto-supervisé, notamment grâce à leur compatibilité directe avec la théorie autour de l’estimation du risque non biaisée de Stein (SURE). De récentes études montrent déjà que les réseaux de neurones à divergence contrainte (réseaux blindspot (Batson and Royer, 2019; Krull et al., 2019), UNSURE (Tachella et al., 2025)) conservent une expressivité suffisante en apprentissage auto-supervisé pour rivaliser avec les méthodes de l’état-de-l’art, tout en étant parfaitement mathématiquement fondés. Nous souhaiterions étendre cette étude aux réseaux de neurones dont la divergence est strictement nulle en tout point. Pour le débruitage d’images, l’avantage théorique de cette contrainte est qu’elle permettrait un apprentissage auto-supervisé sur des jeux de données constitués d’images bruitées avec des niveaux de bruit différents, plus réaliste en pratique (ce qui n’est pas possible avec UNSURE (Tachella et al., 2025)) tout en offrant une expressivité supérieure à celle des réseaux blindspot (Batson and Royer, 2019, Krull et al., 2019). Le projet visera à approfondir ces observations, proposer une façon de construire de tels réseaux, et à évaluer systématiquement l’intérêt de ces architectures sur divers jeux de données. L’objectif final est de démontrer que ces réseaux constituent une alternative robuste, et théoriquement motivée pour une application en débruitage d’images mais aussi pour potentiellement d’autres domaines d’applications en traitement ou génération d’images.
  • Méthodes Plug-and-Play génératives : analyse et garanties théoriques
    • Ségolène Martin, LIP, segolene.tiffany.martin@gmail.com
    • Résumé : Les méthodes Plug-and-Play (PnP) offrent un cadre très efficace pour la résolution de problèmes inverses en imagerie. Elles combinent un terme explicite de fidélité aux données avec un débruiteur appris, généralement un réseau de neurones, qui joue le rôle de prior implicite. Les méthodes PnP bénéficient de garanties théoriques (convergence, interprétation variationnelle partielle) lorsque le débruiteur satisfait certaines propriétés. Récemment, il a été proposé de remplacer les débruiteurs entraînés de manière classique par des débruiteurs construits à partir de modèles génératifs de flot, tels que le Flow Matching ou les modèles de diffusion. Ces méthodes dites PnP-génératives atteignent des performances sans précédent sur des problèmes inverses auparavant hors de portée des méthodes PnP classiques, comme la reconstruction de parties manquantes d’images. Cependant, ces approches introduisent des mécanismes nouveaux : dépendance temporelle du débruiteur, injection de bruit stochastique, etc. qui sortent du cadre théorique existant. La performance empirique se fait donc au détriment de la compréhension et des garanties de convergence théoriques, pourtant indispensables dans des contextes critiques comme l’imagerie médicale. L’objectif de ce projet est de lever ces verrous en développant un cadre d’analyse interprétable pour les méthodes PnP-génératives, et en proposant des variantes mieux fondées théoriquement. La stratégie repose sur une simplification progressive des schémas afin de les rapprocher de cadres bien compris, en particulier le PnP classique et l’analyse des algorithmes comme discrétisations d’équations différentielles ordinaires (EDOs). En simplifiant notamment la dépendance temporelle du débruiteur, le schéma résultant pourra être analysé `a l’aide d’outils issus du PnP classique ou de la théorie des EDOs autonomes, afin d’établir des garanties de convergence et une interprétation variationnelle. Les méthodes développées seront enfin évaluées sur des tâches de restauration d’images médicales.
  • Vision évènementielle et stratégies visuelles en conduite moto
    • Pauline Michel Université Paris-Saclay, SATIE pauline.michel1@universite-paris-saclay.fr
    • Résumé : Ce projet propose une approche en rupture avec les travaux classiques d’analyse de stratégies visuelles, qui reposent principalement sur des camèras projectives et des estimations de flux optique denses, coûteuses et difficiles à embarquer. En combinant imagerie évènementielle pour l’analyse de scène et oculométrie pour l’analyse du regard sur un simulateur de conduite moto à plateforme dynamique, le projet EVENT-MOTO vise à examiner le potentiel de cette modalité neuromorphique pour définir de nouveaux indicateurs de stratégie visuelle adaptés aux contraintes temps réel et aux enjeux de traitements frugaux, s’inscrivant ainsi dans le thème ”Adéquation algorithme-architecture, traitements embarqués” du GdR IASIS. La conduite moto constitue une tâche perceptivo-motrice exigeante dans laquelle les stratégies visuelles du conducteur jouent un rôle central pour l’anticipation, le contrôle de la trajectoire et la sécurité. Les capteurs neuromorphiques, qui permettent de collecter des données parcimonieuses avec une haute résolution temporelle, ouvrent des perspectives prometteuses pour des traitements frugaux en situations dynamiques. Toutefois, leur pertinence pour caractériser les stratégies visuelles humaines en conduite reste à démontrer. L’objectif du projet EVENT-MOTO est de poser les premières briques méthodologiques permet- tant d’exploiter des données neuromorphiques pour caractériser des stratégies visuelles de conducteurs moto en situation de conduite simulée. Le projet repose sur une approche de co-conception instrumentation-traitement des données : intégration d’un capteur de vision évènementiel dans une plateforme dynamique existante, synchronisation multi-modale avec un oculomètre, et développement d’algorithmes d’analyse d’évènements compatibles avec des contraintes temps réel. Le projet cible deux verrous principaux : (1) la définition d’une méthodologie d’étalonnage adaptée au contexte fortement dynamique de la conduite moto, et (2) la construction d’un premier indicateur (ou de plusieurs) à partir de données d’imagerie évènementielle permettant de caractériser des stratégies visuelles, évalué(s) sur un nombre de participants à définir en fonction de l’avancement du projet. Le résultat attendu est une preuve de faisabilité, sous la forme d’une première instrumentation intégrée, d’une méthodologie d’étalonnage validée, d’un jeu de données multimodales et d’une étude exploratoire d’indicateurs pouvant caractériser les stratégies visuelles en utilisant des données d’imagerie évènementielle. Ces travaux pourront servir de base à des projets ultérieurs en lien avec la sécurité routière et la formation des motocyclistes.
  • Plans de transport et rectitude des flots en modèles de diffusion
    • Samuel Hurault, LIGM, samuel.hurault@univ-eiffel.fr
    • Résumé : Les modèles génératifs modernes, en particulier les modèles de diffusion et de flow matching (FM), ont démontré une capacité remarquable à modéliser des distributions de données complexes. Leur efficacité repose de manière cruciale sur le choix du couplage reliant la distribution source à la distribution cible lors de l’apprentissage. En pratique, ce couplage est souvent choisi pour des raisons de simplicité ou de coût de calcul, sans compréhension théorique précise de son impact sur la géométrie des trajectoires apprises et la précision de l’échantillonnage. Ce projet vise à analyser le rôle du couplage dans les méthodes FM, en exploitant les liens récents entre transport optimal et modèles génératifs. L’objectif est de caractériser théoriquement l’influence du couplage sur la rectitude des trajectoires et sur l’erreur d’apprentissage du champ de vitesse. Une attention particulière sera portée aux couplages induisant des trajectoires rectilignes ou quasi-rectilignes, comme le plan de transport optimal, ainsi qu’à leurs approximations utilisées en grande dimension. Le projet combinera analyses théoriques, d’abord dans des cadres simplifiés (distributions gaussiennes, modèles linéaires ou réseaux peu profonds), et validations expérimentales sur des données images avec des architectures de type UNet. Sur la base de ces résultats, nous proposerons des critères de comparaison entre les différentes approximations du transport optimal et développerons des méthodes permettant d’apprendre de nouveaux types de couplages, adaptés aux types de données considérées. A terme, ce travail vise donc à fournir des fondements théoriques solides pour concevoir des modèles génératifs à la fois plus efficaces, plus précis et mieux maîtrisés.
  • Ver de Roscoff : Détection Multi-Échelle Spectrale
    • Claire Guilloteau claire.guilloteau@univ-littoral.fr
    • Résumé : Le projet VERDEMES vise à explorer la faisabilité de la détection du ver de Roscoff (Symsagittifera roscoffensis), organisme photosymbiotique bioindicateur des écosystèmes littoraux, à partir de données hyperspectrales acquises à différentes échelles d’observation. Il s’inscrit à l’interface entre imagerie hyperspectrale, traitement du signal et biologie intégrative. L’enjeu est d’exploiter conjointement des données satellitaires à large couverture spatiale mais de résolution spatiale et spectrale limitée, avec des données aéroportées à haute résolution spatiale et spectrale mais localisées, acquises en conditions réelles. Cette exploitation conjointe est aujourd’hui limitée par plusieurs verrous : désalignement des acquisitions multi-capteurs, mélanges spectraux non linéaires en milieu côtier et absence de cadre unifié traitant simultanément de la fusion et de la complétion de données à couverture partielle, sans annotation fiable. Le projet propose d’explorer un cadre méthodologique unifié de fusion-complétion basé sur l’apprentissage non supervisé d’un espace latent partagé entre données satellitaires et données aéroportées. Des modèles génératifs de type autoencodeurs seront étudiés pour capturer les relations spatiales et spectrales non-linéaires et évaluer leur capacité à reconstruire une information haute résolution sur des zones observées uniquement à basse résolution. Le caractère exploratoire du projet réside à la fois dans le développement de méthodes de fusion-complétion adaptées à des données hyperspectrales réelles et dans leur application à un problème biologique encore inexploré en télédétection. À notre connaissance, le suivi du ver de Roscoff repose essentiellement sur des observations in situ et l’exploitation de l’imagerie hyperspectrale pour sa détection n’a pas été étudiée. L’objectif n’est pas de produire un outil opérationnel à court terme, mais de lever des verrous méthodologiques fondamentaux ouvrant la voie à de futurs projets applicatifs à plus grande échelle. Le travail s’effectuera en collaboration étroite entre le LISIC (Ulco), expert en imagerie hyperspectrale et en fusion de données, et l’UMR UGSF (ULille), spécialisée en biologie intégrative et en écologie des organismes photosymbiotiques.

Les commentaires sont clos.