Le GdR IASIS lance régulièrement des appels à projets pour soutenir des travaux de recherche à fort caractère prospectif dans les domaines de l’information, de l’apprentissage, du signal, de l’image et de la vision. Seuls les projets amont, en rupture avec les travaux connus dans le champ scientifique du projet, seront retenus. Les projets présentés doivent se référer explicitement aux thèmes de recherche du GDR IASIS.
Sont éligibles les projets qui comptent des chercheur.e.s appartenant aux différents laboratoires du GdR IASIS ou du Club des Partenaires. L’un au moins de ces laboratoires doit être un laboratoire CNRS (UMR, UPR ou URA).
Les réponses à l’Appel à Projet du GdR portées par les jeunes permanent.e.s seront privilégiées.
Projets de recherche 2023
Les projets sélectionnés à l’issue de l’appel à projets 2023 sont les suivants.
Chaque projet retenu
- est financé à hauteur de 7k€ ;
- fera l’objet d’une présentation lors de la l’assemblée générale du GdR IASIS ;
- sera clôturé à l’issue des 24 mois sur la base d’un rapport de fin de projet.
robuSt joInt Detection-estimation mEthodologies foR massivE rAdio teLescopes (SIDERAL)
Stefano Fortunati, L2S
Contact: stefano.fortunati@centralesupelec.fr
Résumé :
The aim of the project SIDEREAL – robuSt joInt Detection-estimation mEthodologies foR massivE
rAdio teLescopes is to bring in the context of modern radio telescope systems the recent advances in massive antenna arrays, that have been made possible by the use of robust statistics. Specifically, along with the well known improvements in terms of resolution and Signal-to-Noise Ratio (SNR), it has been recently shown that the high (massive) number of antennas can be exploited to develop detection algorithms able to guarantee a predetermined performance level regardless the possibly non-Gaussian, and generally unknown, statistical characterization of the disturbance/noise. The rationale underlying this fundamental outcome is in a radical change of the “asymptotic” paradigm. In classical array processing applications of robust statistics, the idea was to collect a set of temporal snapshots (i.e., observations of the same scene taken at different time instants) big enough to justify the use of asymptotic results. Recent works have shown that more interesting findings can be obtained by collecting only a few (or even a single) snapshot but with an antenna system exploiting a massive (asymptotic) amount of spatially-deployed sensors. Since the massive requirement is perfectly matched by the current (LOFAR) and future (SKA) radio telescopes, the main aim of this project is to exploit the above-mentioned spatial asymptotic statistical paradigm in order to improve the detection and localization of astrophysical sources without assuming any pre-determined statistical characterization of the disturbance. Joint detection-estimation procedures, as well as algorithms for sky imaging will be developed and tested on simulated data. Moreover, the original findings of our project can be perfectly integrated within the ongoing research activity on optimal sensor placement for radio telescopes developed at the SATIE lab.
Estimation de la MAtrice de Covariance spatiale pour l’imagerie de la cohérence UltraSonore (MAC-US)
François Varray, CREATIS
Contact: francois.varray@creatis.insa-lyon.fr
Résumé :
Les maladies cardiovasculaires sont responsables d’un grand nombre de décès en Europe, et il est essentiel de développer des outils de diagnostic et de thérapie pour améliorer la prise en charge des patients atteints de ces maladies. Le projet MAC-US vise à quantifier la structure tissulaire du muscle cardiaque à une échelle millimétrique à l’aide de l’imagerie par ultrasons (US) en 3D, une alternative performante comparée à l’imagerie par résonance magnétique (IRM). Pour atteindre cet objectif, le projet se concentre sur l’estimation de la matrice de covariance spatiale (MCS) à partir de la cohérence des signaux ultrasonores. En effet, les techniques actuelles ne donnant pas les performances attendues, des approches statistiques d’estimation de la MCS avec un faible support d’échantillon seront étudiées. L’objectif est d’obtenir une estimation précise de l’anisotropie locale du tissu cardiaque, ce qui nécessite des estimations de la MCS de haute qualité.
Un pipeline de comparaison et de test des estimateurs de covariance existants sera mis en place pour évaluer les performances des différentes méthodes. Des données synthétiques et réelles seront utilisées, et des indices de performance seront définis pour comparer les résultats. Par la suite, de nouvelles structures de covariance, adaptées à notre application, seront également étudiées afin de réduire le nombre de variables nécessaires, améliorer l’estimation de l’anisotropie et diminuer la complexité algorithmique. Les caractéristiques statistiques des données expérimentales, telles que le bruit et les valeurs aberrantes, seront prises en compte et des méthodes robustes seront développées. Enfin, l’organisation matricielle des détecteurs ultrasonores de la sonde sera considérée afin d’essayer de réduire au maximum le nombre de paramètres à estimer et faciliter le calcul de l’anisotropie locale.
En résumé, MAC-US est un projet exploratoire qui vise à formaliser et à améliorer les méthodes
de traitement du signal statistique employées pour l’imagerie ultrasonore 3D du muscle cardiaque. À terme, nous espérons développer de nouvelles techniques d’estimation de la structure tissulaire. À long terme, ces avancées pourraient avoir un impact significatif sur la prise en charge des patients atteints de maladies cardiovasculaires.
Segmentation vasculaire par arbre des formes profond (DeepToS)
Elodie Puybareau, LRDE
Contact: elodie.puybareau@lrde.epita.fr
Résumé :
La segmentation du réseau vasculaire 3D est un problème très étudié depuis plus de 20 ans. Les méthodes actuelles par apprentissage profond souffrent d’un résultat de segmentation souvent discontinu, ce qui n’est pas cohérent avec la réalité biologique et est problématique pour de nombreuses applications telles que la simulation de flux. L’arbre des formes est une représentation hiérarchique d’une image issue de la morphologie mathématique qui porte naturellement la notion de composantes connexes dans l’image et de leurs relations d’inclusions. Dans ce projet, nous proposons de transformer le problème de segmentation vasculaire en un problème de classification des nœuds d’un arbre des formes. Ceci nous permettra de formuler une contrainte directe sur le nombre de composantes connexes présentes dans la segmentation résultat et ainsi d’obtenir des segmentations beaucoup plus connectées. Ce projet est divisé en deux phases, une première visant à obtenir les descripteurs de chaque nœud de l’arbre des formes à l’aide, par exemple, d’un autoencodeur de type UNet, et la deuxième à classifier ces nœuds à l’aide d’un GCN afin de sélectionner ceux correspondant au réseau vasculaire.
Apprentissage d’opérateurs proximaux par réseaux de neurones (PROSSIMO)
Mathurin Massias, LIP
Contact: mathurin.massias@ens-lyon.fr
Résumé :
Les problèmes d’optimisation composites sont omniprésents en apprentissage automatique comme en traitement du signal et des images. Calculer un objet – vecteur, signal ou image – comme la solution d’un problème composite, dont l’objectif est la somme de deux fonctions (une attache aux données et un régulariseur) permet en effet d’imposer simultanément deux propriétés à cet objet : une proximité avec les données d’origine, et des caractéristiques comme la stabilité au bruit ou une certaine notion de simplicité (parcimonie dans une base, rang faible, planéité) via le régulariseur. Ces formulations, ainsi que les algorithmes proximaux utilisés pour les résoudre, ont rencontré de grands succès applicatifs, et leurs propriétés théoriques sont abondamment étudiées depuis une vingtaine d’années.
Plus récemment, les méthodes dites “Plug-and-play » (PNP), s’inspirant des algorithmes proximaux, proposent de nouveaux algorithmes itératifs où l’application de l’opérateur proximal du régulariseur est remplacé par un débruiteur préexistant ou un opérateur appris. Contrairement aux méthodes fondées sur la modélisation, ces méthodes sont donc qualifiées de “fondées sur l’apprentissage”. Leur grande flexibilité complique cependant leur analyse théorique, car dans le cas général l’opérateur appris ne possède pas les propriétés intéressantes des opérateurs proximaux.
Dans ce projet, nous proposons d’implémenter et d’étudier des opérateurs PNP via des réseaux de neurones, en garantissant que ces opérateurs correspondent à des opérateurs proximaux. Nous combinerons ainsi la flexibilité des méthodes PNP avec les garanties théoriques rigoureuses des méthodes fondées sur les modèles. Outre l’implémentation de tels réseaux, nous proposons l’étude de leur capacité d’approximation : quelles classes de fonction peuvent-ils approcher, à quelle vitesse, avec quels besoins en neurones et nombres de couches ? Dans un deuxième temps, nous proposons l’intégration de tels réseaux dans les approches de réseaux de neurones déroulés pour l’estimation parcimonieuse de paramètres. Dans ce cadre, nous aborderons plusieurs questions, parmi lesquelles la possibilité d’apprendre des opérateurs proximaux optimaux au sens de l’estimation parcimonieuse.
Mobile Manipulator control based on Spherical Vision (M2SV)
Nathan Crombez, JRL
Contact: nathan.crombez@utbm.fr
Résumé :
Les manipulateurs mobiles sont des systèmes robotiques composés d’un ou de plusieurs bras manipulateurs montés sur une plateforme mobile. La mobilité de la base couplée à la dextérité du bras manipulateur offre une flexibilité d’utilisation très intéressante pour de nombreux domaines d’applications tels que l’industrie, l’agriculture, le domaine spatial, la santé ou encore les services d’aide à la personne. Bien que les bras manipulateurs et les robots mobiles aient largement été étudiés indépendamment, leur combinaison apporte de nouvelles questions et de nouveaux défis scientifiques. Par exemple, planifier efficacement les mouvements et le contrôle des deux éléments afin d’accomplir une tâche spécifique dans des environnements non structurés reste un problème ouvert.
La plupart des solutions existantes peut être classée en deux catégories. D’un côté, les méthodes qui divisent le problème en deux sous-tâches indépendantes et successives, l’une pour la base mobile et la seconde pour le bras manipulateur séparément. Par opposition, d’autres approches considèrent le système dans son intégralité. En général, chaque élément exploite des données provenant de capteurs différents, par exemple, la base mobile utilise des données Lidar afin de se localiser et de se positionner dans l’environnement, et le bras robotique utilise des informations provenant d’une caméra embarquée au niveau de son organe effecteur pour atteindre une pose souhaitée. L’objectif de ce projet est d’étudier et de proposer des solutions de contrôle d’un robot mobile manipulateur basées uniquement sur les données provenant d’un seul dispositif d’acquisition visuel. Il vise à exploiter les avantages offerts par la vision sphérique afin de concevoir une loi de contrôle pour l’ensemble du manipulateur mobile. L’idée est d’installer ce dispositif d’acquisition sphérique de manière à être en mesure de capter suffisamment d’information visuelle pour contrôler simultanément la base et
le bras. Nous envisageons de modéliser ce contrôle basé vision sous la forme d’un double asservissement visuel, l’un en configuration eye-in-hand et l’autre en configuration eye-to-hand pour commander respectivement la base et le bras.
Projets de recherche 2021
Les projets sélectionnés à l’issue de l’appel à projets 2021 sont les suivants :
opEn pLAtform for roBust geOmetRic clAssificaTion of Eeg (ELABORATE)
Contact : florent.bouchard@centralesupelec.fr
Résumé :
Le projet opEn pLAtform for roBust geOmetRic clAssificaTion of Eeg (ELABORATE) considère le problème du traitement et de la classification de données d’électroencéphalographie (EEG) à l’aide de méthodes reposant sur les statistiques robustes et la géométrie riemannienne. Les données EEG souffrent d’un très faible rapport signal à bruit ainsi que de perturbations très nombreuses qui mettent à mal l’hypothèse de gaussianité traditionnellement faite par les méthodes de traitement utilisées à l’heure actuelle. Ainsi, en proposant d’étendre les travaux de l’état de l’art, qui se reposent sur un modèle gaussien, à des modèles non-gaussiens et en prenant en compte des structures géométriques intrinsèques de matrices de covariance, une amélioration des performances de classification est attendue.
Un autre axe de recherche sur la classification en ligne à l’aide de techniques d’optimisation riemannienne permettra de répondre aux problématiques de la grande quantité de données ainsi que de la variabilité de celles-ci face aux différents scénarios d’expérimentation.
Enfin, le projet mènera une démarche d’intégration des outils développés au sein de librairies et de plateformes libres déjà existantes au sein de la communauté EEG afin de favoriser la reproductibilité des résultats et la démocratisation des méthodes robustes par les praticiens d’expérimentations en EEG.
Vers un IOT efficace et protégeant la confidentialité des données par le mariage de l’apprentissage fédéré et des technologies FPGA (FLNCCFPGA)
Contact : mathieu.leonardon@imt-atlantique.fr
Résumé :
Les systèmes de traitements du signal et de l’image reposent de plus en plus sur l’intelligence artificielle. De nombreux services reposent sur la combinaison (i) d’une collecte massive de données et (ii) de puissants algorithmes d’apprentissage machine. L’apprentissage classique consiste à transférer les données chez les fournisseurs de service, où elles sont utilisées pour affiner les modèles. Malheureusement, une telle approche n’est plus possible aujourd’hui car : (i) elle ne passe pas à l’échelle, (ii) elle ne respecte pas la vie privée des utilisateurs. Une approche émergente, l’Apprentissage Fédéré, vise à inverser le processus d’apprentissage, en déplaçant le calcul (apprentissage des modèles) vers les données (utilisateurs). Si cette approche est très étudiée et fonctionne relativement bien dans un cadre de type Edge Computing, où les périphériques ont globalement une puissance de calcul importante, elle est en revanche beaucoup plus difficile à mettre en place dans un cadre IoT, où les périphériques ont des contraintes de puissance et de coût. Ces contraintes impliquent donc d’adapter les architectures matérielles utilisées, qui disposent d’une puissance de calcul moindre.
Elles impliquent également de faire évoluer l’approche de l’Apprentissage Fédéré, en la rendant plus flexible du point de vue de la répartition des calculs et des données. La résolution de cette double problématique nécessite de combiner des expertises diverses : modélisation des architectures d’Apprentissage Fédéré, implémentation efficace des algorithmes d’apprentissage sur cibles matérielles et calculs distribué. Le projet s’appuie donc sur une nouvelle collaboration entre le Lab-STICC et le laboratoire Hubert Curien afin de maı̂triser l’ensemble des thèmes abordés. L’objet du présent projet est d’apporter une double contribution dans ce domaine : 1. inventer des méthodes d’entraı̂nement de modèles sur FPGA, cible matérielle offrant un compromis de premier ordre entre puissance de calcul, flexibilité, efficacité énergétique et coût et 2. inventer des formes d’apprentissage fédéré les mettant à profit. L’impact économique et social sera extrêmement important, puisque les fournisseurs de service pourront continuer à offrir des services ultra-personnalisés, sans violer la vie privée dans un service aux particuliers et sans compromettre des données confidentielles dans un service aux entreprises.
Vérification de l’intégrité des documents basée sur des extracteurs flous (FuzzyDoc)
Contact : iuliia.tkachenko@liris.cnrs.fr
Résumé :
De nos jours, la sécurité des documents, qu’ils soient au format électronique ou numérisés, est devenue un véritable problème. Pour y remédier, de nombreuses approches de vérification d’intégrité ont été développées dans la littérature scientifique. Le défi consiste à trouver des caractéristiques robustes aux processus d’impression et de numérisation. Dans le projet FuzzyDoc, nous souhaitons établir une méthodologie pour la détection de fraudes et la vérification d’intégrité dans les documents numérisés.
Les contrefaçons considérées peuvent être un changement ou une suppression de caractère, ou encore une modification de la police ou de son style. Ainsi, la signature utilisée pour représenter le document devra permettre de détecter des modifications, mêmes minimes, opérées sur le document numérisé. Pour cela, nous proposons de nous inspirer des méthodes utilisées en biométrie pour l’extraction de caractéristiques robustes. En effet, comme en biométrie, lorsqu’un document électronique est imprimé et numérisé plusieurs fois, l’image obtenue du document est légèrement différente en raison des caractéristiques optiques des dispositifs de capture. Ainsi, les caractéristiques extraites ont un caractère flou : bien que proches, elles sont rarement identiques. Il s’agira donc d’investiguer l’utilisation des extracteurs flous pour discriminer les modifications sur le document numérisé dues aux processus d’impression et de numérisation de celles de nature malicieuse.
Vision Omni-HDR pour la localisation et cartographie visuelles en environnement à large gamme de radiance (HaDROs)
Contact : guillaume.caron@aist.go.jp
Résumé :
L’objectif de ce projet est de revisiter le problème de localisation et cartographie simultanées basées vision (SLAM visuel) en environnement à large gamme de radiance, problématique défiant toujours la vision par ordinateur et la robotique. Il s’appuie sur un type émergeant de capteur multi-vue et multi-exposition temps-réel pour la vision panoramique à large gamme dynamique. En effet, ce nouveau type de capteur ouvre la voie à des solutions disruptives pour le SLAM visuel. Si, par la maximisation du champ de vue utile qu’il offre, il semble régler le problème de gamme dynamique limitée des caméras existantes, il pose toutefois de nouvelles questions de représentation des environnements. Ce projet vise donc à explorer ces questions en abordant les cartes multiples localement denses, selon la radiance de la scène, pour assurer une localisation fiable même quand l’illumination dynamique est difficile, notamment lorsqu’il existe des parties changeantes de la scène éclairées directement par le soleil, alors que d’autres restent dans l’ombre.
Multilevel optimization methods for image restoration and graph signal processing (MOMIGS)
Contact : elisa.riccietti@ens-lyon.fr
Résumé :
Nowadays optimization problems in signal processing and imaging are characterized by their increasing dimension. A natural way to tackle such increasingly large problems is to exploit their underlying structure, and to represent them at different resolution levels. The use of multiresolution schemes, such as wavelets transforms, is not new in imagining and is widely used to define regularization strategies. However, such techniques could be used to a wider extent, in order to accelerate the optimization algorithms used for their solution and to tackle large datasets. Techniques based on such ideas are usually called multilevel optimization methods and are well-known and widely used in the field of smooth optimization and especially in the solution of partial differential equations. Optimization problems arising in image reconstruction are however usually nonsmooth and thus solved by proximal methods. Such approaches are efficient for medium scale problems but still computationally demanding for problems with very high-dimensional data.
In this project, we propose to combine proximal methods and multiresolution analysis not only as a regularization, as already proposed in the literature, but as a solution to accelerate proximal algorithms. Moreover, we will tackle also the extension of the multilevel algorithmic solutions to the context of graph reconstruction. Multiscale representation of graph signals is still a debated issue, as several multiresolution analysis schemes were proposed but none of them is really associated to embedded approximation spaces.
Réseaux génératifs et transport optimal pour la restauration d’images (REGETO)
Contact : moncef.hidane@univ-tours.fr
Résumé :
En une décennie, les réseaux convolutifs profonds se sont imposés comme le paradigme principal dans le domaine de la vision par ordinateur. Les méthodes basées sur ces réseaux profonds figurent à présent, invariablement, en tête de toutes les compétitions de détection, de reconnaissance et de suivi d’objets. Depuis quelques années, ces méthodes d’apprentissage sont également employées pour résoudre des problèmes de vision de bas niveau, en particulier pour la restauration et la reconstruction des images. Dans ces deux domaines, ces nouvelles méthodes, basées sur l’utilisation d’ensembles d’apprentissage massifs, sont en concurrence avec l’approche analytique variationnelle, dans laquelle une estimation de l’image latente est obtenue en minimisant une fonction de coût composée d’une pénalité permettant d’induire des propriétés structurelles (parcimonie de la représentation ou de la réponse à des filtres passe-haut, redondance de patchs) et d’un terme d’attache aux données.
Récemment, on assiste à l’émergence d’un nouveau cadre méthodologique pour résoudre des problèmes de restauration et de reconstruction d’images, consistant à coupler l’approche variationnelle et l’utilisation de réseaux profonds. Deux grandes familles d’approches se distinguent au sein de ce nouveau cadre, selon que l’ensemble d’apprentissage est utilisé pour ajuster les paramètres d’un réseau de neurones bout-en-bout (end-to-end) ou pour définir la fonction de régularisation.
Nous nous intéressons dans ce projet à des problèmes de restauration d’images, incluant le débruitage, la complétion, la réduction de flou et la super-résolution. L’approche adoptée s’inscrira dans la famille des méthodes variationnelles basées sur l’apprentissage profond. L’objectif est de favoriser des solutions dont les propriétés statistiques sont proches d’un modèle génératif appris en amont sur un ensemble d’images cibles. Pour cela, les avancées récentes dans le domaine du transport optimal numérique seront employées et adaptées afin de définir une divergence entre la distribution empirique associée aux patchs de l’image recherchée et celle d’un modèle génératif profond. La réussite de la mise en œuvre de cette approche nécessite de lever certains verrous scientifiques liés, d’une part, à la modélisation du problème, en particulier la régularisation et la relaxation du transport afin d’éviter la création d’artefacts, d’autre part, à sa mise en œuvre numérique.
SEntinel time series SUper REsolution (SENSURE)
Contact : nicolas.audebert@cnam.fr
Résumé :
L’observation de la Terre est un outil majeur pour la modélisation des phénomènes dynamiques géologiques, océaniques, géographiques, et météorologiques. Pourtant, la discipline fait face à un dilemme majeur : est-il préférable d’obtenir souvent des images à faible résolution spatiale ou bien des images détaillées mais plus espacées dans le temps ? À l’heure actuelle, le parti des agences spatiales, et tout particulièrement de l’Agence spatiale européenne (ESA) à travers le programme Copernicus et des constellations Sentinel-1 et -2, est de préférer une fréquence de revisite élevée en sacrifiant les détails dans les images. Ce choix facilite le suivi des phénomènes dynamiques mais la résolution spatiale des capteurs (supérieur à une dizaine de mètres) est alors insuffisante pour analyser le niveau de détails correspondants à des structures fines présentes notamment dans les zones urbaines (bâtiments, routes, arbres isolés).
Le projet SEntinel time series SUper REsolution (SESURE) s’intéresse à développer des approches de super-résolution de séquences d’images satellitaires qui tire bénéfice de la structure temporelle des données. En exploitant l’apprentissage profond sur la masse de données Sentinel-2 acquises sur le territoire métropolitain depuis 2015, SESURE permettra d’inférer une structure subpixellique des pixels dans différentes couleurs dont l’information à moyenne résolution est disponible à plusieurs dates. En outre, le projet s’appuiera sur les données ouvertes SPOT-6 et -7 comme référence réelle à haute résolution et Sentinel-2 pour les séries d’images à basse résolution, contrairement aux méthodes de l’état de l’art actuel qui se borne bien souvent à des évaluations sur des données synthétiques.
SESURE vise ainsi à quantifier l’écart informationnel entre les séries temporelles Sentinel-2 et les acquisitions RGB SPOT très haute résolution. Notamment, nous étudierons l’existence de transformations, réversibles ou non, permettant de passer d’une modalité à l’autre, et ainsi à résoudre le dilemme fréquence d’acquisition/résolution auquel fait actuellement face la communauté de la vision par ordinateur pour la télédétection.
SParse & non-convex optimisation for Learning of Inverse image microscopy problems (SPLIN)
Contact : calatroni@i3s.unice.fr
Résumé :
The objective of this project is to push forward the limitations of existing sparse-based approaches for inverse problems in microscopy.
Projets de recherche 2019
Les projets sélectionnés à l’issue de l’appel à projets 2019 sont les suivants :
———————————————————————————–
Apprentissage Profond à partir de REprésentations Structurelles d’images (APRES)
Contact : michael.clement@labri.fr
———————————————————————————–
Représentation spatio-temporelle de la DYNAMIque de la Connectivité fonctionnelle en IRMf cérébrale (DYNAMIC)
Contact : meillier@unistra.fr
————————————————————————————
Fine modelling in super resolution microscopy (FILMOSUREMI)
Contact pierre.armand.weiss@gmail.com
————————————————————————————-
GéOmétrie relativiste et ALgèbre quantique pour la VISION colorée (GOALVISION)
Contact : michel.berthier@univ-lr.fr
————————————————————————————–
Masques de phases optimisés pour l’augmentation de profondeur de champ en microscopie de molécules uniques (MASK)
Contact : caroline.kulcsar@institutoptique.fr
—————————————————————————————
pOlarimetric Phase rEtrieval : uNIqueNess and alGorithms (OPENING)
Contact : julien.flamant@univ-lorraine.fr
—————————————————————————————-
Régularisation de Modèles Génératifs Adverses (RéMoGA)
Contact : arthur.leclaire@math.u-bordeaux.fr
—————————————————————————————-
Robustesse de l’Apprentissage Profond (RobustNets)
Contact : vincent.gripon@imt-atlantique.fr
—————————————————————————————–
signal detection via multiple Testing And Selective inference : TheorY And Practice (TASTY)
Contact : david.mary@unice.fr
——————————————————————————————
Chacun de ces neuf projets bénéficie d’un soutien de 7 k€ et dure 24 mois.
Projets de recherche et projets jeunes chercheurs 2016
Documents à télécharger :
Les projets sélectionnés à l’issue de l’appel à projets 2016 sont les suivants :
- ON FIRE, Nabil El Korso (LEME) – projet « Jeunes chercheurs » – thème A
- FSO-MIMO, Ligong WANG (ETIS) – projet « Jeunes chercheurs » – thème D
- ICON 3D, Thomas Maugey (INRIA Rennes) – projet industriel – thèmes D-B
- IRMmultiT2Bio, Saïd Moussaoui (IRCCyN) – projet interdisciplinaire – thèmes A-B
- SIMPADEC-NB, Bertrand LE GAL (IMS) – projet industriel – thèmes C-D
- SUNSTAR, Nicolas Le Bihan (Gipsa-Lab) – projet interdisciplinaire – thème A
- ACODIF, Agnès DELAHAIES (CReSTIC, EA 3808) – projet « Jeunes chercheurs » – thèmes A-D
- MORDRED, Karol DESNOS (IETR) – projet « Jeunes chercheurs » – thème C
Chacun de ces huit projets bénéficiera d’un soutien de 7 k€.
Projets de recherche exploratoires 2014
Documents :
Projets sélectionnés : (Cliquer sur les titres des projets pour accéder aux rapports scientifiques)
- ASPIRIM (apprentissage supervisé et interactif pour la restauration des images), Charles Deledalle, Camille Sutour (IMB, UMR 5251), Joseph Salmon (LTCI, UMR 5141). [Rapport scientifique du projet.]
- Blind-SIM II (optimisation statistique et numérique en microscopie à éclairement structuré), Jérôme IDIER, Sébastien BOURGUIGNON, Penghuan LIU (IRCCyN), Anne SENTENAC, Marc ALLAIN, Simon LABOUESSE (Institut Fresnel). [Rapport scientifique du projet.]
- CINÉDI (conception interactive d’une hiérarchie de haut niveau sémantique de descripteurs d’images), Muriel Visani (L3i), Thierry Urruty (XLIM/SIC). [Rapport scientifique du projet.]
- ProGest (prolongement du geste pour la création musicale), Valentin Emiya (LIF, UMR 7279), Mathieu Laurière (LJLL, UMR 7598), Charles Bascou (gmem,CNCM-Marseille). [Rapport scientifique du projet.]
- TAbaSCO (trajectoires sémantiques pour l’étude de la corrosion), Renaud Péteri, Laurent Mascarilla, Cyrille Beaudry (Laboratoire MIA), Ewa Kijak, Petra Bosilj (Equipe TexMex, IRISA), Xavier Feaugas, Jamaa Bouhattate, Jiaqi Li, Abdelali Oudriss (Laboratoire LaSIE). [Rapport scientifique du projet.]
- TexTO (modélisation et synthèse de textures par transport optimal), Julien Rabin (GREYC, UMR 6072), Bruno Galerne, Arthur Leclaire (Laboratoire MAP5, UMR 8145). [Rapport scientifique du projet.]
- TIMEX (traitement d’images pour la mécanique des solides expérimentale), Frédéric Sur (LORIA), Michel Grédiac, Benoît Blaysat (Institut Pascal). [Rapport scientifique du projet.]
Projets « jeunes chercheurs » 2013
Documents à télécharger :
Projets sélectionnés : (Cliquer sur les titres des projets pour accéder aux rapports scientifiques)
- AMOR (analyse d’images de télédétection à grande dimension temporelle), Rémi Flamary (Laboratoire Lagrange), Mauro Dalla Mura (GIPSA lab), Silvia Valero-Valbuena (CESBIO), Mathieu Fauvel (DYNAFOR). [Rapport scientifique du projet.]
- CHASM (reconfigurable hardware architecture for SLAM), Jérémie Crenne (IMS), Jonathan Piat (LAAS). [Rapport scientifique du projet.]
- GALILEO (segmentation de signaux et images par analyse d’invariance d’echelle, régularité locale et optimisation convexe non-lisse), Nelly Pustelnik (ENS Lyon), Herwig Wendt (IRIT). [Rapport scientifique du projet.]
- Méthodes d’optimisation pour l’imagerie biphotonique, Emilie Chouzenoux (LIGM), Caroline Chaux (LATP), Franck Debarbieux (IBDML). [Rapport scientifique du projet.]
- Nano-cartographie du cytosquelette cellulaire par processus stochastiques, Florent Chatelain (GIPSA-Lab), Laurent Guyon (LPCV). [Rapport scientifique du projet.]
- Optimisation globale pour la résolution de problèmes parcimonieux en norme l0, Sébastien Bourguignon (IRCCyN), Jordan Ninin (ENSTA-Bretagne, Lab-STICC). [Rapport scientifique du projet.]
- Traitement d’antennes pour les grands réseaux de capteurs, Pascal Vallet (IMS), Romain Couillet (Supélec). [Rapport scientifique du projet.]
Projets « jeunes chercheurs » 2011
- Robust Wireless Network Coding: Joint Network/Channel Decoding for Cooperative Wireless Networks (JNCD4CoopNets), Marco Di Renzo, Charly Poulliat
- BISOU (BIStochastic Optimization and application to mUltiple kernel learning), Sandrine Anthoine, Liva Ralaivola, Marie Szafranski, Matthieu Kowalski, Thomas Peel
- Modélisation de la Reconfiguration Dynamique appliquée à un décodeur LDPC Non Binaire, Laura Condé-Canencia, Jean-Christophe Prévotet, Yaset Oliva, Yvan Eustache
- Compression et Transmission Adaptatives de Maillages 3D, Céline Roudet, Basile Sauvage, Frédéric Payan, Sandrine Lanquetin
- Reconstruction en 3D de scènes urbaines denses a partir de données lidar aériennes multi-échos, Florent Lafarge, Clément Mallet, Bruno Vallet
- Transport optimal pour la synthèse et la modification des images, Julien Rabin, Gabriel Peyré
- Coopération des chemins minimaux et contours actifs polygonaux pour la détection d’objets, Julien Mille, Sébastien Bougleux, Laurent D. Cohen