Décompositions canoniques structurées
Les décompositions structurées visent à représenter des données potentiellement de grande dimension sous la forme d’une combinaison d’éléments simples. Un exemple typique est la factorisation en matrices non-négatives (NMF). Ces approches sont aujourd’hui très utilisées dans des applications de compression, fouille et reconstruction de données, de recommandation, de vision par ordinateur, etc.
Certains aspects méritent encore d’être approfondis, comme la sélection automatique du rang de factorisation, la prise en compte de la phase dans la NMF, les factorisations couplées entre jeux de données hétérogènes, ou les décompositions adaptatives/en ligne de données non stationnaires. Les aspects algorithmiques présentent aussi un enjeu important : réduction du temps de calcul pour le traitement de données massives (algorithmes rapides, méthodes stochastiques), robustesse à l’initialisation, calcul parallèle/distribué.
Modèles et décompositions tensoriels
A l’ère des big data, les outils de traitement du signal et tout particulièrement les outils tensoriels devraient jouer un rôle de tout premier plan, dans de nombreuses applications, pour résoudre des problèmes de compression multimodale, de fouille de données (data mining), d’estimation de données manquantes, de représentation et d’analyse de données de très gros volume. De nouveaux modèles tels que les trains de tenseurs, les réseaux de tenseurs, ou encore les tenseurs sur des graphes, qui ont été développés récemment, ouvrent des perspectives de recherche très intéressantes.
L’unicité, l’identifiabilité, la visualisation graphique, ainsi que le développement d’algorithmes d’optimisation permettant d’estimer tant la structure que les paramètres de ces modèles, en prenant en compte des contraintes de temps de calcul et de place mémoire, constituent des champs de recherche importants. Des traitements décentralisés et en temps réel devraient déboucher sur de nouvelles architectures multi-cœurs pour l’implémentation de ces algorithmes. Enfin, le développement de benchmarks disponibles au sein du GdR ISIS serait d’une grande utilité pour la validation, l’évaluation et la comparaison de nouvelles technique tensorielles de modélisation ainsi que des algorithmes d’optimisation associés, pour les big data, dans les domaines d’application relevant par exemple du biomédical, de l’environnement ou encore des télécommunications.
Représentations parcimonieuses et acquisition compressée
La notion de problème inverse demeure centrale pour aborder les problèmes prototypiques de traitement du signal et de l’image (notamment le coeur de métier en échantillonnage, débruitage, déconvolution, séparation de sources, etc.). Des avancées importantes ont été réalisées au cours de la décennie grâce à la régularisation parcimonieuse et aux techniques d’optimisation non-convexe et/ou non-lisse. Grâce à l’éclosion du traitement du signal sur graphe, des extensions remarquables des outils classiques du traitement du signal ont aussi été obtenues pour de nouvelles classes de données dont la structure irrégulière est capturée par un graphe.
Les approches basées sur la notion de parcimonie au sens traditionnel ont atteint une maturité méthodologique certaine, et celles exploitant la notion de dictionnaire et l’apprentissage ont démontré un fort potentiel pour améliorer la qualité de reconstruction. L’enjeu majeur aujourd’hui est d’en assurer tout le potentiel de déploiement applicatif, en abordant en particulier le verrou de la complexité algorithmique.