Réunion

En l’absence temporaire de gestionnaire dédiée au GdR IASIS, nous sommes malheureusement dans l’impossibilité d’assurer la prise en charge de missions (des membres du GdR souhaitant participer à cette journée) sur le budget du GdR.

Les commentaires sont clos.

Mesures informationnelles classiques, quantiques et généralisations - entropies, divergences, métriques intégrales de probabilité, information de Fisher

Date : 5-07-2024
Lieu : Amphi Hermite, IHP, 11 rue Pierre et Marie Curie, Paris

Thèmes scientifiques :
  • A - Méthodes et modèles en traitement de signal
  • D - Télécommunications : compression, protection, transmission

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.


S'inscrire à la réunion.

Inscriptions

12 personnes membres du GdR ISIS, et 5 personnes non membres du GdR, sont inscrits à cette réunion.

Capacité de la salle : 120 personnes.

Annonce

Mesures informationnelles classiques, quantiques et généralisations – entropies, divergences, métriques intégrales de probabilité, information de Fisher

Depuis les travaux pionniers de Shannon en théorie de l'information (suivant ceux de Hartley, Fadeev, Laplume, Wiener...), de nombreuses mesures d'incertitude ou d'information ont vu le jour, et ce dès le début des années 60, sous de nombreuses formes, que ce soit dans le domaine des mathématiques ou de la physique: entropie de Rényi, entropie d'Arimoto, entropie d'Harvdat-Charvát (redécouverte par Daróczy, Vajda, Lindhardt & Nielsen, Cressie & Reads ou encore Tsallis entre autres !)...

Si l'entropie de Shannon et ses fonctionnelles associées (information mutuelle, divergence de Kulback-Leibler) ont trouvé leur place naturelle dans le domaine des communications, plusieurs de ces entropies apparaissent également naturellement dans divers domaines du traitement du signal ou de la physique: divergence de Kolmogorov en détection, information de Fisher en estimation, divergence de Jensen-Shannon, divergence d'Hellinger en mécanique quantique, entropie de Tsallis pour les systèmes hors d'équilibre, entropie de Rényi-Havrda-Charvát pour des tests d'adéquation, dans le domaine de l'apprentissage ou (au travers) du transport optimal... Les inégalités et identités du « triptyque » usuel variance-entropie de Shannon-information de Fisher, centrées autour de la loi Gaussienne ou plus généralement les lois de la famille exponentielle, trouvent également de plus en plus leur(s) contrepartie(s) mettant en jeu des mesures d'informations généralisées, ou dans le monde de la mécanique quantique.

Cette journée fait suite à celle organisée il y a 7 ans. L'objectif est de faire un tour d'horizon sur les développements récents en théorie de l'information (outils usuels ou généralisés), qu'ils soient fondamentaux (identités, inégalités, conséquences ou implications) ou appliqués dans divers domaines allant des mathématiques à la physique au sens large. Il s'agira de favoriser les échanges interdisciplinaires entre les communautés faisant appel à ou développant ces outils.

La journée s'organisera autour de plusieurs exposés sur un format « tutoriel » et un format court d'expression pour les doctorants, jeunes chercheurs ou chercheurs "confirmés" travaillant sur ces aspects. Un espace poster est également prévu, pour laisser la place au maximum d'intervenants et favoriser les échanges au-delà des seules présentations.

Les propositions de communications (titre et résumé de quelques lignes) sont à envoyer au plus tard le 14 juin aux organisateurs :

  • Anne Humeau-Heurtier : anne.humeau@univ-angers.fr
  • Jean-François Bercher : jf.bercher@esiee.fr
  • Steeve Zozor : steeve.zozor@cnrs.fr

Programme provisoire à venir

Deux orateurs pléniers confirmés : Franck Nielsen et Olivier Rioul

Vendredi 5 juillet 2024 – Amphi Hermite, IHP, 11 rue Pierre et Marie Curie, Paris