Réunion

Les commentaires sont clos.

Méthodes à noyaux à grande échelle

Date : 22-11-2024
Lieu : Paris, Institut des Systèmes Complexes, amphi TOTEM, 11 Place Nationale, Paris

Thèmes scientifiques :

    Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.


    S'inscrire à la réunion.

    Inscriptions

    26 personnes membres du GdR ISIS, et 54 personnes non membres du GdR, sont inscrits à cette réunion.

    Capacité de la salle : 100 personnes.

    Annonce

    Journée co-organisée avec le GDR MAIAGES

    Depuis son développement notamment autour des travaux d'Aronszajn au début des années 50, la théorie des espaces à noyau reproduisant s'est révélée être un outil puissant à de nombreux égards, et a donné naissance à de multiples algorithmes pour l'analyse de données multivariées. Ces modèles bénéficient de bonnes propriétés statistiques, comme p.ex. les méthodes d'estimation non paramétrique à noyau qui permettent une forme d'adaptativité à la régularité de la fonction estimée, tout en donnant lieu à des algorithmes relativement simples à implémenter. Ce formalisme a par ailleurs été utilisé et développé dans de multiples directions connexes, comme l'inférence bayésienne (processus gaussiens), la généralisation d'algorithmes linéaires d'apprentissage non supervisés, la manipulation de données structurées et de distributions de probabilités, etc.

    Toutefois, l'utilisation de telles méthodes sur de grands volumes de données se heurte à des verrous calculatoires, et le développement de techniques d'approximation permettant leur passage à l'échelle constitue aujourd'hui encore un axe de recherche important. Cette journée aura pour but d'effectuer un tour d'horizon des développements de ces dernières années autour de ces thématiques, qu'ils soient fondamentaux ou appliqués. Il s'agira de favoriser les échanges interdisciplinaires entre les communautés faisant appel à ou développant ces outils.

    Orateurs invités

    Florence d'Alché-Buc (Télécom Paris)

    Francis Bach (DI ENS)

    Francois Bachoc (Univ. de Toulouse)

    Michaël Fanuel (Univ. de Lille)

    Hachem Kadri (Univ. Aix-Marseille)

    Appel à contributions

    La journée est ouverte aux contributeurs extérieurs. Si vous souhaitez présenter vos travaux, merci d'envoyer un résumé d'une page maximum à :

    antoine.chatalic@gipsa-lab.fr

    simon.barthelme@gipsa-lab.fr

    avant le 22.10.2024.

    Organisateurs

    Antoine Chatalic et Simon Barthelmé (Gipsa-lab, Grenoble)

    Programme

    • 9h30: Florence d'Alché-Buc (Télécom Paris) - Randomized sketches for Structured Prediction: unlocking scalability and expressivity
    • 10h15: Étienne Lassalle (ENS Lyon) - Apprentissage compressif pour la reconstruction de matrices de précision parcimonieuses
    • 10h35-11h: Pause café
    • 11h: F. Bachoc (Univ. de Toulouse) - Improved learning theory for kernel distribution regression with two-stage sampling
    • 11h45: Hachem Kadri (Univ. Aix-Marseille) - Orthogonal random features: from classical to quantum
    • 12h30-14h: Pause déjeuner
    • 14h: Michaël Fanuel (Univ. de Lille) - Nonparametric estimation of continuous determinantal point processes with kernel methods
    • 14h45: Perrine Lacroix (Univ. Nantes) - Quantile non asymptotique d?un test à noyau à deux échantillons
    • 15h05: Jean-Marc Mercier (MPG Partners) - Quelques approches RKHS à grande échelle
    • 15h25: Benjamin Charlier (Univ. Montpellier) - Présentation de la bibliothèque KeOps
    • 15h45-16h10: Pause café
    • 16h10: Franck Dufrenois (Univ. du Littoral Côte d'Opale) - Analyse discriminante à noyau collaborative pour l?apprentissage supervisée à grande échelle
    • 16h30: Olivier Lafitte (Univ. Sorbonne Paris Nord) - Explicit reproducing kernels for simple Sobolev spaces
    • 16h50: Francis Bach (DI ENS) - Physics-informed kernel learning
    • fin des exposés prévue à 17h35