Réunion


Journée Vision 3D et Apprentissage

Date : 09 December 2025
Horaire : 10h00 - 17h00
Lieu : Salle Turing, 7e étage, LIPADE, Université Paris-Cité, 45, rue des Saints-Pères, 75006 Paris

Axes scientifiques :
  • Audio, Vision et Perception

Organisateurs :
  • - Sylvie Chambon (IRIT)
  • - Yvain Quéau (GREYC)

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions

3 personnes membres du GdR IASIS, et 6 personnes non membres du GdR, sont inscrits à cette réunion.

Capacité de la salle : 50 personnes. 41 Places restantes

Annonce

Les techniques d’apprentissage profond se sont progressivement imposées comme les outils les plus performants pour résoudre de nombreux problèmes de vision par ordinateur. Toutefois, la vision 3D est fondée sur des concepts théoriques bien établis issus de la physique, qui ne sont pas explicitement pris en compte dans les modèles d’apprentissage. L’objectif de cette journée « Vision 3D et Apprentissage » est de réunir les chercheurs et chercheuses dont les travaux se situent à l’interface entre ces deux domaines.

La journée portera notamment sur ce que peuvent apporter les méthodes d’apprentissage à la vision 3D, et réciproquement, sur comment introduire des aspects de géométrie 3D dans des techniques d’apprentissage. Par exemple, nous chercherons à répondre aux questions suivantes : Pour quels aspects de la vision 3D les méthodes d’apprentissage sont-elles adaptées, et comment les appliquer ? Existe-t-il encore des applications pour lesquelles les méthodes purement géométriques restent plus adaptées et pourquoi ? Comment tenir compte de la dynamique de la scène ou de la déformation des objets dans les méthodes d’apprentissage profond ?

Cette journée aura lieu le 9 décembre 2025 de 10h à 17h. Elle se déroulera à la Salle Turing, 7e étage, LIPADE, Université Paris-Cité, 45, rue des Saints-Pères, 75006 Paris; et inclura deux conférences invitées :

  • Stefanie Wuhrer, INRIA Grenoble – Analysis of deforming 3D shapes
  • Vincent Leroy, Naver Labs – The *3R family: a Foundation Model for (3D) vision

Appel à contributions. Nous lançons également un appel à contribution, notamment à destination des doctorant·e·s. Les personnes souhaitant présenter leurs travaux sont invitées à envoyer, par e-mail, leur proposition (titre et résumé d’une demi-page) aux personnes qui organisent la journée, par email (email : yvain.queau@ensicaen.fr ; sylvie.chambon@toulouse-inp.fr), avant le 20 octobre. Suivant les propositions reçues, nous proposerons une présentation orale ou poster.

Attention : Les outils de gestion CNRS risquant de fermer courant novembre, les demandes de prise en charge de mission ne pourront être acceptées que jusqu’au 7 novembre.

Les organisateurs,
Sylvie Chambon, IRIT, INP Toulouse
Yvain Queau, GREYC, CNRS

Résumés des contributions

Vincent Leroy, Naver Labs

The *3R family: a Foundation Model for (3D) vision

Unconstrained 3D Reconstruction originally presented in DUSt3R has seen a rapid growth in popularity for its ease of use, its robustness and its many potential applications. In some sense, it revolutionized traditional multi-view stereo reconstruction by casting the problem as simply regressing pointmaps. Because they encode scene geometry, camera calibration and pose, this meant a unification of monocular 3D reconstruction, camera calibration, pose estimation and dense 3D reconstruction. It even showed exciting new capabillities for instance when the two views do not share visual content yet observe the same scene. Overall, DUSt3R unifies and simplifies the complex pipeline of traditional photogrammetry, significantly reducing computational overhead and enhancing performance across various tasks. in this talk I will present our latest advances in pursuit of a general and controllable computer vision network, a.k.a. "foundation model" that can solve as many geometric computer vision tasks as possible, and even more...


Stefanie Wuhrer, INRIA Grenoble - Analysis of deforming 3D shapes

Analysis of deforming 3D shapes

This talk presents our recent results on data-driven representations and analyses of deforming 3D shapes. Three classes of shapes will be discussed. First, we focus on human body shapes, where we consider motion sequences digitized by a discrete number of frames, each captured densely as 3D shape. Our recent works allow to generate human motion sequences using retargeting, where a target body shape is animated with the motion extracted from a source sequence of body shapes. We further studied how the resulting 3D human body motion sequences can be evaluated in a way that correlates with human perception. Second, we focus on clothing worn by humans during motion, where we discuss how diffusion models can be used to generate detailed deforming 3D clothing based on human body shape, motion, and material parameters of the cloth. Finally, we focus on 3D plants, where we use an encoder-decoder model to infer parameterized representations of plants from raw 3D scans.




Les commentaires sont clos.