Réunion

Les commentaires sont clos.

Caméra à événements appliquée à la robotique

Date : 16-11-2023
Lieu : Paris, Sorbonne Université, campus Pierre et Marie Curie (Jussieu), bâtiment Esclangon (SCAI), amphi Durand (https://www.openstreetmap.org/node/10826720349#map=19/48.84528/2.35741)

Thèmes scientifiques :
  • B - Image et Vision

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.


S'inscrire à la réunion.

Inscriptions

38 personnes membres du GdR ISIS, et 30 personnes non membres du GdR, sont inscrits à cette réunion.

Capacité de la salle : 100 personnes.

Annonce

Caméra à événements appliquée à la robotique

Journée inter GdR ISIS et Robotique

Objectifs de la journée

La caméra événementielle est un capteur émergent connaissant un intérêt grandissant de la part des industriels et des chercheurs depuis quelques années. Les caméras neuromorphiques actuelles offrent une qualité remarquable par rapport aux générations précédentes (notons le partenariat Prophesee/Sony pour le capteur IMX636). Il s'agit d'un capteur visuel que nous ne tarderons pas à voir déployé en quantité massive, à l'instar des caméras classiques. Par exemple, des caméras connectées avec capteur à événements ont déjà été proposées au grand public en 2020 (caméra Samsung SmartThings Vision), et nous en verrons rapidement dans les futurs smartphones. Parmi les domaines d'application possibles de ce capteur, la robotique offre de nombreuses opportunités.

L'objectif de cette journée est de rassembler les chercheurs francophones sur le thème de la vision basée événements pour la robotique. De plus en plus d'équipes de recherche utilisent la caméra événementielle, ce qui conduit à une communauté de nouveaux acteurs qu'il convient d'identifier. Les thèmes d'intérêt seront abordés à travers des orateurs invités français ou internationaux actifs sur le sujet. Ces interventions seront agrémentées de présentations supplémentaires, qui permettront d'aborder de nouveaux travaux, et qui seront sélectionnées sur la base d'un résumé d'une page à transmettre aux organisateurs.

Exemples de thèmes d'application

  • Véhicules terrestres
  • Drones
  • Robotique humanoïde
  • Robotique spatiale
  • Reconstruction et amélioration d'images
  • Étude du mouvement (flot optique, suivi d'objets, odométrie visuelle et SLAM, extraction et suppression des effets du mouvement de la caméra, etc)
  • Détection et segmentation
  • Reconstruction 3D (estimation de profondeurs)
  • Fusion des événements avec d'autres modalités
  • Vision nocturne
  • Réseaux de neurones à impulsions
  • Internet des objets
  • Réalité augmentée, réalité virtuelle
  • Automatisation industrielle

Invités

Dates importantes

  • 25 septembre 2023 : Ouverture de l'appel à résumés
  • 25 octobre 2023 : Date limite d'envoi des résumés (1 page) -- À envoyer directement par mail aux organisateurs
  • 31 octobre 2023 : Notification aux auteurs et diffusion du programme final
  • 2 novembre 2023 : Date limite d'inscription (gratuite mais obligatoire)
  • 16 novembre 2023 : Journée « Caméra à événements appliquée à la robotique »

Il n'y a pas d'actes pour ces journées, les diapositives des présentations seront demandées en vue de les diffuser en même temps que le compte-rendu de la réunion.

Plan d'accès

Lien PDF accès SCAI

www.openstreetmap.org/node/10826720349#map=19/48.84528/2.35741

Organisateurs

  • Julien Moreau, Heudiasyc UMR 7253, UTC, julien.moreau@hds.utc.fr
  • Franck Davoine, LIRIS UMR 5205, INSA Lyon, franck.davoine@cnrs.fr
  • Vincent Lepetit, LIGM, ENPC, vincent.lepetit@enpc.fr

Note : Dans la mesure où nous aurons des orateurs invités étrangers, nous demandons aux participants de bien vouloir présenter en anglais.

Programme

9h30 Welcome coffee (au 1e étage)
10h00 Introduction


Session 1
10h10 Invited speaker: Amos Sironi, Prophesee, « Event-based Sensors and their Applications »
10h40 Invited speaker: Arren Glover, Event-Driven Perception for Robotics group of Instituto Italiano di Technologia, « Event-driven Vision for Real-time Robot Control »

11h10 Sylvain Durand, INSA Strasbourg & ICube laboratory, « Fully Event-Driven Control Architecture: Application to Visual Servoing of a Ball-on-Track System »
11h25 Laure Acin, ETIS UMR 8051, CY Cergy Paris University, ENSEA, CNRS, « VK-SITS: a Robust Event-Based Representation for Multiple Applications »
11h40 Anass El Moudni, LITIS Laboratory, University of Rouen, « An Event-based Stereo 3D Mapping and Tracking Pipeline for Autonomous Vehicles »

11h55 Lunch on your own (numerous restauration possibilites in the neighborhood)

Session 2
13h30 Invited speaker: Guillermo Gallego, Technische Universität Berlin, Einstein Center Digital Future, Science of Intelligence Excellence Cluster, « Motion and Scene Structure Estimation with Event Cameras »
14h00 Daniel Rodrigues Da Costa, Laboratoire MIS, Université de Picardie Jules Vernes, Amiens, « Gyrevento: Event-based Omnidirectional Visual Gyroscope in a Manhattan World »
14h15 Gaspard Goupy, Université de Lille, laboratoire CRIStAL, « Paired Competing Neurons Improving STDP Supervised Local Learning In Spiking Neural Networks »
14h30 Dalia Hareb, i3S / CNRS, Université Côte d'Azur, Sophia Antipolis, « EvSegSNN: Neuromorphic Semantic Segmentation for Event Data »

14h45 Pause

Session 3
15h00 Invited speaker: Cornelia Fermüller, Center for Automation Research, University of Maryland, « Addressing challenging cases in navigation and action recognition »
15h30 Antony W. N'dri, Institut Pascal - CNRS UMR 6602, Université Clermont Auvergne, « Combining various types of spike timing-dependent plasticity to learn efficient neural codes »
15h45 Jonathan Courtois, Laboratoire d'Electronique Antenne et Télécommunication, Biot, « Object Detection with Spiking Neural Networks on Automotive Event Data »

16h00 Group discussions and conclusion
16h20 End