Réunion


Capteurs visuels émergents

Date : du 06 Juin 2019 au 30 Novembre -0001
Horaire : 09h00 - 00h00
Lieu : Délégation CNRS 27 rue P. Bert Ivry-sur-Seine

Axes scientifiques :
  • Télécommunications
  • Audio, Vision et Perception

Organisateurs :
  • - Franck Ruffier (ISM)
  • - Guillaume Caron (JRL)
  • - Pascal Vasseur (MIS)

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions

0 personnes membres du GdR IASIS, et 0 personnes non membres du GdR, sont inscrits à cette réunion.

Capacité de la salle : 90 personnes. 90 Places restantes

Annonce

Capteurs visuels émergents – avec un focus sur les caméras événementielles

  • Caméras non-conventionnelles (Plenoptiques, Omnidirectionnelle, temps de vol, …)
  • Capteurs visuels bio-inspirés
  • Traitement par réseau de neurone de l’information visuelle
  • Traitement et perception bio-inspirée

Description :

De nombreuses entreprises développent et utilisent de plus en plus de nouveaux types de caméras comme les caméras à temps de vol, les caméras plenoptiques, les caméras omnidirectionnelles, les caméras événementielles et autres capteurs visuels. Ces nouvelles caméras et les nouveaux usages qu’elles laissent entrevoir sont le fruit de progrès d’intégrations techniques et technologiques récents. Ces caméras permettent d’obtenir des informations de natures différentes comme la profondeur, le mouvement, la couleur ou encore de longueurs d’ondes différentes (IR, FIR, SWIR, …). Du point de vue du traitement de l’information, de nombreuses pistes de recherche sont également à explorer pour l’extraction de primitives, la caractérisation de ces primitives, la mise en correspondance, … Ainsi, il est pertinent d’étudier si les traitements classiques sont applicables à ces modalités et s’ils sont optimaux dans tous les cas. Une question intéressante concerne les traitements précoces qu’il est possible, voire souhaitable, d’effectuer au plus proche du capteur. La collaboration entre capteurs interroge sur l’usage de l’information d’une modalité pour optimiser le traitement d’une autre. L’étude des gains et des pertes en termes de robustesse, précision, incertitude, temps de calcul avec ces modalités par rapport aux méthodes de vision classiques ainsi les conditions optimales d’utilisation sont d’un intérêt fondamental.

L’objectif de cette journée est de réunir les acteurs de la perception visuelle bio-inspirée avec un focus sur les caméras évènementielles, y compris à l’international. Désormais, de plus en plus de laboratoires utilisent les caméras évènementielles grâce à la démocratisation notamment de la caméra DVS qui ouvre un nombre important d’applications qu’il reste à envisager. Le regain très récent de publications scientifiques autour des perceptions bio-inspirées montre l’activité de ce domaine de recherche. L’ensemble des thèmes sera abordé à travers quelques orateurs invités, proposant une vue d’ensemble d’un des thèmes listés plus haut. Ces présentations seront agrémentées par des présentations supplémentaires qui permettront d’aborder de nouveaux travaux et seront sélectionnées sur la base d’un résumé à transmettre aux organisateurs, Franck Ruffier, Guillaume Caron et Pascal Vasseur, dans le but d’avoir la meilleure représentation possible des différentes thématiques à la fois bien installées et nouvelles.

Programme

09:30 Welcome by F. Ruffier, G. Caron, P. Vasseur


09:40 Sio-Hoi Ieng (Institut de la vision, Paris) Invited talk: Event-based sensing: "One event, one update"

10:20 Daniel Matolin (Prophesee) Regular talk: title to come

10:45 Coffee break


11:00 Guillaume Debat, Michel Paindavoine (Cerco Toulouse / GST Dijon) Regular talk: Analyse de trajectoire 3D à base de caméras à spike

11:25 Tushar Chauhan et al. (Cerco, Toulouse) Short talk with additional poster (title below)


11:40 Veis Oudjail et al. (Cristal, Lille Univ.) Short talk with additional poster (title below)


12:00 Lunch


13:20 Interactive poster session


13:50 Tobi Delbruck (INI Zurich, CH) Invited talk: History and recent developments of dynamic vision sensor event cameras

14:30 Stéphane Chevobbe (CEA-List Nano-Innov) Regular talk: A 3D Stacked Smart Vision Chip for Low Latency Image Processing

14:55 Camille Simon-Chane et al. (ETIS Cergy/ Institut de la vision Paris) Regular talk: Tone-mapping pour la visualisation de données issues de capteurs événementiels

15:20 Coffee break + Interactive poster session


15:50 Guido de Croon (TU Delft, NL) Invited talk: Event-based vision for small drones

16:30 Kévin Hoang et al. (Thales GTS-SIX / ETIS Cergy) Regular talk: Active exploration of a visual scene: impact of an event-based camera

16:55 Closing

Posters:


Victor Boutin et al. (INT/ISM, Aix-Marseille Univ): Sparse Deep Predictive Coding To Model Visual Object Recognition

Stéphane Mancini (TIMA, Grenoble INP/Univ.): Caméléon: un prototype de caméra pan-optique sur FPGA

Tushar Chauhan et al. (Cerco, Toulouse): A bio-inspired STDP network for event-based unsupervised learning

Veis Oudjail et al. (Cristal, Lille Univ.): Etude du mouvement d'un motif à l'aide d'un réseau de neurones impulsionnels




Les commentaires sont clos.