Descriptif du stage
Contexte
Le laboratoire IMS – UMR 5218 CNRS (équipe MOTIVE, groupe Signal et Image) développe des
activités de recherche autour de solutions d’imagerie embarquée et d’intelligence artificielle pour
l’agriculture de précision.
Dans le cadre d’une collaboration avec le LaBRI – UMR 5800 CNRS (équipe Image & Son),
l’équipe travaille sur la reconstruction 3D de rangs de vigne à partir de capteurs embarqués
(caméras RGB-D, GPS/RTK) sur un robot de Scouting, l’équipe vise à suivre l’évolution de la
vigne au cours du temps afin d’analyser la croissance et l’état du vignoble.
Problématique
Les reconstructions actuelles reposent sur le traitement complet des séquences acquises, ce qui
entraîne une forte charge de calcul. L’objectif est désormais de sélectionner et d’ordonner les
données pertinentes, en ciblant par exemple un nombre précis de ceps, un piquet ou une zone
géographique spécifique, pour permettre une reconstruction 3D ciblée et efficace.
Objectifs
Concevoir et développer un outil logiciel modulaire permettant :
✓ la sélection et l’organisation des données extraites (images RGB, profondeur, nuages de points),
✓ la préparation automatique des ensembles de données nécessaires à la reconstruction 3D d’une zone définie (cep, piquetée, ou segment du rang),
✓ l’intégration fluide dans les pipelines de reconstruction et d’analyse existants,
✓ assurer la compatibilité avec différents types de caméras (RealSense dans un premier temps, puis autres capteurs RGB-D),
✓ fournir une base évolutive vers une version temps réel de tout ou partie de la chaîne de traitement, connectée à ROS2, pour embarquement sur le robot de scouting
✓ intégrer à cette chaîne de traitement des algorithmes neuronaux pour la détection et le positionnement automatique d’objets d’intérêt (grappes, ceps…) dans les reconstructions 3D.
Déroulement
➢ Analyser et structurer les jeux de données existants (images RGB, profondeur, nuages
de points, métadonnées).
➢ Concevoir la logique de filtrage et de sélection selon différents critères (index temporel,
coordonnées GPS, identifiant de cep).
➢ Développer l’outil principal de sélection et de préparation des données (version hors
ligne).
➢ Tester et valider le fonctionnement sur plusieurs sessions d’acquisition.
➢ Documenter le fonctionnement et proposer une architecture ouverte pour une extension
future en temps réel.
Profil recherché
Niveau
Master 2 ou dernière année d’école d’ingénieur en informatique, robotique, vision ou traitement
du signal.
Compétences
- Programmation Python et bonnes pratiques logicielles,
- Traitement d’images et nuages de points (OpenCV, Open3D, PCL),
- Notions sur les capteurs RGB-D (Intel RealSense, Orbbec, etc.),
- Structuration et synchronisation de données multi-capteurs,
- Connaissance de ROS2 appréciée. Une expérience en implémentation de modèles de
 vision embarquée (YOLO, détection ou segmentation d’objets) constitue un atout
 supplémentaire
- Rigueur, autonomie, curiosité scientifique et goût pour les applications concrètes
Localisation, calendrier et modalités de candidature
Lieu
Laboratoire de l’Intégration du Matériau au Système (IMS),
351 Cours de la Libération, 33405 Talence.
Période
6 mois – à partir de février 2026.
Supervision :
Mohamed MABROUK : Laboratoire IMS – UMR 5218 CNRS, groupe Signal/Équipe MOTIVE
Jean-Pierre DA COSTA :Laboratoire IMS – UMR 5218 CNRS, groupe Signal/Équipe MOTIVE
Gratification :
Selon la réglementation en vigueur (environ 600 € par mois).
Modalités de candidature
Les candidatures (CV + lettre de motivation) sont à envoyer par courriel à :
jean-pierre.dacosta@ims-bordeaux.fr et mohamed.mabrouk@ims-bordeaux.fr
en précisant l’intitulé du stage dans l’objet du message.
Les entretiens seront organisés au fur et à mesure de la réception des candidatures.
 
			
 
				 
				 
								
																	