Annonce


Stage M2 : Analyse automatique de la trajectoire de poissons dans des passes à poissons

31 Janvier 2025


Catégorie : Postes Stagiaires ;


[1] Baker, S., Matthews, I., 2004. Lucas-Kanade 20 years on: a unifying framework. Int. J. Comput. Vis. 56 (3), 221-255 .

[2] Comaniciu, D., Ramesh, V., Meer, P., 2003. Kernel-based object tracking. IEEE Trans.PAMI 25 (5), 564-575.

[3] Bradski, G.R., 1998. Computer vision face tracking for use in a perceptual user interface. Intel Technol. J. Q2.

[4] Broida, T.J., Chellappa, R., 1986. Estimation of object motion parameters from noisy images. IEEE Trans. PAMI 8 (1), 90-99.

[5] Bewley, A., Ge, Z., Ott, L., Ramos, F., & Upcroft, B. (2016, September). Simple online and realtime tracking. In 2016 IEEE international conference on image processing (ICIP) (pp. 3464-3468). IEEE.

[6] Isaard, M., Blake, A., 1998. CONDENSATION-conditional density propagation for visual tracking. Int. J. Comput. Vis. 29 (1), 5-28.

[7] Quéré, R., Péteri, R., 2011. Suivi robuste de poissons dans des passes à poissons par filtrage particulaire et transformée en curvelets. Presented at the 23ème colloque GRETSI.

[8] Wojke, N., Bewley, A., & Paulus, D. (2017, September). Simple online and realtime tracking with a deep association metric. In 2017 IEEE international conference on image processing (ICIP) (pp. 3645-3649). IEEE.

[9] Zhang, Y., Sun, P., Jiang, Y., Yu, D., Weng, F., Yuan, Z., … & Wang, X. (2022, October). Bytetrack: Multi-object tracking by associating every detection box. In European Conference on Computer Vision (pp. 1-21). Cham: Springer Nature Switzerland.

[10] Aharon, N., Orfaig, R., & Bobrovsky, B. Z. (2022). BoT-SORT: Robust associations multi-pedestrian tracking. arXiv preprint arXiv:2206.14651.

[11] Wang, Y. H. (2022). SMILEtrack: SiMIlarity LEarning for Multiple Object Tracking. arXiv preprint arXiv:2211.08824.

[12] Li, W., Liu, Y., Wang, W., Li, Z., Yue, J., 2024. TFMFT: Transformer-based multiple fish tracking. Computers and Electronics in Agriculture 217, 108600. https://doi.org/10.1016/j.compag.2023.108600

[13] Liu, Y., Li, B., Zhou, X., Li, D., Duan, Q., 2024. FishTrack: Multi-object tracking method for fish using spatiotemporal information fusion. Expert Systems with Applications 238, 122194. https://doi.org/10.1016/j.eswa.2023.122194

[14] Wang, H., Zhang, S., Zhao, S., Wang, Q., Li, D., Zhao, R., 2022. Real-time detection and tracking of fish abnormal behavior based on improved YOLOV5 and SiamRPN++. Computers and Electronics in Agriculture 192, 106512. https://doi.org/10.1016/j.compag.2021.106512

[15] Wang, Z., Xia, C., Lee, J., 2021. Parallel Fish School Tracking Based on Multiple Appearance Feature Detection. Sensors 21, 3476. https://doi.org/10.3390/s21103476

Benoit TREMBLAIS

Laboratoire XLIM, UMR CNRS 7252

Téléphone : +33(0)5 49 49 65 90

benoit.tremblais@univ-poitiers.fr

Renaud PETERI

Laboratoire MIA, EA EA 3165, Université de La Rochelle

Téléphone : +33(0)5 46 45 72 19

renaud.peteri@univ-lr.fr

Laurent MASCARILLA

Laboratoire MIA, EA EA 3165, Université de La Rochelle

Téléphone : +33(0)5 46 45 87 43

laurent.mascarilla@univ-lr.fr

Lieu du stage

Ce stage se déroulera au laboratoire XLIM UMR CNRS 7252 sur le site de Poitiers au sein de l’équipe ICONES/ASALI dont l’adresse est la suivante :

Laboratoire XLIM, UMR CNRS 7252

Bât. SP2MI, Téléport 2,

Bvd Marie et Pierre Curie, BP 30179

86962 Futuroscope Chasseneuil Cedex France

Durée : 5 mois

Date début stage : Mars/Avril 2025

Les commentaires sont clos.