Jimmy NAGAU : Identification de plantes dans des images numériques par champs de gradient avec une application aux plantes médicinales de la région caraïbe
Résumé
Ce travail traite de « l’identification de plantes à partir d’images numériques, par champs de gradients », provenant de capteurs de types variés. Nous avons choisi des méthodes de type global, afin de pré-segmenter efficacement l’image d’une plante. Parmi ces méthodes, celle du Mean Shift permet de s’acquitter des tâches de paramétrisation, mais présente l’inconvénient d’une forte complexité de calcul. Nous proposons deux méthodes pour résoudre ce problème : le Mean Shift avec changement d’échelle et le Mean Shift Markovien dont le but est de limiter le traitement systématique de tous les pixels par la partie Mean Shift.
L’application de ces méthodes permet d’obtenir une partition de l’image dans laquelle on recherche les groupes de pixels, matérialisant les parties d’une plante focalisée par le photographe. Pour mettre en évidence ces zones, nous exploitons : la netteté des formes, la position et la densité spatiale des objets dans une image, afin de construire des masques qui représentent les parties d’une plante. À partir de ces masques, nous extrayons un ensemble de caractéristiques issu de la botanique descriptive, regroupé en trois catégories : la colorimétrie, la morphologie et le structurel.
Nos choix méthodologiques sont expérimentés sur une base de données d’images, pour obtenir un ensemble de valeurs de caractéristiques appelées descripteurs. Ces descripteurs sont fournis à un système de classeurs basé sur des algorithmes génétiques, afin d’obtenir des règles désignant chaque type de plantes. L’objectif de ces règles est d’associer un score de ressemblance à chaque image de la base de données, en fonction de l’image soumise comme requête au système de reconnaissance.
Mots-Clés : Image numérique couleur, traitement d’images, segmentation colorimétrique, reconnaissance de formes, champ de gradients, extraction de caractéristiques, identification.