- Institut de la Francophonie pour. - Je tiens également à remercier Monsieur Alexandre Benoît, doctorant de l’INPG, de m'avoir encadré et pour m'avoir aidé chaleureusement tout au long de mon séjour au laboratoire LIS.. - Merci à tous les membres de l’IFI, tous mes professeurs, de m’avoir enseigné et mes camarades de la promotion X pour leur aide tout au long de mes études à l’IFI.. - Mots clés : Filtre rétine, transformation log - polaire, théorie de l’évidence, Modèle de Croyance Transférable.. - 2.1 Description de l’algorithme ...11. - 2.3 Détection de l’état ouvert ou fermé de la bouche et des yeux ...18. - 2.4 Détection de l’orientation de mouvement de tête ...22. - 2.5 Localisation de l’œil ...23. - Figure 2-1 Schéma de l’algorithme de détection de mouvement ...11. - Figure 2-4 Evolution temporelle de l’énergie totale et de l’énergie maximale [1]...14. - Figure 2-9 Évolution d’énergie totale de OPL de l’oeil et de la bouche ...19. - Figure 2-10 Évolution de l’énergie OPL lors de mouvement de bouche ...20. - Figure 3-6 Les contours de la segmentation automatique : avant et après la mise en œuvre de l’algorithme de suivi. - Figure 3-11 Quelques illustrations de l’expression Joie. - Figure 3-12 Quelques illustrations de l’expression Dégoût. - Figure 3-13 Quelques illustrations de l’expression Surprise. - Figure 4-2 Résultat de la segmentation automatique...45. - Table 2-3 Résultat sur la détection de l’état de bouche ...21. - Table 2-4 Résultats de détection de l’état de l’œil...21. - Table 2-7 Résultats de la localisation de l’œil ...25. - Nous nous intéressons à l’identification et à la reconnaissance de l’action d’une partie de corps (par exemple : la reconnaissance de gestes, la reconnaissance des expressions faciales, reconnaissance de mouvement de la tête, etc.). - Les mouvements de la tête (hochements. - La dynamique de la recherche est supportée par l'activité de cinq équipes. - Les algorithmes de détection de mouvement de la tête, de détection de l’état de l’œil, de localisation de l’œil sont décrits dans le deuxième chapitre.. - 2.1 Description de l’algorithme. - La méthode décrite ci-dessous est inspirée par fonctionnement de la rétine humaine. - La Figure 2-1 présente le schéma de l’algorithme [1]. - Figure 2-1 Schéma de l’algorithme de détection de mouvement. - La transformation log polaire du spectre de l’image filtrée est effectuée et analysée dans un second temps. - En effet, la méthode est basée sur l’analyse de la réponse fréquentielle des contours en mouvement. - Le second étage, constitué de la couche plexiforme interne (IPL) rehausse les contours en mouvement et supprime les contours statiques [2]. - 2.2.1 Principe de l’algorithme. - À partir de l’analyse du spectre log polaire, on peut interpréter le type de mouvement ainsi que sa direction. - C’est l’énergie maximale de la sortie IPL. - Figure 2-4 Evolution temporelle de l’énergie totale et de l’énergie maximale [1]. - À partir de l’énergie totale de tous les contours, on peut déduire les alertes de mouvement grâce à l’indicateur α. - Lors de la disparition d’un pic dans la deuxième graphe, un oubli est détecté et vice-versa pour une fausse alarme.. - De l’image 685 à l’image 720, il s’agit d’un seul mouvement, mais le détecteur en a détecté plusieurs (chaque crête correspond à un mouvement). - 2.3 Détection de l’état ouvert ou fermé de la bouche et des yeux. - Dans cette partie, on va voir comment on peut détecter l’état ouvert ou fermé de la bouche ou de l’œil. - Figure 2-8 Spectre log polaire et orientations de la sortie du filtre IPL contours mobiles pour différents mouvement d’œil : clignement et changement de direction. - En cas d’ouverture del’œil, les contours de l’iris apparaissent. - On peut donc détecter l’état de l’œil en étudiant l’évolution au cours du temps de l’énergie.. - Figure 2-9 Évolution d’énergie totale de OPL de l’oeil et de la bouche. - La figure ci-dessus montre que l’énergie totale de OPL varie de manière croissante avec le degré d’ouverture de l’œil ou de la bouche. - Après expertise, l’énergie lors d’un bâillement est plus de 1.5 supérieure à celle correspondant à des mouvements normaux et 2 fois supérieure à celle de l’état fermé. - Donc, on peut détecter le bâillement en se basant sur la détection de mouvement vertical d’ouverture ou de fermeture de la bouche associée à une évolution de l’énergie de OPL respectivement d’un facteur 2 (lors de l’ouverture) ou 0.5 lors de la fermeture.. - Figure 2-10 Évolution de l’énergie OPL lors de mouvement de bouche. - Dans la figure ci-dessus, la courbe verte montre le comportement de l’énergie totale du spectre du filtre OPL. - Lors de séquence de la parole, cette énergie prend une valeur maximale presque 2 fois supérieure à la celle de l’état fermé. - Cette partie concerne l'évaluation des performances du détecteur d'état ouvert ou fermé de la bouche ou des yeux. - La taille de l’œil est. - Voici le résultat pour la détection de l’état de la bouche. - 50% de la bouche 94.12% 2.42% 3.46%. - 30% de la bouche 80.62% 9.23% 10.15%. - Table 2-3 Résultat sur la détection de l’état de bouche. - Et les résultats de détection de l’état de l’œil. - Table 2-4 Résultats de détection de l’état de l’œil Remarques. - On trouve que le taux de réussite est élevé même avec une faible portion de la bouche ou de l’œil. - Avec 30% de la bouche et 50% de l’œil, le taux de fausse alarme et d’oublis sont acceptables.. - 2.4 Détection de l’orientation du mouvement de tête. - Dans cette partie nous nous intéressons à la détection automatique des hochements de tête et l’orientation du mouvement global de la tête. - Figure 2-11 Mouvement rigide de la tête a- translation verticale, b- rotation. - Lors de la présence d’un mouvement, la fusion des 2 informations s’effectue.. - Estimation de l’orientation de mouvement 93% 7%. - Ceci entraîne la détection de l’orientation verticale de contours de bouche et de l’œil.. - 2.5 Localisation de l’œil. - Cette partie décrit la localisation de l’œil, connaissant une boîte englobante autour de visage et des boîtes englobantes autour de chaque œil. - L’idée de l’algorithme est de chercher la position de l’œil dans un quart de visage.. - Ensuite, on présente leur produit et on constate que la position du point de maximale énergie correspond au centre de l’iris.. - Table 2-7 Résultats de la localisation de l’œil. - Ceci entraîne une atténuation de la réponse des contours de l’œil. - Généralement, cet algorithme est capable de détecter le centre de l’iris avec une précision satisfaisante. - Premièrement, on doit extraire les caractéristiques de l’image du visage, puis on va les utiliser comme entrée du système de classification. - Figure 3-1 Les étapes dans le processus de reconnaissance des expressions faciales Dans l’étape de segmentation, le système va localiser les régions des yeux, des sourcils, et de la bouche. - En fait, ce sont les contours des yeux, de la bouche, des sourcils. - Après l’utilisation de l’algorithme de segmentation de contours de l’œil, des sourcils [11] et de la bouche, les contours de caractéristiques faciales sont extraits automatiquement. - D2 Distance entre le coin intérieur de l’œil et le celui du sourcil. - D5 Distance entre un coin de la bouche et celui du coin extérieur de l’œil. - Fondé sur la théorie de l’évidence, le Modèle de Croyance Transférable a été développé par Smets.. - • h de l’état C + correspond à la valeur moyenne des valeurs maximales Di pour tous les sujets et toutes les expressions.. - • Le seuil d et e correspond à la valeur moyenne des valeurs maximales et minimales Di pour toutes les images de l’expression neutre.. - La somme orthogonale m est définie de la manière suivante. - La description de l’expression Joie et de l’expression Dégoût à partir de la combinaison des états donnés dans le tableau précédent peut conduire à une confiusion entre ces deux expressions. - 3.5.1.1 Suivi des coordonnées de la boîte englobante du visage. - 3.5.1.2 Suivi de points caractéristiques de l’œil, du sourcil et de la bouche. - Afin de s’affranchir de ces limites, on propose un suivi de points caractéristiques. - L’idée principale de la méthode de suivi utilisée est basée sur l’algorithme de Lucas- Kanade[20]. - Figure 3-6 Les contours de la segmentation automatique : avant et après la mise en œuvre de l’algorithme de suivi.. - Lors de la fermeture des yeux, le système ne peut pas détecter les iris. - Evol(i) est l’évolution dans l’image i de Dmesure(i) et Diris(i) est la distance qu’on a mesurée et la distance entre les iris de l’image i. - En raison de l’imprécision de la détection automatique de traits du visage, l’expression inconnue est souvent détectée à la place de la Surprise. - Figure 4-2 Résultat de la segmentation automatique. - Nous avons conçu la structure de la base de données comme suit. - 1h20 de réaction émotionnelle (5h total de l’enregistrement). - La première partie de ce mémoire vous présente la méthode d’analyse de mouvement de la tête et également de mouvements faciaux inspirée par l’approche biologique.. - L’algorithme est efficace pour la détection de l’orientation de la tête. - De surcroît, à partir des informations de l’état de l’œil et de la bouche détectée par cet algorithme, nous pouvons détecter le clignement, le bâillement, l’absence de non-parole, la direction de regard, etc.. - Dans la deuxième partie, nous avons présenté quelques contributions en reconnaissance d’expressions faciales par utilisation de la théorie de l’évidence. - En raison des erreurs de la segmentation des traits du visage, le taux de reconnaissance est plus faible que celui-ci de la segmentation manuelle.