« Home « Kết quả tìm kiếm

Reconnaissance multimodale de gestes de communication non verbale


Tóm tắt Xem thử

- Institut de la Francophonie pour.
- Je tiens également à remercier Monsieur Alexandre Benoît, doctorant de l’INPG, de m'avoir encadré et pour m'avoir aidé chaleureusement tout au long de mon séjour au laboratoire LIS..
- Merci à tous les membres de l’IFI, tous mes professeurs, de m’avoir enseigné et mes camarades de la promotion X pour leur aide tout au long de mes études à l’IFI..
- Mots clés : Filtre rétine, transformation log - polaire, théorie de l’évidence, Modèle de Croyance Transférable..
- 2.1 Description de l’algorithme ...11.
- 2.3 Détection de l’état ouvert ou fermé de la bouche et des yeux ...18.
- 2.4 Détection de l’orientation de mouvement de tête ...22.
- 2.5 Localisation de l’œil ...23.
- Figure 2-1 Schéma de l’algorithme de détection de mouvement ...11.
- Figure 2-4 Evolution temporelle de l’énergie totale et de l’énergie maximale [1]...14.
- Figure 2-9 Évolution d’énergie totale de OPL de l’oeil et de la bouche ...19.
- Figure 2-10 Évolution de l’énergie OPL lors de mouvement de bouche ...20.
- Figure 3-6 Les contours de la segmentation automatique : avant et après la mise en œuvre de l’algorithme de suivi.
- Figure 3-11 Quelques illustrations de l’expression Joie.
- Figure 3-12 Quelques illustrations de l’expression Dégoût.
- Figure 3-13 Quelques illustrations de l’expression Surprise.
- Figure 4-2 Résultat de la segmentation automatique...45.
- Table 2-3 Résultat sur la détection de l’état de bouche ...21.
- Table 2-4 Résultats de détection de l’état de l’œil...21.
- Table 2-7 Résultats de la localisation de l’œil ...25.
- Nous nous intéressons à l’identification et à la reconnaissance de l’action d’une partie de corps (par exemple : la reconnaissance de gestes, la reconnaissance des expressions faciales, reconnaissance de mouvement de la tête, etc.).
- Les mouvements de la tête (hochements.
- La dynamique de la recherche est supportée par l'activité de cinq équipes.
- Les algorithmes de détection de mouvement de la tête, de détection de l’état de l’œil, de localisation de l’œil sont décrits dans le deuxième chapitre..
- 2.1 Description de l’algorithme.
- La méthode décrite ci-dessous est inspirée par fonctionnement de la rétine humaine.
- La Figure 2-1 présente le schéma de l’algorithme [1].
- Figure 2-1 Schéma de l’algorithme de détection de mouvement.
- La transformation log polaire du spectre de l’image filtrée est effectuée et analysée dans un second temps.
- En effet, la méthode est basée sur l’analyse de la réponse fréquentielle des contours en mouvement.
- Le second étage, constitué de la couche plexiforme interne (IPL) rehausse les contours en mouvement et supprime les contours statiques [2].
- 2.2.1 Principe de l’algorithme.
- À partir de l’analyse du spectre log polaire, on peut interpréter le type de mouvement ainsi que sa direction.
- C’est l’énergie maximale de la sortie IPL.
- Figure 2-4 Evolution temporelle de l’énergie totale et de l’énergie maximale [1].
- À partir de l’énergie totale de tous les contours, on peut déduire les alertes de mouvement grâce à l’indicateur α.
- Lors de la disparition d’un pic dans la deuxième graphe, un oubli est détecté et vice-versa pour une fausse alarme..
- De l’image 685 à l’image 720, il s’agit d’un seul mouvement, mais le détecteur en a détecté plusieurs (chaque crête correspond à un mouvement).
- 2.3 Détection de l’état ouvert ou fermé de la bouche et des yeux.
- Dans cette partie, on va voir comment on peut détecter l’état ouvert ou fermé de la bouche ou de l’œil.
- Figure 2-8 Spectre log polaire et orientations de la sortie du filtre IPL contours mobiles pour différents mouvement d’œil : clignement et changement de direction.
- En cas d’ouverture del’œil, les contours de l’iris apparaissent.
- On peut donc détecter l’état de l’œil en étudiant l’évolution au cours du temps de l’énergie..
- Figure 2-9 Évolution d’énergie totale de OPL de l’oeil et de la bouche.
- La figure ci-dessus montre que l’énergie totale de OPL varie de manière croissante avec le degré d’ouverture de l’œil ou de la bouche.
- Après expertise, l’énergie lors d’un bâillement est plus de 1.5 supérieure à celle correspondant à des mouvements normaux et 2 fois supérieure à celle de l’état fermé.
- Donc, on peut détecter le bâillement en se basant sur la détection de mouvement vertical d’ouverture ou de fermeture de la bouche associée à une évolution de l’énergie de OPL respectivement d’un facteur 2 (lors de l’ouverture) ou 0.5 lors de la fermeture..
- Figure 2-10 Évolution de l’énergie OPL lors de mouvement de bouche.
- Dans la figure ci-dessus, la courbe verte montre le comportement de l’énergie totale du spectre du filtre OPL.
- Lors de séquence de la parole, cette énergie prend une valeur maximale presque 2 fois supérieure à la celle de l’état fermé.
- Cette partie concerne l'évaluation des performances du détecteur d'état ouvert ou fermé de la bouche ou des yeux.
- La taille de l’œil est.
- Voici le résultat pour la détection de l’état de la bouche.
- 50% de la bouche 94.12% 2.42% 3.46%.
- 30% de la bouche 80.62% 9.23% 10.15%.
- Table 2-3 Résultat sur la détection de l’état de bouche.
- Et les résultats de détection de l’état de l’œil.
- Table 2-4 Résultats de détection de l’état de l’œil Remarques.
- On trouve que le taux de réussite est élevé même avec une faible portion de la bouche ou de l’œil.
- Avec 30% de la bouche et 50% de l’œil, le taux de fausse alarme et d’oublis sont acceptables..
- 2.4 Détection de l’orientation du mouvement de tête.
- Dans cette partie nous nous intéressons à la détection automatique des hochements de tête et l’orientation du mouvement global de la tête.
- Figure 2-11 Mouvement rigide de la tête a- translation verticale, b- rotation.
- Lors de la présence d’un mouvement, la fusion des 2 informations s’effectue..
- Estimation de l’orientation de mouvement 93% 7%.
- Ceci entraîne la détection de l’orientation verticale de contours de bouche et de l’œil..
- 2.5 Localisation de l’œil.
- Cette partie décrit la localisation de l’œil, connaissant une boîte englobante autour de visage et des boîtes englobantes autour de chaque œil.
- L’idée de l’algorithme est de chercher la position de l’œil dans un quart de visage..
- Ensuite, on présente leur produit et on constate que la position du point de maximale énergie correspond au centre de l’iris..
- Table 2-7 Résultats de la localisation de l’œil.
- Ceci entraîne une atténuation de la réponse des contours de l’œil.
- Généralement, cet algorithme est capable de détecter le centre de l’iris avec une précision satisfaisante.
- Premièrement, on doit extraire les caractéristiques de l’image du visage, puis on va les utiliser comme entrée du système de classification.
- Figure 3-1 Les étapes dans le processus de reconnaissance des expressions faciales Dans l’étape de segmentation, le système va localiser les régions des yeux, des sourcils, et de la bouche.
- En fait, ce sont les contours des yeux, de la bouche, des sourcils.
- Après l’utilisation de l’algorithme de segmentation de contours de l’œil, des sourcils [11] et de la bouche, les contours de caractéristiques faciales sont extraits automatiquement.
- D2 Distance entre le coin intérieur de l’œil et le celui du sourcil.
- D5 Distance entre un coin de la bouche et celui du coin extérieur de l’œil.
- Fondé sur la théorie de l’évidence, le Modèle de Croyance Transférable a été développé par Smets..
- • h de l’état C + correspond à la valeur moyenne des valeurs maximales Di pour tous les sujets et toutes les expressions..
- • Le seuil d et e correspond à la valeur moyenne des valeurs maximales et minimales Di pour toutes les images de l’expression neutre..
- La somme orthogonale m est définie de la manière suivante.
- La description de l’expression Joie et de l’expression Dégoût à partir de la combinaison des états donnés dans le tableau précédent peut conduire à une confiusion entre ces deux expressions.
- 3.5.1.1 Suivi des coordonnées de la boîte englobante du visage.
- 3.5.1.2 Suivi de points caractéristiques de l’œil, du sourcil et de la bouche.
- Afin de s’affranchir de ces limites, on propose un suivi de points caractéristiques.
- L’idée principale de la méthode de suivi utilisée est basée sur l’algorithme de Lucas- Kanade[20].
- Figure 3-6 Les contours de la segmentation automatique : avant et après la mise en œuvre de l’algorithme de suivi..
- Lors de la fermeture des yeux, le système ne peut pas détecter les iris.
- Evol(i) est l’évolution dans l’image i de Dmesure(i) et Diris(i) est la distance qu’on a mesurée et la distance entre les iris de l’image i.
- En raison de l’imprécision de la détection automatique de traits du visage, l’expression inconnue est souvent détectée à la place de la Surprise.
- Figure 4-2 Résultat de la segmentation automatique.
- Nous avons conçu la structure de la base de données comme suit.
- 1h20 de réaction émotionnelle (5h total de l’enregistrement).
- La première partie de ce mémoire vous présente la méthode d’analyse de mouvement de la tête et également de mouvements faciaux inspirée par l’approche biologique..
- L’algorithme est efficace pour la détection de l’orientation de la tête.
- De surcroît, à partir des informations de l’état de l’œil et de la bouche détectée par cet algorithme, nous pouvons détecter le clignement, le bâillement, l’absence de non-parole, la direction de regard, etc..
- Dans la deuxième partie, nous avons présenté quelques contributions en reconnaissance d’expressions faciales par utilisation de la théorie de l’évidence.
- En raison des erreurs de la segmentation des traits du visage, le taux de reconnaissance est plus faible que celui-ci de la segmentation manuelle.