CONTROLE ET ANIMATION D'UN SYSTEME BRAS-MAIN ARTICULE

_____________________

T. LEBOURQUE, S. GIBET

Figures

Objet

Ce travail s'inscrit dans le cadre du projet SAGA (voir double page correspondante). Il se focalise sur l'étude fine du contrôle d'un bras et d'une main articulés. Un des objectifs de ce travail, outre l'animation, pourra être la mise en place d'un environnement interactif pour créer, éditer et exécuter des gestes animés de la Langue des Signes Française.

Contenu

Les principes du contrôle sensori-moteur sont étendus et développés pour la génération de mouvements du système bras-main (1), (2). Le système à contrôler est un corps géométrique articulé constitué d'un bras à sept degrés de liberté, et d'une main composée de cinq doigts comportant chacun trois segments et quatre degrés de liberté (voir Fig. 1). Le contrôle du bras est réalisé au moyen d'un système asservi permettant de mettre à jour automatiquement les variations de positions angulaires à partir de l'erreur entre la position courante de l'extrémité du bras et la position "cible" désirée. Dans le cadre de la main, chaque doigt est contrôlé par un système sensori-moteur analogue à celui du bras, avec cependant un contrôle angulaire direct. Ainsi, les positions "cibles " de la main sont spécifiées sous la forme de configurations angulaires.

Un éditeur de la commande permet de construire et de manipuler graphiquement des tâches élémentaires constituées de séquences de cibles spatio-temporelles et de leur appliquer des transformations utiles pour la programmation de mouvements plus complexes (répétition, translation, rotation, etc.). Un modèle de plus haut niveau, caractérisant les mouvements du bras et de la main reste à définir. Ce modèle permettra d'établir un pont entre une spécification qualitative des mouvements et une traduction de la commande sous la forme d'un enchaînement de positions (cartésiennes et/ou angulaires) dans l'espace et dans le temps. Les travaux sur la représentation et le codage de la Langue des Signes des sourds serviront de guide à l'élaboration d'un tel modèle.

Par ailleurs, la validation des mouvements de synthèse et de la commande correspondante passe par l'analyse de gestes réels. Dans un premier temps nous vérifions que les signaux générés en sortie du modèle (Fig. 2) respectent bien des lois invariantes caractérisant les performances motrices humaines. Dans un deuxième temps nous tenterons d'extraire automatiquement des séquences de cibles à partir de signaux réels captés sur un opérateur humain.

Situation

Nous avons développé un langage de spécification, qui permet de définir les paramètres utiles à la commande. En particulier, chacune des cibles est caractérisée par le type de la commande (spatiale/angulaire), la valeur de la cible, sa précision et des paramètres de synchronisation. Un éditeur graphique permet actuellement de positionner des successions de cibles spatiales et d'exécuter l'animation correspondante (3).

Une étude menée en collaboration avec le Laboratoire de Physiologie du Mouvement d'Orsay est en cours. Elle doit permettre d'aborder l'analyse de mouvements réels grâce à un dispositif de capture des gestes optoélectronique (Selspot) permettant le suivi du déplacement des points corporels en trois dimensions.

Références

(1) Lebourque T. : "Synthèse de gestes en langue des signes". rapport de DEA d'Informatique, 1994.

(2) Gibet S., Lebourque T. : "Automatic Motion Control". Eurographics Workshop on Animation and Simulation, Oslo, 1994.

(3) Manisse F. : "Interface pour l'édition et la commande de gestes". Stage de DESS SCHM 1995.

Gpe Interaction et Multi-Modalités

DptCHM

+ Sommaire

Présentation