_____________________
P. Bourdot, M. Dromigny, L. Arnal
Objet
Dans de nombreuses applications de Réalité Virtuelle il est souhaitable que l'utilisateur puisse contrôler sa navigation sans recourir à des périphériques manuels de type : << joystick >>, souris 3d, etc. Dans cet esprit, nous avons étudié un nouveau paradigme interactif qui vise à contrôler les paramètres d'une navigation virtuelle par la seule capture des mouvements que décrit la tête d'un utilisateur.
Description
L'un des défauts des casques de Réalité Virtuelle est que le cablage qu'ils possèdent avec l'unité de calcul limite fortement l'espace dans lequel l'utilisateur peut physiquement se mouvoir pour simuler ses déplacements dans l'univers virtuel. De leur côté, les lunettes actives imposent généralement une visualisation plutôt statique de la scène, en ce sens que la perception en relief de la maquette virtuelle suppose que l'utilisateur reste quelque peu en face de ou des écrans stéréoscopiques. Pour dépasser ces limitations et permettre à l'utilisateur de naviguer dans les scènes virtuelles, ces deux types de périphériques visuels sont donc souvent combinés à des périphériques manuels, combinaison qui idéalement doit permettre de contrôler les 6 degrés de liberté (6 DOF) qui caractérisent tout déplacement.
En fait, un simple capteur de mouvement est en soi de type 6 DOF. Au lieu d'affecter à une caméra virtuelle les mouvements réels de la tête de l'utilisateur, l'idée fondamentale de notre approche est d'interpréter le signal d'un tel capteur de sorte que l'utilisateur puisse naviguer dans l'intégralité d'une scène virtuelle et ce, malgré les limitations évoquées ci-dessus.
L'élément de base de ce traitement est la notion de << Référentiel Neutre >>. Ce référentiel est défini par une calibration de la tête de l'utilisateur, au moment où celui-ci est supposé être installé dans la position la plus fréquente (en localisation comme en orientation) qu'il aura au cours de son activité sur le dispositif de Réalité Virtuelle (par exemple, la position la plus confortable pour l'utilisateur lorsqu'il utilise des lunettes actives en face d'un écran d'affichage stéréoscopique). Désignons maintenant par << Référentiel Traqué >> le référentiel qui correspond à la position de la tête de l'utilisateur dans le monde réel, tandis que le << Référentiel de Navigation >> serait celui qui définit le point de vue de cet utilisateur dans la scène virtuelle. A partir de là, le principe du traitement proposé consiste à observer que, tant que le << Référentiel Traqué >> est suffisamment éloigné du << Référentiel Neutre >>, alors le << Référentiel de Navigation >> doit subir un déplacement proportionnel au déplacement relatif du dit << Référentiel Traqué >>.
Pour des raisons physiologiques, l'éloignement du << Référentiel Traqué >> par rapport au << Référentiel Neutre >> est analysé en fonction de volumes de tolérances. Quand l'origine du << Référentiel Traqué >> n'est pas dans une sphère de tolérance, le déplacement appliqué au << Référentiel de Navigation >> est de type 6 DOF et la scène virtuelle gravite approximativement autour d'un << pseudo centre >> (figure 1). A contrario, quand l'origine du << Référentiel Traqué >> est dans la sphère mais que son axe Zi fait un angle supérieur à l'angle solide d'un cône de tolérance, alors le déplacement du << Référentiel de Navigation >> est de type 3 DOF et la scène se met à graviter autour de l'utilisateur (figure 2).
Résultats et perspectives
Ce paradigme interactif a été validé par une première preuve de faisabilité informatique. Un article montrant l'originalité de notre approche vient par ailleurs d'être accepté à la publication [1]. Un démonstrateur est en cours de réalisation afin de régler en particulier les paramètres de la fonction d'amortissement qui sert à calculer le déplacement à appliquer au << Référentiel de Navigation >>.
Référence
Patrick Bourdot, Martin Dromigny,
LaurentArnal << Virtual navigation fully controlled by head tracking >>.
International Scientific Workshop on Virtual Reality and Prototyping ;
Laval (France), June 1999 (à paraître).
Gpe Interaction et Multi-Modalités |
| Dpt CHM |
|
Sommaire
|
| Présentation |
|
---|