_____________________
P. Bourdot, D. Touraine, M. Dromigny
Objet
Dans de nombreuses applications de Réalité Virtuelle il est souhaitable que l'utilisateur puisse contrôler sa navigation sans recourir à des périphériques manuels de type : << joystick >>, souris 3d, etc. Dans cet esprit, nous avons mis au point un nouveau paradigme interactif qui vise à contrôler les paramètres d'une navigation virtuelle par la seule capture des mouvements que décrit la tête d'un utilisateur.
Description
Pour permettre à l'utilisateur de naviguer, les casques de Réalité Virtuelle et les lunettes stéréoscopiques (actives ou passives) sont souvent combinés à des périphériques manuels, combinaison qui idéalement doit permettre de contrôler les 6 degrés de liberté (6 DOF) qui caractérisent tout déplacement. En fait, un simple capteur de mouvement est en soi de type 6 DOF. Au lieu d'affecter à une caméra virtuelle les mouvements réels de la tête de l'utilisateur, ce qui limite les mouvements possibles à la porté de ces capteurs, l'idée fondamentale de notre approche est d'interpréter le signal d'un tel capteur de sorte que l'utilisateur puisse naviguer dans l'intégralité d'une scène virtuelle.
L'élément de base de ce traitement est la notion de << Référentiel Neutre >>. Ce référentiel est défini par une calibration de la tête de l'utilisateur, au moment où celui-ci est supposé être installé dans la position la plus fréquente (en localisation comme en orientation) qu'il aura au cours de son activité sur le dispositif de Réalité Virtuelle (par exemple, la position la plus confortable pour l'utilisateur lorsqu'il utilise des lunettes actives en face d'un écran d'affichage stéréoscopique). Désignons maintenant par << Référentiel Traqué >> le référentiel qui correspond à la position de la tête de l'utilisateur dans le monde réel, tandis que le << Référentiel de Navigation >> serait celui qui definit le point de vue de cet utilisateur dans la scène virtuelle. A partir de là, le principe du traitement proposé consiste à observer que, tant que le << Référentiel Traqué >> est suffisamment éloigné du << Référentiel Neutre >>, alors le << Référentiel de Navigation >> doit subir un déplacement proportionnel au déplacement relatif du dit << Référentiel Traqué >>.
Pour des raisons physiologiques, l'éloignement du << Référentiel Traqué >> par rapport au << Référentiel Neutre >> est analysé en fonction de volumes de tolérances (figure 1). Quand l'origine du << Référentiel Traqué >> n'est pas dans une sphère de tolérance, le déplacement appliqué au << Référentiel de Navigation >> est de type 6 DOF, de sorte que l'utilisateur semble parfois graviter autour d'un << pseudo centre >> de scène. A contrario, quand l'origine du << Référentiel Traqué >> est dans la sphère mais que son axe Zi fait un angle supérieur à l'angle solide d'un cône de tolérance, alors le déplacement du << Référentiel de Navigation >> est de type 3 DOF et la scène se met à graviter autour de l'utilisateur.
Résultats et perspectives
Au delà de la publication du principe de notre approche [1], ce paradigme interactif a été introduit dans la plate-forme EVI3d et nous sert à naviguer dans les scènes d'écoulements pour son application << Mécanique des Fluides >>. A l'occasion de cette validation informatique, nous avons formalisé la spécialisation de notre modèle suivant le contexte matériel où il peut être mis en oeuvre. On observe en effet que le modèle présenté ci-dessus est directement applicable aux casques de Réalité Virtuelle, puisque les plans images sont entièrement solidaires de la position des caméras virtuelles associées aux yeux (figure 2.a). En revanche, dans le cas de lunettes stéréoscopiques, il convient de combiner le changement de référentiel relatif à la navigation, avec celui ou ceux qui décrivent la mobilité de l'utilisateur par rapport à un ou plusieurs écrans fixes (figure 2.b).
Références
[1] P. Bourdot, M. Dromigny, L. Arnal : << Virtual navigation fully controlled by head tracking >>. International Scientific Workshop on Virtual Reality and Prototyping ; Laval (France), June 1999.
Gpe Interaction et Multi-Modalités |
| Dpt CHM |
|
Sommaire
|
| Présentation |
|
---|