Le langage VRML est à la croisée de deux technologies de communication. Ainsi, avant de démarrer les explications sur le langage, il est nécessaire de faire le point sur ces deux technologies que sont les réseaux de communication et la réalité virtuelle. Ceci fournira le contexte dans lequel a été créé ce langage.
La définition classique de l'Internet, ou d'Internet, puisque les deux se disent, est "un réseau de réseaux". C'est aussi la première forme concrète de ce que l'on nomme les "autoroutes de l'information" 3 . Il est d'ailleurs intéressant de suivre sa montée en puissance, raison de ce succès. Afin de dresser un petit aperçu de l'histoire de l'Internet présentant les avancées technologiques en termes de matériel et de logiciel il faut remonter jusque dans les années soixante, aux Etats-Unis, même si la naissance des réseaux, elle, est antérieure.
Le début des réseaux
Les premiers ordinateurs 4 apparaissent à la fin des années quarante, ce sont les résultats d'années de recherches poursuivies, notamment, par l'armée américaine, dans le cadre de la deuxième guerre mondiale. L'évolution de ces fabuleuses machines a suivi son cours, et de grands centres de calcul ont vu le jour à travers tout le pays. Dans ces centres, on calcule un grand nombre de données, et notamment des données sensibles, puisque la plupart des grands centres sont financés par l'armée américaine. De plus, l'évolution technologique permet rapidement de connecter des ordinateurs entre eux pour, dans un premier temps, augmenter le potentiel de calcul.
On se retrouve donc dans les années soixante, en pleine guerre froide, avec tous ces centres qui constituent des cibles stratégiquement sensibles. Il faut trouver un moyen de surmonter ce problème. Or, le scénario catastrophe qui est envisagé, est l'attaque atomique. Ceci signifie qu'il faut multiplier les centres qui détiennent l'information, les relier entre eux afin d'optimiser les recherches, mais trouver un moyen de les faire communiquer, sans dépendre d'un point central. Le problème est donc posé de changer le fonctionnement des réseaux classiques où il y a toujours une tête de réseaux 5 qui constitue un point particulièrement vulnérable. Afin de pallier ce handicap, il faut créer un réseau où chaque noeud est autonome et en connexion directe avec plus d'un autre noeud : c'est le concept de départ d'Internet.
En pratique, c'est l'ARPA, "Advanced Research Project Agency", qui est chargée de cette tâche complexe. L'ARPA6 est l'agence des recherches avancées dans le domaine des technologies de l'information ; elle a été créée en réaction à Spoutnik en 1957. En 1968, J.C.R. Licklider est directeur du bureau des techniques de traitement de l'information à l'ARPA. C'est l'une des figures de proue de l'Internet, puisque c'est sous son impulsion qu'en 1969, la firme américaine de consultants BBN 7 préconise un protocole de communication pour réaliser ce réseau de réseaux, le "Network Control Protocol". Et c'est en 1970 que ces concepts commencent à être mis en oeuvre par l'agence. C'est la naissance de l'ARPAnet, premier réseau de réseaux, qui relie quatre universités : Stanford (San Francisco), l'Université de Californie à Los Angeles et à Santa Barbara et l'Université de l'Utah à Salt Lake City.
Dés 1972, on dénombre une quarantaine de sites faisant partie de l'ARPAnet. Le réseau permet l'utilisation du courrier électronique, ainsi que la connexion à distance. Mais de nombreux réseaux se développent, et l'on se retrouve avec un problème de standardisation. Un groupe de travail dirigé par Vinton Cerf est donc constitué pour créer un protocole de communication entre tous types d'ordinateurs. Ces recherches aboutiront en 1974 à l'élaboration du protocole TCP 8 , qui donnera naissance au protocole IP, "Internet Protocol". C'est d'ailleurs en 1974 que le nom d'Internet est né au sein de ce groupe de travail.
Les protocoles TCP/IP:
Les protocoles TCP/IP sont donc la base de la transmission de données. Le concept est simple : dans le cas de l'envoi d'un courrier classique d'une personne à une autre, on insère le message, la lettre, dans une enveloppe sur laquelle est inscrite l'adresse de la personne à qui on envoie le message. La gestion du réseau se fait exactement de la même manière, puisque le protocole IP se charge de coder l'adresse électronique, et le protocole TCP se charge de transférer le message. Une adresse postale contient le nom, le numéro et la rue, le code postal et le nom de la ville, et le pays. De la même façon, l'adresse électronique définie par le protocole IP contient le nom de l'utilisateur, l'institution qui possède le réseau et son sous réseau, et le pays. On parle d'ailleurs pour les machines, d'une adresse IP. En ce qui concerne l'enveloppe de notre courrier, la procédure veut que l'envoi d'un message soit fait d'une succession d'éléments relativement courts résultant du découpage du message, ayant chacun sa propre enveloppe, afin de ne pas bloquer une ligne lors de l'envoi d'un long message. Cette solution exige de coordonner le découpage lors de l'envoi et la reconstitution du message lors de la réception de telle sorte que le message puisse être lu comme il a été envoyé. C'est le protocole TCP qui se charge de cette tâche. Cette solution a de nombreux avantages, et en particulier, le protocole permet de faire circuler les éléments, que l'on nomme paquets, par des voies différentes. Ainsi, si un chemin est bloqué et qu'un paquet ne parvient pas à destination, il suffit de renvoyer ce petit paquet et non l'ensemble du message. C'est un moyen d'optimiser les transits de données sur le réseau et de pouvoir continuer une communication même si une ligne particulière vient à être inutilisable, par suite d'une panne ou d'une destruction.
En 1980, le DRAPA décide de ne pas traiter les protocoles TCP/IP comme secret militaire. Cette décision sera décisive pour l'histoire d'Internet, puisque ce protocole devient libre de droit et disponible pour tout le monde. Aujourd'hui, les protocoles TCP/IP se sont imposés comme la norme internationale de fait dans le domaine de la connexion de réseaux.
La multiplication des réseaux :
Les années soixante-dix voient l'explosion des mini-ordinateurs 9 , et l'avènement du système d'exploitation10 Unix. Dans le paysage informatique, le mini-ordinateur est une machine que les universités et les PME peuvent acquérir, et c'est la raison de son succès. Unix est, quant à lui, le premier système d'exploitation qui permet de faire se dérouler plusieurs programmes simultanément sur des machines de cette taille. Cette capacité a permis de développer le travail en équipe et le partage de machines par le biais d'un réseau. Ce système ouvert qui s'est petit à petit adapté à toutes sortes de machines, a contribué à l'élaboration d'un contexte favorable au développement de programmes de recherche durables sans se soucier de l'évolution du matériel.
Dès 1976, il est possible d'échanger des fichiers entre deux machines Unix, par le biais d'une ligne téléphonique et de modems. On doit cet exploit à Mike Lesk, chercheur dans le laboratoire Bell d'AT&T à Bellcore en Pennsylvanie. C'est la première base pour un nouveau réseau : UUnet. Par ailleurs, les chercheurs américains voient dans ce nouveau moyen de communication un outil nécessaire à leurs recherches et tentent de fonder un réseau pour servir les exclus de l'ARPAnet. Cette initiative a poussé la "National Science Foundation" 11 et le DRAPA à créer un nouveau réseau CSnet. En 1978, tous ces réseaux sont reliés entre eux, on est réellement entré dans l'ère de l'Internet. On comprend donc la notion de réseau de réseaux, puisqu'Internet se compose de réseaux déjà existants et se charge uniquement de les relier.
L'année 1983 voit le mariage officiel du système d'exploitation Unix et du protocole TCP/IP lorsque l'université de Berkeley intègre TCP/IP dans le noyau d'Unix. Des tentatives de création de réseaux indépendants comme Bitnet, subventionné par IBM, vont voir le jour, mais ces réseaux devront faire face au succès d'Internet. En 1987, le gouvernement Américain scinde l'ARPAnet en deux réseaux distincts, le MILnet pour les communications militaires, et le NSFnet pour les chercheurs, ce dernier est sponsorisé par la NSF.
Dans le début des années quatre-vingt-dix, apparaissent des réseaux commerciaux qui offrent des accès à l'Internet. Parmi les principaux, on peut citer Compuserve, America On Line, Prodigy. Il est d'ailleurs intéressant de constater que ces réseaux ont été créés alors qu'Internet n'était qu'un protocole de communication entre différents réseaux, et qu'il n'y avait pas encore de standards dans le domaine de la présentation de l'information. Ce manque a conduit ces réseaux commerciaux à des développements propriétaires qu'ils n'abandonneront qu'en 1996 au profit de standards non propriétaires.
Des fonctionnalités basiques :
Internet est une structure qui existe d'abord au niveau des matériels 12 , ce réseau est constitué d'ordinateurs interconnectés par un protocole de communication ; mais quels sont les services auxquels il donne accès ?
On peut bien évidement communiquer par le biais de messages électroniques 13 , c'est le "Simple Mail Transfer Protocol" (SMTP), qui régit le format des messages. On peut faire des transferts de fichiers par le biais du "File Transfer Protocol" (FTP). Ce protocole permet de se connecter à un ordinateur distant et de choisir dans les répertoires publics de cet ordinateur les fichiers que l'on veut charger. Les ordinateurs accessibles par ce protocole contiennent des masses innombrables d'informations, et les fichiers ainsi mis à la disposition du public peuvent aussi bien être des programmes que du texte, des images, etc... La connexion s'établit par un identifiant et un mot de passe. Dans le cas des répertoires publics, un identifiant banalisé, "anonymous", est disponible. Il permet de se connecter à des sites FTP publics comme utilisateur anonyme sans avoir besoin d'un mot de passe spécifique. La dernière fonction que l'on peut effectuer est une connexion Telnet, du nom du programme employé : cette connexion permet de transformer pour la durée de la session l'ordinateur appelant en un terminal éloigné de l'ordinateur appelé. L'accès à Internet avec ces outils reste très austère, puisque la plupart des fonctions s'exécutent directement en utilisant les commandes Unix, et qu'il n'y a aucun moyen de rechercher l'information quand on ne sait pas d'avance où elle se trouve, si ce n'est par tâtonnements.
Dans cet environnement très complexe, Peter Deutsch, informaticien à l'université McGill à Montréal, réalise en 1990 le premier catalogue des sites FTP, "Archie". C'est un automate qui catalogue près de 3% des sites FTP par nuit. Cet automate fait ainsi le tour du monde en un mois, indéfiniment. C'est la première carte pour se repérer sur Internet. Elle reste toutefois rudimentaire, puisqu'il faut encore connaître le nom du fichier que l'on cherche, et qu'il faut se connecter soi-même à l'un des sites issus de la recherche pour télécharger le fichier.
L'année suivante, en 1991, l'université de Minnesota développe un logiciel qui permet de gommer cette difficulté liée à la localisation des sites FTP, en les reliant directement. Ce logiciel se nomme "Gopher", du nom d'un animal qui creuse des tunnels sous les prairies, et qui est aussi la mascotte de l'université de Minnesota. Ce programme permet de relier les sites entre eux par le biais de "tunnels" abstraits en établissant lui-même les connexions entre sites au fur et à mesure qu'elles deviennent nécessaires pour la recherche. Il présente les résultats des recherches sous forme de menus, constituant en quelque sorte les prémisses d'une bibliothèque électronique. Il connaîtra ses heures de gloire entre 1992 et 1993.
Le World Wide Web :
Pendant la même période, se prépare une réelle révolution pour le développement de l'Internet. En effet, le CERN 14 , qui utilisait Internet pour diffuser les résultats de ses expériences, n'avait pas la possibilité de reconstituer le contexte de ces expériences. C'est dès 1989, qu'apparaît, dans le cadre de la recherche d'une solution à ce problème, la révolution qui permettra de faciliter l'accès aux informations disponibles sur Internet. Tim Berners-Lee et Robert Cailliau du CERN, soucieux de trouver un moyen intelligent de présenter et stocker les publications, ont cherché la solution au problème du côté des systèmes hypertextes15 et non arborescents, comme c'était le cas jusque là.
L'hypertexte, c'est la possibilité d'utiliser n'importe quel élément d'un document électronique : mot, groupe de mots, image ou partie d'image, comme lien vers un autre document, à partir d'informations associées à cet élément dans le document, mais non visibles lors de son affichage. Les notes de renvoi incluses dans ce texte sont une forme d'hypertexte. Les premières traces de ce concept remontent à l'encyclopédie de Diderot16 . Afin d'offrir cette fonctionnalité par le biais de renvois, les chercheurs du CERN adoptent la norme SGML, "Standard Generalized Markup 17 Language", qui concerne la mise en forme d'un document et les liens entre ses éléments constitutifs. Cette norme formalise la définition de langages de description 18 , en fixant le mode de distinction du code par rapport au texte, les codes valides et leurs emplois, les codes indispensables et ceux qui sont optionnels.
En 1989 est développé le premier prototype d'un système hypermédia permettant d'inclure dans son champ d'action l'ensemble de l'Internet ; ce système a été nommé "World Wide Web"19 . Il définit en pratique un protocole de communication ainsi qu'un langage de description. Le protocole HTTP, "HyperText Transfert Protocol", est un protocole de communication utilisant des adresses URL20 , "Universal Resource Locator". Le langage HTML, "HyperText Markup Language" est un langage de description de document conforme à la norme SGML mentionnée plus haut. Ce langage est constitué d'un ensemble de balises qui permettent de définir la mise en forme de la page, ainsi que des liens vers d'autres documents. Une fois le document créé, il est nécessaire de posséder un logiciel qui interprète le langage HTML. Ce logiciel que l'on nomme "browser" en anglais, est appelé en français navigateur, fureteur ou butineur. Et lorsqu'on utilise ce logiciel pour rechercher de l'information sur le Web, on dit que l'on navigue, ou que l'on butine.
Le document que l'on visualise avec le navigateur est couramment dénommé une "page web" et il est visible sur tous types de machines pourvues d'un navigateur. Le document est présent à une certaine adresse URL, et peut pointer vers d'autres URL, l'ensemble des documents ainsi liés les uns aux autres constituant ce qu'on nomme le "World Wide Web". Le langage est suffisamment ouvert pour inclure des éléments multimédia. Ce sera le cas assez rapidement puisqu'aujourd'hui on peut mettre en page toutes sortes de données, comme du texte, des images, du son, de la vidéo... Ces fonctionnalités dépendent bien évidement des possibilités du navigateur, et c'est sur ce point que le tout jeune langage HTML a trébuché.
![[Yahoo web]](images/Image7.GIF)
Image de pages web ("http://www.premiere.fr/" et "http://www.yahoo.com/").
En effet, le langage HTML est antérieur aux développements concernants Gopher , mais son essor ne viendra que plus tard pour deux raisons : d'une part il fallait traduire les documents existants au format HTML, d'autre part la visualisation des documents dans les premiers temps n'apportait rien de significatif par rapport aux documents de type Gopher , plus répandu à l'époque. Tout ceci change fin 1993, avec la sortie d'un petit logiciel, Mosaïc , développé par le NCSA21 , de l'université de l'Illinois. Ce navigateur est un "shareware"22 , qui permet d'intégrer dans les pages des images agrémentant les documents, ainsi que des formulaires permettant une communication bidirectionnelle. Ces atouts ont contribué au succès de ce logiciel qui a constitué le premier pas vers l'émergence du World Wide Web.
Le "web", comme on le nomme couramment, devient ainsi accessible à tous et va connaître un succès sans précédent, si bien que la plupart des gens pensent maintenant au web en parlant d'Internet. Ce succès planétaire sera renforcé par l'apparition en 1994 du logiciel Navigator de la société Netscape. L'idée de la société de Jim Clark est très simple : il débauche Marc Andreesen, un des pères de Mosaïc , et lui demande de développer un logiciel combinant les fonctionnalités d'un navigateur, ainsi que les fonctions de gestion de la correspondance électronique et de téléchargement depuis des sites FTP. C'est le premier logiciel trois en un, et même si ce logiciel était au début un "freeware"23 pour concurrencer Mosaïc , il est rapidement devenu un logiciel au même titre qu'un traitement de texte classique, même s'il est toujours distribué sous le mode du shareware. C'est le point de départ de l'Internet commercial, puisque jusque là toutes les technologies qui se développent sur Internet sont des technologies libres de droits, comme HTML, "Java"24 , et comme nous allons le découvrir, VRML.
Il ne faut pas oublier que l'un des facteurs de réussite de cette gigantesque "toile mondiale" est, à côté des logiciels de navigation, la présence de moteurs de recherche 25 . Ces sites scrutent le web, comme en son temps Archie scrutait les sites FTP, à la recherche de nouvelles pages, tout en offrant la possibilité d'effectuer des recherches de manière thématique, ou par mots clés. Le résultat des recherches est présenté sous forme de pages web construites dynamiquement et donnant un accès direct aux pages répondant aux critères de la recherche formulée.
Lorsqu'en juin 1993 NCSA sort son navigateur, il propose aussi le logiciel pour le serveur. En termes de chiffres, on estime que le nombre de ces serveurs était de 300 en octobre 1993, et qu'il était passé à 10 000 un an plus tard. En 1996 on estime que le nombre de sites double tous les deux à trois mois26 . Vu le succès sans cesse grandissant du web, un consortium s'est constitué pour gérer l'évolution de ce puissant instrument de publication, tout en préservant sa non-appartenance commerciale pour rester fidèle à l'esprit d'Internet. Ce consortium, le "World Wide Web Consortium", ou W3C, est placé sous la responsabilité de "Massachusetts Institute of Technology", MIT, et de l'Institut National de Recherche en Informatique et Automatique, l'INRIA, avec le support du DRAPA et du CERN.
Echange
Il est important de noter qu'il y a une philosophie liée à Internet. Au départ, il s'agissait d'un réseau de spécialistes où l'entraide était de rigueur. Cette règle d'or permettait aux nouveaux de bénéficier de l'expérience des anciens ; elle implique le partage de l'information. On considère que chacun a des connaissances à transmettre et que par ailleurs personne ne peut tout savoir. Il y donc une règle tacite de réciprocité avec la communauté qui implique que le temps pris pour répondre à des questions est équivalent à celui que vous gagnez avec les réponses que vous pouvez obtenir d'autres membres. Il n'y a bien évidement pas de comptabilisation effective de ce temps, mais cet exemple permet d'illustrer ce qu'on entend par esprit de réciprocité, et donc d'échange.
Cette notion de partage a primé sur l'aspect commercial pendant près de vingt ans. Ainsi, on voit apparaître de nombreux logiciels qui sont distribués gratuitement, les "freeware", et la première démarche commerciale sur Internet sera constituée par les "shareware", ces logiciels que l'on peut essayer et ne payer que si on les utilise. En général, ce sont de petits logiciels, ou des utilitaires simples ou simplistes, mais leur sophistication tend à augmenter avec le temps. C'est donc dans une communauté que l'on rentre en se connectant à Internet. Plus précisément, il y a une communauté par domaine d'intérêt.
Respect
Une règle inhérente à toute vie en communauté, même en communauté virtuelle, c'est le respect de l'autre. Cette importante règle a un grand nombre d'incidences sur les utilisateurs. Par exemple, elle se traduit par la concision des messages afin de ne pas encombrer le réseau avec des données volumineuses. Cette concision va jusqu'à la création d'un langage spécifique utilisant des abréviations ou des concaténations de lettres qui, lues une à une, forment des expressions, ou encore des signes indiquant l'état d'esprit de l'interlocuteur27 .
Cette règle de bonne conduite implique par ailleurs qu'une société ne peut envoyer de messages à caractère commercial qu'aux personnes qui ont spécifiquement demandé de les recevoir. En d'autres termes, "l'e-mailling" 28 sauvage est prohibé sur Internet, du moins pour une société qui tient à son image auprès de cette communauté.
Ce respect de l'autre se traduit aussi par un savoir-vivre numérique qui, discutant par messages interposés, ne hausse jamais le ton. L'équivalent de ce concept issu du langage parlé est, dans les messages, l'écriture en majuscule des mots. Ce savoir-vivre numérique est aussi lié au fait que l'écriture permet de mieux formuler et de mieux enrober le discours, comme c'est le cas avec le courrier traditionnel.
Mais ce respect de l'autre conduit aussi à la liberté de penser, qui est un point très délicat pour Internet aujourd'hui, puisque, dans les faits, Internet est mondial, alors que les lois concernant la liberté d'expression sont nationales. Ainsi, si un serveur est décrété illégal dans un pays, il peut être tout à fait légal ailleurs et donc persister sur Internet. Ce degré de liberté dans les groupes de discussion est plus limité puisque, si une personne est jugée indésirable par l'ensemble du groupe ou par son responsable, elle peut être dissuadée de continuer ou tout simplement exclue des discussions.
Collaboration
Internet a surtout été employé pour faciliter la communication entre les chercheurs, et non pour faire du commerce. La diffusion de l'information et des résultats de ses travaux est une pratique courante dans le monde de la recherche, car elle permet bien souvent de travailler plus rapidement à l'amélioration, voire à la correction des travaux de chacun. Ce partage de l'information a engendré une variété de communautés qui se rencontrent au travers de forum de discussion, de listes de diffusion ... Il en existe de plusieurs types : certaines dont l'objet est de discuter sur un sujet particulier et de partager d'information sur un thème donné, d'autres dont le but est de travailler à un objectif commun.
Ce travail collectif peut être le partage de tâches spécifiques complémentaires ou la finalisation d'expériences débutées dans un laboratoire et terminées dans un autre pour des raisons de disponibilité du matériel approprié. Dans tous les cas, au moins jusqu'à aujourd'hui, Internet a permis un échange réciproque gratuit de compétences et de connaissances, sans équivalent. Ceci permet aussi de dire que l'on trouve réellement tous types d'information sur Internet ...
Une communauté auto-régulée
Ces règles de conduite sont implicites, et se découvrent avec l'expérience ; il est intéressant de noter que cette communauté se rapproche des concepts du droit fondamental, avec une cyber-liberté, une cyber-égalité et une cyber-fraternité. Mais, si l'on se rapproche d'une forme de démocratie, on n'est pas pour autant dans une cyber-république puisque, s'il y a une forme de législation, il n'y a pas réellement d'entité exécutive, ni gouvernementale. La tâche liée à l'exécutif est prise en charge par tous les membres de la société, qui, à plusieurs reprises, ont réprimandé les fautifs. De plus, contrairement à ce que disent certains, Internet n'appartient à personne et n'a pas de dirigeants. En ce qui concerne le Web, il y a bien un consortium, mais son rôle est celui d'un régulateur plus que d'un gouverneur, et il en va de même pour le reste du réseau avec "l'Internet Society".
Comme le résume Jean-Luc Archimbaud, << Les fondations de l'Internet reposent beaucoup sur la confiance et la coopération avec un état d'esprit, l'esprit Internet. >> 29 . Après nous être intéressés à l'historique de la première composante technologique sur laquelle s'appuie le langage VRML, le réseau Internet, nous allons maintenant nous intéresser à l'histoire de la seconde, la réalité virtuelle.
Si la peinture est une fenêtre ouverte sur le monde, alors la réalité virtuelle est une porte qui s'ouvre sur de nouveaux horizons virtuels. Le terme de "réalité virtuelle"30 a été introduit par Jaron Lanier en 1986 pour désigner les environnements immersifs interactifs.
Philippe Quéau définit la réalité virtuelle comme : << une base de données graphiques interactive, exploitable et visualisable en temps réel sous forme d'images de synthèse tridimensionnelles, de façon à donner le sentiment d'une immersion dans l'image. >>31 .
En pratique, c'est la combinaison de plusieurs éléments qui permet de réaliser une interface d'immersion plongeant l'utilisateur, en temps réel, dans un univers interactif d'images de synthèses. La réalité virtuelle se trouve donc à la croisée des chemins de plusieurs technologies dites "catalyses". C'est la raison pour laquelle on parle de la réalité virtuelle comme d'une technologie "combinatoire", tirant partie d'innovations de domaines jusque là distinct. Nous allons maintenant présenter le fonctionnement de la réalité virtuelle ainsi que son historique.
Une technologie combinatoire :
Afin de se déplacer, au sens propre, dans un univers virtuel, il est nécessaire de satisfaire à quelques conditions ; il faut en quelque sorte tromper le sens proprioceptif 32 de l'utilisateur. Pour cela il faut aujourd'hui un appareillage qui se décompose en deux grandes familles : les dispositifs d'immersions et les dispositifs d'interaction.
On peut aussi regrouper ces dispositifs en deux familles selon un autre critère d'analyse : les dispositifs qui captent de l'information sur l'utilisateur, et les dipositifs qui lui en restituent . On comprend ainsi que l'information circule dans les deux sens et que ce cheminement doit se faire en temps réel sous peine de ne pas coïncider avec les sensations réelles.
Schéma 1 : fonctionnement de la réalité virtuelle
Dans la pratique, l'opérateur porte un casque muni de deux écrans miniatures, un pour chaque oeil, afin de restituer la stéréoscopie 33 ; ce même casque incorpore des capteurs qui permettent de connaître la position de l'utilisateur dans l'univers, et l'orientation de son regard. Ceci permet aux ordinateurs auxquels le casque est connecté de recalculer la scène afin de présenter à l'utilisateur ce qu'il est supposé voir dans l'univers virtuel. De plus, afin de parfaire l'interaction avec l'univers, l'utilisateur est muni d'un dispositif qui lui permet d'agir sur cet univers. Ce dispositif peut être un gant de données 34 , qui donne la position de la main ainsi que des doigts dans l'espace virtuel, ou encore un joystick 3D35 ou un spaceball36 qui permettent uniquement de pointer dans l'espace virtuel.
Avec ce dispositif de base pour un "voyage" dans les univers virtuels, on peut considérer que la révolution de la réalité virtuelle est en marche. Nous allons maintenant présenter un aperçu permettant de comprendre comment on en est arrivé à entrouvrir la porte qui nous sépare du virtuel.
Image d'un utilisateur portant un casque et un gant de données.
Les périphériques d'immersion :
L'illusion de l'immersion dans un univers virtuel est réalisée par le biais du casque de réalité virtuelle qui présente à l'utilisateur un univers virtuel en trois dimensions. Ce casque stéréoscopique restitue par ailleurs le son de l'univers en trois dimensions. Ce son est un son tridimensionnel dont l'acoustique est calculée en temps réel en fonction de la scène virtuelle. Le casque de réalité virtuelle est une interface de restitution aussi bien que de capture de l'information, puisqu'il est doté d'un ou de plusieurs capteurs permettant de situer l'utilisateur dans l'univers virtuel. C'est ce qui permet à l'ordinateur de savoir où se trouve l'utilisateur et quel est son orientation. Il peut ainsi calculer et restituer le son perçu par l'utilisateur en fonction de l'emplacement de la zone sonore dans l'univers virtuel. De la même manière, il peut présenter les images adéquates en fonction de la direction dans laquelle l'utilisateur regarde. Toute cette circulation de l'information doit se faire en temps réel, ce qui nécessite des outils de calcul suffisamment puissants pour régénérer l'ensemble de l'information à des intervalles suffisamment courts pour ne pas être perçus par l'être humain.
Image d'un casque de réalité virtuelle, ou "HMD"37 .
Afin d'en arriver à ce stade, de nombreuses étapes ont été franchies depuis l'invention du stéréoscope par Weatstone en 1833. Il y a eu l'évolution de l'informatique, puis l'utilisation de cet outil pour l'imagerie, et enfin l'emploi de ces images comme interface de pilotage de ces machines. Les premières expériences concernant le visiocasque commencèrent dès 1966, au MIT. C'est Ivan Sutherland qui était en charge de ce projet. Il s'était fixé un but : << placer des hommes et des femmes à l'intérieur de simulations créées par ordinateurs >>. Il assemble en 1968 "the incredible helmet", un casque de vision stéréoscopique qui permet de visualiser en temps réel des images en structure filaire. Le mouvement de la tête est suivi par un bras articulé attaché au plafond. Cette installation encombrante sera rapidement remplacée par des capteurs à ultrasons.
Ivan Sutherland est reconnu comme le créateur du visiocasque, même si celui-ci a beaucoup évolué depuis. D'une part, cette évolution porte sur la conception que l'on se fait de cet outil puisque, dès 1978, Scott Fisher remplace la notion "d'utilisateur" par celle "d'opérateur", ce qui transforme la "simulation" en une "immersion". C'est un point important qui ouvre de nouvelles perspectives à ce nouvel outil, né de la rencontre de la simulation et de la stéréoscopie. Le premier simulateur de vol de l'armée Américaine, le "Link", du nom de son inventeur qui le breveta en 1929, s'est constamment amélioré depuis, et c'est en 1968 que Sutherland y associera les images de synthèse, que Furness améliorera en y ajoutant la stéréoscopie, l'acoustique en trois dimensions...
D'autre part, l'évolution réside dans les améliorations technologiques. En effet, en 1983 avec Mark Callahan, le casque subit une première vague de modifications qui le rendent plus léger, grâce à l'utilisation des écrans plats, ainsi que des capteurs Polhemus38 . Puis le casque de la NASA39 , le premier casque à écran à cristaux liquides, élargit en 1987, grâce à Scott Fisher et McGreevy, le champ de vision, qui passe à 120° en horizontal et vertical. C'est en 1989 qu'il intégrera un son en trois dimensions.
On travaille actuellement dans un grand nombre de laboratoires sur la projection rétinienne en utilisant des lasers inoffensifs pour l'oeil. En attendant ces avancées technologiques, une des applications de la visualisation par casque se trouve dans le domaine militaire, où l'on utilise la projection d'information sur les visières des pilotes d'avions de chasse par exemple.
Les périphériques d'interaction :
En dehors du casque qui permet de "rentrer", dans un univers virtuel, on utilise d'autres interfaces de communication afin d'agir sur cet univers. Il existe plusieurs niveaux de manipulations possibles. Le premier niveau d'interface, le plus simple, consiste en la manipulation d'un pointeur dans l'espace, où l'interaction s'effectue par un système de boutons que l'on active selon le principe du click de souris. Ceci est possible avec un joystick 3D que l'on déplace dans un espace tridimensionnel en rapport avec l'univers virtuel. On peut aussi utiliser un spaceball qui est un outil très pratique pour la réalité virtuelle dite "de bureau"40 , puisqu'il est fixe, et qu'il restitue le mouvement dans l'univers virtuel en fonction de la force qui est appliquée sur la boule. La société française Virtools travaille sur une interface de bureau utilisant deux capteurs tridimensionnels, du même type que dans un joystick 3D, mais qui rend les deux mains indépendantes puisque l'interaction liée à chaque main est différente.
Le second niveau d'interface d'interaction, concerne la possibilité de plonger certains ou tous les éléments du corps dans l'univers virtuel. Ceci est possible grâce aux gants et aux combinaisons de données. Inventé en 1981 par Thomas Zimmerman, le premier gant de données sera commercialisé par la société VPL 41 , dirigée par Jaron Lanier, sous le nom de "DataGlove". Le gant est un élément important de l'interaction avec l'univers virtuel, puisqu'il permet de plonger la main dans cet univers, et que l'on peut ainsi y agir de manière naturelle. La société VPL assemblera aussi les combinaisons de données qui permettent à l'opérateur de plonger réellement l'ensemble de son corps dans l'univers virtuel. On peut désormais se voir entièrement dans le virtuel, ou voir l'image virtuelle de son corps réel ; il est toutefois nécessaire pour cela d'utiliser des machines très puissantes.
Image d'un gant de données et de sa représentation dans le monde virtuel.
Le troisième niveau d'interaction, c'est la possibilité donnée à l'univers virtuel de réagir sur l'opérateur, c'est à dire de restituer le toucher ou la pesanteur. Des recherches sont donc menées pour développer des dispositifs à retour tactile, à retour d'effort... pour augmenter le réalisme de l'interaction avec ces univers.
Dans le domaine du retour tactile, la première expérience a été réalisée par Margaret Minsky, au Media Lab42 du MIT, en 1990. Il s'agit d'un joystick qui réagit à la rugosité d'une surface virtuelle. Aujourd'hui, on tente de trouver des solutions afin que la sensation de toucher soit restituée par un gant sensitif en utilisant des solutions de type électrique ou électro-pneumatique.
Dans le domaine thermique qui n'est pas réellement le terrain de prédilection des chercheurs, du moins pour le moment, on utilise des thermodes pour restituer les différences de température.
Dans le domaine du retour d'effort, les solutions sont issues de la robotique, puisque le premier dispositif, le "Grope", tire ses origines de "L'ARM". C'est en 1947 que Raymond Goertz, de "l'Argonne National Laboratory", invente un bras mécanique articulé, "l'Argonne Remote Manipulator", l'ARM. Il s'agit d'un dispositif à six degrés de liberté qui permet la télé-manipulation en milieu hostile. Il y ajoutera dans les années cinquante le principe de rétroaction, mais c'est Frederick Brooks, de l'Université de Caroline de Nord, qui plus tard interfacera ce dispositif avec un univers virtuel. C'est vers la manipulation de la main que se porte la plupart des expériences actuelles. Elles s'intéressent à ce qu'on appelle un exosquelette, dispositif qui entoure la main, qui capte sa position et agit sur elle par des systèmes de micro-pistons. Ce concept remonte à 1958, date à laquelle Ralph Moster construisit le "Handyman" pour General Electric, mais les expériences actuelles tentent de perfectionner le dispositif en le rendant plus léger et plus discret. L'exosquellette est lui aussi un dispositif d'interaction qui sert aussi bien à capter qu'à restituer l'information puisqu'il permet de connaître la position des membres ainsi que de leur appliquer une force d'action ou de réaction.
La réalité virtuelle est encore aujourd'hui une technologie trop enfermée dans les laboratoires. C'est le résultat du coût du matériel nécessaire au fonctionnement d'un bon voyage virtuel. Pourtant on est aujourd'hui capable techniquement de réaliser des expériences de réalité virtuelle partagée : ainsi, dès 1992, le Médialab 43 et IBM ont permis au père Di Falco situé à Monaco et au conservateur du musée de l'abbaye de Cluny situé à Paris de se retrouver dans une reconstitution virtuelle de l'abbaye. Par contre, pour ce qui est des interfaces, on ne semble pas à la veille de changements majeurs.
La réalité virtuelle est donc le moyen de créer un univers, qu'il soit totalement imaginaire ou qu'il s'agisse d'un prolongement de la réalité. De nombreuses expériences se sont orientées vers la réalisation de mondes partagés par plusieurs utilisateurs, comme nous venons de le voir avec l'expérience sur l'abbaye de Cluny, mais étant donné le coût de l'infrastructure, elles n'en restent encore à l'heure actuelle qu'au stade du laboratoire. Seul un projet semble sortir du lot puisqu'il vise cet objectif tout en exploitant les protocoles de communication de l'Internet. Ce projet a donné naissance au langage VRML.
Ayant décrit les deux technologies principales sur lesquelles s'appuie le langage VRML, la réalité virtuelle et le réseau Internet, nous allons maintenant détailler son histoire.
Sommaire
"www-vrml" Une communauté virtuelle créatrice du cyber-espace
Mémoire de DESS MEI - Benoît SUZANNE ©1996