_______________________
Exemples d'Activités de Recherche du groupe
INTRODUCTION
Le groupe Langage et Cognition comprend une quinzaine de membres permanents et
une quinzaine de doctorants. Centré sur le traitement automatique des langues, il est
fondamentalement pluridisciplinaire, puisqu'il s'intéresse à la langue en tant
qu'objet (linguistique), ainsi qu'à son usage dans la communication (pragmatique). En
vue de s'en inspirer pour réaliser des programmes de simulation (intelligence
artificielle), il étudie également les mécanismes intellectuels de
compréhension, de production et d'apprentissage chez l'être humain
(psycholinguistique). Enfin, il traite aussi bien des aspects formels liés aux
représentations et aux architectures, que des aspects plus applicatifs dans le cadre de la
communication Homme-machine.
Deux grands axes essentiels se retrouvent dans les différents thèmes de recherche du groupe : le génie linguistique (où on cherche à utiliser efficacement des connaissances linguistiques pour améliorer diverses techniques informatiques où la langue intervient) et les modélisations cognitives (où on veut proposer des modèles informatiques qui rendent compte des caractéristiques de l'intelligence humaine).
Par ailleurs, la notion de << projet >> est devenue importante dans la gestion des actions du groupe ; aussi, après les descriptions des thèmes du groupe avons-nous détaillé quelques-uns des projets en cours, donnant ainsi une représentation << croisée >> de nos recherches (Caramel sous-tendant la plupart des recherches du groupe et étant rappelé dans le thème 1 n'y est pas repris).
Enfin, nous soulignerons l'intégration de Jean-Paul Sansonnet, DR CNRS, qui, avec quelques nouveaux doctorants étend diverses problématiques du groupe.
Ce thème se divise explicitement selon les deux axes évoqués ci-dessus :
la modélisation cognitive de la compréhension d'une part, le développement et
la mise à disposition d'outils dans le cadre des industries de la langue, d'autre part.
CARAMEL, un modèle cognitif de la compréhension
Nous avons présenté dans les précédents rapports un modèle informatique destiné à la compréhension automatique des langues et qui rend compte de divers aspects liés aux notions d'apprentissage et de conscience.
Fondamentalement, ce modèle est très fortement inspiré des idées d'Erich Harth, de Bernard Baars et de Gerald Edelman. Leurs réflexions nous semblent importantes parce qu'elles ont des fondements très proches de l'intelligence artificielle distribuée, domaine très prometteur pour tout ce qui concerne la réflexivité et une première approche informatique de la conscience. Elles donnent ainsi à celle-ci un rôle de coordination et d'unification, essentiel pour toute modélisation de l'intelligence. Le modèle d'Edelman nous semble particulièrement prometteur, d'une part parce qu'il englobe l'ensemble des processus cognitifs (il relie de façon cohérente les perceptions aux fonctions supérieures du cerveau et au langage), et d'autre part parce qu'il est suffisamment précis pour déboucher sur nombre d'idées neuves pour les mises en uvre informatique - en particulier pour tout ce qui concerne la sémantique et la question de l'ancrage des symboles.
Un travail important de ce thème a alors consisté à transposer dans le cadre
de la programmation multi-agent les propositions d'Edelman pour réaliser des mises en
uvre partielles de cette théorie, illustrant son application possible au langage.
Évitant de fournir au système modélisé une définition purement
formelle de la sémantique du langage utilisé, ces expériences montrent la
possibilité de fonder la sémantique sur la perception d'un environnement, sur
l'action que le système effectue sur celui-ci et sur ses valeurs (besoins) internes. Une
expérience particulière porte sur le développement de capacités
élémentaires de communication entre des agents qui possèdent des
capacités sensori-motrices simples ainsi que des valeurs internes : les agents sont
supposés capables de catégoriser leur environnement, qui contient des formes
géométriques munies d'attributs et de propriétés relationnelles. Des
dialogues de description des scènes perçues permettent l'émergence d'un code
de communication (lexique commun) et de propriétés syntaxiques. En liaison avec
le traitement de la référence (cf. thème 2), cela constitue la thèse d'Andrei
Popescu-Belis, en cours de rédaction.
Les travaux à venir concernent un meilleur contrôle du processus d'apprentissage, afin de pouvoir imposer, à l'aide d'agents << instructeurs >>, des conventions proches de celles de la langue française.
Par ailleurs, les travaux décrits ci-dessous montrent une implémentation du
modèle - au moins de ses aspects réflexifs - à l'aide d'une plate-forme
multi-agent générique.
MERCURE, une plate-forme multi-agent pour un atelier de génie linguistique
L'effort entrepris au cours de l'année 1997 sur le développement d'une
architecture multi-agents a été poursuivi au cours de l'année 1998. La plate-
forme Mercure, issue du projet Eureka PVS, se fonde sur les dernières
spécifications architecturales de la FIPA (Foundation for Intelligent Physical Agents).
Ces spécifications, compatibles avec celles de KSE (Knowledge Sharing Effort), sont
nettement plus précises. Fondé sur la FIPA, notre langage de communication entre
agents reste toutefois proche de KQML (Knowledge Query and Manipulation Language).
Une plate-forme contient quatre agents essentiels :
Un agent supplémentaire, le Gestionnaire d'accès externes, gère les communications avec les éléments extérieurs au système multi-agent. Nous avons également mis en place les mécanismes permettant de créer des agents gestionnaires des composants logiciels externes.
Afin d'éviter tout couplage de bas niveau avec les composants logiciels utilisés par les agents, ceux-ci font l'objet d'une méta-description des données et des services qu'ils proposent. Nous utilisons pour ce faire le formalisme des graphes conceptuels. La mise en uvre de ce formalisme, dont nous disposions partiellement, a été étendue pour en augmenter la puissance expressive (second ordre, opérations ensemblistes, lambda expressions) ce qui permet de représenter tout type de données.
Des mécanismes d'interfaces de haut niveau ont été développés
pour des composants COM, ODBC, Oracle, et CORBA, ainsi que pour certains logiciels
bureautiques spécifiques, facilitant ainsi l'intégration de composants logiciels de
différents types.
Divers aspects de la sémantique sont abordés dans ce thème : sémantique lexicale (comme l'association de traits sémantiques à des entrées lexicales et leur insertion dans une hiérarchie), sémantique référentielle (la recherche des objets référencés par des occurrences textuelles variées), sémantique conceptuelle (les concepts dénotés par les termes en langue de spécialité) et sémantique formelle (l'exploitation de formalismes génériques pour représenter les informations sémantiques).
Les activités du thème s'appuient sur des analyses fines et spécialisées
des documents pour en extraire des connaissances sémantiques. La qualité des
informations sémantiques dépend de la bonne synergie des analyses au niveau du
texte : transmission des informations entre les modules, représentation homogène
des connaissances extraites ou reconnues dans les textes, exploitation de données
lexicales existantes (dictionnaires ou bases sémantiques) et exploitation de
connaissances acquises automatiquement (voir également le Thème
<< Apprentissage >>).
Au cours d'une première phase de traitement, mots composés, termes et autres
expressions référentielles sont reconnus afin de préparer la construction des
représentations référentielles (RR) associées aux textes. Celles-ci sont
envisagées sous deux perspectives : le traitement de la référence dans les
textes narratifs et la normalisation conceptuelle de termes. En ce qui concerne la
référence, un ensemble d'outils regroupés en un << atelier de traitement de la
référence >> a été écrit. Ils permettent de construire les RR du texte :
à ce jour (mais des extensions pertinentes sont encore à réaliser), une RR est le
simple regroupement dans un même ensemble de toutes les expressions
référentielles du texte qui désignent une même entité (voir aussi la
page d'Andrei Popescu-Belis et Isabelle Robba << Évaluation des systèmes de
Traitement Automatique des Langues : cadre formel et applications à la résolution
de la référence >>). En ce qui concerne la normalisation sémantique des termes,
des modules enchaînés réalisent successivement l'étiquetage du texte, la
lemmatisation, l'acquisition terminologique et le regroupement de variantes
sémantiques. La fusion des variantes exploite diverses connaissances sémantiques
et morphologiques telles que des familles morphologiques ou des classes de mots
synonymes. Elle vise à regrouper les occurrences linguistiques correspondant au
même concept.
La phase des traitements partiels et locaux des documents prépare la construction
d'une structure de plus haut niveau permettant de contextualiser les connaissances
sémantiques apprises. L'étude de la distribution des mots dans un texte fournit des
indicateurs importants pour repérer des zones thématiquement homogènes.
L'exploitation de ces indicateurs, conjointement à l'utilisation d'un réseau de
cooccurrences et des marques linguistiques présentes dans les textes permet de
délimiter des segments thématiques et d'en proposer une structuration. Cette
structuration des textes a été exploitée dans le cadre du résumé
automatique (voir la page << La structuration thématique au service de la consultation
rapide de documents >> de Nicolas Masson).
L'analyse des documents ne réussit que si les données fournies sont bien
calibrées pour la tâche envisagée et si les modules exploités sont
correctement organisés et paramétrés. Des travaux sont effectués pour
définir et acquérir automatiquement des paramètres pertinents pour la
constitution de corpus équilibrés et bien adaptés à une tâche. En retour,
cette typologie des corpus permet une meilleure optimisation et une meilleure organisation
des traitements. Ces paramètres quantitatifs et linguistiques sont des dimensions selon
lesquelles s'opposent ou se regroupent les textes.
Le point de convergence des travaux développés dans ce thème est de
fournir des informations sémantiques qui seront ensuite automatiquement
organisées par des modules d'apprentissage. Afin de définir ces données cibles
deux directions complémentaires sont prises au sein de ce thème. D'une part, un
module d'acquisition automatique de liens sémantiques permet de regrouper les mots
en fonction de leurs régularités de distribution syntaxique dans les résultats
d'analyseurs syntaxiques partiels. Ce module fournit des cartographies d'ensemble des
textes traités ainsi que des propositions de liens d'antonymie ou synonymie. D'autre
part, une représentation manuelle des verbes a été réalisée à grande
échelle. Elle est fondée sur des observations de dictionnaires, des analyses de
corpus de dialogues et des principes de psycholinguistique. Une présentation
hiérarchique rend compte des sens propres, des sens proches et des sens
métaphoriques.
La représentation des données sémantiques formelles est réalisée
dans le cadre des graphes conceptuels. Au sein de la plate-forme décrite ci-dessus (cf.
thème 1) et de son application au projet PVS, les graphes conceptuels permettent de
représenter une ontologie d'entreprise, utilisée pour modéliser les
compétences des agents, formaliser le contenu des messages échangés et
décrire la terminologie de l'entreprise.
Ce thème aborde deux problématiques : l'apprentissage de connaissances par la machine pour des applications liées au traitement de la langue et l'exploitation de connaissances pour aider un utilisateur à acquérir des compétences dans une tâche de type enseignement assisté.
Les travaux développés dans le cadre de la première problématique
concernent l'apprentissage de connaissances sémantiques et de connaissances
pragmatiques : respectivement, catégories sémantiques propres à un domaine
ou générales, et représentation de domaines et de situations concrètes. Ces
connaissances étant acquises à partir de textes, leur niveau de structuration et de
granularité est lié au degré d'élaboration des processus d'analyse
utilisés. Les types d'apprentissage mis en uvre en découlent aussi : apprentissage
de type statistique pour des données faiblement structurées, par analogie ou par
étude de régularités pour des connaissances structurées.
L'apprentissage de catégories sémantiques est fondé sur l'existence de
régularités de relations entre mots. Dans une première approche, l'utilisation
d'analyseurs syntaxiques robustes permet d'établir la nature de ces relations ainsi
qu'une évaluation de la proximité des mots : deux mots sont d'autant plus proches
qu'ils ont les mêmes arguments ou inversement qu'ils sont arguments-modifieurs des
mêmes opérateurs. Ces proximités débouchent sur des classes
sémantiques propres au domaine étudié. La seconde approche consiste à
faire émerger des classes par propagation d'activation dans un vaste réseau
pondéré construit par accumulation de productions verbales intervenant dans des
situations similaires.
L'apprentissage de connaissances pragmatiques vise à constituer des descriptions
générales de situations en faisant émerger les concepts correspondants. Les
représentations des situations sont agrégées en fonction d'une mesure de
similarité, faisant ainsi émerger leurs traits récurrents. Cette approche est
appliquée à des représentations structurées de textes et conduit à
l'apprentissage de schémas par un processus de généralisation symbolique. La
constitution d'une telle ressource est destinée également à servir de base de cas
pour élaborer un raisonnement par analogie permettant de produire de nouvelles
structures. Par ailleurs, la même approche est appliquée à la constitution de
domaines non structurés par regroupement d'ensembles de mots, conduisant à la
structuration d'un réseau de cooccurrences lexicales.
Les travaux de la seconde problématique de ce thème portent sur la conception
d'outils capables de retrouver les liens pertinents entre des connaissances en fonction d'un
point de vue relatif à l'utilisateur. Deux types d'applications relèvent de cette
approche : l'aide à la rédaction et l'assistance à la présentation d'un cours
ou d'un exposé. L'aide à la rédaction a pour but de suggérer des idées
et un plan pour la conception de documents à partir d'une proposition initiale d'un
utilisateur. Le système aura à trouver de nouvelles idées, de nouveaux types
d'organisation de celles-ci en fonction des connaissances dont il dispose et de leur
organisation. L'assistance à la présentation doit permettre, quant à elle, de
mettre en place ou de découvrir ces liens, à partir des caractéristiques des
objets présentés et du texte de la présentation organisée sous la forme
d'une succession de thèmes connus ou à découvrir. L'existence de ces liens
servira ensuite à assister intelligemment la présentation, en améliorant
l'éclairage dont bénéficient les objets les plus pertinents à un instant
donné.
La thématique principale est celle de la représentation de connaissances spatiales et temporelles et du raisonnement sur ces connaissances, en liaison avec la langue naturelle. Les formalismes étudiés relèvent principalement de méthodes symboliques (raisonnement qualitatif temporel et spatial), avec le développement d'approches originales (intervalles généralisés, méthodes algébriques). Trois aspects sont abordés dans le thème :
La communication entre << agents >> est au centre des recherches effectuées dans
ce thème. Par agent, nous entendons ici aussi bien des humains que des systèmes
informatiques complexes ; la communication concerne alors deux humains, un humain et
un système informatique, ou deux systèmes informatiques.
Dans ce cadre, nous avons étudié plus spécifiquement certains
problèmes de façon distincte, mais avec le but d'intégrer ultérieurement
les différentes solutions au sein d'un même système. Parallèlement nous
travaillons sur des applications offrant des cadres de mise en oeuvre partielle de ces
solutions.
L'un des aspects de ces recherches concerne la modélisation des intentions et des
croyances que doivent avoir des agents pour collaborer à une même tâche,
modélisation fondée sur la théorie des << plans partagés >> de Grosz et
Sidner. En développant ce modèle, nous avons été amenés à
travailler sur les élaborations et les réparations de plan, ainsi que sur la
verbalisation des échecs (cf. la page de présentation de Cécile Balkanski et
Martine Hurault-Plantet).
Afin d'améliorer l'interaction, nous avons développé un modèle
fondé sur la représentation dynamique de la structure d'un dialogue, en analysant
à la fois l'intention communicative (liée à la fonction d'un énoncé) et
l'intention informative (reposant sur les relations thématiques entre énoncés)
véhiculées par les interventions des interlocuteurs. Ce modèle permet
d'observer les stratégies suivies par les interlocuteurs et d'influer sur les stratégies
à adopter par un système, de façon à prévenir les risques
d'incompréhension. Une interface de saisie des éléments d'analyse
nécessaires à la construction de cette structure (cf. la page de présentation de
Brigitte Grau et Anne Vilnat, ainsi que la description du projet MAD, ci-dessous) permet
d'envisager l'étude de corpus de dialogues variés, aussi bien en terme de types
d'interlocuteurs (homme-homme, magicien d'Oz, ou véritable dialogue homme-
machine), que de tâche à accomplir (recherche d'informations, dialogue de
commande, explication, ou même dialogue << artificiel >>, comme avec l'Eliza de
Weizenbaum).
Dans le cadre plus spécifique des dialogues explicatifs, nous avons proposé un
modèle informatique de l'énonciation mettant en relief ses différents aspects et
leurs interactions. L'acte de dialogue permet, à partir des énoncés en langue
naturelle de fournir des éléments d'interprétation aux différents modules
gérant le dialogue, l'explication et l'argumentation.
Parallèlement à ces travaux, est réalisée une plate-forme dans laquelle
des agents humains interagissent avec leurs alter ego informatiques, qui eux-mêmes
interagissent entre eux. Cette plate-forme permet de mettre en uvre des solutions au
départ élémentaires en restreignant les problèmes considérés. Le
but étant ensuite d'améliorer incrémentalement ces solutions, en élargissant
les compétences des agents informatiques (voir le projet Mercure, ci-dessous).
Enfin, pour offrir une assistance à l'utilisateur de systèmes d'information distribuée, nous nous intéressons également au développement d'une interaction langagière très simplifiée. Le modèle que nous proposons s'appuie sur une représentation des composants (les éléments auxquels il est fait référence au cours du dialogue) qui est de nature dynamique et analogique, inspirée des modèles de situation en psychologie (cf. la page de présentation de Sébastien Gérard et Jean-Paul Sansonnet, ainsi que la description du projet InterViews, ci-dessous).
Projet MERCURE
X. Briffault, O. Ferret, Nicolas Guichard, Jean-Philippe Kotovicz, Gérard Sabah, Jérôme Vapillon
Le projet PVS est un projet Eureka, rassemblant le LIMSI, la société AEGIS,
et d'autres partenaires universitaires et industriels, français, suisses et tchèques.
Son objectif est la réalisation d'outils innovants de gestion de projet et de production.
Nous nous appuyons pour ce faire sur la technologie des systèmes multi-agents, en
utilisant en particulier la plate-forme développée pour cela dans le cadre du projet
MERCURE, et décrite dans la présentation du thème << architecture >>.
Une étude des tendances socio-économiques et des évolutions en cours
dans les sciences de l'organisation et de la gestion nous a permis d'inscrire nos
développements logiciels dans les grandes évolutions en cours. Le point central de
ces évolutions est le passage d'une économie de croissance et de production de
masse, après la guerre, à une économie plus tendue, plus incertaine et plus
<< mondialisée >>. Dans ce contexte, le problème n'est plus tant de réaliser des
systèmes de gestion qui optimisent la résolution de problèmes récurrents,
mais plutôt de proposer des systèmes qui optimisent la réponse et l'adaptation
des organisations et des hommes à des problèmes sans cesse renouvelés.
L'organisation par projets est une des techniques organisationnelles pouvant apporter des
solutions à ce type de problèmes.
Les systèmes informatiques de traitement de données, souvent abusivement
considérés comme des systèmes d'informations construits sur des analyses
organisationnelles ou sur une formalisation a priori des besoins utilisateurs ne sont plus
alors plus suffisants : le système d'information doit << coller >> aux évolutions
organisationnelles de l'entreprise, rendues nécessaires par l'environnement
extrêmement mouvant dans lequel elles évoluent, et non freiner ces évolutions
en constituant un centre d'inertie difficile à faire évoluer.
Notre hypothèse est que pour cela, la gestion et l'amélioration de la
coopération et de la communication entre les acteurs d'un projet doivent être
mises au coeur du système d'information et ne plus être considérés comme
des éléments périphériques, même assistés par des systèmes de
plus en plus élaborés (messageries, intranets, groupware.).
Au cours de l'année 1998, nous avons proposé un nouveau modèle de
gestion de projet suivant ces nouvelles orientations. Il s'agit d'un modèle de gestion
fortement distribué, orienté vers la gestion du co-pilotage de projets co-
conçus. Dans ce modèle, la gestion de projet est vue comme le résultat de
l'activité collaborative d'un ensemble d'agents (humains et logiciels) visant à
atteindre des objectifs individuels ou partagés, et non plus comme la réalisation
d'activités prescrites a priori par des exécutants peu autonomes, au contraire des
méthodes traditionnelles.
Dans l'approche que nous proposons, de nombreuses fonctionnalités supplémentaires sont offertes par l'outil de gestion de projet :
La mise en oeuvre de ces fonctionnalités bénéficie directement des possibilités offertes par la plate-forme SMA à base d'agents communicants par actes de langages que nous utilisons.
Au cours de l'année 1998, l'ensemble du système a été spécifié, et sera implémenté au cours du premier semestre 1999.
Projet MOHA : MOdèle Hybride d'Apprentissage
Françoise Forest, Brigitte Grau, Gaël de Chalendar, O. Ferret, Jean-Pierre Gruselle
MoHA a pour objectif la construction et l'utilisation d'un réseau de connaissances
associant des connaissances perceptives, langagières et pragmatiques. L'acquisition de
nouvelles connaissances fait intervenir les connaissances déjà acquises. Le
modèle est défini pour être utilisé en situation de communication, pour la
compréhension d'énoncés.
L'idée principale que nous voulons tester consiste à faire émerger des
notions dès lors qu'un ensemble d'expériences relatives à cette notion a eu lieu
et a été mémorisé. L'apprentissage est non supervisé et se fonde sur le
regroupement de situations similaires ; les notions apprises sont donc issues
d'expériences qui ne constituent pas des ensembles d'exemples organisés. En
fonction des connaissances visées par l'apprentissage, et donc aussi suivant ce que la
machine connaît déjà, ces expériences seront de nature différente et
seront représentées par des structures plus ou moins élaborées. Des
structures spécifiques ont donc été définies pour les mémoriser, ainsi
que des processus de formation pour faire émerger de nouvelles notions, tout en
veillant à conserver des liens entre elles, garantissant une
véritable intégration.
Travail effectué : les travaux ci-dessous illustrent diverses étapes de la formation des connaissances.
- Acquisition de concepts à partir d'expériences langagières (thèse de Jean-Pierre Gruselle, 1997)
- Représentation topologique des situations perçues
- Apprentissage de connaissances pragmatiques à partir de textes narratifs (thèse d'Olivier Ferret, 1998)
Travail en cours :
- Acquisition de hiérarchies de concepts (thèse de Gaël de Chalendar)
Projet MAD : Mémorisation et Analogie pour le Dialogue
Brigitte Grau, Anne Vilnat, Isabelle Robba, Jean-Baptiste Berthelin
Afin de mener des dialogues portant sur des mondes ouverts, (c'est-à-dire quand
toutes les connaissances nécessaires ne sont pas définies a priori), un système
doit être capable d'améliorer son propre comportement tant en fonction des
situations qu'il rencontre qu'en fonction des réactions de l'utilisateur qui lui permettent
d'évaluer les stratégies qu'il a adoptées. Cela implique une capacité à
mémoriser et à réutiliser l'expérience passée afin d'exploiter les
situations de communication satisfaisantes pour réagir face à de nouvelles
situations imprévues. Cela conduit à considérer le dialogue comme un
processus non figé, ayant une forte capacité d'adaptation et d'apprentissage.
Le but du présent projet est donc de définir la forme des représentations
mémorisées et leur contenu (la structure du dialogue, le plan sous-jacent
appliqué, l'évaluation du dialogue.), de définir des critères
d'évaluation sur ces représentations et de déterminer les critères de
similarité pertinents pour pouvoir les réutiliser. Le travail se fonde sur une étude
de corpus concernant des dialogues homme-homme (dialogues de recherche d'informations
et d'enseignement).
Travail effectué : réalisation d'un outil d'annotation de corpus permettant de construire et visualiser la représentation de structures de dialogue.
Travail en cours et à venir :
- Étiquetage d'exemples de dialogues afin de produire des structures de dialogues
- Définition de critères d'évaluation en fonction des structures et des tâches
- Définition des informations à mémoriser en vue d'effectuer du
raisonnement à base de cas.
Projet INTERVIEWS
Jean-Paul Sansonnet, Khedija Aoun, Sébastien Gérard, Erika Valencia avec la participation de Cécile Balkanski, Martine Hurault-Plantet
Ce projet vise à proposer un modèle dynamique et analogique de
représentations sémantiques pour des composants actifs de pages Web, permettant
l'interaction dialogique et la production automatique, et à le mettre
en oeuvre.
Les pages Web sont appelées à devenir le lieu d'interaction standard entre les
utilisateurs et les services en ligne. Elles auront donc un rôle de plus en plus actif et
par-delà l'accès aux services, elles devront assurer l'accueil, l'assistance et la
formation pour une classe de plus en plus vaste d'utilisateurs-citoyens. De nouveaux
besoins, contradictoires, apparaissent : d'une part, il faut faciliter l'intégration dans les
pages de composants actifs effectuant des services ou servant d'intermédiaires ;
d'autre part, il faut faciliter leur utilisation via des assistants dialogiques et aussi leur
production par des utilisateurs non avertis. Nous pensons que, dans ce contexte, les notions
d'activité, d'assistance et de production ne pourront être traitées
convenablement que si elles sont profondément intégrées dès la phase de
définition des composants actifs. L'objectif premier du projet InterViews est de
proposer un modèle dynamique et analogique de représentations sémantiques
pour des composants actifs (appelés vues). Cela doit conduire à la définition
d'un << Langage de Description de Vues >> permettant aux concepteurs de décrire le
domaine sémantique et l'activité des vues et de les composer pour former des
pages Web. Le deuxième objectif du projet est l'étude de l'interaction dialogique
avec des vues, d'abord dans un cadre restreint avec à terme, l'espoir de se rapprocher
du dialogue en langue naturelle. Le troisième objectif concerne la possibilité de
production automatique de vues dans une page ainsi que la composition de vues de
manière distribuée sur le Web.
Projet CERVICAL
Gérard Sabah, Xavier Briffault, Isabelle Robba, Cécile Balkanski, Andrei Popescu- Belis, participants extérieurs au LIMSI : Anne Reboul (responsable du projet), Laurent Romary, Bertrand Gaiffe, Florence Bruneseaux, Patrice Lopez, Evelyne Jacquey (LORIA- Nancy) et de Louis de Saussure (Genève)
Le projet CERVICAL réunit des chercheurs du LIMSI et du LORIA. Il s'est
constitué en réponse à un appel d'offres du GIS Sciences de la Cognition,
appel d'offres qui s'intitulait << Cognition et communication - Dimensions cognitives
dans l'interaction homme-machine >>. Il a débuté en octobre 1996 et devait durer
deux ans, mais il est actuellement en attente, n'ayant reçu que la première
moitié de son budget.
Les chercheurs rassemblés dans CERVICAL travaillent dans le domaine du
dialogue homme-machine (DHM) et ont tous été confrontés aux problèmes
que soulève la référence dans le dialogue homme-machine. Il se trouve que la
référence est aussi un des problèmes centraux de la sémantique et il a paru
intéressant de chercher à réunir les points de vue linguistique et informatique et
d'adopter une approche pragmatique de la référence en en proposant de nouvelles
méthodes de traitement. L'idée essentielle est de remplacer les méthodes
classiques (qui ne traitent en fait que la coréférence) en introduisant la notion de
représentation mentale, regroupant dans un modèle cognitif idiosyncratique
l'ensemble des caractéristiques des entités introduites dans le discours. Les
traitements proposés intègrent des données venant de sources diverses,
linguistiques, perceptuelles, spatiales, encyclopédiques.
Diverses publications ont été présentées lors de colloques ; des documents internes au projet ont aussi été élaborés : rapports intermédiaires, rapports en vue d'une réunion, comptes rendus de chaque réunion.
DptCHM |
|
Sommaire
|
| Présentation |
|
---|