_______________________
Exemples d'Activités de Recherche du groupe
INTRODUCTION
Comme d'habitude, les recherches du groupe Langage et Cognition sont essentiellement
présentées à travers les descriptions de ses thèmes. Cette année voit une
légère restructuration, traduisant 1) la convergence de plus en plus forte entre l'ancien
thème 1 (Architecture) et l'action transversale (atelier de génie linguistique et
visualisation graphique), 2) la présence de nouveaux chercheurs ayant demandé leur
rattachement au groupe (sous forme de détachement) et développant
des aspects de
sémantique lexicale fondés sur le traitement de gros corpus
(rattaché à l'ancien thème 2), et enfin 3) l'omniprésence des questions d'analyse
et de génération
(ancien thème 5, dont les travaux sont maintenant répartis dans les autres thèmes),
aussi bien pour les phrases que plus généralement pour les textes. Les nouveaux
thèmes sont donc maintenant :
Par ailleurs, ces travaux peuvent également se concevoir à travers les disciplines
qui sont représentées dans le groupe. Ainsi, pour résumer, on distinguera trois
aspects fondamentaux dans ces recherches :
Aspects linguistiques
Développement de méthodes de représentation et de traitement du
sens au niveau syntaxique (développement d'une
grammaire lexicale fonctionnelle, adaptations spécifiques au français, mise à
disposition de la communauté), au niveau sémantique (Graphes
conceptuels et extensions linguistiques) et au niveau pragmatique
(représentations du discours, des intentions, traitement de
l'argumentation). Articulation et collaboration de tous ces niveaux.
Aspects intelligence artificielle
Deux points de vue : d'un côté, développer jusqu'à leurs limites
les programmes classiques dans le cadre des industries de la langue,
(essentiellement dans les sous-domaines correspondant à la
compréhension, la production, le dialogue homme-machine et les
mécanismes d'apprentissage). D'un autre côté, comme cela est
notoirement insuffisant pour une réelle simulation cognitive de la
compréhension et de la production, conception de modèles de
substitution fondés sur des approches essentiellement différentes. Dans
ce cadre, une architecture générique distribuée permettra d'intégrer le
plus harmonieusement possible les divers modules développés dans le
groupe.
Aspects sciences cognitives
Développement des relations entre sémantique et perception afin d'éclaircir
les fondements neurobiologiques et psychologiquesde la
compréhension et de l'intelligence. Explicitation du rôle essentiel du langage
dans l'intelligence et les raisonnements.
L'ensemble de ces recherches débouche sur la conception d'un modèle cognitif
général (CARAMEL) permettant d'intégrer l'ensemble des recherches du groupe
Langage et Cognition et d'avoir une vision globale du langage, de son acquisition et de son
utilisation dans la communication, en particulier homme-machine. Actuellement, ce
modèle est partiellement mis en uvre (en Smalltalk). Son implantation complète fait
l'objet des travaux à venir. Avant de détailler les cinq thèmes du groupe, nous
précisons ci-dessous les idées générales qui sous-tendent ses recherches.
Utilisation des modèles classiques de l'IA
L'approche classique en traitement automatique des langues consiste à définir les
formalismes les mieux adaptés aux représentations des connaissances et des
structures construites par les mécanismes de compréhension et de production, puis à
développer les processus qui les utilisent le plus efficacement possible. Ce dernier
point se retrouve dans le thème 1 avec l'architecture générique distribuée en cours de
développement, architecture multi-agent qui se fonde sur les normes les plus récentes au
niveau international.
Les représentations utilisées jusqu'à présent (graphes conceptuels de Sowa en
général, chaînes typées et logiques temporelles pour les représentations
spatio-temporelles - respectivement thème 2 et thème 4) sont complétées pour
rendre compte de deux aspects plus ou moins opposés : d'une part, il existe un
lien indissoluble entre sens et forme, et d'autre part, la signification des
entités linguistiques se modifie et se développe avec la situation de
communication et résulte d'une combinaison complexe des caractéristiques
linguistiques, des caractéristiques de la situation et des caractéristiques
socio-culturelles des interlocuteurs. Ainsi, pour un auditeur, le sens est le
résultat d'un processus complexe visant à essayer, non seulement de comprendre
ce que dit le locuteur, mais pourquoi il le dit et quelle réaction il espère
produire. Cela se traduit, pour un système de dialogue homme-machine, par la
nécessité de découvrir le but et le plan de l'interlocuteur. Cet aspect est
absolument central pour le thème 5, qui vise à donner à la machine les capacités
cognitives permettant ce type de comportement et la souplesse dialogique qu'il
implique.
Le paradoxe de l'IA
Par ailleurs, une question d'importance fondamentale naît de l'approche même de l'intelligence artificielle et de la linguistique informatique : celles-ci tentent de définir a priori des mécanismes de représentation et des processus de raisonnement, afin de réaliser des systèmes de compréhension et de production des langues. La compréhension et le langage sont des phénomènes si complexes qu'on tend à les examiner sans autre complication : on les étudie donc de façon isolée en remettant à plus tard l'étude des interactions avec les autres phénomènes. Cela implique la nécessité d'un ensemble phénoménal de connaissances, de planification, de prises de décision, et une mémoire permettant un stockage et une recherche très efficaces (ce qui représente l'essentiel des travaux d'intelligence artificielle et de traitement automatique des langues, qui n'ont pas réellement essayé de trouver d'autre solution...).
Or, c'est le langage même qui donne à l'homme ses facultés de
représentation et de raisonnement qui augmentent significativement ses capacités
cognitives (qui à leur tour servent au langage...). La mémoire humaine est
organisée autour des choses importantes et nous permet de structurer le monde pour que
nous n'ayons pas à nous remémorer des choses inutiles (il ne s'agit pas
d'organisation a priori, mais des moyens d'accéder directement à
l'information voulue : comment une descriptionnous permet-elle
de naviguerdans la mémoire et de retrouver très rapidement les
éléments voulus ?). La mémoire humaine n'est pas seulement associative, elle est
aussi prospective et réflexive. Ainsi, l'intelligence artificielle purement symbolique
semble-t-elle prendre le problème à l'envers, le rendant ainsi
peut-être impossible par nature...
La question de l'ancrage des symboles est du reste actuellement au
centre de nombre de réflexions théoriques de ce domaine, afin d'éviter l'écueil
des sémantiques formelles qui ne font que refléter un sens présent à l'esprit du
programmeur, mais certainement pas un sens intrinsèque. Beaucoup d'arguments contre la
possibilité d'une intelligence désincarnée ont d'ailleurs été avancés. Il
est alors naturel d'envisager que soit erronée l'hypothèse selon laquelle on peut
construire a priori des mécanismes de raisonnement élaborés sans
une capacité de langage. Deux questions essentielles se posent alors :
•
Ces deux questions s'articulent essentiellement selon les thèmes 3 (apprentissage) et 1
(architecture) développés plus loin dans ce rapport.
Vers une sémantique qui traite du sens
Avant même l'intelligence artificielle, Turing a suggéré qu'au lieu de se demander si une machine pouvait penser, mieux valait s'interroger sur ses capacités à imiter le comportement humain, spécialement en ce qui concerne ses facultés langagières. Face à cette gageure, les chercheurs se sont concentrés sur des domaines spécifiques du comportement (essentiellement, mathématiques et jeux, logiques, systèmes à base de connaissances), permettant de spécifier clairement ce qu'ils attendaient de leurs ordinateurs et comment évaluer leurs succès. Cela a provoqué des omissions importantes dans les modèles du comportement humain (en particulier en ce qui concerne la coordination entre perception et action, la nature et l'influence des émotions, de la personnalité ; plus généralement, on peut dire que l'évolution et la conscience restent du domaine de la psychologie, de la biologie ou de la philosophie). Si ces simplifications étaient raisonnables dans les années soixante-dix ou quatre-vingt, il semble que maintenant, ces aspects ne doivent plus être négligés - et même : doivent être considérés comme centraux - dans la modélisation qui pourrait conduire à la conception d'un robot autonome... Ainsi, interpréter les expressions linguistiques n'est qu'une activité parmi d'autres, qui interagit avec les activités de perception, de raisonnement, d'apprentissage et de mémorisation, ainsi que tous les autres aspects de la cognition et de la vie sociale.
Une sémantique <<subjective>>, centrée sur l'individu, serait alors plus utile pour
modéliser de façon plus analogique les processus de compréhension. On ne
chercherait pas à représenter le sens comme un état du monde de référence,
mais comme une modification d'un état de connaissance, c'est-à-dire, comme un
effet sur le contexte cognitif du système.
Cela permettrait, d'une part, de traiter le problème du sens des symboles. En effet,
dans tous les systèmes d'intelligence artificielle actuels, les sens des symboles
manipulés leurs sont attribués de l'extérieur, par le programmeur. Même s'il
est devenu banal d'affirmer que les symboles n'ont pas de signification par eux-
mêmes, rien ne permet encore d'approcher une sémantique
intrinsèque,
malgré les développements récents sur la question de l'ancrage des symboles
(Harnad 1990, Amy et al. 1993).
Bien que la question ne soit pas encore formulée très clairement, le nombre de
chercheurs en intelligence artificielle qui se sentent concernés par cet aspect
croît, et
les critiques des modèles informatiques de planification (Suchman 1987, Agre 1990, Agre
et Chapman 1990) ou de raisonnement purement rationnels (Winograd et Flores 1986, 1989)
soulignent les limites, probablement inhérentes, des programmes fondés sur la seule
manipulation de symboles. Bien sûr, cela n'est pas neuf ; c'est même une antienne,
récurrente depuis le Dreyfus des années soixante !
Une différence essentielle est que, maintenant, les recherches en intelligence
artificielle sont également ancrées dans les recherches en neurobiologie et en
neuropsychologie. Les recherches en connexionnisme tentent aussi actuellement d'apporter
quelques éléments de réponse à ces questions, grâce à des techniques
efficaces pour le traitement des informations floues ou incertaines. Bien qu'on soit encore
très loin d'une réelle analogie avec le fonctionnement cérébral, les
possibilités de collaboration entre les techniques connexionnistes et les systèmes
symboliques restent assez prometteuses (systèmes dits hybrides). L'idée
essentielle porte ici sur l'interpénétration des systèmes biologiques et sociaux.
(Quoiqu'assez neuve en intelligence artificielle et en sciences cognitives, cette idée a une
déjà longue histoire en biologie et en anthropologie...).
Il semble donc fondamental d'examiner de plus près les liens entre les significations et les perceptions afin d'expliquer comment un symbole permet de reconstruire plus ou moins partiellement un état mental précédent, sans que la scène représentée soit elle-même présente, puis de raisonner à propos de cette scène. Pour cet aspect, il paraît nécessaire d'approfondir les questions liées à l'architecture (thème 1), à l'émergence des concepts et au rôle du mot dans ce processus (thèmes 2, sémantique et lexique, et 3, apprentissage). Donner un tel rôle aux perceptions rend alors l'approfondissement des aspects spatio-temporels tout à fait crucial, ce qui est réalisé dans le thème 4 (raisonnement spatio-temporel).
Ce thème se développe selon deux directions : la première, sous la responsabilité de Xavier Briffault consacrée au développement et à la mise à disposition d'outils dans le cadre des industries de la langue, la seconde, dont Gérard Sabah est le responsable, à la modélisation cognitive de la compréhension.
Plate-forme multi-agent et atelier de génie linguistique
La thématique des systèmes multi-agents (SMA) est centrale dans le groupe Langage et Cognition depuis plusieurs années, en particulier dans le modèle d'architecture de traitement du langage CARAMEL. Un problème important dans ce domaine est en effet lié à la difficulté d'utiliser efficacement des sources de connaissances différentes (phonologie, morphologie, syntaxe, sémantique, situation, dialogue...) qui concourent toutes à l'interprétation d'une phrase ou d'un texte. À partir de certaines contraintes du traitement des langues, nous avons montré précédemment l'inadéquation des architectures classiques, et la nécessité de mettre en uvre des systèmes multi-agents pour apporter des solutions satisfaisantes à ce problème et permettre un contrôle dynamique de processus modulaires contrôlés sans introduire d'ambiguïté artificielle dans la compréhension du langage.
Un autre problème important en ingénierie des langues relève de l'importance du volume des données et de la complexité des logiciels mis en uvre. La difficulté de réutilisation des travaux entrepris par des équipes différentes, se fondant sur des outils et des théories spécifiquement adaptées à une problématique particulière a un impact négatif sur la possibilité d'intégrer de façon efficace des outils hétérogènes au sein d'une architecture cohérente. Deux approches sont alors possibles : tenter de proposer des normes (pour les données linguistiques, les lexiques, les outils...), ou développer une architecture d'intégration capable de prendre cette diversité en considération, en définissant une interlangue de communication afin de décrire les données manipulées à un niveau conceptuel. C'est cette dernière approche que nous avons choisi de suivre.
En effet, une partie significative des travaux dans le domaine des SMA semble s'orienter dans ce sens, et cette approche nous paraît être la mieux à même d'intégrer de façon souple des outils différents, à la fois efficaces mais limités, essentiellement parce qu'ils sont précisément spécialisés. Dans le domaine des agents cognitifs, le paradigme de communication fondé sur l'utilisation d'un langage de communication entre agents (ACL pour << Agent Communication Language >>) de haut niveau et d'architectures dites BDI (pour << Beliefs, Desires and Intentions >>) semble s'imposer aujourd'hui. Deux exemples illustrent ce point : les travaux menés au sein de l'initiative de l'ARPA autour de KQML (Knowledge Query and Manipulation Language), et les récents travaux de la FIPA (Foundation for Intelligent Physical Agents) visant à proposer des normes dans le domaine des SMA.
C'est donc dans ce cadre que nous poursuivons les travaux d'ingénierie linguistique précédemment entrepris (analyse morphologique, grammaires d'unification LFG, graphes conceptuels, dialogue...). Une plate-forme multi-agents est en cours de développement, et un premier prototype a été réalisé (voir les pages de présentation correspondantes). La plupart des composants de celle-ci sont réalisés en Smalltalk (VisualWorks 2.5), mais l'utilisation de CORBA permet l'intégration de composants hétérogènes (en particulier JAVA et C++) et nous affranchit de l'adhésion à un langage de développement unique.
Ces travaux s'effectuent en liaison avec plusieurs autres projets du LIMSI, et leur
application privilégiée devrait se faire d'une part dans le domaine des ateliers de
génie linguistique, et d'autre part dans celui des collecticiels et de la communication et de
la coopération entre humains augmentées par la machine.
CARAMEL, un modèle cognitif de la compréhension
Nous avons souligné ci-dessus la nécessité des SMA pour le traitement automatique des langues, mais, il est également des cas où un contrôle dynamique n'est pas suffisant et où une << représentation de soi-même >> est utile. On aborde là un problème qui s'est révélé essentiel pour l'ensemble de l'intelligence artificielle : le traitement des méta-connaissances, permettant à un système d'observer son propre fonctionnement afin d'en tirer parti. Diverses extensions aux systèmes réflexifs ont été proposées précédemment, permettant d'appliquer cette << réflexion >> récursivement à plusieurs niveaux et d'avoir un système capable d'auto-représentation et d'auto-référence.
Par ailleurs, nous avions aussi souligné précédemment que la
compréhension n'est pas fondée uniquement sur un ensemble de critères logiques
d'évaluation : elle est aussi le résultat émergeant de processus cognitifs non
rationnels qu'on ne sait pas décrire d'une façon algorithmique. Visant à
concrétiser le fonctionnement de tels agents << non contrôlés >>, le modèle du
carnet d'esquisses permet l'établissement automatique de boucles de rétroaction des
niveaux supérieurs vers les niveaux inférieurs : ces collaborations s'étendent des
modules morphologiques et lexicaux aux modules syntaxiques et sémantiques. Nous en
avons montré des applications possibles à la reconnaissance de caractères et au
traitement de la parole.
Pour établir un lien entre les niveaux de traitement contrôlés et ces agents automatiques, la conscience devait bien sûr jouer un rôle fondamental. Nous avons donc développé un modèle cognitif général, et en conséquence, proposé la nouvelle interprétation du sigle CARAMEL : Conscience, Automatismes, Réflexivité et Apprentissage pour un Modèle de l'Esprit et du Langage. Dans ce nouveau modèle, il existe un pont entre les processus non contrôlés et les processus contrôlés : une donnée du carnet d'esquisses est rendue explicite (émergence inconsciente) et traitée ensuite par les processus contrôlés ; les résultats pertinents de ce traitement sont également rendus explicites (émergence consciente) ; le mécanisme de contrôle décide si une donnée ou un problème doit être traité explicitement ou automatiquement ; il évalue également les traitements explicites qui, rencontrés plusieurs fois donnent lieu à apprentissage de processus automatiques par compilation. Un rôle important de l'interaction entre le carnet d'esquisses et les processus contrôlés est donc d'unifier des résultats disparates en un tout cohérent. On développe ainsi une fonction constructive que ni les processus non contrôlés, ni les processus contrôlés ne sont capables de réaliser seuls.
Ces aspects sont complétés par des recherches sur la mise en uvre des propositions du neurobiologiste Edelman, complétées par des idées issues des travaux de Harth, Baars, Minsky et Dennett, dans le cadre du modèle Caramel : afin de dépasser les limites actuelles de la compréhension automatique des langues, essentiellement dues à une division trop rigide des tâches, nous nous proposons d'utiliser les modélisations multi-agents pour permettre une répartition différente de l'expertise entre les modules mis en uvre. Il s'agira ainsi de disposer, et de faire collaborer au sein du carnet d'esquisses, aussi bien des agents cognitifs élaborés que des agents réactifs élémentaires. Fondée sur le principe de la compétition sélective entre des groupes de nombreuses cartes neurales, qui interagissent rétroactivement (une idée clef du modèle d'Edelman), cette modélisation à base d'agents s'intègre harmonieusement dans le modèle général Caramel. Il est par ailleurs important de souligner que, dans ce modèle, la convergence des divers processus proposés est implicitement régie par l'intervention de valeurs plus ou moins hiérarchisées (survie, faim, soif, désirs...), qu'il devient donc fondamental de modéliser. Cela permet de concevoir des comportements optimisant ces critères, sans qu'aucune téléologie ait besoin d'intervenir, ce qui permettra aussi de fournir une modélisation efficace de la pertinence, concept clef dans tous les mécanismes de compréhension.
Les connaissances nécessaires à la compréhension et à la production d'un texte sont de divers ordres. Celles qui concernent les situations décrites dans le texte, leurs liens au lexique, et l'organisation de ce lexique, nous intéressent plus particulièrement dans le présent thème. Les trois aspects couverts par cette problématique sont effectivement présents dans les travaux du groupe et nous ont amenés à développer des réflexions concernant la représentation et la manipulation des situations décrites dans les textes, et à proposer une organisation du lexique qui permette d'exprimer les notions reconnues dans ces situations. Enfin, la plupart des travaux ont également pour préoccupation de proposer des mécanismes de passage de la description linguistique d'une situation à la représentation de sa signification en contexte. C'est dans cette optique que l'orientation générale des travaux du thème tend à mettre l'accent sur le rôle central du contexte et donc sur une remise en cause des frontières traditionnelles entre sémantique et pragmatique.
D'un point de vue technique, deux approches, faisant appel à deux types d'outils
différents, sont utilisées : d'une part, des outils numériques qui tentent d'extraire
le sens par exploitation statistique de grande quantités de données ou par propagation
d'activité dans des graphes de connaissances, d'autre part, des outils de manipulation
symbolique appliqués à des structures conceptuelles construites à partir du
formalisme des graphes conceptuels.
Dans le cadre du projet MoHA (modèle hybride d'apprentissage), dont l'élaboration se poursuit et dont les aspects liés à l'apprentissage sont décrits plus précisément dans le thème 3, des situations de plusieurs niveaux de complexité ont été étudiées.
Des situations simples centrées sur une action mettant en jeu une ou plusieurs
entités donnent lieu actuellement à une modélisation qui tient compte des aspects
spatiaux et temporels liés au déroulement de la situation. Le travail consiste à
repérer et représenter les entités mises en jeu et les relations topologiques qui
expriment leurs interactions. On espère par ce moyen mettre en évidence les
ressemblances entre situations qui s'expriment dans la langue par des métaphores spatiales
ou temporelles. Cela est à mettre en relation avec une thèse récemment soutenue
sur la détection de métaphores au sein de documents écrits, travail qui a le
mérite d'aborder pour la première fois le problème sous l'angle d'une
modélisation opérationnelle ; il s'appuie pour cela sur des indices de bas niveau
(lexique et syntaxe) qui permettent de constituer un lexique de termes ou d'expressions
métaphoriques.
Pour ce qui concerne les situations plus complexes, le formalisme des graphes conceptuels
est utilisé pour représenter les événements se produisant dans des situations
concrètes décrites dans des textes. Un modèle de représentation de situations,
proches des schémas, permettant de structurer une situation, ses circonstances, sa
description et ses incidences a ainsi été défini.
Dans le cadre des travaux sur la segmentation de texte (cet aspect est aussi décrit dans le thème 5), un réseau lexical de collocations a été développé. Le réseau est construit de manière automatique à partir d'un corpus important de textes extraits des années 1987 à 1996 du journal "Le Monde" et contient une estimation de l'information mutuelle existant entre les termes cooccurrents. Dans le même esprit, et en relation avec certains travaux de linguistique quantitative (Baayen, Salem, Lafon), l'étude de l'effet induit par les aspects temporels de l'énonciation sur les variations d'emplois lexicaux mène à la proposition d'une méthode pour structurer le lexique, afin de construire des structures lexicales dynamiques.
Également étudiée, la représentation des connaissances lexico- sémantiques en vue de l'interprétation sémantique de phrases et de textes a permis de constituer un large réseau sémantique de concepts (2000 verbes d'action). Cette représentation est complétée par une description sémantique fine de chaque concept, permettant d'exprimer les traits sémantiques qui le spécifient. C'est encore le formalisme des graphes conceptuels qui est utilisé pour l'implémentation de cette base de connaissances. La classification et les descriptions sont principalement dédiées au traitement automatique de la polysémie, mais restent compatibles avec un usage plus large dans le cadre de l'analyseur syntaxico-sémantique LFG développé par ailleurs dans le groupe.
Situé dans le cadre de la théorie sur l'apprentissage du langage développée
par Vygotsky, le rôle du mot dans l'émergence des concepts est également
approfondi, ce qui a conduit à la spécification fine des étapes qui mènent de la
perception d'événements décrits par des énoncés à leur
mémorisation en mémoire à long terme. Adoptant également une démarche
de modélisation opérationnelle, ce travail a été mené jusqu'à la
proposition d'algorithmes qu'il s'agira maintenant de tester sur des corpus pertinents en vue
d'une validation à entreprendre en collaboration avec les collègues du groupe
Cognition Humaine.
Les mécanismes inverses, permettant le passage des idées aux mots est le propre de la génération de textes ou d'énoncés. Les réflexions actuelles s'appuient sur quatre hypothèses :
(i) Pour trouver un lien entre les idées, on navigue dans un hyperespace d'objets. (ii) Chaque objet peut être classé de diverses manières, de nombreux liens étant possibles pour chaque objet (classement selon plusieurs critères, classement croisé). (iii) La structure retenue est généralement celle du plus grand dénominateur commun (plus grand nombre de liens en commun, parcours le plus court entre deux concepts, sommet le plus proche entre deux objets). (iv) La structure de l'hyperespace des objets (le plan) est construite dynamiquement.
Une cinquième hypothèse concernant le rapport entre le lexique et le discours est formulée, hypothèse selon laquelle les liens discursifs sont très souvent du type lexical. S'il se confirmait que les deux sont organisés selon les mêmes principes, il serait alors possible d'établir un lien transversal entre le dictionnaire mental et son organisation d'une part (thème 2), le discours d'autre part (thème 5).
Les travaux relatifs à ce thème consistent à structurer la mémoire à long terme afin d'intégrer apprentissage et compréhension. Nous nous centrons sur deux types de connaissances : les concepts, appartenant à un réseau sémantique, et les situations concrètes, formant un réseau de schémas. Le type d'apprentissage destiné à constituer ces deux niveaux de connaissances repose sur un principe incrémental d'accumulation d'expériences et illustre différentes étapes dans la formation des connaissances par le biais du langage, étapes en accord avec la théorie de Vygotsky sur l'apprentissage des concepts spontanés. La mémoire à long terme comporte donc, outre ces deux niveaux classiques, une mémoire où sont représentées les expériences rencontrées. Un modèle hybride d'apprentissage, MoHA, a été défini afin d'intégrer de façon cohérente des connaissances de nature différente (numériques et symboliques, cf. thème précédent). Les différentes entités sont liées entre elles et leur sélection repose sur un principe de propagation d'activation. Une fois apprises, les connaissances ne sont ni figées ni déconnectées des expériences qui leur ont donné naissance, ce qui leur permet d'évoluer au cours du temps en fonction des nouvelles expériences rencontrées.
L'idée principale appliquée ici consiste à faire émerger des entités (concepts ou schémas) dès lors qu'un ensemble d'expériences relatives à une même notion a été mémorisé. L'émergence consiste à regrouper des expériences similaires et à les abstraire en une entité générale. L'apprentissage est non supervisé ; les entités sont abstraites d'expériences qui ne constituent pas des ensembles d'exemples organisés. En fonction des connaissances visées par l'apprentissage, et selon les connaissances déjà apprises, ces expériences sont de nature différente. Différents modules en ont découlé :
Afin de valider ces différentes approches plus significativement, nous avons réalisé un système de segmentation thématique (cf. thème 5) reposant sur des méthodes quantitatives et applicable à des textes issus de corpus (des articles de journaux). Ce système réalise aussi un apprentissage reposant sur les principes exposés et permet de constituer des descriptions de domaines par un ensemble de mots pondérés. Le but est de tester les algorithmes d'émergence de concepts plus systématiquement et d'étudier en quoi ce type de connaissance peut constituer un amorçage utile à MLK (cf. pages de présentation).
Le principe de l'accumulation d'expériences (sur lequel repose la forme d'apprentissage mise en uvre dans ce thème), fait appel entre autres mécanismes de raisonnement à celui du raisonnement par analogie. L'analogie joue un rôle primordial, tant au niveau de l'acquisition des concepts qu'au niveau de l'apprentissage et de la compréhension de nouvelles situations. En particulier, la mémoire des expériences est intéressante à deux titres différents : le principe de l'analogie est utile à sa constitution (l'accumulation se fait par étude des similarités entre situations) ; le fait de disposer d'une mémoire des expériences permet de construire un mécanisme de raisonnement par analogie pour interpréter les expériences nouvelles à la lumière des expériences passées.
Les notions d'émergence et d'analogie abordées dans ce thème sont centrales pour d'autres thèmes également : actuellement, la sémantique est le goulet d'étranglement pour les mises en uvre en vraie grandeur, et la prise en considération des aspects perceptuels, en liaison avec les mécanismes d'apprentissage, devraient constituer une meilleure base sémantique pour CARAMEL en général. Cela nous conduit à mener une étude plus générale de ces deux notions afin de comparer les principes sous-tendant à la fois MoHA et CARAMEL. Un autre projet en cours concerne l'application au dialogue homme-machine de cette approche visant à rendre conjoint compréhension et apprentissage.
Les activités du présent thème tournent autour des problèmes de la
représentation des données spatiales et temporelles et de la formalisation des
raisonnements qu'elles permettent, et cela en liaison privilégiée avec la langue
naturelle, qui est à la fois une source de connaissances sur le temps et l'espace
(problème de compréhension des informations temporelles et spatiales contenues dans
les textes) et un instrument permettant la reconnaissance et l'action (description
d'itinéraires en langage naturel, consignes et feuilles de route). Ces activités touchent
tant aux aspects théoriques de la formalisation qu'aux problèmes de mise en uvre
dans des applications particulières.
Le raisonnement qualitatif spatial passe par le développement de formalismes permettant de raisonner sur les notions telles que l'orientation, la topologie, et l'éloignement. Dans le domaine de l'orientation, nous avons examiné le cas du calcul directionnel où les directions cardinales nord, sud, est, ouest, et les quatre directions intermédiaires sont les symboles de base manipulés. On peut à leur propos développer un calcul similaire à celui d'Allen dans le domaine temporel. Des résultats concernant la complexité formelle du formalisme correspondant ont été obtenus et figurent parmi les rares résultats que l'on possède pour les formalismes de raisonnement spatial qualitatif.
De nombreuses applications du raisonnement spatial amènent à considérer simultanément plusieurs modalités de représentation des connaissances spatiales. Le concept de représentation pivot vise à définir un niveau qui permette d'articuler ces différents types de connaissances. Une hypothèse de base de notre approche de cette notion est le rôle central que doit y jouer la représentation de Voronoï, qui permet de faire le lien en particulier entre des indications quantitatives et des notions qualitatives et langagières. Le bilan de ce travail, effectué dans le cadre d'une collaboration avec l'Université Laval, a été présenté à l'occasion de la conférence RIAO à Montréal.
Le mode de représentation graphique permet de donner un caractère d'évidence à certains types de raisonnements qui, réduits à leur représentation prédicative, présenteraient une grande complexité. Le domaine du raisonnement diagrammatique correspond à la prise de conscience, parmi les chercheurs travaillant sur le traitement des données spatiales, de l'intérêt d'une étude plus poussée de ce type de raisonnement. Dans cet esprit, nous avons montré comment des représentations géométriques adéquates permettaient de donner un support intuitif à la démonstration de résultats profonds de complexité dans le domaine du calcul d'Allen, et, plus généralement, dans celui des intervalles généralisés.
Un des domaines illustrant l'interaction de plusieurs modalités dans la description et le raisonnement spatiaux est celui du passage entre représentation linguistique, représentation graphique, et représentation informatique (base de données) d'un itinéraire. Fondé sur une analyse des corpus existants, un modèle de la description d'itinéraires a été proposé et appliqué à la génération des descriptions d'itinéraires dans le métro. Ce processus utilise une représentation référentielle de l'itinéraire, à partir de laquelle l'itinéraire est conceptualisé ; sa description est ensuite produite, sans utiliser l'hypothèse d'une correspondance directe entre les éléments référentiels et les expressions linguistiques. Une maquette a été réalisée et testée sur les données du métro de Montréal.
Ces techniques de raisonnement ont été appliquées aux systèmes d'information géographique et visent à développer le module de raisonnement spatial d'un outil permettant d'explorer une base de données géographiques par l'intermédiaire de requêtes écrites en langue naturelle. Pour visualiser les données d'une première base (GEOROUTE, sur la ville d'Orsay) et pour les consulter, une interface graphique a été développée ; elle a été munie de fonctionnalités supplémentaires permettant à l'utilisateur d'interagir avec la fenêtre de visualisation. Elle est maintenant appliquée à une seconde base (BD TOPO) qui contient également les informations relatives à la localisation du réseau routier, du réseau ferroviaire, du réseau hydrographique et des bâtiments ainsi que des informations concernant l'altimétrie de l'environnement.
Dans le cadre d'une thèse (préparée en co-tutelle avec l'Université de Poznan), nous examinons l'intégration de connaissances linguistiques sur l'espace et de connaissances de type perceptif. Fondée sur une distinction entre deux niveaux de langage (événements spatio-temporels / commande), une première maquette de robot virtuel a été mise au point : le robot, dans un environnement bureautique, se déplace conformément à une description d'itinéraire en langage naturel qui lui est fournie.
Ce thème s'articule autour du traitement du discours, au sens le plus général, c'est-à-dire de textes et de dialogues. Il s'agit de considérer ici les problèmes soulevés par la reconnaissance ou la production d'énoncés dans un contexte donné. Comment reconnaître l'articulation entre les différents éléments de ces discours, ou comment produire des énoncés cohérents, sont les problèmes cruciaux que nous abordons sous différents aspects. Les travaux concernant la structure du discours s'articulent sur deux plans : comment produire un discours structuré dans le cadre de la génération, et comment analyser un texte, en particulier en vue d'en déterminer la structure thématique. Pour engendrer un texte, une étape préalable est d'en planifier la structure. Or la structuration de données (contenus, messages), permettant la construction du plan d'un texte, est probablement la tâche la plus difficile qui soit en génération de texte. Deux approches ont été très en vogue ces dix dernières années, les schémas et les structures rhétoriques. Ces deux théories ont des grands défauts en commun : (i) elles ne permettent pas l'induction du plan à partir de données, et (ii) elles ne permettent pas de simuler l'interaction qu'il y a généralement entre le contenu du message et son organisation. Nos réflexions nous ont amenés à émettre l'hypothèse que le lien entre les idées à énoncer s'établit par une organisation qui n'est pas fixée à l'avance entre des objets qui entretiennent de nombreux liens potentiels. Autrement dit, la structure définitive d'un texte n'est pas donnée d'avance, mais construite dynamiquement. De plus, très souvent les liens discursifs sont de type lexical : il y aurait donc un lien transversal entre l'organisation du discours et celle du dictionnaire mental (cf. thème 2 ). Dans ce cadre, une étude approfondie du processus de description d'itinéraires a été menée (cf. thème précédent).
En ce qui concerne l'analyse des discours écrits, nous pouvons dire que ceux-ci sont caractérisés en fonction de trois points de vue principaux : l'énoncé lui- même (contenu factuel), le contexte d'énonciation, le jugement sur la cohérence du discours. Le premier point est évoqué dans le thème 2, tandis que pour les deux derniers points, nous avons mis en évidence les critères linguistiques suffisants permettant de fonder une interprétation sémantique, orientée soit vers les aspects référentiels, soit vers les aspects argumentatifs.
Par ailleurs, dans le cadre du résumé automatique de textes et de l'extraction
automatique de domaines sémantiques, il est nécessaire de disposer d'un processus de
segmentation thématique de textes largement applicable. Dans cette optique, nous avons
développé différentes méthodes de nature quantitative. Celles-ci sont
fondées sur une analyse numérique de la distribution des mots significatifs dans les
textes, ou bien sur l'exploitation d'une source de connaissances lexicales (un réseau de
cooccurrences) construite automatiquement à partir de corpus, ou encore sur une
combinaison de ces deux approches.
Nos travaux sur le dialogue sont élaborés en vue de faire collaborer deux approches. La première a pour but de concevoir et de réaliser un modèle de dialogue fondé sur la théorie du << plan partagé >> de Grosz et Sidner, et s'inspire en partie du modèle informatique développé par Lochbaum sur la base de cette théorie. La notion de plan partagé a été introduite pour modéliser l'ensemble des croyances et des intentions que les agents d'un dialogue doivent avoir pour que leur collaboration puisse réaliser leur but commun. Par la suite, Lochbaum a introduit un graphe des recettes, qui représente les croyances de l'agent modélisé sur les actions qui doivent être exécutées par les différents agents pour atteindre leurs objectifs individuels et partagés. Une recette est un ensemble d'actions, assorti de contraintes, nécessaires à la réalisation d'une action complexe. Nous nous sommes plus particulièrement intéressés à la génération des réponses de l'agent ainsi qu'à la planification nécessaire en amont de cette génération. Pour ce faire nous avons développé un algorithme d'avancement dans la tâche qui permet à l'agent de déterminer quand il doit exécuter une action, planifier de nouvelles actions, ou produire un énoncé, suivant des règles liées à l'état des différentes actions du graphe des recettes. Nous travaillons également sur les connaissances et raisonnements nécessaires à la coopération entre les agents, notion directement liée à celle d'engagement des agents introduite dans le plan partagé.
La deuxième approche concernant le dialogue est centrée sur l'interprétation des interventions de l'utilisateur et leur insertion dans une structure détaillant le rôle de chacune d'elles dans le déroulement général du dialogue. L'analyse de ces interventions doit se faire selon deux points de vue : les intentions reliées à la tâche, et les intentions communicatives. Ces deux interprétations font appel à des connaissances et à des modes de raisonnement différents et peuvent être gérées par des agents indépendants, dont la collaboration doit garantir de mener des dialogues cohérents et naturels. Celle-ci se réalise au sein d'une représentation dynamique qui centralise les résultats des différents agents. Cette représentation reflète la structure détaillée des échanges qui ont eu lieu ou sont en cours. Elle permet aussi d'évaluer la progression du dialogue, et de détecter d'éventuels risques de mauvaise communication. Grâce à cette représentation, sont étudiées la possibilité d'évaluer a posteriori le déroulement d'un dialogue et d'en tirer des informations pour améliorer le comportement du système en repérant des analogies avec des situations passées (cf. thème 3).
L'utilisation de ce système en vue de gérer des dialogues explicatifs est en cours de réalisation (cf. pages de présentation). Une autre étude est menée sur l'analyse de dialogues homme-machine préalablement recueillis. L'hypothèse sous- jacente est que l'étude du dialogue artificiel peut être abordée selon plusieurs angles, notamment en laissant de côté la dimension cognitive (représentation des connaissances), pour se concentrer sur la situation qui se crée entre le locuteur humain et les systèmes actuellement disponibles.
Enfin, en relation avec ce thème il convient de signaler le projet Cervical, soutenu par le GIS Sciences de la cognition et portant sur la référence. Ce projet vise à proposer de nouvelles méthodes de traitement de la référence dans les textes, dans le cadre du dialogue homme-machine, mais en proposant des solutions valables en toute généralité et intégrant des données venant de sources diverses (linguistiques, perceptuelles, spatiales, encyclopédiques). Il réunit des chercheurs du LIMSI et du LORIA (équipe dialogue). Si on considère la référence comme le fait de désigner un objet par une expression linguistique (ou expression référentielle - ER), les difficultés que rencontre le traitement automatique de la référence viennent du fait qu'il n'est considéré que dans le cadre du discours seul, sans tenir compte des facteurs contextuels. En d'autres termes, on ne traite que la coréférence (le fait que deux ER réfèrent au même objet) et non la référence. La principale nouveauté apportée par Cervical est la notion de Représentation Mentale (RM) : une structure construite pour chaque référent du texte, qui contient l'ensemble des informations portées par les expressions référentielles qui s'y rapporte. Un atelier permettant les tests de diverses règles et l'évaluation du système a été développé (cf. pages de présentation) et s'articule avec les autres outils existants dans le groupe.
Organisation de colloques
Participation à des comités éditoriaux
Activités ou responsabilités d'enseignement liées à la Recherche
Anne Vilnat responsable de l'option << TAL >> et de la partie du cours de tronc commun << Fondements de l'IA >>
Anne Vilnat responsable des modules intelligence artificielle et langage naturel Olivier Ferret et Xavier Briffault interviennent dans le cours sur Smalltalk
• Stéphane Ferrari intervient dans le module << Traitement Automatique de Corpus Annotés >>
Participation à des séminaires
Actions de vulgarisation
Responsabilités institutionnelles
Relations scientifiques
Conventions de recherche et contrats
Participation à l'action <<Grammaires et Ressources pour les Analyseurs de Corpus et leur valuation>> dans le cadre du programme commun aux directions SHS-SPI du CNRS intitulé <<Cognition, Communication intelligente et Ingénierie des langues>> : session d'évaluation GRACE-I des assignateurs de catégories grammaticales pour le français
Responsabilités institutionnelles
Relations scientifiques
Conventions de recherche et contrats
DptCHM |
|
Sommaire
|
| Présentation |
|
---|