id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
taln-2004-poster-020
SibyMot : Modélisation stochastique du langage intégrant la notion de chunks
Cet article présente le modèle de langage développé pour le système Sibylle, un système d’aide à la communication pour les personnes handicapées. L’utilisation d’un modèle de langage permet d’améliorer la pertinence des mots proposés en tenant compte du contexte gauche de la saisie en cours. L’originalité de notre modèle se situe dans l’intégration de la notion de chunks afin d’élargir la taille du contexte pris en compte pour l’estimation de la probabilité d’apparition des mots.
[ "modélisation stochastique du langage", "chunks", "Aide à la communication", "n-gramme" ]
[ "P", "P", "P", "U" ]
[ "", "We present in this article the language model of Sibyl, a new Alternative and Augmentative Communication (AAC) system. The use of language modeling improves the relevance of displayed words by taking into account the left context of the current sentence. The originality of our model is to introduce chunking. This enlarges the context taken into account to estimate the words probability.", "AAC, stochastic language modeling, n-gram, chunks" ]
taln-2004-poster-022
Analogies dans les séquences : un solveur à états finis
L’apprentissage par analogie se fonde sur un principe inférentiel potentiellement pertinent pour le traitement des langues naturelles. L’utilisation de ce principe pour des tâches d’analyse linguistique présuppose toutefois une définition formelle de l’analogie entre séquences. Dans cet article, nous proposons une telle définition et montrons qu’elle donne lieu à l’implantation efficace d’un solveur d’équations analogiques sous la forme d’un transducteur fini. Munis de ces résultats, nous caractérisons empiriquement l’extension analogique de divers langages finis, correspondant à des dictionnaires de quatre langues.
[ "Apprentissage par Analogie", "Automates finis" ]
[ "P", "M" ]
[ "", "Analogical reasoning provides us with an inferential mecanism of potential interest for NLP applications. An effective use of this process requires a formal definition of the notion of an analogy between strings of symbols. In this paper, we propose such a definition, from which we derive the implementation of a finite-state transducer solving analogical equations on sequences. We finally present the results of an empirical study of the analogical extension of several finite languages, corresponding to dictionnaries of four European languages.", "Analogical Learning, Finite-State Automaton" ]
taln-2004-poster-024
Modèle de langage sémantique pour la reconnaissance automatique de parole dans un contexte de traduction
Le travail présenté dans cet article a été réalisé dans le cadre d'un projet global de traduction automatique de la parole. L’approche de traduction est fondée sur un langage pivot ou Interchange Format (IF), qui représente le sens de la phrase indépendamment de la langue. Nous proposons une méthode qui intègre des informations sémantiques dans le modèle statistique de langage du système de Reconnaissance Automatique de Parole. Le principe consiste a utiliser certaines classes définies dans l'IF comme des classes sémantiques dans le modèle de langage. Ceci permet au système de reconnaissance de la parole d'analyser partiellement en IF les tours de parole. Les expérimentations realisées montrent qu’avec cette approche, le système de reconnaissance peut analyser directement en IF une partie des données de dialogues de notre application, sans faire appel au système de traduction (35% des mots ; 58% des tours de parole), tout en maintenant le même niveau de performance du système global.
[ "modèles de langage", "Traduction de parole", "représentation pivot" ]
[ "P", "R", "R" ]
[ "", "This paper relates a methodology to include some semantic information early in the statistical language model for Automatic Speech Recognition (ASR). This work is done in the framework of a global speech-to-speech translation project. An Interchange Format (IF) based approach, representing the meaning of phrases independently of languages, is adopted. The methodology consists in introducing semantic information by using a class-based statistical language model for which classes directly correspond to IF entries. With this new Language Model, the ASR module can analyze into IF part of dialogue data: 35% dialogue words; 58% speaker turns, without degrading the overall system performance.", "Speech-to-speech translation, language modeling, interchange format" ]
taln-2003-long-001
Quand le TAL robuste s’attaque au langage parlé : analyse incrémentale pour la compréhension de la parole spontanée
Dans cet article, nous discutons de l’application au langage parlé des techniques d’analyse syntaxique robuste développées pour l’écrit. Nous présentons deux systèmes de compréhension de parole spontané en situation de dialogue homme-machine finalisé, dont les performances montrent la pertinence de ces méthodes pour atteindre une compréhension fine et robuste des énoncés oraux.
[ "compréhension de la parole", "dialogue homme-machine", "Analyse syntaxique robuste" ]
[ "P", "P", "R" ]
[ "", "This papers discusses the relevance of robust parsing techniques for the analysis of spontaneous spoken language. It presents two speech understanding systems devoted to human-machine communication that implement such robust methods. Their performances suggest that robust parsing should apply usefully to spontaneous speech.", "Robust parsing, spoken language understanding, human-machine dialogue" ]
taln-2003-long-002
Etude des critères de désambiguïsation sémantique automatique : résultats sur les cooccurrences
Nous présentons dans cet article une étude sur les critères de désambiguïsation sémantique automatique basés sur les cooccurrences. L’algorithme de désambiguïsation utilisé est du type liste de décision, il sélectionne une cooccurrence unique supposée véhiculer l’information la plus fiable dans le contexte ciblé. Cette étude porte sur 60 vocables répartis, de manière égale, en trois classes grammaticales (nom, adjectif et verbe) avec une granularité fine au niveau des sens. Nous commentons les résultats obtenus par chacun des critères évalués de manière indépendante et nous nous intéressons aux particularités qui différencient les trois classes grammaticales étudiées. Cette étude s’appuie sur un corpus français étiqueté sémantiquement dans le cadre du projet SyntSem.
[ "Désambiguïsation sémantique automatique", "cooccurrences", "corpus sémantiquement étiqueté" ]
[ "P", "P", "R" ]
[ "", "This paper describes a study on cooccurrence-based criteria for automatic word sense disambiguation. We use a decision-list algorithm which selects the best disambiguating cue in the target context. The algorithm is tested on 60 words equally distributed among three parts of speech (noun, adjective and verb) with a fine sense granularity. We present the results obtained by each criterion evaluated in an independent way and we discuss the characteristics which differentiate the three parts of speech studied. The study uses a French sense-tagged corpus developed in the SyntSem project.", "Word sense disambiguation, sense tagged corpora, cooccurrences" ]
taln-2003-long-003
Nouvelle approche de la sélection de vocabulaire pour la détection de thème
En reconnaissance de la parole, un des moyens d’améliorer les performances des systèmes est de passer par l’adaptation des modèles de langage. Une étape cruciale de ce processus consiste à détecter le thème du document traité et à adapter ensuite le modèle de langage. Dans cet article, nous proposons une nouvelle approche de création des vocabulaires utilisés pour la détection de thème. Cette dernière est fondée sur le développement de vocabulaires spécifiques et caractéristiques des différents thèmes. Nous montrons que cette approche permet non seulement d’améliorer les performances des méthodes, mais exploite également des vocabulaires de taille réduite. De plus, elle permet d’améliorer de façon très significative les performances de méthodes de détection lorsqu’elles sont combinées.
[ "Détection de thème", "création de vocabulaire", "combinaison" ]
[ "P", "P", "U" ]
[ "", "One way to improve performance of Automatic Speech Recognition (ASR) systems consists in adapting language models. We are particularly interested in adapting language models to the topic related in data. Before adapting the language model, this topic has to be detected. In this work, we present a new way to create vocabularies used to detect the topic in a given text. This new method results in the improvement of topic detection performance of the methods studied, it also results in the reduction of the vocabulary size required. Finally, we show a large improvement of the performance when combining topic identification methods, when new vocabularies are used.", "Topic detection, vocabulary creation, combination" ]
taln-2003-long-004
Classification automatique de textes à partir de leur analyse syntaxico-sémantique
L’hypothèse soutenue dans cet article est que l’analyse de contenu, quand elle est réalisée par un analyseur syntaxique robuste avec calcul sémantique dans un modèle adéquat, est un outil de classification tout aussi performant que les méthodes statistiques. Pour étudier les possibilités de cette hypothèse en matière de classification, à l’aide de l’analyseur du Français, SYGMART, nous avons réalisé un projet en grandeur réelle avec une société qui propose des sélections d’articles en revue de presse. Cet article présente non seulement les résultats de cette étude (sur 4843 articles finalement sélectionnés), mais aussi cherche à montrer que l’analyse de contenu automatisée, quand elle est possible, est un moyen fiable de produire une catégorisation issue du sens (quand il est calculable), et pas simplement créée à partir d’une reconnaissance de "similarités"de surface.
[ "Classification", "Analyse", "Extraction d’information" ]
[ "P", "P", "M" ]
[ "", "This paper presents the assumption that discourse analysis, when perfomed by a robust parser backed up by an accurate semantic model, is a classification tool as efficient as statistical methods. To study the capabilities of discourse analysis in classification, we have used a parser for French, SYGMART, and applied it to a real project of press articles classification. This article presents the results of this research (on a corpus of 4843 texts), and tries to show that automatic discourse analysis, when possible, is an efficient way of classification through meaning discrimination, and not simply relying on surface similarities recognition.", "Parsing, Categorization, Information Extraction" ]
taln-2003-long-005
Extraction de couples nom-verbe sémantiquement liés : une technique symbolique automatique
Dans le modèle du Lexique génératif (Pustejovsky, 1995), certaines propriétés sémantiques des noms sont exprimées à l’aide de verbes. Les couples nom-verbe ainsi formés présentent un intérêt applicatif notamment en recherche d’information. Leur acquisition sur corpus constitue donc un enjeu, mais la découverte des patrons qui les définissent en contexte est également importante pour la compréhension même du modèle du Lexique génératif. Cet article présente une technique entièrement automatique permettant de répondre à ce double besoin d’extraction sur corpus de couples et de patrons morpho-syntaxiques et sémantiques. Elle combine pour ce faire deux approches d’acquisition— l’approche statistique et l’approche symbolique— en conservant les avantages propres à chacune d’entre elles : robustesse et automatisation des méthodes statistiques, qualité et expressivité des résultats des techniques symboliques.
[ "lexique génératif", "Acquisition de lexique", "extraction de patrons morpho-syntaxiques et sémantiques", "programmation logique inductive", "bootstrapping", "apprentissage semi-supervisé" ]
[ "P", "R", "R", "U", "U", "U" ]
[ "", "In the Generative Lexicon framework (Pustejovsky, 1995), some semantic properties of common nouns are expressed with the help of verbs. These noun-verb pairs are relevant in various domains, especially in Information Retrieval. Their corpus-based acquisition is thus an interesting issue; moreover discovering the contextual patterns in which these pairs can occur is also important in order to understand the Generative Lexicon model. This paper presents a fully automated technique that allows us to acquire from a corpus both noun-verb pairs, and semantic and morpho-syntactic patterns. This technique combines two acquisition approaches—the statistical one and the symbolic one—and keeps advantages of each approach: robustness and automation of statistical methods, quality of the results and expressiveness of symbolic ones.", "Lexicon acquisition, morpho-syntactic and semantic pattern extraction, Generative Lexicon, inductive logic programming, bootstrapping, semi-supervised learning" ]
taln-2003-long-006
Une plate-forme de conception et d’exploitation d’une grammaire d’arbres adjoints lexicalisés
Dans cet article, nous présentons un ensemble d’outils de conception et d’exploitation pour des grammaires d’arbres adjoints lexicalisés. Ces outils s’appuient sur une représentation XML des ressources (lexique et grammaire). Dans notre représentation, à chaque arbre de la grammaire est associé un hypertag décrivant les phénomènes linguistiques qu’il recouvre. De ce fait, la liaison avec le lexique se trouve plus compactée et devient plus aisée à maintenir. Enfin, un analyseur permet de valider les grammaires et les lexiques ainsi conçus aussi bien de façon interactive que différée sur des corpus.
[ "Grammaire", "analyse syntaxique", "ressources lexicales", "LTAG", "représentation compacte du lexique" ]
[ "P", "U", "M", "U", "M" ]
[ "", "Grammar, parser, lexical resources, LTAG, compact lexical representation", "" ]
taln-2003-long-007
Peut-on trouver la taille de contexte optimale en désambiguïsation sémantique?
Dans la tâche de désambiguïsation sémantique, la détermination de la taille optimale de fenêtre de contexte à utiliser, a fait l'objet de plusieurs études. Dans cet article, nous proposons une approche à deux niveaux pour répondre à cette problématique de manière automatique. Trois systèmes concurrents à base d'arbres de classification sémantique sont, dans un premier temps, utilisés pour déterminer les trois sens les plus vraisemblables d'un mot. Ensuite, un système décisionnel tranche entre ces sens au regard d'un contexte plus étendu. Les améliorations constatées lors d'expériences menées sur les données de SENSEVAL-1 et vérifiées sur les données SENSEVAL-2 sont significatives.
[ "Désambiguïsation sémantique", "arbres de classification sémantique" ]
[ "P", "P" ]
[ "", "The determination of context length to use for Word Sense Disambiguation (WSD) has been the object of several studies. In this paper, we propose to use a monitoring system in order to select automatically the optimal window size among three possibilities. We used a two-step strategy based on Semantic Classification Trees (SCT) and on a similarity measure. Whereas SCTs are employed on a short window size of 3, 5 and 7 words, the technique based on similarity measure is appllied to a ‘wider’ context size. The improvements observed in the SENSEVAL-1 lexical-sample task are verified on the SENSEVAL-2 data.", "Word sense disambiguation, semantic classification trees, monitoring system" ]
taln-2003-long-008
Représentation sémantique sous-spécifiée pour les conjonctions de subordination
Cet article concerne les phrases complexes avec deux conjonctions de subordination. Nous montrerons que de telles phrases peuvent s’interpréter de quatre façons différentes. Il s’agit donc de formes fortement ambiguës pour lesquelles il est opportun d’avoir recours à des représentations sémantiques sous-spécifiées, et c’est ce que nous proposerons.
[ "Représentation sémantique sous-spécifiée", "Discours", "SDRT (Segmented Discourse représentation Theory)", "DAG (Directed Acyclic Graph)", "LTAG (Lexicalized Tree Adjoining Grammar)" ]
[ "P", "U", "M", "U", "U" ]
[ "", "This paper concerns sentences with two subordination conjunctions. It shows that such sentences can be given four interpretations. They are heavily ambiguous forms for which an underspecified semantic representation is proposed.", "Discourses, SDRT, DAG, Underspecified semantic representation, LTAG" ]
taln-2003-long-009
Confronter des sources de connaissances différentes pour obtenir une réponse plus fiable
La fiabilité des réponses qu’il propose, ou un moyen de l’estimer, est le meilleur atout d’un système de question-réponse. A cette fin, nous avons choisi d’effectuer des recherches dans des ensembles de documents différents et de privilégier des résultats qui sont trouvés dans ces différentes sources. Ainsi, le système QALC travaille à la fois sur une collection finie d’articles de journaux et sur le Web.
[ "fiabilité des réponses", "Système de question-réponse", "recherche d’information" ]
[ "P", "P", "M" ]
[ "", "A question answering system will be more convincing if it can give a user elements concerning the reliability of it propositions. In order to address this problem, we choose to take the advice of several searches. First we search for answers in a reliable document collection, and second on the Web. When the two sources of knowledge give the system QALC common answers, we are confident with them and boost them at the first places.", "Question answering system, information retrieval, answer reliability" ]
taln-2003-long-010
Apprentissage Automatique de Paraphrases pour l’Amélioration d’un Système de Questions-Réponses
Dans cet article, nous présentons une méthodologie d’apprentissage faiblement supervisé pour l’extraction automatique de paraphrases à partir du Web. À partir d’un seule exemple de paire (prédicat, arguments), un corpus est progressivement accumulé par sondage duWeb. Les phases de sondage alternent avec des phases de filtrage, durant lesquelles les paraphrases les moins plausibles sont éliminées à l’aide d’une procédure de clustering non supervisée. Ce mécanisme d’apprentissage s’appuie sur un système de Questions-Réponses existant et les paraphrases apprises seront utilisées pour en améliorer le rappel. Nous nous concentrons ici sur le mécanisme d’apprentissage de ce système et en présentons les premiers résultats.
[ "Apprentissage Automatique", "Questions-Réponses", "Acquisition de Paraphrase" ]
[ "P", "P", "M" ]
[ "", "In this paper, we present a nearly unsupervised learning methodology for automatically extracting paraphrases from theWeb. Starting with one single instance of a pair (predicate,arguments), a corpus is incrementally built by sampling the Web. Sampling stages alternate with filteringstages, during which implausible paraphrases are filtered out using an EM-based unsupervised clustering procedure. This learning machinery is built on top of an existing questionanswering system and the learnt paraphrases will eventually be used to improve its recall. We focus here on the learning aspect of this system and report preliminary results.", "Question Answering, Machine Learning, Paraphrase extraction" ]
taln-2003-long-011
La topologie comme interface entre syntaxe et prosodie : un système de génération appliqué au grec moderne
Dans cet article, nous développons les modules syntaxique et topologique du modèle Sens- Texte et nous montrons l’utilité de la topologie comme représentation intermédiaire entre les représentations syntaxique et phonologique. Le modèle est implémenté dans un générateur et nous présentons la grammaire du grec moderne dans cette approche.
[ "topologie", "prosodie", "grec", "grammaires de dépendance", "ordre des mots", "générateur de parole" ]
[ "P", "P", "P", "M", "M", "M" ]
[ "", "In this paper, we develop the syntactic and topological modules of the Meaning-Text model. We show the use of topology as the interface of syntax and phonology. The model is implemented in a speech generator and we present its Greek grammar.", "dependency grammar, word order, prosody, topology, language generation, Greek" ]
taln-2003-long-013
Entre syntaxe et sémantique : Normalisation de la sortie de l’analyse syntaxique en vue de l’amélioration de l’extraction d’information à partir de textes
Cet article présente la normalisation de la sortie d’un analyseur robuste de l’anglais. Nous montrons quels sont les enrichissements que nous avons effectués afin de pouvoir obtenir à la sortie de notre analyseur des relations syntaxiques plus générales que celles que nous offrent habituellement les analyseurs robustes existants. Pour cela nous utilisons non seulement des propriétés syntaxiques, mais nous faisons appel aussi à de l’information de morphologie dérivationnelle. Cette tâche de normalisation est menée à bien grâce à notre analyseur XIP qui intègre tous les traitements allant du texte brut tout venant au texte normalisé. Nous pensons que cette normalisation nous permettra de mener avec plus de succès des tâches d’extraction d’information ou de détection de similarité entre documents.
[ "analyse syntaxique robuste", "normalisation en vue de l’extraction d’information" ]
[ "R", "R" ]
[ "", "This article presents our work on the normalization of the output of a robust dependency parser for English. We show how we have enriched our grammar to yield syntactic relations that are more general than those usually obtained with other available robust parsers. In order to achieve this result, we use syntactic properties, together with derivational morphology information. This normalization task is carried out with XIP which handles all the process that transform our input text into its normalized output. We consider that this normalization will improve the result of information extraction and similarity detection process between documents.", "robust parsing, normalization for information extraction" ]
taln-2003-long-014
L’identification des structures discursives engendrées par les cadres organisationnels
Cet article présente tout d’abord une analyse linguistique des cadres organisationnels et son implémentation informatique. Puis à partir de ce travail, une modélisation généralisable à l’ensemble des cadres de discours est proposée. Enfin, nous discutons du concept d’indicateur proposé dans le cadre théorique de l’exploration contextuelle.
[ "cadres de discours", "Séries de cadres organisationnels", "marqueurs d’intégration linéaire", "segmentation automatique de textes", "méthode d’exploration contextuelle", "filtrage automatique de textes" ]
[ "P", "M", "U", "M", "M", "M" ]
[ "", "To begin with, this paper outlines a linguistic analysis of textual enumerating frameworks and its computational making. Then, from this work, a modelling for all textual frameworks is suggested. Finally, we discuss the relevance of the concept of clue which is central in the theoretical framework of contextual exploration method.", "Enumerating frameworks, linear integration markers, discourse frames, automatic text segmentation, contextual exploration method, automatic text filtering" ]
taln-2003-long-015
Vers la compréhension automatique de la parole : extraction de concepts par réseaux bayésiens
La compréhension automatique de la parole peut être considérée comme un problème d’association entre deux langages différents. En entrée, la requête exprimée en langage naturel et en sortie, juste avant l’étape d’interprétation, la même requête exprimée en terme de concepts. Un concept représente un sens bien déterminé. Il est défini par un ensemble de mots partageant les mêmes propriétés sémantiques. Dans cet article, nous proposons une méthode à base de réseau bayésien pour l’extraction automatique des concepts ainsi que trois approches différentes pour la représentation vectorielle des mots. Ces représentations aident un réseau bayésien à regrouper les mots, construisant ainsi la liste adéquate des concepts à partir d’un corpus d’apprentissage. Nous conclurons cet article par la description d’une étape de post-traitement au cours de laquelle, nous étiquetons nos requêtes et nous générons les commandes SQL appropriées validant ainsi, notre approche de compréhension.
[ "réseaux bayésiens", "Compréhension de la parole", "concepts sémantiques", "étiquetage sémantique", "catégorisation automatique" ]
[ "P", "R", "R", "M", "M" ]
[ "", "The automatic speech understanding can be considered as association problem between two different languages. At the entry, the request expressed in natural language and at the end, just before the stage of interpretation, the same request is expressed in term of concepts. One concept represents given meaning, it is defined by the set of words sharing the same semantic properties. In this paper, we propose a new Bayesian network based method to automatically extract the underlined concepts. We also propose three different approaches for the vector representation of words. These representations help Bayesian network to build the adequate list of concepts for the considered application. We finish this paper by description of the postprocessing step during which, we label our sentences and we generate the corresponding SQL queries. This step allows us to validate our speech understanding approach.", "Speech understanding, semantic concepts, Bayesian networks, semantic labelling, automatic categorization" ]
taln-2003-long-016
Les signes grammaticaux dans l’interface sémantique-syntaxe d’une grammaire d’unification
Cet article présente une grammaire d’unification dans laquelle les morphèmes grammaticaux sont traités similairement aux morphèmes lexicaux!: les deux types de morphèmes sont traités comme des signes à part entière et sont décris par des structures élémentaires qui peuvent s’unifier directement les unes aux autres (ce qui en fait une grammaire de dépendance). Nous illustrerons notre propos par un fragment de l’interface sémantique-syntaxe du français pour le verbe et l’adjectif!: voix, modes, temps, impersonnel et tough-movement.
[ "grammaire d’unification", "Morphème grammatical", "grammaire de dépendance", "impersonnel", "tough-movement", "interface syntaxe-sémantique", "HPSG", "passif" ]
[ "P", "P", "P", "P", "P", "M", "U", "U" ]
[ "", "This paper presents a unification grammar where the grammatical morphemes are handled as the lexical morphemes: Both kinds of morphemes are handled as signs and described by elementary structures which directly unify to each other (making the grammar a dependency grammar). Our purpose will be illustrated by a fragment of the semantics-syntax interface of French for verbs and adjectives: voices, moods, tenses, impersonal, and tough-movement.", "Grammatical morpheme, syntax-semantics interface, unification grammar, dependency grammar, passive, impersonal, tough-movement" ]
taln-2003-long-017
Une caractérisation de la pertinence pour les actions de référence
Que ce soit pour la compréhension ou pour la génération d’expressions référentielles, la Théorie de la Pertinence propose un critère cognitif permettant de comparer les pertinences de plusieurs expressions dans un contexte linguistique. Nous voulons ici aller plus loin dans cette voie en proposant une caractérisation précise de ce critère, ainsi que des pistes pour sa quantification. Nous étendons l’analyse à la communication multimodale, et nous montrons comment la perception visuelle, le langage et le geste ostensif interagissent dans la production d’effets contextuels. Nous nous attachons à décrire l’effort de traitement d’une expression multimodale à l’aide de traits. Nous montrons alors comment des comparaisons entre ces traits permettent d’exploiter efficacement le critère de pertinence en communication homme-machine. Nous soulevons quelques points faibles de notre proposition et nous en tirons des perspectives pour une formalisation de la pertinence.
[ "Pertinence", "effets contextuels", "effort de traitement", "référence aux objets", "dialogue multimodal" ]
[ "P", "P", "P", "M", "M" ]
[ "", "For automatic comprehension or generation of referring expressions, Relevance Theory proposes a cognitive criterion that allows to compare the relevance of several expressions in a linguistic context. We want here to pursue this work. We propose a more precise characterization of this criterion and foundations for its computation. We extend the analysis to multimodal communication, and we show how visual perception, speech and gesture present multiple interactions between each other in the production of contextual effects. We describe with some features the processing effort of a multimodal expression. Then we show how comparisons between these features lead to an efficient exploitation of the relevance criterion in man-machine dialogue. We raise some weak points of our proposal and we deduce future plans for a formalization of relevance.", "Relevance, reference to objects, multimodal dialogue, contextual effects, processing effort" ]
taln-2003-long-018
De la traduction probabiliste aux mémoires de traduction (ou l’inverse)
En dépit des travaux réalisés cette dernière décennie dans le cadre général de la traduction probabiliste, nous sommes toujours bien loin du jour où un engin de traduction automatique (probabiliste ou pas) sera capable de répondre pleinement aux besoins d’un traducteur professionnel. Dans une étude récente (Langlais, 2002), nous avons montré comment un engin de traduction probabiliste pouvait bénéficier de ressources terminologiques extérieures. Dans cette étude, nous montrons que les techniques de traduction probabiliste peuvent être utilisées pour extraire des informations sous-phrastiques d’une mémoire de traduction. Ces informations peuvent à leur tour s’avérer utiles à un engin de traduction probabiliste. Nous rapportons des résultats sur un corpus de test de taille importante en utilisant la mémoire de traduction d’un concordancier bilingue commercial.
[ "Traduction automatique", "mémoire de traduction sous-phrastique", "alignement sous-phrastique" ]
[ "P", "R", "M" ]
[ "", "Despite the exciting work accomplished over the past decade in the field of Statistical Machine Translation (SMT), we are still far from the point of being able to say that machine translation fully meets the needs of real-life users. In a previous study (Langlais, 2002), we have shown how a SMT engine could benefit from terminological resources, especially when translating texts very different from those used to train the system. In the present paper, we discuss the opening of SMT to examples automatically extracted from a Translation Memory (TM). We report results on a fair-sized translation task using the database of a commercial bilingual concordancer.", "Automatic translation, translation memories, word alignment" ]
taln-2003-long-019
Une analyse des emplois du démonstratif en corpus
Cet article propose une nouvelle classification des utilisations des démonstratifs, une mise en oeuvre de cette classification dans une analyse de corpus et présente les resultats obtenus au terme de cette analyse. La classification proposée est basée sur celles existant dans la littérature et étendues pour permettre la génération de groupes nominaux démonstratifs. L’analyse de corpus montre en particulier que la nature "reclassifiante" du démonstratif lui permet d’assumer deux fonctions (une fonction anaphorique et une fonction de support pour de l’information nouvelle) et qu’il existe des moyens variés de réaliser ces fonctions.
[ "Démonstratifs", "analyse de corpus", "annotation de corpus", "génération de texte" ]
[ "P", "P", "M", "M" ]
[ "", "This paper presents a new classification for the use of demonstrative descriptions, its application in a corpus analysis and the results of this analysis. The proposed classification is based on the existing literature and extended to support the generation of demonstrative NPs. The corpus analysis shows in particular, that the \"reclassifying power\" of the demonstrative allows it to perform two functions (anaphora and supporting new information) and that there are various ways of realising these functions.", "Demonstrative, corpus analysis, corpus annotation, text generation" ]
taln-2003-long-020
MULTI-ANALYSE vers une analyse syntaxique plus fiable
Dans cet article, nous proposons de montrer que la combinaison de plusieurs analyses syntaxiques permet d’extraire Panalyse la plus fiable pour une phrase donnée. De plus, chaque information syntaxique sera affectée d’un score de confiance déterminé selon le nombre d’analyseurs syntaxiques la confirmant. Nous verrons que cette approche implique l’étude des différents analyseurs syntaxiques existants ainsi que leur évaluation.
[ "Analyseurs syntaxiques", "Combinaison d’informations", "Evaluation" ]
[ "P", "R", "U" ]
[ "", "In this paper, we propose an algorithm of combination between several syntactic parses in order to extract the most reliable syntactic parse for the sentence given and to affect these syntactical informations with the confidence rate, determined with regard to the number of parsers returning the same information. This approach involves the study of syntactic parsers and their evaluation.", "Syntactic parsers, Information combination, Evaluation" ]
taln-2003-long-021
Apprentissage discriminant pour les Grammaires à Substitution d'Arbres
Les grammaires stochastiques standards utilisent des modèles probabilistes de nature générative, fondés sur des probabilités de récriture conditionnées par le symbole récrit. Les expériences montrent qu'elles tendent ainsi par nature à pénaliser les dérivations les plus longues pour une mˆeme entrée, ce qui n'est pas forcément un comportement souhaitable, ni en analyse syntaxique, ni en reconnaissance de la parole. Dans cet article, nous proposons une approche probabiliste non-générative du modèle STSG (grammaire stochastique à substitution d'arbres), selon laquelle les probabilités sont conditionnées par les feuilles des arbres syntaxiques plutˆot que par leur racine, et qui par nature fait appel à un apprentissage discriminant. Plusieurs expériences sur ce modèle sont présentées.
[ "STSG", "Gibbs-Markov", "Maximum d'Entropie", "Vraisemblance Conditionnelle" ]
[ "P", "U", "M", "U" ]
[ "", "Standard stochastic grammars use generative probabilistic models, focussing on rewriting probabilities conditioned by the rewritten symbol. Such grammars therefore tend to give penalty to longer derivations of the same input, which could be a drawback when they are used for analysis (e.g. speech recognition). In this contribution, we propose a novel non-generative probabilistic model of STSGs (Stochastic Tree Substitution Grammars), where probabilities are conditioned by the leaves of the syntactic trees (i.e. the input symbols) rather than by the root. Several experiments of this new model are presented.", "STSG, Gibbs-Markov, Maximum Entropy, Conditionnal likelihood" ]
taln-2003-long-022
Amélioration de liens entre acceptions par fonctions lexicales vectorielles symétriques
Dans le cadre du projet Papillon qui vise à la construction de bases lexicales multilingues par acceptions, nous avons défini des stratégies pour peupler un dictionnaire pivot de liens interlingues à partir d’une base vectorielle monolingue. Il peut y avoir un nombre important de sens par entrée et donc l’identification des acceptions correspondantes peut être erronée. Nous améliorons l’intégrité de la base d’acception grâce à des agents experts dans les fonctions lexicales comme la synonymie, l’antonymie, l’hypéronymie ou l’holonymie. Ces agents sont capable de calculer la pertinence d’une relation sémantique entre deux acceptions par les diverses informations lexicales récoltées et les vecteurs conceptuels. Si une certaine pertinence est au-dessus d’un seuil, ils créent un lien sémantique qui peut être utilisé par d’autres agents chargés par exemple de la désambiguïsation ou du transfert lexical. Les agents vérifiant l’intégrité de la base cherchent les incohérences de la base et en avertissent les lexicographes le cas échéant.
[ "acceptions", "fonctions lexicales", "vecteurs conceptuels", "représentation thématique" ]
[ "P", "P", "P", "U" ]
[ "", "In the framework of the Papillon project, we have defined strategies for populating a pivot dictionnary of interlingual links from monolingual vectorial bases. There are quite a number of acceptions per entry thus, the proper identification may be quite troublesome and some added clues beside acception links may be useful. We improve the integrity of the acception base through well known semantic relations like synonymy, antonymy, hyperonymy and holonymy relying on lexical functions agents. These semantic relation agents can compute the pertinence of a semantic relation between two acceptions thanks to various lexical informations and conceptual vectors. When a given pertinence score is above a threshold they create a semantic link which can be walked through by other agents in charge of WSD ot lexical transfert. Base integrity agents walk throw the acceptions, look for incoherences in the base and emit warning toward lexicographs when needed.", "thematic representation, conceptuals vectors, lexical functions, acceptions" ]
taln-2003-long-024
Une grammaire formelle du créole martiniquais pour la génération automatique
Nous présenterons dans cette communication les premiers travaux de modélisation informatique d’une grammaire de la langue créole martiniquaise, en nous inspirant des descriptions fonctionnelles de Damoiseau (1984) ainsi que du manuel de Pinalie & Bernabé (1999). Prenant appui sur des travaux antérieurs en génération de texte (Vaillant, 1997), nous utilisons un formalisme de grammaires d’unification, les grammaires d’adjonction d’arbres (TAG d’après l’acronyme anglais), ainsi qu’une modélisation de catégories lexicales fonctionnelles à base syntaxico-sémantique, pour mettre en oeuvre une grammaire du créole martiniquais utilisable dans une maquette de système de génération automatique. L’un des intérêts principaux de ce système pourrait être son utilisation comme logiciel outil pour l’aide à l’apprentissage du créole en tant que langue seconde.
[ "Grammaire", "Créole", "Martiniquais", "Génération", "TAG" ]
[ "P", "P", "P", "P", "P" ]
[ "", "In this article, some first elements of a computational modelling of the grammar of the Martiniquese French Creole dialect are presented. The sources of inspiration for the modelling is the functional description given by Damoiseau (1984), and Pinalie’s & Bernabé’s (1999) grammar manual. Based on earlier works in text generation (Vaillant, 1997), a unification grammar formalism, namely Tree Adjoining Grammars (TAG), and a modelling of lexical functional categories based on syntactic and semantic properties, are used to implement a grammar of Martiniquese Creole which is used in a prototype of text generation system. One of the main applications of the system could be its use as a tool software supporting the task of learning Creole as a second language.", "Creole, Martiniquese, Grammar, TAG, Generation" ]
taln-2003-long-025
Cartographie lexicale pour la recherche d’'information
Nous décrivons un algorithme, HyperLex, de détermination automatique des différents usages d’un mot dans une base textuelle sans utilisation d’un dictionnaire. Cet algorithme basé sur la détection des composantes de forte densité du graphe des cooccurrences de mots permet, contrairement aux méthodes précédemment proposées (vecteurs de mots), d’isoler des usages très peu fréquents. Il est associé à une technique de représentation graphique permettant à l’utilisateur de naviguer de façon visuelle à travers le lexique et d’explorer les différentes thématiques correspondant aux usages discriminés.
[ "Désambiguïsation lexicale", "recherche d’information", "interfaces graphiques" ]
[ "M", "M", "M" ]
[ "", "We describe the HyperLex algorithm for automatic discrimination of word uses in a textual database. The algorithm does not require a dictionary. It detects high density components in the word-cooccurrence graph, and, contrary to previous methods (word vectors), enables the recognition of very low frequency uses. HyperLex is associated with a graphic representation technique that makes it possible to navigate through the lexicon and explore visually the various themes corresponding to the discriminated uses.", "Lexical disambiguation, information retrieval, graphic interfaces" ]
taln-2003-long-026
Application d’algorithmes de classification automatique pour la détection des contenus racistes sur l’Internet
Le filtrage de contenus illicites sur Internet est une problématique difficile qui est actuellement résolue par des approches à base de listes noires et de mots-clés. Les systèmes de classification textuelle par apprentissage automatique nécessitant peu d’interventions humaines, elles peuvent avantageusement remplacer ou compléter les méthodes précédentes pour faciliter les mises à jour. Ces techniques, traditionnellement utilisées avec des catégories définies par leur sujet (économie ou sport par exemple), sont fondées sur la présence ou l’absence de mots. Nous présentons une évaluation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas être catégorisés suivant leur sujet mais suivant le point de vue énoncé (raciste ou antiraciste). Nos résultats montrent que les classifieurs, essentiellement lexicaux, sont néanmoins bien adaptées : plus de 90% des documents sont correctement classés, voir même 99% si l’on accepte une classe de rejet (avec 20% d’exemples non classés).
[ "Classification automatique", "Internet", "Rocchio", "kPPV", "SVM", "filtrage de l’information" ]
[ "P", "P", "U", "U", "U", "M" ]
[ "", "Filtering of illicit contents on the Internet is a difficult issue which is currently solved with black lists and keywords. Machine-learning text categorization techniques needing little human intervention can replace or complete the previous methods to keep the filtering up-to-date easily. These echniques, usually used with topic classes (economy or sport for instance), are based on the presence or absence of words.We present an evaluation of these techniques for racism filtering. Unlike the traditional systems, documents are not categorized according to their main topic but according to the expressed point of view (racist or anti-racist). Our results show that these lexical techniques are well adapted : more than 90% of the documents are correctly classified, or even 99% if a rejection class is accepted (20% of the examples are not classified).", "Text classification, Rocchio, kNN, SVM, Internet, information filtering" ]
taln-2003-long-027
Apprentissage de relations morphologiques en corpus
Nous proposons une méthode pour apprendre des relations morphologiques dérivationnelles en corpus. Elle se fonde sur la cooccurrence en corpus de mots formellement proches et un filtrage complémentaire sur la forme des mots dérivés. Elle est mise en oeuvre et expérimentée sur un corpus médical. Les relations obtenues avant filtrage ont une précision moyenne de 75,6 % au 5000è rang (fenêtre de 150 mots). L’examen détaillé des dérivés adjectivaux d’un échantillon de 633 noms du champ de l’anatomie montre une bonne précision de 85–91 % et un rappel modéré de 32–34 %. Nous discutons ces résultats et proposons des pistes pour les compléter.
[ "apprentissage", "Morphologie", "corpus", "langue de spécialité", "médecine" ]
[ "P", "P", "P", "M", "U" ]
[ "", "We propose a method to learn derivational morphological relations from a corpus. It relies on corpus cooccurrence of formally similar words, with additional filtering on the form of derived words. It is implemented and tested on a medical corpus. The relations obtained before filtering have an average precision of 75.6% at rank 5000 (150-word window). A detailed examination of derived adjectives for a sample of 633 anatomy nouns shows a good precision of 85–91% and a moderate recall of 32–34%. We discuss these results and propose directions for improvement.", "Morphology, learning, corpus, specialized language, medicine" ]
taln-2003-poster-002
Une métagrammaire pour les noms prédicatifs du français
La grammaire FTAG du français a vu ces dernières années ses données s’accroître très fortement. D’abord écrits manuellement, les arbres qui la composent, ont ensuite été générés semi-automatiquement grâce à une Métagrammaire, développée tout spécialement. Après la description des verbes en 1999, puis celle des adjectifs en 2001-2002, c’est maintenant au tour des verbes supports et des noms prédicatifs de venir enrichir les descriptions syntaxiques de la grammaire. Après un rappel linguistique et technique des notions de verbe support et de métagrammaire, cet article présente les choix qui ont été entrepris en vue de la description de ces nouvelles données.
[ "métagrammaire", "noms prédicatifs", "FTAG", "verbes supports", "Grammaires d’arbres adjoints", "ordre des constituants" ]
[ "P", "P", "P", "P", "M", "M" ]
[ "", "We present here a new implementation of support verbs for the FTAG grammar, a french implementation of the Tree Adjoining Grammar model. FTAG has know over the years many improvements. (Candito, 1999) hence integrated an additional layer of syntactic representation within the system. The layer, we called MetaGrammar let us improve the syntactic coverage of our grammar by genrating semi-automatically thousands of new elementary trees.", "Tree-Adjoining Grammars, FTAG, predicative noun, support verb constructions, metagrammar, constituency order" ]
taln-2003-poster-003
Remarques et perspectives sur les langages de prégroupe d’ordre 1/2
Cet article traite de l’acquisition automatique des grammaires de Lambek, utilisées pour la modélisation syntaxique des langues. Récemment, des algorithmes ont été proposés dans le modèle d’apprentissage de Gold, pour certaines classes de grammaires catégorielles. En revenche, les grammaires de Lambek rigides ou k-valuées ne sont pas apprenables à partir des chaînes. Nous nous intéressons ici au cas des grammaires de prégroupe. Nous montrons que la classe des grammaires de prégroupe n’est pas apprenable à partir des chaînes, même si on limite fortement l’ordre des types (ordre 1/2) ; notre preuve revient à construire un point limite pour cette classe.
[ "prégroupe", "Acquisition automatique", "inférence grammaticale", "modèle de Gold" ]
[ "P", "P", "U", "R" ]
[ "", "The article is concerned by the automatic acquistion of some grammars introduced by Lambek that are used for modeling the syntax of natural languages. Recently, some algorithms have been proposed in the model of Gold for several classes of categorial grammars. On the other hand, rigid or k-valued Lambek calculus grammars are not learnable from strings. We study here pregroup grammars. We prove that rigid grammars are not learnable from strings even if the order of types are bound by a constant (1/2) ; Our proof gives a limit point for this class of grammars.", "Automatic acquisition, grammatical inference, model of Gold, pregoup" ]
taln-2003-poster-004
Indexation discursive pour la navigation intradocumentaire : cadres temporels et spatiaux dans l’information géographique
Cet article concerne la structuration automatique de documents par des méthodes linguistiques. De telles procédures sont rendues nécessaires par les nouvelles tâches de recherche d’information intradocumentaires (systèmes de questions-réponses, navigation sélective dans des documents...). Nous développons une méthode exploitant la théorie de l’encadrement du discours de Charolles, avec une application visée en recherche d’information dans les documents géographiques - d’où l’intérêt tout particulier porté aux cadres spatiaux et temporels. Nous décrivons une implémentation de la méthode de délimitation de ces cadres et son exploitation pour une tâche d’indexation intratextuelle croisant les critères spatiaux et temporels avec des critères thématiques.
[ "Recherche d’information", "Document géographique", "Analyse automatique de discours", "Cadres de discours" ]
[ "P", "P", "M", "R" ]
[ "", "This paper proposes linguistics-based methods for the automatic identification of text segments. Such procedures are required by new tasks appearing in intra-document information retrieval (question-answer systems, selective browsing). Our method is based on Charolles’ theory of discourse framing and focuses on temporal and spatial frames. We describe an implementation of our method for determining frame boundaries and its exploitation for intradocument indexing combining spatial, temporal and thematic criteria.", "Automatic discourse analysis, Discourse framing, Information retrieval, Geographical documents" ]
taln-2003-poster-006
Identification automatique des valeurs temporelles dans les textes
Cet article présente une application qui associe un certain nombre de valeurs sémantiques à des segments textuels en vue de proposer un traitement automatique de la temporalité dans les textes. Il s’agit d’automatiser une analyse sémantique de surface à l’aide de règles heuristiques d’exploration contextuelle et d’une base organisée de marqueurs linguistiques.
[ "temporalité", "analyse sémantique de surface", "exploration contextuelle", "Traitement aspectuo-temporel", "temps", "ressources linguistiques" ]
[ "P", "P", "P", "M", "U", "M" ]
[ "", "This paper presents a system which associates semantic Values with textual segments in order to propose an automatic processing of temporality in texts. The purpose is to automate a semantic analysis driven with contextual exploration heuristic rules and an organized data base of linguistic markers.", "Aspecto-temporal processing, time, temporality, contextual exploration, semantic analysis, linguistic resources" ]
taln-2003-poster-007
Structuration automatique de preuves mathématiques : de la logique à la rhétorique
Nous présentons dans ses grandes lignes un modèle de structuration de documents pour la génération automatique de preuves mathématiques. Le modèle prend en entrée des sorties d’un prouveur automatique et vise à produire des textes dont le style s’approche le plus possible des démonstrations rédigées par des humains. Cela implique la mise au point d’une stratégie de planification de document capable de s’écarter de la structure purement logique de la preuve. La solution que nous proposons consiste à intégrer de manière simple des informations de type intentionnel afin d’enrichir la structure rhétorique finale du texte.
[ "structuration de document", "Génération automatique de textes", "détermination de contenu", "logiques de description", "SDRT" ]
[ "P", "R", "M", "M", "U" ]
[ "", "", "NLG, content determination, description logics, document structuring, SDRT" ]
taln-2003-poster-008
CoRRecT : Démarche coopérative pour l’évaluation de systèmes de reconnaissance de termes
La reconnaissance de termes dans les textes intervient dans de nombreux domaines du Traitement Automatique des Langues Naturelles, qu’il s’agisse d’indexation automatique, de traduction, ou d’extraction de connaissances. Nous présentons une méthodologie d’évaluation de Systèmes de Reconnaissance de Termes (SRT) qui vise à minimiser le temps d’expertise des spécialistes en faisant coopérer des SRT. La méthodologie est mise en oeuvre sur des textes en anglais dans le domaine de la chimie des métaux et à l’aide de deux SRT : FASTR et SYRETE. Le banc de test construit selon cette méthodologie a permis de valider les SRT et d’évaluer leurs performances en termes de rappel et de précision.
[ "Reconnaissance de termes", "SRT", "FASTR", "SYRETE", "évaluation de la reconnaissance de termes" ]
[ "P", "P", "P", "P", "R" ]
[ "", "Recognizing terms in texts is useful in many Natural Language Processing applications : automatic indexation, summarization, translation, or knowledge extraction. We present a new methodology to evaluate Term Recognition Systems (TRS) so as to minimize the time required by experts to evaluate the results. This is done by making several TRS cooperate. This methodology is applied on English texts on metal chemistry with two systems : FASTR and SYRETE. The test bank we compiled evaluated the two systems and calculated the recall and precision rates.", "Recognition of terms, Term Recognition System, TRS, FASTR, SYRETE" ]
taln-2003-poster-009
Filtrage thématique d’un réseau de collocations
Les réseaux lexicaux de type WordNet présentent une absence de relations de nature thématique, relations pourtant très utiles dans des tâches telles que le résumé automatique ou l’extraction d’information. Dans cet article, nous proposons une méthode visant à construire automatiquement à partir d’un large corpus un réseau lexical dont les relations sont préférentiellement thématiques. En l’absence d’utilisation de ressources de type dictionnaire, cette méthode se fonde sur un principe d’auto-amorçage : un réseau de collocations est d’abord construit à partir d’un corpus puis filtré sur la base des mots du corpus que le réseau initial a permis de sélectionner. Nous montrons au travers d’une évaluation portant sur la segmentation thématique que le réseau final, bien que de taille bien inférieure au réseau initial, permet d’obtenir les mêmes performances que celui-ci pour cette tâche.
[ "Collocations", "cooccurrences lexicales", "réseaux lexicaux thématiques", "analyse thématique" ]
[ "P", "M", "R", "M" ]
[ "", "Lexical networks such as WordNet are known to have a lack of topical relations although these ones are very useful for tasks such as text summarization or information extraction. In this article, we present a method for automatically building from a large corpus a lexical network whose relations are preferably topical ones. As it does not rely on resources such as dictionaries, this method is based on self-bootstrapping: a collocation network is first built from a corpus and then, is filtered by using the words of the corpus that are selected by the initial network. We report an evaluation about topic segmentation showing that the results got with the filtered network are the same as the results got with the initial network although the first one is signicantly smaller than the second one.", "Collocations, lexical cooccurrences, topical lexical networks, topic analysis" ]
taln-2003-poster-010
Une méthode non supervisée d’apprentissage sur le Web pour la résolution d’ambiguïtés structurelles liées au rattachement prépositionnel
Dans cet article, nous proposons une méthode non supervisée d’apprentissage qui permet d’améliorer la désambiguïsation du rattachement prépositionnel dans le cadre d’un analyseur robuste à base de règles pour le français. Les rattachements ambigus d’une première analyse sont transformés en requêtes sur leWeb dans le but de créer un grand corpus qui sera analysé et d’où seront extraites automatiquement des informations lexicales et statistiques sur les rattachements. Ces informations seront ensuite utilisées dans une deuxième analyse pour lever les ambiguïtés des rattachements. L’avantage d’une telle méthode est la prise en compte de cooccurrences syntaxiques et non pas des cooccurrences purement textuelles. En effet, les mesures statistiques (poids) sont associées à des mots apparaissant initialement dans une même relation de dépendance, c’est-à-dire, des attachements produits par le parseur lors d’une première analyse.
[ "désambiguïsation du rattachement prépositionnel", "Analyse syntaxique robuste", "grammaires de dépendances", "apprentissage non supervisé" ]
[ "P", "R", "M", "R" ]
[ "", "In this paper we describe an unsupervised method which improves the disambiguation of prepositional attachments in an existing rule-based dependency parser for French. The results obtained after a first analysis (ambiguous attachments) are transformed into queries to the Web in order to obtain a very big corpus. This big corpus being parsed, lexical and statistical information is extracted to create a database that will be used in a second analysis to disambiguate conflictual attachments. The advantage of such a method is to take into account syntactic cooccurrences as opposed to rough textual co-occurrences. That means that statistical measures (weights) are associated to words already co-occurring in a dependency relation, that is, attachments yield by the parser after a first analysis.", "Robust parsing, dependency grammars, unsupervised learning, prepositional phrase attachment resolution" ]
taln-2003-poster-011
Bases de connaissances pour asseoir la crédibilité des réponses d’un système de Q/R
Cet article présente un prototype de Question/Réponse (Q/R) impliquant un ensemble de bases de connaissances (BC) dont l’objectif est d’apporter un crédit supplémentaire aux réponses candidates trouvées. Ces BC et leur influence sur la stratégie d’ordonnancement mise en œuvre sont décrites dans le cadre de la participation du système à la campagne Q/R de TREC-2002.
[ "Bases de Connaissances", "Système de Question/Réponse" ]
[ "P", "R" ]
[ "", "This paper presents a Question-Answering system using Knowledge Databases (KDB) to validate answers candidates.", "Question Answering system, Knowledge Databases" ]
taln-2003-poster-012
Un logiciel pour la mise au point de grammaires pour le filtrage d’information en arabe (cas de l’information citationnelle)
Nous présentons dans ce travail un logiciel de mise au point de grammaires pour le traitement morpho-syntaxique de l’arabe et l’établissement de grammaires pour le filtrage et l’extraction d’information en arabe. Ce logiciel est fondé sur le principe des automates. L’analyse morpho-syntaxique de l’arabe est réalisé sans le recours au lexique.
[ "filtrage d’information", "automate", "Sarfiyya", "traitement automatique de l’arabe", "citation" ]
[ "P", "P", "U", "R", "U" ]
[ "", "We present in this work a software of grammars development for the arabic morpho-syntactical processing and for the construction of filtering grammars and information retrieval. This software is founded on the automata. It can parse arabic text without lexicon.", "Sarfiyya, Arabic processing, automaton, information retrieval" ]
taln-2003-poster-014
MDA-XML : une expérience de rédaction contrôlée multilingue basée sur XML
Nous décrivons dans cet article l’implantation d’un système de rédaction contrôlée multilingue dans un environnement XML. Avec ce système, un auteur rédige interactivement un texte se conformant à des règles de bonne formation aux niveaux du contenu sémantique et de la réalisation linguistique décrites par un schéma XML. Nous discutons les avantages de cette approche ainsi que les difficultés rencontrées lors du développement de ce système. Nous concluons avec un exemple d’application à une classe de documents pharmaceutiques.
[ "XML", "rédaction contrôlée multilingue" ]
[ "P", "P" ]
[ "", "We describe an XML implementation of a multilingual authoring system. Using this system, an author can interactively write a text conforming to well-formedness content and realization rules described by an XML schema. We discuss the advantages of such an approach as well as the problems we met during the implementation of our system. We show in the end an example of an application for a class of pharmaceutical documents.", "multilingual controlled authoring, XML" ]
taln-2003-poster-015
Apport d’un modèle de langage statistique pour la reconnaissance de l’écriture manuscrite en ligne
Dans ce travail, nous étudions l’apport d’un modèle de langage pour améliorer les performances des systèmes de reconnaissance de l’écriture manuscrite en-ligne. Pour cela, nous avons exploré des modèles basés sur des approches statistiques construits par apprentissage sur des corpus écrits. Deux types de modèles ont été étudiés : les modèles n-grammes et ceux de type n-classes. En vue de l’intégration dans un système de faible capacité (engin nomade), un modèle n-classe combinant critères syntaxiques et contextuels a été défini, il a permis d’obtenir des résultats surpassant ceux donnés avec un modèle beaucoup plus lourd de type n-gramme. Les résultats présentés ici montrent qu’il est possible de prendre en compte les spécificités d’un langage en vue de reconnaître l’écriture manuscrite avec des modèles de taille tout à fait raisonnable.
[ "modèle de langage", "Reconnaissance de l’écriture manuscrite", "n-gramme", "n-classe", "perplexité" ]
[ "P", "P", "P", "P", "U" ]
[ "", "This works highlights the interest of a language model in increasing the performances of on-line handwriting recognition systems. Models based on statistical approaches, trained on written corpora, have been investigated. Two kinds of models have been studied: n-gram models and n-class models. In order to integrate it into small capacity systems (mobile device), a n-class model has been designed by combining syntactic and contextual criteria. It outperforms bulkier models based on n-gram. The results we obtain show that it is possible to take advantage of language specificities to recognize handwritten sentences by using reasonable size models.", "Handwriting recognition, language modelling, n-gram, n-class, perplexity" ]
taln-2003-poster-016
Prototypage rapide et évaluation de modèles de dialogue finalisés
L’objectif de cette contribution est de présenter l’intégration de la notion d’évaluation dans la méthodologie de prototypage rapide de modèles de dialogue développée et mise en oeuvre dans le cadre du projet InfoVox. L’idée centrale de cette méthodologie est de dériver un modèle de dialogue opérationnel directement à partir du modèle de la tâche à laquelle il est associé. L’intégration systématique de différents aspects de l’évaluation dans le processus de prototypage est alors utile afin d’identifier, dès la phase de conception, les qualités et défauts de l’interface. Toutes les conclusions présentées seront illustrées par des résultats concrets obtenus au cours d’expériences réalisées dans le cadre du projet InfoVox.
[ "Prototypage Rapide", "Evaluation", "Dialogue Homme-Machine", "Wizard-of-Oz" ]
[ "P", "U", "M", "U" ]
[ "", "", "" ]
taln-2003-poster-018
Le traitement automatique de la langue contre les erreurs judiciaires : une méthodologie d’analyse systématique des textes d’un dossier d’instruction
Cet article présente une méthode d’analyse systématique et scientifique des documents constituant un dossier d’instruction. L’objectif de cette approche est de pouvoir donner au juge d’instruction de nouveaux moyens pour évaluer la cohérence, les incohérences, la stabilité ou les variations dans les témoignages. Cela doit lui permettre de définir des pistes pour mener de nouvelles investigations. Nous décrivons les travaux que nous avons réalisés sur un dossier réel puis nous proposons une méthode d’analyse des résultats.
[ "traitement automatique de la langue", "dossier d’instruction", "Catégorisation", "synthèse", "questionnabilité d’un texte", "traitement cognitifs d’un texte", "Justice" ]
[ "P", "P", "U", "U", "M", "M", "U" ]
[ "", "This article presents a systematic and scientific method to analyse the set of documents that constitutes a file of instruction. The goal of this approach is to give the examining magistrate new means to estimate the coherence, the incoherence, the stability or the variations in the testimonies. This analysis should help him in identifying the needs for new investigations. We applied our method to a real file and then we propose a way to read the results.", "Text categorisation, text synthesis, text questionning, cognitive treatment of texts, Justice and natural language processing" ]
taln-2003-poster-019
Le contexte au service de la correction des graphies fautives arabes
Les mots arabes sont lexicalement beaucoup plus proches les uns des autres que les mots français et anglais. Cette proximité a pour effet un grand nombre de propositions à la correction d'une forme erronée arabe. Nous proposons dans cet article une méthode qui prend en considération le contexte de l'erreur pour éliminer certaines propositions données par le correcteur. Le contexte de l'erreur sera dans un premier temps les mots voisinant l'erreur et s'étendra jusqu'à l'ensemble des mots du texte contenant l'erreur. Ayant été testée sur un corpus textuel contenant des erreurs réelles, la méthode que nous proposons aura permis de réduire le nombre moyen de propositions d'environ 75% (de 16,8 à 3,98 propositions en moyenne).
[ "Contexte", "Arabe", "Langue", "Erreur orthographique", "Correction automatique" ]
[ "P", "P", "U", "M", "M" ]
[ "", "Arabic words are lexically closer to each other than can be English or French words. This proximity mainly results a great number of candidates given by a spelling corrector when processing an erroneous word. We address in this paper a new method aiming to reduce the number of proposals given by automatic Arabic spelling correction tools. We suggest the use of error's context in order to eliminate some correction candidates. Context will be nearby words and can be extended to all words in the text. Our method was tested on a corpus containing genuine errors and has yield good results. The average number of proposals has been reduced of about 75% (from 16,8 to 3,98 proposals on average).", "Language, Arabic, Misspelled word, Automatic correction, Context" ]
taln-2003-tutoriel-001
Introduction à la traduction guidée par l’exemple (Traduction par analogie)
Le nombre d’approches en traduction automatique s’est multiplié dans les dernières années. Il existe entre autres la traduction par règles, la traduction statistique et la traduction guidée par l’exemple. Dans cet article je decris les approches principales en traduction automatique. Je distingue les approches qui se basent sur des règles obtenues par l’inspection des approches qui se basent sur des exemples de traduction. La traduction guidée par l’exemple se caractérise par la phrase comme unité de traduction idéale. Une nouvelle traduction est génerée par analogie : seulement les parties qui changent par rapport à un ensemble de traductions connues sont adaptées, modifiées ou substituées. Je présente quelques techniques qui ont été utilisées pour ce faire. Je discuterai un système spécifique, EDGAR, plus en detail. Je démontrerai comment des textes traduits alignés peuvent être preparés en termes de compilation pour extraire des unités de traduction sous-phrastiques. Je présente des résultats en traduction Anglais -> Français produits avec le système EDGAR en les comparant avec ceux d’un système statistique.
[ "traduction guidée par l’exemple", "traduction par analogie", "traduction statistique", "induction de grammaire de traduction" ]
[ "P", "P", "P", "M" ]
[ "", "In this paper I characterize a number of machine translation approaches: rule-based machine translation (RBMT), statistical machine translation (SMT) and example-based machine translation (EBMT). While RBMT systems make use of hand-build rules, SMT and EBMT systems explore and re-use a set of reference translations. EBMT systems are rooted in analogical reasoning, where the ideal translation unit is the sentence. Only if an identical sentence cannot be found in the reference material, EBMT systems modify, substitute and adapt sequences of the retrieved examples to generate a suitable translation. I discuss runtime and compilation time techniques and I present a system, EDGAR, in more detail. I show how translation units are extracted off-line and how they are re-used during translation. The description of a series of experiments for the translation English -> French conclude this paper. An extended bibliography provides further pointer for interested readers.", "example-based machine translation, analogical translation, statistical machine translation, induction of translation grammar" ]
taln-2003-tutoriel-002
Construction d’ontologies à partir de textes
Cet article constitue le support d’un cours présenté lors de la conférence TALN 2003. Il défend la place du Traitement Automatique des Langues comme discipline clé pour le développement de ressources termino-ontologiques à partir de textes. Les contraintes et enjeux de ce processus sont identifiés, en soulignant l’importance de considérer cette tâche comme un processus supervisé par un analyste. Sont présentés un certain nombre d’outils logiciels et méthodologiques venant de plusieurs disciplines comme le TAL et l’ingénierie des connaissances qui peuvent aider l’analyste dans sa tâche. Divers retours d’expérience sont présentés.
[ "Extraction de termes", "extraction de relations", "Terminologie", "Ontologies", "Ingénierie des connaissances", "méthode", "modélisation de connaissances", "interdisciplinarité" ]
[ "M", "M", "U", "U", "M", "U", "M", "U" ]
[ "", "This paper gathers the notes of a tutorial. We advocate in favour of the role of Natural Language Processing as a key discipline for the development of terminological and ontological resources from texts. The constraints and challenges of this process are identified, and lead to underline this task as a supervised processes carried out by an analyst. We present several software and methodological tools from NLP and knowledge engineering that can be use for to assist the analyst. Our suggestion rely on various experience feed-back.", "Term extraction, relation extraction, Terminology, ontologies, Knowledge Engineering, method, knowledge modelling, crossdisciplinarity" ]
taln-2002-long-001
Analyse Factorielle Neuronale pour Documents Textuels
En recherche documentaire, on représente souvent les documents textuels par des vecteurs lexicaux de grande dimension qui sont redondants et coûteux. Il est utile de réduire la dimension des ces représentations pour des raisons à la fois techniques et sémantiques. Cependant les techniques classiques d'analyse factorielle comme l'ACP ne permettent pas de traiter des vecteurs de très grande dimension. Nous avons alors utilisé une méthode adaptative neuronale (GHA) qui s'est révélée efficace pour calculer un nombre réduit de nouvelles dimensions représentatives des données. L'approche nous a permis de classer un corpus réel de pages Web avec de bons résultats.
[ "analyse factorielle", "Recherche documentaire", "ACP", "GHA", "modèle vectoriel", "réduction de dimension", "réseaux de neurones" ]
[ "P", "P", "P", "P", "U", "M", "M" ]
[ "", "For document retrieval purposes, documents are often represented by high-dimensional lexical vectors, which are costly and redundant. Reducing vector dimensionality is then useful for both technical and semantic reasons. Classical data analysis methods such as PCA cannot unfortunately process vectors of very high dimension. We have used instead an adaptive neural network technique, the Generalized Hebbian Algorithm (GHA), which makes it possible to reduce high-dimension spaces. This approach allowed us to cluster areal end-user corpus of Web pages with very significant results.", "Information retrieval, vector-space model, dimensionality reduction, data analysis, PCA, GHA, neural networks" ]
taln-2002-long-002
Ressources terminologiques et traduction probabiliste: premiers pas positifs vers un système adaptatif
Cette dernière décennie a été le témoin d’importantes avancées dans le domaine de la traduction statistique (TS). Aucune évaluation fine n’a cependant été proposée pour mesurer l’adéquation de l’approche statistique dans un contexte applicatif réel. Dans cette étude, nous étudions le comportement d’un engin de traduction probabiliste lorsqu’il traduit un texte de nature très éloignée de celle du corpus utilisé lors de l’entraînement. Nous quantifions en particulier la baisse de performance du système et développons l’idée que l’intégration de ressources terminologiques dans le processus est une solution naturelle et salutaire à la traduction. Nous décrivons cette intégration et évaluons son potentiel.
[ "terminologie", "Traduction statistique", "adapatabilité" ]
[ "P", "P", "U" ]
[ "", "The past decade witnessed exciting work in the field of Statistical Machine Translation (SMT). However, accurate evaluation of its potential in a real-life context is still a questionable issue. In this study, we investigate the behavior of a SMT engine faced with a corpus far different from the one it has been trained on. We show that terminological databases are obvious ressources that should be used to boost the performance of a statistical engine. We propose and evaluate a way of integrating terminology into a SMT engine which yields a significant reduction in word error rate.", "Statistical machine translation, adaptativity, terminology" ]
taln-2002-long-003
Accentuation de mots inconnus : application au thesaurus biomédical MeSH
Certaines ressources textuelles ou terminologiques sont écrites sans signes diacritiques, ce qui freine leur utilisation pour le traitement automatique des langues. Dans un domaine spécialisé comme la médecine, il est fréquent que les mots rencontrés ne se trouvent pas dans les lexiques électroniques disponibles. Se pose alors la question de l’accentuation de mots inconnus : c’est le sujet de ce travail. Nous proposons deux méthodes d’accentuation de mots inconnus fondées sur un apprentissage par observation des contextes d’occurrence des lettres à accentuer dans un ensemble de mots d’entraînement, l’une adaptée de l’étiquetage morphosyntaxique, l’autre adaptée d’une méthode d’apprentissage de règles morphologiques. Nous présentons des résultats expérimentaux pour la lettre e sur un thesaurus biomédical en français : le MeSH. Ces méthodes obtiennent une précision de 86 à 96 % (+-4 %) pour un rappel allant de 72 à 86 %.
[ "mots inconnus", "médecine", "étiquetage", "Réaccentuation", "langue de spécialité" ]
[ "P", "P", "P", "U", "M" ]
[ "", "Some textual or terminological resources are written without diacritic marks, which hinders their use for natural language processing. Moreover, in a specialized domain such as medicine, all words are not always found in the available lexicons. The issue of accenting unknown words then arises. This is the subject of the present work. We propose two accentuation methods which both rely on a learning process, based on the observation of the contexts of occurrence of the accentuable letters in a training corpus. One is adapted from a part-of-speech tagging method, the other from a method for learning morphological rules. We present experimental results for letter e on a French biomedical thesaurus: the MeSH. These methods obtain a precision which ranges from 86 to 96% (+-4 %) and a recall from 72 to 86%.", "Reaccenting, unknown words, tagging, specialized language, medicine" ]
taln-2002-long-004
Une méthode pour l'analyse descendante et calculatoire de corpus multilingues : application au calcul des relations sujet-verbe
Nous présentons une méthode d'analyse descendante et calculatoire. La démarche d'analyse est descendante du document à la proposition, en passant par la phrase. Le prototype présenté prend en entrée des documents en anglais, français, italien, espagnol, ou allemand. Il segmente les phrases en propositions, et calcule les relations sujet-verbe dans les propositions. Il est calculatoire, car il exécute un petit nombre d'opérations sur les données. Il utilise très peu de ressources (environ 200 mots et locutions par langue), et le traitement de la phrase fait environ 60 Ko de Perl, ressources lexicales comprises. La méthode présentée se situe dans le cadre d'une recherche plus générale du Groupe Syntaxe et Ingénierie Multilingue du GREYC sur l'exploration de solutions minimales et multilingues, ajustées à une tâche donnée, exploitant peu de propriétés linguistiques profondes, la généricité allant de pair avec l'efficacité.
[ "analyse descendante", "corpus multilingues", "analyse syntaxique", "analyse calculatoire" ]
[ "P", "P", "R", "R" ]
[ "", "We present a method for top-down and calculatory parsing. The prototype we present is top-down from the document to the clause, through the sentence. Its inputs are documents in English, French, Italian, Spanish, or German. It tokenises sentences into clauses, and computes subject-verb links inside clauses. It is calculatory, as it executes few operations on data. It uses very few resources (about 200 words or locutions per natural language), and the sentence processing size is about 60 Kb Perl, including lexical resources. This method takes place in the frame of more general researches of the \"Groupe Syntaxe et Ingénierie Multilingue du GREYC\" into exploring minimal and multilingual solutions, close fitted to a given task, exploiting few deep linguistic properties, presuming that genericity implies efficiency.", "top-down parsing, calculatory parsing, multilingual corpora" ]
taln-2002-long-005
UPERY : un outil d'analyse distributionnelle étendue pour la construction d’ontologies à partir de corpus
Nous présentons un module mettant en oeuvre une méthode d'analyse distributionnelle dite "étendue". L'analyseur syntaxique de corpus SYNTEX effectue l'analyse en dépendance de chacune des phrases du corpus, puis construit un réseau de mots et syntagmes, dans lequel chaque syntagme est relié à sa tête et à ses expansions. A partir de ce réseau, le module d'analyse distributionnelle UPERY construit pour chaque terme du réseau l'ensemble de ses contextes syntaxiques. Les termes et les contextes syntaxiques peuvent être simples ou complexes. Le module rapproche ensuite les termes, ainsi que les contextes syntaxiques, sur la base de mesures de proximité distributionnelle. L'ensemble de ces résultats est utilisé comme aide à la construction d'ontologie à partir de corpus spécialisés.
[ "analyse distributionnelle", "ontologie", "corpus", "analyse syntaxique automatique", "terminologie" ]
[ "P", "P", "P", "M", "U" ]
[ "", "We present a software that implements a method of \"extended\" distributional analysis. The corpus syntactic analyser SYNTEX yields a dependency syntactic analyse of each sentence of the corpus. It builds a network of words and phrases in which each phrase is connected to its head and its expansion. The distributional analysis module UPERY relies on this network to associate to each term in the network a set of syntactic contexts. Syntactic contexts as well as terms may be simple or complex. The UPERY module calculates distributional proximities between terms as well as between contexts. The results are used for the building of ontological resources from specialized corpora.", "parsing, distributional analysis, corpus, ontology, terminology" ]
taln-2002-long-006
Construire des analyseurs avec DyALog
Cet article survole les fonctionnalités offertes par le système DyALog pour construire des analyseurs syntaxiques tabulaires. Offrant la richesse d’un environnement de programmation en logique, DyALog facilite l’écriture de grammaires, couvre plusieurs formalismes et permet le paramétrage de stratégies d’analyse.
[ "Analyse Syntaxique", "Tabulation", "DCG", "TAG", "RCG", "BMG", "TFS" ]
[ "R", "U", "U", "U", "U", "U", "U" ]
[ "", "This paper is a survey of the functionalities provided by system DyALog to build tabular parsers. Providing the expressiveness of logic programming, DyALog eases the development of grammars, covers several linguistic formalisms, and allows the parametrization of parsing strategies.", "Parsing, Tabulation, DCG, TAG, RCG, BMG, TFS" ]
taln-2002-long-007
Une grammaire hors-contexte valuée pour l’analyse syntaxique
Les grammaires hors-contexte stochastiques sont exploitées par des algorithmes particulièrement efficaces dans des tâches de reconnaissance de la parole et d’analyse syntaxique. Cet article propose une autre probabilisation de ces grammaires, dont les propriétés mathématiques semblent intuitivement plus adaptées à ces tâches que celles des SCFG (Stochastique CFG), sans nécessiter d’algorithme d’analyse spécifique. L’utilisation de ce modèle en analyse sur du texte provenant du corpus Susanne peut réduire de 33% le nombre d’analyses erronées, en comparaison avec une SCFG entraînée dans les mêmes conditions.
[ "Syntaxe", "SCFG", "linguistique mathématique", "apprentissage statistique", "Gibbs" ]
[ "P", "P", "M", "U", "U" ]
[ "", "Weighted Context-Free Grammars can be used for speech recognition or syntactic analysis thanks to especially efficient algorithms. In this paper, we propose an instanciation of such a grammar, whose mathematical properties are intuitively more suitable for those tasks than SCFG’s (Stochastic CFG), without requiring specific analysis algorithms. Results on Susanne text show that up to 33% of analysis errors made by a SCFG can be avoided with this model.", "statistical learning, Syntax, Context-free grammars" ]
taln-2002-long-008
Extraction d’informations à partir de corpus dégradés
Nous présentons une méthode automatique d’extraction d’information à partir d’un corpus mono-domaine de mauvaise qualité, sur lequel il est impossible d’appliquer les méthodes classiques de traitement de la langue naturelle. Cette approche se fonde sur la construction d’une ontologie semi-formelle (modélisant les informations contenues dans le corpus et les relations entre elles). Notre méthode se déroule en trois phases : 1) la normalisation du corpus, 2) la construction de l’ontologie, et 3) sa formalisation sous la forme d’une grammaire. L’extraction d’information à proprement parler exploite un étiquetage utilisant les règles définies par la grammaire. Nous illustrons notre démarche d’une application sur un corpus bancaire.
[ "Extraction d’information", "corpus dégradés", "modélisation", "construction d’ontologie" ]
[ "P", "P", "P", "R" ]
[ "", "We present an information extraction automatic method from poor quality specific-domain corpus (with which it is impossible to apply classical natural language methods). This approach is based on building a semi-formal ontology in order to modelise information present in the corpus and their relation. Our method happens in three stage : 1) corpus normalisation, 2) ontology building and 3) model formalisation in grammar. The information extraction itself is made by a tagging process using grammar rules. We illustrate our approach by an application working on a bank corpus.", "Information extraction, modelling, building ontology, poor quality corpus" ]
taln-2002-long-009
Identification thématique hiérarchique : Application aux forums de discussions
Les modèles statistiques du langage ont pour but de donner une représentation statistique de la langue mais souffrent de nombreuses imperfections. Des travaux récents ont montré que ces modèles peuvent être améliorés s’ils peuvent bénéficier de la connaissance du thème traité, afin de s’y adapter. Le thème du document est alors obtenu par un mécanisme d’identification thématique, mais les thèmes ainsi traités sont souvent de granularité différente, c’est pourquoi il nous semble opportun qu’ils soient organisés dans une hiérarchie. Cette structuration des thèmes implique la mise en place de techniques spécifiques d’identification thématique. Cet article propose un modèle statistique à base d’unigrammes pour identifier automatiquement le thème d’un document parmi une arborescence prédéfinie de thèmes possibles. Nous présentons également un critère qui permet au modèle de donner un degré de fiabilité à la décision prise. L’ensemble des expérimentations a été réalisé sur des données extraites du groupe ’fr’ des forums de discussion.
[ "Identification thématique", "unigrammes", "modèles de langage" ]
[ "P", "P", "R" ]
[ "", "Statistical language modeling attempts to capture the regularities of natural language. The most accurate natural language processing systems still suffer from several shortcomings due to the complexity of natural language and from the weakness of the current language models. It is commonly conjectured that they should benefit from topic adaptation. The topic of the document is then obtained by a topic identification mechanism, but topics thus treated are often of different granularity. This is the reason why it seems appropriate to organize them in a hierarchy. This topic organization implies a development of specific techniques for topic identification. This paper proposes a statistical model based on unigrams to automatically identify the topic of a document among a tree structure of possible topics. We also present a criterion which reflects the degree of reliability of the decision. Experiments were carried out on data extracted from the French newsgroup ’fr’.", "Topic identification, language modeling, unigrams" ]
taln-2002-long-010
Vers l’apprentissage automatique, pour et par les vecteurs conceptuels, de fonctions lexicales. L’exemple de l’antonymie
Dans le cadre de recherches sur le sens en traitement automatique du langage, nous nous concentrons sur la représentation de l’aspect thématique des segments textuels à l’aide de vecteurs conceptuels. Les vecteurs conceptuels sont automatiquement appris à partir de définitions issues de dictionnaires à usage humain (Schwab, 2001). Un noyau de termes manuellement indexés est nécessaire pour l’amorçage de cette analyse. Lorsque l’item défini s’y prête, ces définitions sont complétées par des termes en relation avec lui. Ces relations sont des fonctions lexicales (Mel’cuk and al, 95) comme l’hyponymie, l’hyperonymie, la synonymie ou l’antonymie. Cet article propose d’améliorer la fonction d’antonymie naïve exposée dans (Schwab, 2001) et (Schwab and al, 2002) grâce à ces informations. La fonction s’auto-modifie, par révision de listes, en fonction des relations d’antonymie avérées entre deux items. Nous exposons la méthode utilisée, quelques résultats puis nous concluons sur les perspectives ouvertes.
[ "apprentissage automatique", "vecteurs conceptuels", "fonctions lexicales", "antonymie", "représentation thématique" ]
[ "P", "P", "P", "P", "R" ]
[ "", "In the framework of research in the field of meaning representation, we focus our attention on thematic aspects of textual segments represented with conceptual vectors. Conceptual vectors are automatically learned and refined by analyzing human usage dictionary definitions (Schwab, 2001). A kernel of terms manually indexed is needed for bootstrapping this analysis. When possible, these definitions are completed with related terms. The considered relations are typically instances of lexical functions (Mel’cuk and al, 95) as hyponymy, hyperonymy, synonymy and antonymy. This paper is an experimented proposal to take advantage of these information to enhance the naive antonymy function as proposed in (Schwab, 2001) and (Schwab and al, 2002) . The function can self-adjust, by modifications of antonym lists as extracted or induced from lexical data. We expose the overall method behind this process, some experimental results and conclude on some open perspectives.", "thematic representation, conceptuals vectors, antonymy, potential antonymy mesure, automatic learning, lexical functions" ]
taln-2002-long-011
Filtrages syntaxiques de co-occurrences pour la représentation vectorielle de documents
L’intégration de co-occurrences dans les modèles de représentation vectorielle de documents s’est avérée une source d’amélioration de la pertinence des mesures de similarités textuelles calculées dans le cadre de ces modèles (Rajman et al., 2000; Besançon, 2001). Dans cette optique, la définition des contextes pris en compte pour les co-occurrences est cruciale, par son influence sur les performances des modèles à base de co-occurrences. Dans cet article, nous proposons d’étudier deux méthodes de filtrage des co-occurrences fondées sur l’utilisation d’informations syntaxiques supplémentaires. Nous présentons également une évaluation de ces méthodes dans le cadre de la tâche de la recherche documentaire.
[ "Similarités textuelles", "repréesentation vectorielle de textes", "sémantique distributionnelle", "contexte de co-occurrence" ]
[ "P", "M", "U", "R" ]
[ "", "The integration of co-occurrence information in the vector-space representation models for texts has proven to improve the relevance of textual similarities (Rajman et al., 2000; Besanc¸on, 2001). In this framework, the definition of what is the context considered for the co-occurrences is an important issue. In this paper, we provide the study of two methods for the filtering of the co-occurrences, both using additional syntactic information. We also present an evaluation of these methods in the framework of information retrieval.", "Textual similarities, vector space representation, distributional semantics, co-occurrence context" ]
taln-2002-long-012
WSIM : une méthode de détection de thème fondée sur la similarité entre mots
L’adaptation des modèles de langage dans les systèmes de reconnaissance de la parole est un des enjeux importants de ces dernières années. Elle permet de poursuivre la reconnaissance en utilisant le modèle de langage adéquat : celui correspondant au thème identifié. Dans cet article nous proposons une méthode originale de détection de thème fondée sur des vocabulaires caractéristiques de thèmes et sur la similarité entre mots et thèmes. Cette méthode dépasse la méthode classique (TFIDF) de 14%, ce qui représente un gain important en terme d’identification. Nous montrons également l’intérêt de choisir un vocabulaire adéquat. Notre méthode de détermination des vocabulaires atteint des performances 3 fois supérieures à celles obtenues avec des vocabulaires construits sur la fréquence des mots.
[ "détection de thème", "similarité", "Reconnaissance de la parole", "modélisation statistique du langage", "information mutuelle" ]
[ "P", "P", "P", "M", "U" ]
[ "", "Speech recognition systems benefit from statistical language model adaptation, which is currently one of the most important challenge. This adaptation may go through the use of a particular language model : the one of the topic identified. In this article, a new and original topic identification method is presented, it is based on the similarity between words and topics. The performance of this method overcomes the one of reference, the TFIDF. The increase is 14% of topic identification. The importance of the choice of topic vocabularies is also put forward. A judicious way to create them, instead of choosing the most probable words, makes performance triple.", "Automatic speech recognition, statistical language modeling, topic detection, mutual information, similarity" ]
taln-2002-long-013
Segmenter et structurer thématiquement des textes par l’utilisation conjointe de collocations et de la récurrence lexicale
Nous exposons dans cet article une méthode réalisant de façon intégrée deux tâches de l’analyse thématique : la segmentation et la détection de liens thématiques. Cette méthode exploite conjointement la récurrence des mots dans les textes et les liens issus d’un réseau de collocations afin de compenser les faiblesses respectives des deux approches. Nous présentons son évaluation concernant la segmentation sur un corpus en français et un corpus en anglais et nous proposons une mesure d’évaluation spécifiquement adaptée à ce type de systèmes.
[ "segmentation", "analyse thématique", "détection de liens thématiques", "Analyse du discours" ]
[ "P", "P", "P", "M" ]
[ "", "We present in this paper a method for achieving in an integrated way two tasks of topic analy-sis: segmentation and link detection. This method combines the lexical recurrence in texts and the relations from a collocation network to compensate for the respective weaknesses of the two approaches. We report its evaluation for segmentation on a corpus in French and another in English and we propose an evaluation measure that specifically suits that kind of systems.", "Discourse analysis, topic analysis, topic segmentation, link detection" ]
taln-2002-long-014
LOGUS : un système formel de compréhension du français parlé spontané-présentation et évaluation
Le système de compréhension présenté dans cet article propose une approche logique et lexicalisée associant syntaxe et sémantique pour une analyse non sélective et hors-cadres sémantiques prédéterminés. L’analyse se déroule suivant deux grandes étapes ; un chunking est suivi d’une mise en relation des chunks qui aboutit à la construction de la représentation sémantique finale : formule logique ou graphe conceptuel. Nous montrons comment le formalisme a dû évoluer pour accroître l’importance de la syntaxe et améliorer la généricité des règles. Malgré l’utilisation d’une connaissance pragmatico-sémantique liée à l’application, la spécificité du système est circonscrite au choix des mots du lexique et à la définition de cette connaissance. Les résultats d’une campagne d’évaluation ont mis en évidence une bonne tolérance aux inattendus et aux phénomènes complexes, prouvant ainsi la validité de l’approche.
[ "langue parlée spontanée", "compréhension automatique", "méthodes formelles" ]
[ "M", "M", "M" ]
[ "", "We present in this paper a speech understanding system with a lexicalized logical approach combining syntax and pragmatic knowledge, but without selective methods or predefined semantic frames. The analysis is split into two phases: a chunking phase is followed with a second phase in which different chunks are combined in order to obtain the semantic representation of the sentence: logical formula or conceptual graph. We show how we have changed the formalism to increase the part of the syntax and to obtain generic rules. Despite the use of a semantic knowledge linked to the application, the specificity of the system is limited to the lexicon and to the definition of this knowledge. The results of an evaluation campaign have showed a good tolerance with the spontaneous spoken utterances and with the complex phenomena, and so, they have showed the value of this approach.", "spontaneous spoken language, automated understanding, formal methods" ]
taln-2002-long-015
Etude des relations entre pauses et ponctuations pour la synthèse de la parole à partir de texte
Nous présentons dans cette communication la première étude à grande échelle de la relation entre pauses et ponctuations, à l’aide de l’analyse de plusieurs milliers de pauses dans un corpus comportant près de 5 heures de parole lue en cinq langues, faisant intervenir 50 locuteurs des deux sexes. Nos résultats remettent en cause l’idée reçue de rapports bi-univoques entre pauses et ponctuations. Nous mettons en évidence une proportion importante de pauses hors ponctuation, qui délimitent des constituants, mais aussi un pourcentage élevé de ponctuations faibles réalisées sans pauses. Nous notons également une très grande variabilité inter-locuteur, ainsi que des différences importantes entre langues. Enfin, nous montrons que la durée des pauses est liée au sexe des locuteurs.
[ "pauses", "ponctuation", "Synthèse de la parole à partir de textes" ]
[ "P", "P", "P" ]
[ "", "We present in this paper the first large-scale study of pause-punctuation relationships, based on the analysis of several thousand pauses in a corpus consisting of nearly 5 hours of read speech involving 50 male and female readers in five languages. Our results call into question the generally accepted idea of a one-to-one relationship between pauses and punctuation. We observe a large proportion of pauses outside punctuations (which mark phrases), but also a high percentage of weak punctuations with no pause. We also note a very high interspeaker variability, as well as important differences among languages.", "Text-to-speech synthesis, pauses, punctuation" ]
taln-2002-long-016
Génération automatique d’exercices contextuels de vocabulaire
Cet article explore l’utilisation de ressources lexicales et textuelles ainsi que d’outils issus du TAL dans le domaine de l’apprentissage des langues assisté par ordinateur (ALAO). Il aborde le problème de la génération automatique ou semi-automatique d’exercices contextuels de vocabulaire à partir d’un corpus de textes et de données lexicales au moyen d’un étiqueteur et d’un parseur. Sont étudiées les caractéristiques et les limites de ces exercices.
[ "Exercices contextuels", "ALAO", "corpus", "lexique" ]
[ "P", "P", "P", "U" ]
[ "", "This paper examines the use of lexical and textual resources and NLP tools in Computer-Assisted Language Learning (CALL). It tackles the issue of automatic or semi-automatic generation of contextual vocabulary exercises from a corpus of texts and lexical data by means of a tagger and a parser. It studies the characteristics and limits of these exercises.", "Contextual exercises, lexicon, corpus, CALL" ]
taln-2002-long-017
Les analyseurs syntaxiques : atouts pour une analyse des questions dans un système de question-réponse ?
Cet article montre que pour une application telle qu’un système de question – réponse, une analyse par mots clés de la question est insuffisante et qu’une analyse plus détaillée passant par une analyse syntaxique permet de fournir des caractéristiques permettant une meilleure recherche de la réponse.
[ "Analyse syntaxique de questions", "connaissances sémantiques", "détection du focus" ]
[ "R", "U", "U" ]
[ "", "In this paper, we show that in a question-answer application, a light parsing using only keywords is not sufficient. A syntactico-semantic parsing of the question must be used and must be completed with some others characteristics, which will a best search for the good answer.", "Syntactico-semantic parsing of questions, semantic knowledge, focus detection" ]
taln-2002-long-019
Groupes prépositionnels arguments ou circonstants : vers un repérage automatique en corpus
Dans cette étude, menée dans le cadre de la réalisation d’un analyseur syntaxique de corpus spécialisés, nous nous intéressons à la question des arguments et circonstants et à leur repérage automatique en corpus. Nous proposons une mesure simple pour distinguer automatiquement, au sein des groupes prépositionnels rattachés au verbe, des types de compléments différents. Nous réalisons cette distinction sur corpus, en mettant en oeuvre une stratégie endogène, et en utilisant deux mesures de productivité : la productivité du recteur verbal vis à vis de la préposition évalue le degré de cohésion entre le verbe et son groupe prépositionnel (GP), tandis que la productivité du régi vis à vis de la préposition permet d'évaluer le degré de cohésion interne du GP. Cet article présente ces deux mesures, commente les données obtenues, et détermine dans quelle mesure cette partition recouvre la distinction traditionnelle entre arguments et circonstants.
[ "argument", "circonstant", "productivité", "analyse syntaxique automatique", "analyse endogène" ]
[ "P", "P", "P", "M", "M" ]
[ "", "This paper addresses the issue of the automatic distinction between arguments and adjuncts within the framework of a corpus-based parser. We propose a simple measure aimed at distinguishing automatically different types of complements among prepositional phrases (PP) attached to the verb. This corpus-based approach relies on an endogeneous technique as well as two measures of productivity. The productivity of a governor and its preposition determines the degree of cohesion between a verb and its PP. Conversely, the productivity of a governee assesses the degree of autonomy of a PP. After presenting both measures, we comment on the output data and determine whether this division characterises the traditional distinction between arguments and adjuncts.", "automatic parsing, endogeneous analysis, productivity, argument, adjunct" ]
taln-2002-long-020
Évaluation des taux de synonymie et de polysémie dans un texte
La polysémie et la synonymie sont deux aspects fondamentaux de la langue. Nous présentons ici une évaluation de l’importance de ces deux phénomènes à l’aide de statistiques basées sur le lexique WordNet et sur le SemCor. Ainsi, on a un taux de polysémie théorique de 5 sens par mot dans le SemCor. Mais si on regarde les occurrences réelles, moins de 50 % des sens possibles sont utilisés. De même, s’il y a, en moyenne, 2,7 mots possibles pour désigner un concept qui apparaît dans le corpus, plus de la moitié d’entre eux ne sont jamais utilisés. Ces résultats relativisent l’utilité de telles ressources sémantiques pour le traitement de la langue.
[ "taux de synonymie", "WordNet", "SemCor", "taux de polysémie", "lexiques sémantiques" ]
[ "P", "P", "P", "P", "R" ]
[ "", "Polysemy and synonymy are two basic problems for natural language processing. In this paper, an evaluation of the importance of these phenomena is presented. It is based on the semantic lexicon WordNet and its associated corpus SemCor. Thus, when there are, in average, 5 possible senses for each word in the corpus, only half of them are really used. Similarly, if 2,7 words can be used to designate a concept, more than half of them are never used. These results tend to put the usefulness of such a resource in perspective.", "polysemy rate, synonymy rate, semantic lexicon, WordNet, SemCor" ]
taln-2002-long-021
Acquisition automatique de sens à partir d'opérations morphologiques en français : études de cas
Cet article propose une méthode de codage automatique de traits lexicaux sémantiques en français. Cette approche exploite les relations fixées par l'instruction sémantique d'un opérateur de construction morphologique entre la base et le mot construit. En cela, la réflexion s'inspire des travaux de Marc Light (Light 1996) tout en exploitant le fonctionnement d’un système d'analyse morphologique existant : l’analyseur DériF. A ce jour, l'analyse de 12 types morphologiques conduit à l'étiquetage d’environ 10 % d'un lexique composé de 99000 lemmes. L’article s'achève par la description de deux techniques utilisées pour valider les traits sémantiques.
[ "Morphologie dérivationnelle", "affixation et conversion", "acquisition de traits sémantiques" ]
[ "M", "M", "R" ]
[ "", "This paper presents an approach which aims at automatically tagging a French lexicon with semantic features. This approach makes use of correspondences which are fixed by the semantic instruction of morphological operators, between the base and the derived word. It is partly inspired by Light (1996) work, and makes use of an existing morphological parser : the DeriF system. So far, 12 morphological types have been analysed, enabling the semantic tagging of circa 10 % of a lexicon made up of 99000 lemmas. The paper ends up with the description of two techniques that have been applied to validate the semantic features.", "Derivational Morphology, affixation and conversion, Semantic feature acquisition" ]
taln-2002-long-022
Webaffix : un outil d’acquisition morphologique dérivationnelle à partir du Web
L’article présente Webaffix, un outil d’acquisition de couples de lexèmes morphologiquement apparentés à partir du Web. La méthode utilisé est inductive et indépendante des langues particulières. Webaffix (1) utilise un moteur de recherche pour collecter des formes candidates qui contiennent un suffixe graphémique donné, (2) prédit les bases potentielles de ces candidats et (3) recherche sur le Web des cooccurrences des candidats et de leurs bases prédites. L’outil a été utilisé pour enrichir Verbaction, un lexique de liens entre verbes et noms d’action ou d’événement correspondants. L’article inclut une évaluation des liens morphologiques acquis.
[ "Morphologie dérivationnelle", "ressource lexicale", "Web comme corpus", "analogie" ]
[ "P", "U", "M", "U" ]
[ "", "This paper presents Webaffix, a tool for finding pairs of morphologically related words on the Web. The method used is inductive and language-independent. Using theWWWas a corpus, the Webaffix tool detects the occurrences of new derived lexemes based on a given graphemic suffix, proposes a base lexeme, and then performs a compatibility test on the word pairs produced, using the Web again, but as a source of cooccurrences. The resulting pairs of words are used to enrich the Verbaction lexical database, which contains French verbs and their related nominals. The results are described and evaluated.", "Derivational morphology, lexical resource, Web as corpus, analogy" ]
taln-2002-long-023
Évaluer l’acquisition semi-automatique de classes sémantiques
Cet article vise à évaluer deux approches différentes pour la constitution de classes sémantiques. Une approche endogène (acquisition à partir d’un corpus) est contrastée avec une approche exogène (à travers un réseau sémantique riche). L’article présente une évaluation fine de ces deux techniques.
[ "Évaluation", "Classes sémantiques", "Réseau sémantique", "Ressources" ]
[ "P", "P", "P", "U" ]
[ "", "This paper evaluates two different approaches for the elaboration of semantic classes. An endogeneous approach (corpus-based learning) is contrasted with a exogeneous one (the use of a large semantic network). The two techniques are finally evaluated.", "Semantic classes, Evaluation, Resources, Semantic network" ]
taln-2002-long-024
Nemesis, un système de reconnaissance incrémentielle des entités nommées pour le français
Cet article présente une étude des conflits engendrés par la reconnaissance des entités nommées (EN) pour le français, ainsi que quelques indices pour les résoudre. Cette reconnaissance est réalisée par le système Nemesis, dont les spécifications ont été élaborées conséquemment à une étude en corpus. Nemesis se base sur des règles de grammaire, exploite des lexiques spécialisés et comporte un module d’apprentissage. Les performances atteintes par Nemesis, sur les anthroponymes et les toponymes, sont de 90% pour le rappel et 95% pour la précision.
[ "reconnaissance incrémentielle", "Entités nommées", "apprentissage", "surcomposition référentielle" ]
[ "P", "P", "P", "U" ]
[ "", "This paper presents an investigation of the conflicts generated by the recognition of the French proper names (PN), and some indications to solve them. This recognition is carried out by the Nemesis system, whose specifications have been elaborated through corpus investigation. Nemesis is grammar-rule based, uses specialised lexicons, and includes a learning module. The system performance, evaluated on the categories composing the anthroponym and the toponym classes, achieves 95% precision and 90% recall.", "Name Entities, incremental recognition, learning processing, referential composition" ]
taln-2002-long-025
La coédition langue↔UNL pour partager la révision entre les langues d'un document multilingue : un concept unificateur
La coédition d'un texte en langue naturelle et de sa représentation dans une forme interlingue semble le moyen le meilleur et le plus simple de partager la révision du texte vers plusieurs langues. Pour diverses raisons, les graphes UNL sont les meilleurs candidats dans ce contexte. Nous développons un prototype où, dans le scénario avec partage le plus simple, des utilisateurs "naïfs" interagissent directement avec le texte dans leur langue (L0), et indirectement avec le graphe associé pour corriger les erreurs. Le graphe modifié est ensuite envoyé au déconvertisseur UNL-L0 et le résultat est affiché. S'il est satisfaisant, les erreurs étaient probablement dues au graphe et non au déconvertisseur, et le graphe est envoyé aux déconvertisseurs vers d'autres langues. Les versions dans certaines autres langues connues de l'utilisateur peuvent être affichées, de sorte que le partage de l'amélioration soit visible et encourageant. Comme les nouvelles versions sont ajoutées dans le document multilingue original avec des balises et des attributs appropriés, rien n'est jamais perdu, et le travail coopératif sur un même document est rendu possible. Du côté interne, des liaisons sont établies entre des éléments du texte et du graphe en utilisant des ressources largement disponibles comme un dictionnaire L0-anglais, ou mieux L0-UNL, un analyseur morphosyntaxique de L0, et une transformation canonique de graphe UNL à arbre. On peut établir une "meilleure" correspondance entre "l'arbre-UNL+L0" et la "structure MS-L0", une treille, en utilisant le dictionnaire et en cherchant à aligner l'arbre et une trajectoire avec aussi peu que possible de croisements de liaisons. Un but central de cette recherche est de fusionner les approches de la TA par pivot, de la TA interactive, et de la génération multilingue de texte.
[ "Partage de révision", "représentation interlingue", "coédition de texte et de graphe UNL", "communication multilingue" ]
[ "R", "R", "R", "M" ]
[ "", "Coedition of a natural language text and its representation in some interlingual form seems the best and simplest way to share text revision across languages. For various reasons, UNL graphs are the best candidates in this context. We are developing a prototype where, in the simplest sharing scenario, naive users interact directly with the text in their language (L0), and indirectly with the associated graph, to correct errors. The modified graph is then sent to the UNL-L0 deconverter and the result shown. If it is satisfactory, the errors were probably due to the graph, not to the deconverter, and the graph is sent to deconverters in other languages. Versions in some other languages known by the user may be displayed, so that improvement sharing is visible and encouraging. As new versions are added with appropriate tags and attributes in the original multilingual document, nothing is ever lost, and cooperative working on a document is rendered feasible. On the internal side, liaisons are established between elements of the text and the graph by using broadly available resources such as a L0-English or better a L0-UNL dictionary, a morphosyntactic parser of L0, and a canonical graph2tree transformation. Establishing a \"best\" correspondence between the \"UNL-tree+L0\" and the \"MS-L0 structure\", a lattice, may be done using the dictionary and trying to align the tree and the selected trajectory with as few crossing liaisons as possible. A central goal of this research is to merge approaches from pivot MT, interactive MT, and multilingual text authoring.", "Revision sharing, interlingual representation, coedition of text & UNL graph, multilingual communication" ]
taln-2002-long-026
Traduction automatique ancrée dans l’analyse linguistique
Nous présentons dans cet article le système de traduction français-anglais MSR-MT développé à Microsoft dans le groupe de recherche sur le traitement du language (NLP). Ce système est basé sur des analyseurs sophistiqués qui produisent des formes logiques, dans la langue source et la langue cible. Ces formes logiques sont alignées pour produire la base de données du transfert, qui contient les correspondances entre langue source et langue cible, utilisées lors de la traduction. Nous présentons différents stages du développement de notre système, commencé en novembre 2000. Nous montrons que les performances d’octobre 2001 de notre système sont meilleures que celles du système commercial Systran, pour le domaine technique, et décrivons le travail linguistique qui nous a permis d’arriver à cette performance. Nous présentons enfin les résultats préliminaires sur un corpus plus général, les débats parlementaires du corpus du Hansard. Quoique nos résultats ne soient pas aussi concluants que pour le domaine technique, nous sommes convaincues que la résolution des problèmes d’analyse que nous avons identifiés nous permettra d’améliorer notre performance.
[ "Traduction automatique", "français-anglais", "base d’exemples" ]
[ "P", "P", "M" ]
[ "", "In this paper, we present an overview of the MSR-MT translation system for French-English, developed at Microsoft Research in the NLP group. Our system is based on rule-based analysis which produces logical form representations of the source language and the target language. These are aligned to produce mappings then stored in an example-base. We examine the development of the system since November 2000, and show that by October 2001, we had exceeded the quality of the commercial system Systran in the technical domain. We describe the linguistic work that allowed our system to improve. We present preliminary results on the Hansard parliamentary corpus. While these results are less impressive currently, we are convinced that changes to linguistic analysis will allow the system performance to improve.", "Automatic translation, French-English, example-base" ]
taln-2002-long-027
Descriptions d’arbres avec polarités : les Grammaires d’Interaction
Nous présentons un nouveau formalisme linguistique, les Grammaires d’Interaction, dont les objets syntaxiques de base sont des descriptions d’arbres, c’est-à-dire des formules logiques spécifiant partiellement des arbres syntaxiques. Dans ce contexte, l’analyse syntaxique se traduit par la construction de modèles de descriptions sous la forme d’arbres syntaxiques complètement spécifiés. L’opération de composition syntaxique qui permet cette construction pas à pas est contrôlée par un système de traits polarisés agissant comme des charges électrostatiques.
[ "Description d’arbres", "Grammaire formelle", "Grammaire Catégorielle" ]
[ "P", "M", "M" ]
[ "", "We present a new linguistic formalism, Interaction Grammars. The basic syntactic objects are tree descriptions, that is logical formulas which specify syntactic trees partially. In this context, parsing consists in building models of descriptions which are completely specified syntactic trees. The operation of syntactic composition which allows this construction to go step by step is controlled by a system of polarized features acting as electrostatic charges.", "Formal Grammar, Categorial Grammar, Tree description" ]
taln-2002-long-028
Recherche de la réponse fondée sur la reconnaissance du focus de la question
Le système de question-réponse QALC utilise les documents sélectionnés par un moteur de recherche pour la question posée, les sépare en phrases afin de comparer chaque phrase avec la question, puis localise la réponse soit en détectant l'entité nommée recherchée, soit en appliquant des patrons syntaxiques d'extraction de la réponse, sortes de schémas figés de réponse pour un type donné de question. Les patrons d'extraction que nous avons définis se fondent sur la notion de focus, qui est l'élément important de la question, celui qui devra se trouver dans la phrase réponse. Dans cet article, nous décrirons comment nous déterminons le focus dans la question, puis comment nous l'utilisons dans l'appariement question-phrase et pour la localisation de la réponse dans les phrases les plus pertinentes retenues.
[ "focus", "système de question-réponse", "Recherche d’information", "patron d’extraction" ]
[ "P", "P", "M", "M" ]
[ "", "The QALC question answering system we are developing uses a search engine to select documents responding to the question, matches each sentence of the selected documents with the question, then extracts the answer from the more relevant sentences, either by locating the expected named entity, or by applying extraction patterns. Patterns are based on the focus, which is the main concept in the question and is expected to be present in an answer sentence. In this paper, we will describe the way we determine the focus of the question, and the way that we use it in the question-answer pairing and answer location processes.", "Information retrieval, question answering system, focus, extraction pattern" ]
taln-2002-poster-001
Corpus OTG et ECOLE_MASSY : vers la constitution d’une collection de corpus francophones de dialogue oral diffusés librement
Cet article présente deux corpus francophones de dialogue oral (OTG et ECOLE_MASSY) mis librement à la disposition de la communauté scientifique. Ces deux corpus constituent la première livraison du projet Parole Publique initié par le laboratoire VALORIA. Ce projet vise la constitution d’une collection de corpus de dialogue oral enrichis par annotation morpho-syntaxique. Ces corpus de dialogue finalisé sont essentiellement destinés à une utilisation en communication homme-machine.
[ "dialogue oral", "communication homme-machine", "ressources linguistiques francophones" ]
[ "P", "P", "M" ]
[ "", "This paper presents two corpora (OTG et ECOLE_MASSY) of French spoken dialogue which are the first delivery of the Parole_Publique (in English : Public Speech) project held by the VALORIA laboratory. This project aims at the achievement of a collection of spoken dialogue corpora that is freely distributed on the WWW. It is primarily intended for researches on man-machine communication.", "French speaking linguistic ressources, spoken dialogue, man-machine communication" ]
taln-2002-poster-002
Relatifs et référents inclus dans un SN : des paramètres pour présélectionner la saisie
Notre objectif est de repérer l’existence de régularités pour prévoir l’attachement du relatif et de son référent introduit par un SN de la forme dét. N1 de (dét.) N2 en vue d’un traitement automatique. Pour évaluer les préférences, nous avons entrepris une analyse sur corpus. L’examen des occurrences examinées laisse entrevoir des variations en fonction de paramètres d’ordre fonctionnel, syntaxique et sémantiques : déterminants, traits sémantiques, saillance, relation établie par l’utilisation de de, position grammaticale du SN qui introduit le référent dans le discours…
[ "référence", "Anaphore", "SN complexes", "préposition de", "relatif qui" ]
[ "P", "U", "M", "M", "R" ]
[ "", "", "" ]
taln-2002-poster-003
L'analyse sémantique latente et l'identification des métaphores
Après avoir présenté le modèle computationnel de l'interprétation de métaphores proposé par Kintsch (2000), nous rapportons une étude préliminaire qui évalue son efficacité dans le traitement de métaphores littéraires et la possibilité de l'employer pour leur identification.
[ "Analyse sémantique latente", "Métaphore", "interprétation et détection", "textes littéraires" ]
[ "P", "P", "M", "M" ]
[ "", "Having introduced Kintsch's computational model of metaphor comprehension (2000), we report a preliminary study aiming at determining its efficiency in modeling the processing of literary metaphors and its ability to detect them.", "Metaphor, Latent semantic analysis, interpretation and detection, literary texts" ]
taln-2002-poster-005
Distinguer les termes des collocations : étude sur corpus du patron <Adjectif – Nom> en anglais médical
Un bon nombre des applications de traitement automatique des langues qui ont pour domaine les langues de spécialité sont des outils d’extraction terminologique. Elles se concentrent donc naturellement sur l’identification des groupes nominaux et des groupes prépositionnels ou prémodificateurs qui leur sont associés. En nous fondant sur un corpus composé d’articles de recherche médicale de langue anglaise, nous proposons un modèle d’extraction phraséologique semi-automatisée. Afin de distinguer, dans le cas des expressions de patron syntaxique <Adjectif – Nom>, les termes de la langue médicale des simples collocations, nous nous sommes livré au repérage des adjectifs entrant en cooccurrence avec les adverbes. Cette méthode, qui permet l’élimination de la plupart des adjectifs relationnels, s’avère efficace en termes de précision. L’amélioration de son rappel nécessite toutefois l’utilisation de corpus de grande taille ayant subi un étiquetage morpho-syntaxique préalable.
[ "Termes", "collocations", "corpus", "adjectifs", "noms", "anglais de spécialité" ]
[ "P", "P", "P", "P", "P", "R" ]
[ "", "Many of the Natural Language Processing applications that deal with sublanguages are terminological extraction tools. They consequently tend to focus on the identification of noun and prepositional clauses and their modifiers. Using a corpus of English medical research articles, we suggest a semi-automatic phraseological extraction system. In order to separate terms from collocations within the category that fits the <Adjective – Noun> pattern, we experiment with the approach that consists in extracting adjectives that co-occur with adverbs. This method, which makes it possible to eliminate most relative adjectives, proves to provide good precision. However, the use of a larger POS-tagged corpus will be necessary in order to improve the method’s recall.", "Terms, collocations, adjectives, nouns, corpus, English for Specific Purposes" ]
taln-2002-poster-006
Une MétaGrammaire pour les adjectifs du français
Initialement développée au sein de l’université Paris VII depuis maintenant près de quinze ans, la grammaire FTAG, une implémentation du modèle des grammaires d’arbres adjoints pour le français, a connu ses dernières années, diverses évolutions majeures. (Candito, 1996) a ainsi réalisé l’intégration d’un modèle de représentation compact et hiérarchique d’informations redondantes que peut contenir une grammaire, au sein d’un système déjà existant. Ce modèle, que nous appelons MétaGammaire (MG) nous a permis, en pratique, de générer semi-automatiquement des arbres élémentaires, et par là même, d’augmenter de façon considérable les différents phénomènes syntaxiques couverts par notre grammaire. Un soin tout particulier a donc été apporté pour traiter les prédicats verbaux, en laissant cependant (partiellement) de côté le prédicat adjectival. Nous présentons donc ici une nouvelle implémentation de ce prédicat dans le cadre d’une extension de la grammaire FTAG existante.
[ "MétaGrammaire", "Développement", "Grammaires d’arbres adjoints", "Constructions adjectivales" ]
[ "P", "P", "P", "M" ]
[ "", "We present here a new implementation of the adjectival predicate for the FTAG grammar, a french implementation of the Tree Adjoining Grammar model. FTAG has known over the years many improvements. (Candito, 1996) hence integrated an additional layer of syntactic representation within the system. The layer, we called Meta- Grammar (MG) let us improve the syntactic coverage of our grammar by generating semi-automatically dozens of new elementary trees.", "Tree-Adjoining Grammars, MetaGrammar, Development, French Adjectival constructions" ]
taln-2002-poster-008
Reformuler des expressions multimodales
Le domaine des "Interfaces Utilisateur Intelligentes" a vu ces dernières années la réalisation de systèmes complexes mettant en oeuvre une interaction multimodale dans laquelle les différentes techniques de communication (textes, gestes, parole, sélection graphique) sont coordonnées en entrée et/ou en sortie. Nous nous intéressons ici aux systèmes qui prennent en entrée des expressions multimodales et en produisent une reformulation en une expression unimodale sémantiquement équivalente. Nous proposons une modélisation du processus de traduction d'expressions multimodales en expressions unimodales, et nous décrivons la mise en oeuvre d'un processus de ce type dans un logiciel d'aide à l'apprentissage du langage.
[ "Langage multimodal", "coordination des modes", "expressions sémantiquement équivalentes" ]
[ "R", "M", "R" ]
[ "", "These last years, \"Intelligent User Interfaces\" have been developped, in which input and/or output multimodality facilitates human-machine communication (written language, speech, graphic selection, gestures). This paper is concerned with systems in which multimodal input is translated into unimodal expressions semantically equivalent. A model for such a process is proposed. Then, an example is described, with an educational software enabling multimodal communication and implementing this process.", "Multimodal language, coordination of modalities, semantic equivalence" ]
taln-2002-poster-009
Un modèle de dialogue par les attentes du locuteur
Dans cet article, nous aborderons la notion d’attentes, vue du côté du locuteur, afin d’améliorer la modélisation du dialogue. Nous présenterons notre définition des attentes ainsi que notre notation, fondée sur une approche pragmatique du dialogue. Nous comparerons deux approches, l’une (uniquement stochastique) fondée sur la prédiction d’actes de parole, l’autre mettant en jeu les attentes du locuteur et leur gestion.
[ "Dialogue", "attentes", "pragmatique", "analyse", "statistique", "aspects cognitifs" ]
[ "P", "P", "P", "U", "U", "U" ]
[ "", "In this paper, we will discuss about a generic dialog model. We will demonstrate the importance of a expectations based approach which consider them from user’s side. We will present our definition of expectations and their notation based on a pragmatic approach of dialog. Thus, we will compare this approach (expectations and their management), and another stochastic approach which simply consist of act prediction.", "Dialog, expectations, pragmatics, analysis, statistics, cognitive aspects" ]
taln-2002-poster-010
Segmentation en thèmes de conversations téléphoniques : traitement en amont pour l’extraction d’information
Nous présentons une approche de découpage thématique que nous utiliserons pour faciliter l’extraction d’information à partir de conversations téléphoniques transcrites. Nous expérimentons avec un modèle de Markov caché utilisant des informations de différents niveaux linguistiques, des marques d’extra-grammaticalités et les entités nommées comme source additionnelle d’information. Nous comparons le modèle obtenu avec notre modèle de base utilisant uniquement les marques linguistiques et les extra-grammaticalités. Les résultats montrent l’efficacité de l’approche utilisant les entités nommées.
[ "segmentation en thèmes", "extraction d’information", "analyse des conversations" ]
[ "P", "P", "M" ]
[ "", "We study the problem of topic segmentation as a means to facilitate information extraction from manually transcribed convesrations.We experiment with a first orderHMMusing a combination of linguistic-level cues and named entities. We compare the results of our linguistic-levels cues based model with the named entities based model. Results show the effectiveness of named entities as an additional source of information for topic segmentation.", "topic segmentation, conversation analysis, information extraction" ]
taln-2002-poster-011
Discours et compositionnalité
Partant du principe que certaines phrases peuvent réaliser plusieurs actes de langage, i.e., dans une interface sémantique–pragmatique, plusieurs constituants de discours séparés, nous proposons, dans le cadre de la SDRT, un algorithme de construction de représentations sémantiques qui prend en compte tous les aspects discursifs dès que possible et de façon compositionnelle.
[ "compositionnalité", "actes de langage", "SDRT", "Analyse du discours", "lambda-calcul" ]
[ "P", "P", "P", "M", "U" ]
[ "", "Assuming that some sentences realise several speech acts, and that, in a semantic–pragmatic interface, they yield separate discourse constituents, we propose an algorithm, in the SDRT framework, which takes into account all discursive aspects as soon as possible and compositionaly.", "Discourse analysis, compositionality, lambda-calculus, SDRT, speech acts" ]
taln-2002-poster-012
Compréhension Automatique de la Parole et TAL : une approche syntaxico-sémantique pour le traitement des inattendus structuraux du français parlé
Dans cet article, nous présentons un système de Compréhension Automatique de la Parole dont l’un des objectifs est de permettre un traitement fiable et robuste des inattendus structuraux du français parlé (hésitations, répétitions et corrections). L’analyse d’un énoncé s’effectue en deux étapes : une première étape générique d’analyse syntaxique de surface suivie d’une seconde étape d’analyse sémantico-pragmatique, dépendante du domaine d’application et reposant sur un formalisme lexicalisé : les grammaires de liens. Les résultats de l’évaluation de ce système lors de la campagne d’évaluation du Groupe de Travail Compréhension Robuste du GDR I3 du CNRS nous permettent de discuter de l’intérêt et des limitations de l’approche adoptée.
[ "compréhension automatique de la parole", "répétitions", "corrections", "grammaires de liens", "communication orale homme-machine", "analyse syntaxique partielle" ]
[ "P", "P", "P", "P", "U", "M" ]
[ "", "This paper discusses the issue of how a speech understanding system can be made robust against spontaneous speech phenomena (hesitations and repairs). We present a spoken French understanding system. It implements speech understanding in a two-stage process. The first stage achieves a finite-state shallow parsing that consists in segmenting the recognized sentence into basic units (spoken-adapted chunks). The second one, a Link Grammar parser, looks for interchunks dependencies in order to build a rich representation of the semantic structure of the utterance. These dependencies are mainly investigated at a pragmatic level through the consideration of a task concept hierarchy. Discussion about the approach adopted is based on the results of the system’s assessment in an evaluation campaign held by the CNRS.", "spoken man-machine dialog, speech understanding, repairs, shallow parsing, link grammars" ]
taln-2002-tutoriel-001
Un ensemble de ressources informatisées et intégrées pour l’étude du français : FRANTEXT, TLFi, Dictionnaires de l’Académie et logiciel Stella, présentation et apprentissage de leurs exploitations
Nous proposons de présenter quelques-unes des ressources linguistiques informatisées que le laboratoire ATILF propose sur la toile et leurs diversités d’exploitation potentielle. Ces importantes ressources sur la langue française regroupent un ensemble de divers dictionnaires et lexiques, et de bases de données dont les plus importants sont le TLFi (Trésor de la Langue Française informatisé) et Frantext (plus de 3500 textes, dont la plupart catégorisés). Elles exploitent, pour la plupart, les fonctionnalités du logiciel Stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels. Tous les spécialistes de traitement automatique de la langue ainsi que tous les linguistes, syntacticiens aussi bien que sémanticiens, stylisticiens et autres peuvent exploiter avec bonheur les possibilités offertes par Stella sur le TLFi et autres ressources offertes par l’ATILF. Ces recherches peuvent s’articuler autour des axes suivants : études en vue de repérer des cooccurrences et collocations, extraction de sous-lexiques, études morphologiques, études de syntaxe locale, études de sémantique, études de stylistique, etc. Nous proposons de démystifier le maniement des requêtes sur le TLFi, FRANTEXT et nos autres ressources à l’aide du logiciel Stella, et d’expliquer et de montrer comment interroger au mieux ces ressources et utiliser l’hyper-navigation mise en place entre ces ressources pour en tirer les meilleurs bénéfices.
[ "Frantext", "TLFi", "dictionnaires", "Stella", "Ressources linguistiques", "lexiques", "corpus" ]
[ "P", "P", "P", "P", "P", "P", "U" ]
[ "", "", "" ]
taln-2002-tutoriel-002
Modélisation des liens lexicaux au moyen des fonctions lexicales
Ce tutoriel est une introduction à la modélisation lexicographique des liens lexicaux au moyen des fonctions lexicales de la théorie Sens-Texte. Il s’agit donc d’examiner un sous-ensemble des tâches effectuées en lexicographie formelle basée sur la lexicologie explicative et combinatoire. Plutôt que de viser l’introduction de toutes les fonctions lexicales identifiées par la théorie Sens- Texte, je vais m’attacher à introduire la notion de fonction lexicale de façon méthodique, en présentant d’abord les notions linguistiques plus générales sur lesquelles elle s’appuie (lexie, prédicat, actant, dérivation sémantique, collocation, etc.). Ce document vise essentiellement à récapituler les définitions des notions linguistiques qui vont être vues dans le tutoriel de façon pratique, par le biais d’exercices à caractère lexicographique.
[ "Fonction lexicale", "théorie Sens-Texte", "lexicographie formelle", "lexicologie explicative et combinatoire" ]
[ "P", "P", "P", "P" ]
[ "", "This tutorial is an introduction to the modeling of lexical relations by means of Meaning-Text lexical functions. In other words, it presents a specific aspect of formal lexicography as practiced within the framework of explanatory combinatorial lexicology. Only a subset of Meaning- Text lexical functions will be introduced. My goal is to methodically presents the notion of lexical function itself, based on the introduction of more general linguistic notions it presupposes (lexie, actant, semantic derivation, collocation, etc.). The present document summarizes definitions of notions that will be applied in lexicographic exercises during the tutorial.", "Lexical function, explanatory combinatorial lexicology, Meaning-Text theory, formal lexicography" ]
taln-2005-long-001
Comment obtenir plus des Méta-Grammaires
Cet article présente un environnement de développement pour les méta-grammaires (MG), utilisé pour concevoir rapidement une grammaire d'arbres adjoints (TAG) du français à large couverture et néanmoins très compacte, grâce à des factorisations d'arbres. Exploitant les fonctionnalités fournies par le système DYALOG, cette grammaire a permis de construire un analyseur syntaxique hybride TAG/TIG utilisé dans le cadre de la campagne d'évaluation syntaxique EASY.
[ "Méta-grammaires", "TAG", "TIG", "Analyse Syntaxique" ]
[ "P", "P", "P", "M" ]
[ "", "This paper presents a development environment for Meta-Grammars (MG), used to design, in a short period, a wide coverage but still very compact Tree Adjoining Grammar (TAG) for French, thanks to tree factorizations. Exploiting the functionalities provided by DYALOG system, an hybrid TAG/TIG parser was compiled from the grammar and used for the EASY parsing evaluation campaign.", "Meta-grammars, Parsing, TAG, TIG" ]
taln-2005-long-002
XMG : un Compilateur de Méta-Grammaires Extensible
Dans cet article, nous présentons un outil permettant de produire automatiquement des ressources linguistiques, en l’occurence des grammaires. Cet outil se caractérise par son extensibilité, tant du point de vue des formalismes grammaticaux supportés (grammaires d’arbres adjoints et grammaires d’interaction à l’heure actuelle), que de son architecture modulaire, qui facilite l’intégration de nouveaux modules ayant pour but de vérifier la validité des structures produites. En outre, cet outil offre un support adapté au développement de grammaires à portée sémantique.
[ "compilation", "Grammaires", "ressources linguistiques", "Grammaires d’Arbres Adjoints", "Grammaires d’Interaction" ]
[ "P", "P", "P", "P", "P" ]
[ "", "In this paper, we introduce a new tool for automatic generation of linguistic resources such as grammars. This tool’s main feature consists of its extensibility from different points of view. On top of supporting several grammatical formalisms (Tree Adjoining Grammars and Interaction Grammars for now), it has a modular architecture which eases the integration of modules dedicated to the checking of the output structures. Furthermore, this tool offers adapted support to the development of grammars with semantic information.", "Grammars, compilation, linguistic resources, Tree Adjoining Grammars, Interaction Grammars" ]
taln-2005-long-003
Grammaire d'Unification Sens-Texte : modularité et polarisation
L’objectif de cet article est de présenter l’état actuel du modèle de la Grammaire d’Unification Sens-Texte, notamment depuis que les bases formelles du modèle ont été éclaircies grâce au développement des Grammaires d’Unification Polarisées. L’accent est mis sur l’architecture du modèle et le rôle de la polarisation dans l’articulation des différents modules — l’interface sémantique-syntaxe, l’interface syntaxe-morphotopologie et les grammaires décrivant les différents niveaux de représentation. Nous étudions comment les procédures d’analyse et de génération sont contrôlables par différentes stratégies de neutralisation des différentes polarités.
[ "grammaire d’unification polarisée", "Théorie Sens-Texte", "interface syntaxe-sémantique", "synchronisation", "grammaire de dépendance", "grammaire topologique", "génération de textes" ]
[ "P", "M", "M", "U", "M", "M", "M" ]
[ "", "This article presents the Meaning-Text Unification Grammar’s current state, now that its formal foundations have been clarified with the development of Polarized Unification Grammars. Emphasis is put on the model’s architecture and the role of polarization in linking the various modules — semantic-syntax interface, syntax-morphotopology interface and the well-formedness grammars of each representation level. We discuss how various polarity neutralization strategies can control different analysis and generation procedures.", "Meaning-Text Theory, syntax-semantics interface, synchronization, polarized unification grammar, dependency grammar, topology grammar, text generation" ]
taln-2005-long-004
Indexation Sémantique par Coupes de Redondance Minimale dans une Ontologie
Plusieurs travaux antérieurs ont fait état de l’amélioration possible des performances des systèmes de recherche documentaire grace à l’utilisation d’indexation sémantique utilisant une ontologie (p.ex. WordNet). La présente contribution décrit une nouvelle méthode visant à réduire le nombre de termes d’indexation utilisés dans une indexation sémantique, en cherchant la coupe de redondance minimale dans la hiérarchie fournie par l’ontologie. Les résultats, obtenus sur diverses collections de documents en utilisant le dictionnaire EDR, sont présentés.
[ "Indexation sémantique", "Redondance minimale", "Ontologie", "Recherche documentaire" ]
[ "P", "P", "P", "P" ]
[ "", "Several former works have shown that it is possible to improve information retrieval performances using semantic indexing, adding additional information coming from a thesaurus (e.g.WordNet). This paper presents a new method to reduce the number of \"concepts\"used to index the documents, by determining a minimum redundancy cut in the hierarchy provided by the thesaurus. The results of experiments carried out on several standard document collections using the EDR thesaurus are presented.", "Semantic Indexing, Information Retrieval, Minimal Redundancy, Ontology" ]
taln-2005-long-005
Recherche en corpus de réponses à des questions définitoires
Les systèmes de questions-réponses, essentiellement focalisés sur des questions factuelles en domaine ouvert, testent également d’autres tâches, comme le travail en domaine contraint ou la recherche de définitions. Nous nous intéressons ici à la recherche de réponses à des questions « définitoires » portant sur le domaine médical. La recherche de réponses de type définitoire se fait généralement en utilisant deux types de méthodes : celles s’appuyant essentiellement sur le contenu du corpus cible, et celles faisant appel à des connaissances externes. Nous avons choisi de nous limiter au premier de ces deux types de méthodes. Nous présentons une expérience dans laquelle nous réutilisons des patrons de repérage d’énoncés définitoires, conçus pour une autre tâche, pour localiser les réponses potentielles aux questions posées. Nous avons intégré ces patrons dans une chaîne de traitement que nous évaluons sur les questions définitoires et le corpus médical du projet EQueR sur l’évaluation de systèmes de questions-réponses. Cette évaluation montre que, si le rappel reste à améliorer, la « précision » des réponses obtenue (mesurée par la moyenne des inverses de rangs) est honorable. Nous discutons ces résultats et proposons des pistes d’amélioration.
[ "Systèmes de questions-réponses", "repérage d’énoncés définitoires", "patrons lexico-syntaxiques", "médecine" ]
[ "P", "P", "M", "U" ]
[ "", "Question-answering systems mostly focus on open-domain, factoid questions, but also test other tasks such as restricted-domain and « definitional » questions. We address here the search for definitional questions in the medical domain. Searching for answers to definitional questions generally resorts to two kinds of methods : those which mostly rely on the contents of the target corpus, and those which call on external resources. We have chosen to limit ourselves to the first kind. We present an experiment in which we reuse lexico-syntactic patterns, formerly designed for another task, to locate answers to definitional questions. We have integrated these patterns in a processing chain which we evaluate on the medical definitional questions and corpus of project EQueR (evaluation of French QA systems). This evaluation shows that, while recall still needs to be increased, the « precision » of the obtained answers (as measured through the mean reciprocal rank) is honorable. We discuss these results and propose directions for improvement.", "Question-answering systems, mining definitions, lexico-syntactic patterns, medicine" ]
taln-2005-long-006
QRISTAL, système de Questions-Réponses
QRISTAL (Questions-Réponses Intégrant un Système de Traitement Automatique des Langues) est un système de questions-réponses utilisant massivement le TAL, tant pour l'indexation des documents que pour l'extraction des réponses. Ce système s’est récemment classé premier lors de l’évaluation EQueR (Evalda, Technolanguez). Après une description fonctionnelle du système, ses performances sont détaillées. Ces résultats et des tests complémentaires permettent de mieux situer l'apport des différents modules de TAL. Les réactions des premiers utilisateurs incitent enfin à une réflexion sur l'ergonomie et les contraintes des systèmes de questions-réponses, face aux outils de recherche sur le Web.
[ "QRISTAL", "Système de questions-réponses", "extraction de réponse", "recherche sur le Web", "recherche d'information", "évaluation des systèmes de questions-réponses" ]
[ "P", "P", "P", "P", "M", "R" ]
[ "", "QRISTAL is a question answering system which makes intensive use of natural language processing techniques, for indexing documents as well as for extracting answers. This system recently ranked first in the EQueR evaluation exercise (Evalda, Technolanguez). After a functional description of the system, its results in the EQueR exercise are detailed. These results and some additional tests allow to evaluate the contribution of each NLP component. The feedback of the first QRISTAL users encourage further thoughts about the ergonomics and the constraints of question answering systems, faced with the Web search engines.", "Question Answering system, information retrieval, Question Answering evaluation, answer extraction, Web search strategy, QRISTAL" ]
taln-2005-long-007
Morphosémantique pour l'appariement de termes dans le vocabulaire médical : approche multilingue
Cet article s'intéresse à la manière dont la morphosémantique peut contribuer à l'appariement multilingue de variantes terminologiques entre termes. L'approche décrite permet de relier automatiquement entre eux les noms et adjectifs composés savants d'un corpus spécialisé en médecine (synonymie, hyponymie, approximation). L'acquisition de relations lexicales est une question particulièrement cruciale lors de l'élaboration de bases de données et de systèmes de recherche d'information multilingues. La méthode est applicable à au moins cinq langues européennes dont elle exploite les caractéristiques morphologiques similaires des mots composés dans les langues de spécialité. Elle consiste en l'intéraction de trois dispositifs : (1) un analyseur morphosémantique monolingue, (2) une table multilingue qui définit des relations de base entre les racines gréco-latines des lexèmes savants, (3) quatre règles indépendantes de la langue qui infèrent, à partir de ces relations de base, les relations lexicales entre les lexèmes contenant ces racines. L'approche décrite est implémentée en français, où l'on dispose d'un analyseur morphologique capable de calculer la définition de mots construits inconnus à partir du sens de ses composants. Le corpus de travail est un lexique spécialisé médical d'environ 29000 lexèmes, que le calcul des relations de synonymie, hyponymie et approximation a permis de regrouper en plus de 3000 familles lexicales.
[ "multilinguisme", "relation lexicale", "morphologie", "sémantique", "composition savante", "terminologie médicale" ]
[ "P", "P", "P", "U", "M", "R" ]
[ "", "This paper addresses the issue of the interaction between morphosemantics and term variants extraction. The described method enables neoclassical compound nouns and adjectives of a biomedical specialized corpus to be automatically related by synonymy, hyponymy and approximation links. Acquiring lexical relations is a particularly crucial issue when elaborating multilingual databases and when developing cross-language information retrieval systems. This method can be applied at least to five European languages and exploits the similarity between the morphological characteristics of compound words in specialized domains. It requires the interaction of three techniques: (1) a language-specific morphosemantic parser, (2) a multilingual table defining basic relations between word roots, and (3) a set of language-independant rules to draw up the list of related terms. This approach has been fully implemented for French, on an about 29,000 terms biomedical lexicon, resulting to more than 3,000 lexical families.", "morphology, semantics, multilingualism, neoclassical compounding, lexical relation, medical terminology" ]
taln-2005-long-008
Extraction semi-supervisée de couples d'antonymes grâce à leur morphologie
Dans le cadre de la recherche sur la représentation du sens en Traitement Automatique des Langues Naturelles, nous nous concentrons sur la construction d’un système capable d’acquérir le sens des mots, et les relations entre ces sens, à partir de dictionnaires à usage humain, du Web ou d’autres ressources lexicales. Pour l’antonymie, il n’existe pas de listes séparant les antonymies complémentaire, scalaire et duale. Nous présentons dans cet article une approche semi-supervisée permettant de construire ces listes. Notre méthode est basée sur les oppositions de nature morphologique qui peuvent exister entre les items lexicaux. À partir d’un premier ensemble de couples antonymes, elle permet non seulement de construire ces listes mais aussi de trouver des oppositions morphologiques. Nous étudions les résultats obtenus par cette méthode. En particulier, nous présentons les oppositions de préfixes ainsi découvertes et leur validité sur le corpus puis nous discutons de la répartition des types d’antonymie en fonction des couples opposés de préfixes.
[ "antonymie", "morphologie", "antonymie complémentaire", "antonymie scalaire", "antonymie duale", "répartition statistique" ]
[ "P", "P", "P", "R", "R", "M" ]
[ "", "In the framework of meaning representation in Natural Language Processing, we focus on enabling a system to autonomously learn word meanings and semantic relations from user dictionaries, web contents and other lexical resources. For antonymy, as a lexical semantic relation, no resource provides distinctions between complementary, scalar and dual antonymies. In this paper, we present a semi-supervized method to collate such lists, based on operating morphological opposition holding between lexical items. The approach presented here starts from a bootstraped initial list. It is able to augment such lists but also to find out morphological oppositions. We scrutinize the obtained results and discuss the distribution of antonymy types.", "antonymy, morphology, complementar antonymy, scalar antonymy, dual antonymy, statistic distribution" ]
taln-2005-long-009
Utilisation de corpus de spécialité pour le filtrage de synonymes de la langue générale
Les ressources linguistiques les plus facilement disponibles en TAL ressortissent généralement au registre général d’une langue. Lorsqu’elles doivent être utilisées sur des textes de spécialité il peut être utile de les adapter à ces textes. Cet article est consacré à l’adaptation de ressources synonymiques générales à la langue médicale. L’adaptation est obtenue suite à une série de filtrages sur un corpus du domaine. Les synonymes originaux et les synonymes filtrés sont ensuite utilisés comme une des ressources pour la normalisation de variantes de termes dans une tâche de structuration de terminologie. Leurs apports respectifs sont évalués par rapport à la structure terminologique de référence. Cette évaluation montre que les résultats sont globalement encourageants après les filtrages, pour une tâche comme la structuration de terminologies : une amélioration de la précision contre une légère diminution du rappel.
[ "filtrage", "synonymes", "langue générale", "structuration de terminologies", "Langue de spécialité", "portabilité" ]
[ "P", "P", "P", "P", "R", "U" ]
[ "", "General language resources are often more easily available for NLP applications. When using them to process specialized texts it might be useful to adapt them to these texts. This paper describes experiments in adapting general language synonymous resources to the medical domain. A set of filtering methods through a domain corpora is applied. Original and filtered synonyms are then used for normalizing term variation in a terminology structuring task. Their relative contributions are evaluated in comparison with the original structure of the reference terminology. This evaluation shows that the overall results are encouraging, as for the terminology structuring task : improvement of precision while recall is slightly decreased.", "Specialized language, general language, terminology structuring, synonyms, portability, filtering" ]
taln-2005-long-010
Combiner analyse superficielle et profonde : bilan et perspectives
L’analyse syntaxique reste un problème complexe au point que nombre d’applications n’ont recours qu’à des analyseurs superficiels. Nous faisons dans cet article le point sur les notions d’analyse superficielles et profondes en proposant une première caractérisation de la notion de complexité opérationnelle pour l’analyse syntaxique automatique permettant de distinguer objets et relations plus ou moins difficiles à identifier. Sur cette base, nous proposons un bilan des différentes techniques permettant de caractériser et combiner analyse superficielle et profonde.
[ "analyse superficielle", "Analyse syntaxique", "analyse profonde" ]
[ "P", "P", "R" ]
[ "", "Deep parsing remains a problem for NLP so that many applications has to use shallow parsers. We propose in this paper a presentation of the different characteristics of shallow and deep parsing techniques relying on the notion of operational complexity. We present different approaches combining these techniques and propose a new approach making it possible to use the output of a shallow parser as the input of a deep one.", "Parsing, shallow and deep parsing" ]
taln-2005-long-011
Chaînes de traitement syntaxique
Cet article expose l’ensemble des outils que nous avons mis en oeuvre pour la campagne EASy d’évaluation d’analyse syntaxique. Nous commençons par un aperçu du lexique morphologique et syntaxique utilisé. Puis nous décrivons brièvement les propriétés de notre chaîne de traitement pré-syntaxique qui permet de gérer des corpus tout-venant. Nous présentons alors les deux systèmes d’analyse que nous avons utilisés, un analyseur TAG issu d’une méta-grammaire et un analyseur LFG. Nous comparons ces deux systèmes en indiquant leurs points communs, comme l’utilisation intensive du partage de calcul et des représentations compactes de l’information, mais également leurs différences, au niveau des formalismes, des grammaires et des analyseurs. Nous décrivons ensuite le processus de post-traitement, qui nous a permis d’extraire de nos analyses les informations demandées par la campagne EASy. Nous terminons par une évaluation quantitative de nos architectures.
[ "évaluation", "Analyse syntaxique" ]
[ "P", "P" ]
[ "", "This paper presents the set of tools we used for the EASy parsing evaluation campaign. We begin with an overview of the morphologic and syntactic lexicon we used. Then we briefly describe the properties of our pre-syntactic processing that allows us to deal with real-life corpus. Afterwards, we introduce the two parsers we used, namely a TAG parser based on a meta-grammar and an LFG parser. We compare these parsers, showing their common points, e.g., the extensive use of tabulation and compact representation techniques, but also their differences, concerning formalisms, grammars and parsers. We then describe the postprocessing that allowed us to extract from our analyses the data required by the EASy campaign. We conclude with a quantitative evaluation of our architectures.", "Parsing, Evaluation" ]
taln-2005-long-012
Direkt Profil : un système d'évaluation de textes d'élèves de français langue étrangère fondé sur les itinéraires d'acquisition
Direkt Profil est un analyseur automatique de textes écrits en français comme langue étrangère. Son but est de produire une évaluation du stade de langue des élèves sous la forme d’un profil d’apprenant. Direkt Profil réalise une analyse des phrases fondée sur des itinéraires d’acquisition, i.e. des phénomènes morphosyntaxiques locaux liés à un développement dans l’apprentissage du français. L’article présente les corpus que nous traitons et d’une façon sommaire les itinéraires d’acquisition. Il décrit ensuite l’annotation que nous avons définie, le moteur d’analyse syntaxique et l’interface utilisateur. Nous concluons par les résultats obtenus jusqu’ici : sur le corpus de test, le système obtient un rappel de 83% et une précision de 83%.
[ "évaluation", "français langue étrangère", "itinéraires d’acquisition", "annotation", "analyse syntaxique partielle" ]
[ "P", "P", "P", "P", "M" ]
[ "", "Direkt Profil is an automatic analyzer of texts written in French as a second language. The objective is to produce an evaluation of the development stage of the students under the form of a learner profile. Direkt Profil carries out a sentence analysis based on developmental sequences, i.e. local morphosyntactic phenomena linked to a development in the learning of French. The paper presents the corpus that we use and briefly, the developmental sequences. Furthermore, it describes the annotation that we have defined, the parser, and the user interface. We conclude by the results obtained so far: on the test corpus the systems obtains a recall of 83% and a precision of 83%.", "second language French, developmental sequences, evaluation, annotation, partial parsing" ]
taln-2005-long-013
ILIMP: Outil pour repérer les occurences du pronom impersonnel il
Nous présentons un outil, ILIMP, qui prend en entrée un texte brut (sans annotation linguistique) rédigé en français et qui fournit en sortie le texte d'entrée où chaque occurrence du pronom il est décorée de la balise [ANAphorique] ou [IMPersonnel]. Cet outil a donc comme fonctionnalité de distinguer les occurrences anaphoriques du pronom il, pour lesquelles un système de résolution des anaphores doit chercher un antécédent, des occurrences où il est un pronom impersonnel (explétif) pour lequel la recherche d'antécédent ne fait pas sens. ILIMP donne un taux de précision de 97,5%. Nous présentons une analyse détaillée des erreurs et nous décrivons brièvement d'autres applications potentielles de la méthode utilisée dans ILIMP, ainsi que l’utilisation et le positionnement d’ILIMP dans un système d’analyse syntaxique modulaire.
[ "Pronom impersonnel (explétif)", "Analyse syntaxique modulaire", "Pronom anaphorique", "Lexique-grammaire", "Automates", "Résolution d'anaphores" ]
[ "P", "P", "R", "U", "U", "R" ]
[ "", "We present a tool, ILIMP, which takes as input a French raw text and which produces as output the input text in which every occurrence of the word il is tagged either with the tag [ANA] for anaphoric or [IMP] for expletive. This tool is therefore designed to distinguish the anaphoric occurrences of il, for which an anaphora resolution system has to look for an antecedent, from the expletive occurrences of this pronoun, for which it does not make sense to look for an antecedent. The precision rate for ILIMP is 97,5%. The few errors are analyzed in detail. Other tasks using the method for ILIMP are described briefly, as well as the use of ILIMP in a modular syntactic analysis system.", "Expletive pronouns, Anaphoric pronouns, Lexicon-Grammar, Automata, Anaphora resolution, Modular syntactic analysis" ]
taln-2005-long-014
Que : la valse des étiquettes
Nous présentons ici une stratégie d’étiquetage et d’analyse syntaxique de que. Cette forme est en effet susceptible d’appartenir à trois catégories différentes et d’avoir de multiples emplois pour chacune de ces catégories. Notre objectif est aussi bien d’en assurer un étiquetage correct que d’annoter les relations de dépendance que que entretient avec les autres mots de la phrase. Les deux étapes de l’analyse mobilisent des ressources différentes.
[ "Analyse syntaxique automatique", "étiquetage morphosyntaxique" ]
[ "M", "M" ]
[ "", "In this paper I present a method for tagging and parsing the grammatical word que. This word is particularly difficult to tag because it may belong to three different categories and may give rise to many constructions for each category. My aim is to assign the correct tag and to annotate dependency relations between que and the other words of the sentence.", "Automatic parsing, tagging" ]
taln-2005-long-015
Un système Multi-Agent pour la détection et la correction des erreurs cachées en langue Arabe
Cet article s’intéresse au problème des erreurs orthographiques produisant des mots lexicalement corrects dans des textes en langue arabe. Après la description de l’influence des spécificités de la langue arabe sur l’augmentation du risque de commettre ces fautes cachées, nous proposons une classification hiérarchique de ces erreurs en deux grandes catégories ; à savoir syntaxique et sémantique. Nous présentons, également, l’architecture multi-agent que nous avons adoptée pour la détection et la correction des erreurs cachées en textes arabes. Nous examinons alors, les comportements sociaux des agents au sein de leurs organisations respectives et de leur environnement. Nous exposons vers la fin la mise en place et l’évaluation du système réalisé.
[ "Détection", "Correction", "Langue arabe", "Erreurs orthographiques cachées", "Système multiagent", "Analyse linguistique" ]
[ "P", "P", "P", "R", "M", "U" ]
[ "", "In this paper, we address the problem of detecting and correcting hidden spelling errors in Arabic texts. Hidden spelling errors are morphologically valid words and therefore they cannot be detected or corrected by conventional spell checking programs. In the work presented here, we investigate this kind of errors as they relate to the Arabic language. We start by proposing a classification of these errors in two main categories: syntactic and semantic, then we present our multi-agent system for hidden spelling errors detection and correction. The multi-agent architecture is justified by the need for collaboration, parallelism and competition, in addition to the need for information exchange between the different analysis phases. Finally, we describe the testing framework used to evaluate the system implemented.", "Hidden spelling errors, Detection, Correction, Multi-Agent System, Linguistic analysis, Arabic language" ]
taln-2005-long-016
Structure des représentations logiques et interface sémantique-syntaxe
Cet article s’intéresse à la structure des représentations logiques des énoncés en langue naturelle. Par représentation logique, nous entendons une représentation sémantique incluant un traitement de la portée des quantificateurs. Nous montrerons qu’une telle représentation combine fondamentalement deux structures sous-jacentes, une structure « prédicative » et une structure hiérarchique logique, et que la distinction des deux permet, par exemple, un traitement élégant de la sous-spécification. Nous proposerons une grammaire polarisée pour manipuler directement la structure des représentations logiques (sans passer par un langage linéaire avec variables), ainsi qu’une grammaire pour l’interface sémantique-syntaxe.
[ "représentation sémantique", "quantificateur", "Logique du premier ordre", "calcul des prédicats", "relation prédicatargument", "grammaire d’unification polarisée", "grammaire de dépendance", "dag", "interface syntaxe-sémantique" ]
[ "P", "P", "M", "M", "U", "M", "M", "U", "M" ]
[ "", "This paper aims at the structure of logic representations in natural languages. By logic representation we mean a semantic representation including a quantifier scope processing. We show that such a representation basically combines two underlying substructures, a “predicative” structure and a logic hierarchic structure, and that the identification of the two allows for an elegant processing of underspecification. We will propose a polarized grammar that directly handles the structure of logic representations (without using a linear language with variables), as well as a grammar for the semantics-syntax interface.", "First order logic, predicate calculus, semantic representation, predicate-argument relation, quantifier, polarized unification grammar, dependency grammar, dag, syntax-semantics interface" ]