id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
taln-2006-poster-028
L’influence du contexte sur la compréhension de la parole arabe spontanée
Notre travail s’intègre dans le cadre du projet intitulé « Oréodule » : un système de reconnaissance, de traduction et de synthèse de la langue arabe. L’objectif de cet article est d’essayer d’améliorer le modèle probabiliste sur lequel est basé notre décodeur sémantique de la parole arabe spontanée. Pour atteindre cet objectif, nous avons décidé de tester l’influence de l’utilisation du contexte pertinent, et de l’intégration de différents types de données contextuelles sur la performance du décodeur sémantique employé. Les résultats sont satisfaisants.
[ "modèle probabiliste", "contexte pertinent", "analyse sémantique", "extraction automatique", "information mutuelle moyenne" ]
[ "P", "P", "M", "U", "U" ]
[ "", "This work is part of a larger research project entitled « Oréodule » aiming to develop tools for automatic speech recognition, translation, and synthesis for the Arabic language. The core of our interest in this work is in improving the probabilistic model on which our semantic decoder rests. To achieve this goal, we tested the influence of the pertinent context use, and of the contextual data integration of different types, on the effectiveness of the semantic decoder. The results are satisfactory.", "semantic analysis, probabilistic model, automatic extraction, pertinent context, overage mutual information" ]
taln-2006-tutoriel-001
Analogie en traitement automatique des langues. Application à la traduction automatique
On se place ici dans la tendance actuelle en traitement automatique des langues, celle à base de corpus et aussi dans une perspective que l’on peut qualifier d’approche à moindre effort : il s’agit d’examiner les limites des possibilités de traitement à partir de données textuelles brutes, c’est-à-dire non pré-traitées. L’interrogation théorique présente en arrière-plan est la suivante : quelles sont les opérations fondamentales en langue ? L’analogie proportionnelle a été mentionnée par de nombreux grammairiens et linguistes. On se propose de montrer l’efficacité d’une telle opération en la testant sur une tâche dure du traitement automatique des langues : la traduction automatique. On montrera aussi les bonnes conséquences de la formalisation d’une telle opération avec des résultats théoriques en théorie des langages en relation avec leur adéquation à la description des langues. De cette façon, une opération fondamentale en langue, l’analogie proportionnelle, se verra illustrée tant par ses aspects théoriques que par ses performances en pratique.
[ "Analogie", "traduction automatique", "proportion", "chaîness de symboles", "divergences entre langues" ]
[ "P", "P", "U", "M", "M" ]
[ "", "We position ourselves in the current trend of Natural Language Processing, i.e., corpus-based approach and “least effort” approach.We shall inquire how far it is possible to go without any preprocessing of raw data. The theoretical question in the background is: which operations are fundamental in language? Proportional analogy has been mentionned by many grammarians and linguists. We shall inspect the efficiency of such an operation by testing it against a difficult task of NLP: machine translation. We shall also show some good properties brought by the formalisation of such an operation with theoretical results in formal language theory and the adequacy of analogy with the description of natural languages. To summarize, we shall illustrate an operation that is fundamental in language in its theoretical aspects as well as in its practical peformance.", "Analogy, proportion, strings of symbols, machine translation,divergences across languages" ]
taln-2001-long-001
Un corpus français arboré : quelques interrogations
Dans cet article nous présentons les premiers résultats de l’exploitation d’un Corpus français arboré (Abeillé et al., 2001). Le corpus comprend 1 million de mots entièrement annotés et validé pour les parties du discours, la morphologie, les mots composés et les lemmes, et partiellement annotés pour les constituants syntaxiques. Il comprend des extraits de journaux parus entre 1989 et 1993 et écrits par divers auteurs, et couvre différents thèmes (économie, littérature, politique, etc.). Après avoir expliqué comment ce corpus a été construit, et comment l’exploiter à l’aide d’un outil de recherche spécifique, nous exposerons quelques résultats linguistiques concernant les fréquences et les préférences lexicales et syntaxiques. Nous expliquerons pourquoi nous pensons que certains de ces résultats sont pertinents en linguistique théorique et en psycholinguistique.
[ "français", "syntaxe", "Corpus arboré", "corpus journalistique" ]
[ "P", "P", "R", "M" ]
[ "", "This paper presents the first linguistic results exploiting a new treebank for French (Abeillé et al., 2001). The corpus comprises 1 million words fully annotated and disambiguated for parts of speech, inflectional morphology, compounds and lemmas, and partially annotated with syntactic constituents. It is made of extracts from newspapers ranging from 1989 to 1993 and written by different authors, and covers a variety of subjects (economy, literature, politics, etc.). After explaining how this corpus was built, and how it can be used with a specific search tool, we present some linguistic results obtained when searching the corpus for lexical or syntactic frequencies and preferences, and explain why we think some of these results are relevant both for theoretical linguistics and psycholinguistics.", "Treebank, French, Newspaper corpora, syntax" ]
taln-2001-long-002
Représenter le temps en langue dans le formalisme des graphes conceptuels une approche basée sur les schèmes sémantico-cognitifs
L’objectif de notre travail est de construire une représentation sémantique d’un corpus de textes français au sein des graphes conceptuels simples. Notre conceptualisation est fondée sur les Schèmes Sémantico-Cognitifs et la théorie aspecto-temporelle introduits par J. P. Desclés. Un texte est représenté par deux structures. La première modélise la représention semanticocognitive des propositions du texte, et la seconde le diagramme temporel exprimant les contraintes temporelles entre les différentes situations décrites dans le texte. La prise en compte de ces deux structures et des liens qu’elles entretiennent nous a amenés à modifier le modèle des graphes conceptuels simples et à envisager les modes d’interaction entre temps, aspect (grammatical) et significations des lexèmes verbaux.
[ "Graphes Conceptuels", "Schèmes Sémantico-Cognitifs", "Temps linguistique", "Valeurs Aspectuelles" ]
[ "P", "P", "M", "U" ]
[ "", "We propose here a system which deals with time, aspect and verbal meanings in natural language processing within Simple Conceptual Graphs on the basis of the Semantico-Cognitive Schemes and the aspecto-temporal theory both introduced by J-P. Desclés. Our work bears on French texts. A text is represented by two different structures both represented within the SCG model. The first one models the semantico-cognitive representation while the second one is the temporal diagram representing the temporal constraints between the situations described in the text. Linking these structures leads us to slightly extend the original SCG model.", "Linguistic time, Aspectual values, Semantico-Cognitive Schemes, Conceptual graphs" ]
taln-2001-long-003
Aides à l'analyse pour la construction de banque d’arbres : étude de l'effort
La construction de banque d’arbres est une entreprise lourde qui prend du temps. Pour faciliter cette construction, nous voyons la construction de banques d’arbres comme une série d’opérations d’édition et de recherche. Le but de cet article est d’estimer l’effort, en nombre d’opérations d’éditions, nécessaire pour ajouter une nouvelle phrase dans la banque d’arbres. Nous avons proposé un outil, Boardedit, qui inclut un éditeur d’arbres et des aides a l’analyse. Comme l’effort nécessaire dépend bien sûr de la qualité des réponses fournies par les aides a l’analyse, il peut être vue comme une mesure de la qualité de ces aides. L’éditeur d’arbres restant indispensable a notre outil pendant l’eXpérience, les aides a l’analyse seront donc toujours associées a l’éditeur d’arbres. Dans l’eXpérience proposée, nous augmentons une banque d’arbres de 5 000 phrases par l 553 nouvelles phrases. La réduction obtenue est supérieure auX 4/5 de l’effort.
[ "Banque d’arbres", "éditeur d’arbres", "analogie", "filtrage tolérant", "mesure de l’effort" ]
[ "P", "P", "U", "U", "R" ]
[ "", "The construction of a treebank is a Very cumbersome and time-comsuming process. To speed up this process, we see the process of building a treebank as a sequence of edition and search operations. Our purpose is to assess the effort, measured by operations (cliks and keystrokes), needed to augment a treebank. We have proposed a tool, Boardedit, which incorporates a tree editor and parsing aids. However, the effort needed will depend on the quality of the answer of the parsing aids, this can be seen as a measure of the quality of the parsing aids. Our tree editor is essential for our tools during this experiment, parsing aids will be always used with the tree editor. In the experiment, we augment a tree-bank of 5 000 sentences with 1 553 new sentences. We show that the reduction in the number of operations is more than 4/5 of the effort.", "Treebank, analogy, approximate matching, tree editor, tree-banking assessment" ]
taln-2001-long-004
Atelier ATOLL pour les grammaires d’arbres adjoints
Cet article présente l’environnement de travail que nous développons au sein de l’équipe ATOLL pour les grammaires d’arbres adjoints. Cet environnement comprend plusieurs outils et ressources fondés sur l’emploi du langage de balisage XML. Ce langage facilite la mise en forme et l’échange de ressources linguistiques.
[ "XML", "Ressources linguistiques", "TAG" ]
[ "P", "P", "U" ]
[ "", "This paper presents the ATOLL workbench for Tree Adjoining Grammars. This workbench provides several tools and resources based on the use of the markup language XML which eases the construction and the exchange of linguistic resources.", "" ]
taln-2001-long-006
Intégration probabiliste de sens dans la représentation de textes
Le sujet du présent article est l’intégration des sens portés par les mots en contexte dans une représentation vectorielle de textes, au moyen d’un modèle probabiliste. La représentation vectorielle considérée est le modèle DSIR, qui étend le modèle vectoriel (VS) standard en tenant compte à la fois des occurrences et des co-occurrences de mots dans les documents. L’intégration des sens dans cette représentation se fait à l’aide d’un modèle de Champ de Markov avec variables cachées, en utilisant une information sémantique dérivée de relations de synonymie extraites d’un dictionnaire de synonymes.
[ "Représentation Vectorielle", "Champs de Markov", "Désambiguïsation", "Sémantique Distributionnelle", "Recherche Documentaire", "algorithme EM" ]
[ "P", "P", "U", "M", "U", "U" ]
[ "", "The present contribution focuses on the integration of word senses in a vector representation of texts, using a probabilistic model. The vector representation under consideration is the DSIR model, that extends the standard Vector Space (VS) model by taking into account both occurrences and co-occurrences of words. The integration of word senses into the co-occurrence model is done using a Markov Random Field model with hidden variables, using semantic information derived from synonymy relations extracted from a synonym dictionary.", "Word Sense Disambiguation, Distributional Semantics, Vector Space Representation, Information Retrieval, Markov Random Fields, EM algorithm" ]
taln-2001-long-007
Les n-grams de caractères pour l'aide à l’extraction de connaissances dans des bases de données textuelles multilingues
Une véritable classification numérique multilingue est impossible si on considère seulement le mot comme unité d’information privilégiée. En traitant les mots comme jetons, la tokenisation s’avère relativement simple pour le français et l’anglais, mais très difficile pour des langues comme l’allemand ou l’arabe. D’autre part, la lemmatisation utilisée comme moyen de normalisation et de réduction du lexique constitue un écueil non moins négligeable. La notion de n-grams, qui depuis une décennie donne de bons résultats dans Pidentification de la langue ou dans l’analyse de l’oral, est, par les recherches récentes, devenue un axe privilégié dans l’acquisition et l’extraction des connaissances dans les textes. Dans cet article, nous présenterons un outil de classification numérique basé sur le concept de n-grams de caractères. Nous évaluons aussi les résultats de cet outil que nous comparons à des résultats obtenus au moyen d’une classification fondée sur des mots.
[ "n-grams", "multilinguisme", "classification numérique de textes" ]
[ "P", "P", "R" ]
[ "", "Real multilingual numerical classification is impossible if only words are treated as the privileged unit of information. Although it makes tokenisation (in which words are considered as tokens) relatively easy in English or French, it makes it much more difficult for other languages such as German or Arabic. Moreover, lemmatisation, typically used to normalise and reduce the size of the lexicon, poses another challenge. The notion of n-grams which, for the last ten years, seems to have produced good results both in language identification and speech analysis, has recently become a privileged research axis in several areas of knowledge acquisition and extraction from text. In this paper, we present a text classification tool based on n-grams of characters and evaluate its results and compare them with those obtained from a different classification tool based solely on the processing of words.", "" ]
taln-2001-long-009
L'interrogation de bases de données comme application des classes d'objets
En travaillant sur l'interrogation de bases de données en langue naturelle, nous sommes amenés à exploiter les propositions du Laboratoire de Linguistique Informatique (LLI) en matière de représentation de la langue : les classes d'objets. Un outil d'interrogation définit une application du langage vers le modèle de l'information stockée. Ici les classes d'objets et leurs prédicats appropriés modélisent le langage source, tandis que le modèle relationnel sert pour les données interrogées. Nous présentons d'abord ce contexte d'application, puis comment nous utilisons les classes d'objets et prédicats appropriés dans ce cadre.
[ "classes d'objets", "modèle relationnel", "interrogation de BD en langage naturel" ]
[ "P", "P", "M" ]
[ "", "We investigate how to use natural language to query a database from both the linguistic and database points of view (but without AI considerations). In order to achieve this goal, we need a natural language model which we can map on to a relational database model. We have chosen to use the word classification called « classes d'objets » as proposed by the Laboratoire de Linguistique Informatique (LLI). We present here the first results of this work.", "natural language database query, relational model, « classes d'objets »" ]
taln-2001-long-010
Etiquetage prosodique semi-automatique des corpus oraux
La transcription manuelle de la prosodie est une tâche extrêmement coûteuse en temps, qui requiert des annotateurs très spécialisés, et qui est sujette à de multiples erreurs et une grande part de subjectivité. Une automatisation complète n’est pas envisageable dans l’état actuel de la technologie, mais nous présentons dans cette communication des outils et une méthodologie qui permettent une réduction substantielle du temps d’intervention manuelle, et améliorent l’objectivité et la cohérence du résultat. De plus, les étapes manuelles nécessaires ne demandent pas une expertise phonétique poussée et peuvent être menées à bien par des étudiants et des "linguistes de corpus".
[ "prosodie", "corpus", "étiquetage" ]
[ "P", "P", "U" ]
[ "", "The manual transcription of prosody is an extremely time-consuming activity, which requires highly specialised experts, and is prone to errors and subjectivity. Full automation is not achievable in the current state of the technology, but we present in this paper a technique that automates critical steps in the process, which results in a substantial annotation time reduction, and improves the objectivity and coherence of the annotation. In addition, the necessary human phases do not require a highly specific training in phonetics, and can be achieved by syntax students and corpus workers.", "corpus, prosody, tagging" ]
taln-2001-long-013
Utilisation des entités nommées et des variantes terminologiques dans un système de question-réponse
Nous présentons dans cet article le système QALC qui a participé à la tâche Question Answering de la conférence d’évaluation TREC. Ce système repose sur un ensemble de modules de Traitement Automatique des Langues (TAL) intervenant essentiellement en aval d’un moteur de recherche opérant sur un vaste ensemble de documents : typage des questions, reconnaissance des entités nommées, extraction et reconnaissance de termes, simples et complexes, et de leurs variantes. Ces traitements permettent soit de mieux sélectionner ces documents, soit de décider quelles sont les phrases susceptibles de contenir la réponse à une question.
[ "entité nommée", "variante terminologique", "Système de question-réponse", "recherche d'information" ]
[ "P", "P", "P", "M" ]
[ "", "We developed a system, QALC, that participated to the Question Answering track of the TREC evaluation conference. QALC exploits an analysis of documents, selected by a search engine, based on the search for multi-words terms and their variations both to select a minimal number of documents to be processed and to give indices for comparing question and sentence representations. This comparison also takes advantage of a question analysis module and a recognition of numeric and named entities in the documents.", "" ]
taln-2001-long-014
Repérage de structures thématiques dans des textes
Afin d’améliorer les performances des systèmes de résumé automatique ou de filtrage sémantique concernant la prise en charge de la cohérence thématique, nous proposons un modèle faisant collaborer une méthode d'analyse statistique qui identifie les ruptures thématiques avec un système d'analyse linguistique qui identifie les cadres de discours.
[ "cohérence thématique", "Cadre thématique", "exploration contextuelle" ]
[ "P", "R", "U" ]
[ "", "To improve the results of automatic summarization or semantic filtering systems concerning thematic coherence, we propose a model which combines a statistic analysis system identifying thematic breaks and a linguistic analysis system identifying discourse frames.", "" ]
taln-2001-long-015
Influence de facteurs stylistiques, syntaxiques et lexicaux sur la réalisation de la liaison en français
Les nombreuses recherches portant sur le phénomène de la liaison en français ont pu mettre en évidence l’influence de divers paramètres linguistiques et para-linguistiques sur la réalisation des liaisons. Notre contribution vise à déterminer la contribution relative de certains de ces facteurs en tirant parti d’une méthodologie robuste ainsi que d’outils de traitement automatique du langage. A partir d’un corpus de 5h de parole produit par 10 locuteurs, nous étudions les effets du style de parole (lecture oralisée/parole spontanée), du débit de parole (lecture normale/rapide), ainsi que la contribution de facteurs syntaxiques et lexicaux (longueur et fréquence lexicale) sur la réalisation de la liaison. Les résultats montrent que si plusieurs facteurs étudiés prédisent certaines liaisons, ces facteurs sont souvent interdépendants et ne permettent pas de modéliser avec exactitude la réalisation des liaisons.
[ "liaison", "lecture", "spontané", "débit de parole", "longueur", "fréquence lexicale" ]
[ "P", "P", "P", "P", "P", "P" ]
[ "", "Various studies on liaison phenomena in French have shown the influence of several linguistics as well as para-linguistics factors on liaison realization. In this study we aim at determining the relative contribution of certain of these factors by using a robust methodology and tools used in automatic language processing. In a 5 hours speech corpus, produced by 10 speakers, we study the effect of speech style (oral reading/spontaneous speech), speech rate, as well as the contribution of syntactic and lexical (word length and frequency) factors on liaison realization. Results show that even if several factors can contribute to predict some liaisons, these factors are often interdependant and do not allow a sufficient prediction of liaison realization.", "" ]
taln-2001-long-016
Elaboration d'une cascade de transducteurs pour l'extraction des noms de personnes dans les textes
Cet article décrit une cascade de transducteurs pour l'extraction de noms propres dans des textes. Après une phase de pré-traitement (découpage du texte en phrases, étiquetage à l'aide de dictionnaires), une série de transducteurs sont appliqués les uns après les autres sur le texte et permettent de repérer, dans les contextes gauches et droits des éléments "déclencheurs" qui signalent la présence d'un nom de personne. Une évaluation sur un corpus journalistique (journal Le Monde) fait apparaître un taux de précision de 98,7% pour un taux de rappel de 91,9%.
[ "Transducteur", "noms propres", "extraction de motifs" ]
[ "P", "P", "M" ]
[ "", "This article describes a fmite-state cascade for proper nouns extraction in texts. After a preprocessing (division of the text in sentences, tagging with dictionaries, etc.), a series of finite state transducers cascade is applied one after the other to the text and locate left and right contexts which indicate presence of a person name. An evaluation on a journalistic corpus (Le Monde) gives a rate of precision of 98,7% for a rate of recall of 91,9%.", "Transducer, proper nouns, pattern extraction" ]
taln-2001-long-017
Extraction automatique de motifs syntaxiques
Cet article présente un nouvel algorithme de détection de motifs syntaxiques récurrents dans les textes écrits en langage naturel. Il décrit d’abord l’algorithme d’extraction fondé sur un modèle d’édition généralisé à des arbres stratifiés ordonnés (ASO). Il décrit ensuite les expérimentations qui valident l’approche préconisée sur des textes de la littérature française classique des XVIIIe et XIXe siècle. Une sous-partie est consacrée à l’évaluation empirique de la complexité algorithmique. La dernière sous-partie donnera quelques exemples de motifs récurrents typiques d’un auteur du XVIIIe siècle, Madame de Lafayette.
[ "arbres stratifiés ordonnés", "Extraction de motifs", "distances d'édition", "séquences" ]
[ "P", "R", "M", "U" ]
[ "", "This paper presents a new algorithm designed to detect recurrent syntactical patterns in natural language texts. It first describes the pattern extraction algorithm which is based on an edit model generalized to Stratified Ordered Trees (SOT). Then it focuses on experiments with french classical literature of the 18th and 19th century. One section is dedicated to the efficiency evaluation. The last provides some examples of such recurrent patterns that are typical of an 18th century author, Madame de Lafayette.", "Pattern extraction, stratified ordered trees, edit distance, sequences" ]
taln-2001-long-018
Compréhension Automatique de la Parole combinant syntaxe locale et sémantique globale pour une CHM portant sur des tâches relativement complexes
Nous présentons dans cet article un système de Compréhension Automatique de la Parole (CAP) tentant de concilier les contraintes antinomiques de robustesse et d’analyse détaillée de la parole spontanée. Dans une première partie, nous montrons l’importance de la mise en oeuvre d’une CAP fine dans l’optique d’une Communication Homme-Machine (CHM) sur des tâches moyennement complexes. Nous présentons ensuite l’architecture de notre système qui repose sur une analyse en deux étapes : une première étape d’analyse syntaxique de surface (Shallow Parsing) générique suivie d’une seconde étape d’analyse sémantico-pragmatique – dépendante du domaine d’application – de la structure profonde de l’´enoncé complet.
[ "Compréhension Automatique de la Parole", "robustesse", "Communication Homme-Machine", "analyse syntaxique partielle", "grammaires de dépendances" ]
[ "P", "P", "P", "M", "M" ]
[ "", "This paper presents a spoken french understanding system which aims at providing a detailed linguistic analysis as well as preserving the robustness of standard methods. The first part focusses on the importance of a richer analysis for applications that are not dedicated to a very restricted task. We then present our two-level architecture system : a robust independant-domain shallow parsing step followed by a task based analysis of the whole structure of the utterance.", "Man Machine Dialogue, speech understanding, robustness, shallow parsing, dependency grammars" ]
taln-2001-long-019
Exploitation de l’expertise humaine dans un processus de constitution de terminologie
Le processus de construction de terminologie ne peut être entièrement automatisé. Les méthodes et des outils de la terminologie computationnelle permettent de prendre en charge une partie de la tâche, mais l’expertise humaine garde une place prépondérant. Le défi pour les outils terminologiques est de dégrossir les tâches qui sont soit trop longues soit trop complexes pour l’utilisateur tout en permettant à ce dernier d’intégrer ses propres connaissances spécialisées et en lui laissant le contrôle sur la terminologie à construire. Nous montrons ici comment le rôle de cette expertise est pris en compte dans SynoTerm, l’outil d’acquisition de relation de synonymie entre termes que nous avons d´eveloppé.
[ "synonymie", "Structuration de terminologie", "aide à la validation" ]
[ "P", "M", "M" ]
[ "", "The terminology building process cannot be fully automatized. Various terminological tools have been designed but human expert knoxledge is still required. This paper shows how SynoTerm, our system for the discovery of synonymy relations between terms, deals with human knowledge. The challenge for terminological tools is to complete the time-consuming tasks under human control and to combine the algorithmic results with human specific information.", "" ]
taln-2001-long-020
Analogies morpho-synonymiques. Une méthode d’acquisition automatique de liens morphologiques à partir d’un dictionnaire de synonymes
Cet article présente une méthode de construction automatique de liens morphologiques à partir d’un dictionnaire de synonymes. Une analyse de ces liens met en lumière certains aspects de la structure morphologique du lexique dont on peut tirer partie pour identifier les variations allomorphiques des suffixations extraites.
[ "analogie", "morphologie dérivationnelle", "structure du lexique" ]
[ "P", "M", "R" ]
[ "", "We present a method to extract morphological links from a synonym dictionary without supervision. The analysis of these links brings somes aspects of the morphological structure of the lexicon to light. We have then taken advantage of this structure to identify allomorphic variations of the extracted suffixations.", "derivational morphology, analogy, structure of the lexicon" ]
taln-2001-long-021
Synonymies et vecteurs conceptuels
La synonymie est une relation importante en TAL mais qui reste problématique. La distinction entre synonymie relative et synonymie subjective permet de contourner certaines difficultés. Dans le cadre des vecteurs conceptuels, il est alors possible de définir formellement des fonctions de test de synonymie et d’en expérimenter l’usage.
[ "Synonymie relative", "synonymie subjective", "approches statistiques", "distances thématiques" ]
[ "P", "P", "U", "U" ]
[ "", "Synonymy is a pivot relation in NLP but remains problematic. Putting forward, the distinction between relative and subjective synonymy, allows us to circunvent some difficulties. In the framework of conceptual vectors, it is then possible to formalize test functions for synonymy and to experiment their use.", "Relative synonymy, subjective synonymy, statistical approaches, thematic distances" ]
taln-2001-long-022
Récupération de segments sous-phrastiques dans une mémoire de traduction
L’utilité des outils d’aide à la traduction reposant sur les mémoires de traduction est souvent limitée par la nature des segments que celles-ci mettent en correspondance, le plus souvent des phrases entières. Cet article examine le potentiel d’un type de système qui serait en mesure de récupérer la traduction de séquences de mots de longueur arbitraire.
[ "mémoire de traduction sous-phrastique", "traduction assistée par ordinateur", "traduction automatique à base d’exemples" ]
[ "R", "M", "M" ]
[ "", "The usefullness of translation support tools based on translation memories is often limited by the nature of the text segments that they connect, generally whole sentences. This article examines the potential of a type of system that would be able to recuperate the translation of arbitrary sequences of words.", "" ]
taln-2001-long-023
Vers une plate-forme multi-agents pour l’exploration et le traitement linguistiques
Dans cet article, nous proposons une plate-forme multi-agents pour l’expérimentation et le traitement linguistique. Après une description du modèle d’agent APA, nous présentons l’état actuel de nos travaux: une implémentation en système multi-agents de l’analyse syntaxique selon le paradigme des grammaires de dépendances en chunk. Nous montrons ensuite d’autres possibilités d’implémentation selon d’autres paradigmes syntaxiques mais aussi au delà de la simple syntaxe.
[ "système multi-agents", "analyse syntaxique", "syntaxe", "environnement" ]
[ "P", "P", "P", "U" ]
[ "", "In this article, we present un multi-agent plateform for natural language experimentation and processing. After describing the APA agent model, we present the advancement in our work: an agent-based implementation of a syntactic parser according to the chunk dependency paradigm. We then show other potential implementations according to other syntactic paradigms but also further than mere syntax.", "" ]
taln-2001-long-024
Une typologie des énumérations basée sur les structures rhétoriques et architecturales du texte
Cet article concerne la caractérisation et la représentation de la structure interne des énumérations. Pour ce faire, nous utilisons deux modèles de texte : d’une part la Théorie des Structures Rhétoriques (RST) qui fournit un cadre d’interprétation pour la structure discursive des textes et d’autre part le modèle de représentation de l’architecture textuelle qui est principalement dédié à l’étude et à la représentation des structures visuelles des textes. Après une brève présentation des modèles, nous nous concentrons sur l’étude de l’objet “énumérations”. Nous exhibons et commentons trois exemples d’énumérations spécifiques que nous appelons des énumérations non-parallèles. Nous analysons la structure de ces énumérations et proposons un principe de composition des modèles de référence pour représenter ces énumérations. Enfin, nous présentons une classification des énumérations s’appuyant sur les caractéristiques de ces modèles.
[ "énumérations", "représentation", "modèles de texte", "classification", "structures textuelles" ]
[ "P", "P", "P", "P", "R" ]
[ "", "This paper is related to the study and the representation of the internal structure of enumerations. We use two types of text structure: on one hand, the Rhetorical Structure Theory (RST) which provides a framework for interpreting and representing the discursive structures of texts and on the other hand, the model of text architecture which is is mainly dedicated to the study and representation of visuo-spatial structures of texts. After a brief presentation of the theories and models, we focus the paper on the study of enumerations. We exhibit three significant examples of particular enumerations which are called non-parallel enumerations. We analyse these examples and their characteristics and we propose a general principle for the representation of these structures with these two reference models. Then, we present a classification of the different types of enumeration in the light of these models.", "Text structures, enumerations, representation, classification, text models" ]
taln-2001-long-025
Désambiguïsation syntaxique des groupes nominaux en anglais médical : étude des structures adjectivales à partir d'un corpus bilingue
L'ambiguïté syntaxique constitue un problème particulièrement délicat à résoudre pour les analyseurs morphosyntaxiques des logiciels d'aide à la traduction, en particulier dans le cas des longs groupes nominaux typiques des langues de spécialité. En utilisant un corpus bilingue d'articles médicaux anglais traduits vers le français, nous examinons divers moyens de résoudre l'ambiguïté du rattachement de l'adjectif à l'un des deux noms qui le suivent dans les tournures anglaises de forme adjectif-nom-nom.
[ "groupe nominal", "anglais médical", "adjectif", "corpus bilingue", "ambiguïté syntaxique", "traduction", "découpage", "traduction automatique" ]
[ "P", "P", "P", "P", "P", "P", "U", "M" ]
[ "", "Syntactic ambiguity is a particularly difficult problem to solve for the morpho-syntactic analysis programs of machine translation software, especially in the case of the long noun phrases that are typical of technical or scientific writing. Using a bilingual corpus of medical research articles translated into French, we examine various ways in which disambiguation can be achieved in English adj ective-noun-noun structures, where the adjective may modify either of the following nouns.", "adjective, bilingual corpus, machine translation, medical English, noun clause, syntactic ambiguity, syntactic structure, translation" ]
taln-2001-long-027
Extraction d’information dans les bases de données textuelles en génomique au moyen de transducteurs à nombre fini d’états
Cet article décrit un système d’extraction d’information sur les interactions entre gènes à partir de grandes bases de données textuelles. Le système est fondé sur une analyse au moyen de transducteurs à nombre fini d’états. L’article montre comment une partie des ressources (verbes d’interaction) peut être acquise de manière semi-automatique. Une évaluation détaillée du système est fournie.
[ "extraction d’information", "génomique", "transducteurs linguistiques" ]
[ "P", "P", "M" ]
[ "", "This papers describes a system extracting information about interactions between genes or proteins, from large textual databases. The system is based on a set of linguistic finite-state transducers. The paper shows how a part of the resources (namely the set of verbs expressing the notion of interaction) can be acquired semi-automatically from the corpus. A detailed evaluation is provided.", "" ]
taln-2001-poster-001
Modèles de langage hiérarchiques pour les applications de dialogue en parole spontanée
Le cadre de cette étude concerne les systèmes de dialogue via le téléphone entre un serveur de données et un utilisateur. Nous nous intéresserons au cas de dialogues non contraints où l’utilisateur à toute liberté pour formuler ses requêtes. Généralement, le module de Reconnaissance Automatique de la Parole (RAP) de tels serveurs utilise un seul Modèle de Langage (ML) de type bigramme ou trigramme pour modéliser l’ensemble des interventions possibles de l’utilisateur. Ces ML sont appris sur des corpus de phrases retranscrites à partir de sessions entre le serveur et plusieurs utilisateurs. Nous proposons dans cette étude une méthode de segmentation de corpus d’apprentissage de dialogue utilisant une stratégie mixte basée à la fois sur des connaissances explicites mais aussi sur l’optimisation d’un critère statistique. Nous montrons qu’un gain en terme de perplexité et de taux d’erreurs/mot peut être constaté en utilisant un ensemble de sous modèles de langage issus de la segmentation plutôt qu’un modèle unique appris sur l’ensemble du corpus.
[ "Reconnaissance Automatique de la Parole", "Modèles de Langage statistique", "Serveurs de Dialogue", "Arbre de Décision" ]
[ "P", "R", "R", "M" ]
[ "", "Within the framework of Human-Computer dialogue in spontaneous speech, we propose in this paper a method which automatically builds, from a training corpus, a set of Language Models (LMs) organized as a binary tree. Each LM correspond to a specific dialogue state, where the general LM is attached to the root node and the more specialized ones are represented by the leaves. Such LMs can be used to automatically adapt the decoding process to the dialog situation performed. We propose a two-pass decoding strategy, which implements this idea by dynamically selecting a set of LMs according to the dialog situation detected.", "" ]
taln-2001-poster-002
Ressources linguistiques informatisées de l’ATILF
Cette contribution présente les ressources linguistiques informatisées du laboratoire ATILF (Analyses et Traitements Informatiques du Lexique Français) disponibles sur la toile et sert de support aux démonstrations prévues dans le cadre de TALN 2001. L’ATILF est la nouvelle U1\/[R créée en association entre le CNRS et l’Université Nancy 2 qui, depuis le 2 janvier 2001, a succédé à la composante nancéienne de l’INaLF. Ces importantes ressources sur la langue française regroupent un ensemble de plus de 3500 textes réunis dans Frantext et divers dictionnaires, lexiques et autres bases de données. Ces ressources exploitent les fonctionnalités du logiciel Stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels. La politique du laboratoire consiste à ouvrir très largement ses ressources en particulier au monde de la recherche et de l’enseignement.
[ "Ressources linguistiques", "Dictionnaires", "Bases de données textuelles", "Web" ]
[ "P", "P", "R", "U" ]
[ "", "This paper presents the computerized linguistic resources of the Research Laboratory ATILF (Analyses et Traitements Informatiques du Lexique Francais) available via the Web, and will serve as a helping document for demonstrations planned within the framework of TALN 2001. The Research Laboratory ATEF is the new IHVIR (Unité Mixte de Recherche) created in association between the CNRS and the University of Nancy 2 since January 2nd, and succeeds to the local component of the INaLF situated in Nancy. This considerable amount of resources concerning French language consists in a set of more than 3500 literary works grouped together in Frantext, plus a number of dictionaries, lexis and other databases. These web available resources are operated and run through the potentialities and powerful capacities of a software called Stella, a search engine specially dedicated to textual databases and relying on a new theory of textual objects. The general policy of our laboratory is to welcome and give the research and teaching world the widest access to all our resources.", "" ]
taln-2001-poster-004
Cartographie de Textes: Une aide à l’utilisateur dans le cadre de la découverte de nouveaux domaines
Nous présentons les avancées d’un projet dans un thème que nous qualifions de Cartographie de Textes qui permet à l’utilisateur novice d’explorer un nouveau domaine par navigation au sein d’un corpus homogène grâce à des cartes conceptuelles interactives. Une carte est composée de concepts pertinents relativement à la requête initiale et à son évolution, au sein du corpus; des relations extraites du corpus les lient aux mots de la requête. Des techniques d’apprentissage automatique sont combinées avec des heuristiques statistiques de Traitement Automatique des Langues pour la mise en évidence de collocations afin de construire les cartes.
[ "Cartographie de Textes", "Apprentissage Automatique", "Recherche d’Information", "Extraction d’Information" ]
[ "P", "P", "M", "M" ]
[ "", "We present an ongoing research project on the new field of Text Mapping that allows a novice user to explore a new domain by navigation through an homogeneous corpus thanks to interactive conceptual maps. A map is composed of concepts (the nodes) depending on the user’s request and its evolution, and semantic/lexical relations (the links). Machine Learning techniques are combined with Natural Language Processing methodologies to build the maps.", "Text Mapping, Information Retrieval, Information Extraction, Machine Learning" ]
taln-2001-poster-005
Un Modèle Cognitif pour la Résolution de la Référence dans le Dialogue Homme-Machine
Dans cette étude, nous proposons un modèle pour la résolution de la référence dans le cadre du dialogue homme machine. Partant de considérations psychologiques sur la nécessité d'un partage du système inférenciel pour permettre la communication, nous définissons un alisme basé sur des règles de production associées à des coûts cognitifs. Au travers d'exemples, nous montrons comment ce formalisme peut être utilisé comme cadre pour intégrer le traitement de différents phénomènes liés à la référence, et comment cette tégration peut conduire à des interfaces en langue naturelle plus efficaces.
[ "Dialogue Homme-Machine", "traitement de la référence" ]
[ "P", "R" ]
[ "", "ln this study, we propose a model for reference resolution in the context of human computer interaction. Starting from psychological consi erations on the necessity of a common system of inferential strategies in order to allow communication, we define a forma ism based on production rules associated with cognitive costs. Through examples, we will show how this malism can be used as a framework to integrate the processing of various reference nomena, and how this integration can lead to more efficient interactive systems.", "" ]
taln-2001-poster-006
Critères de sélection d’une approche pour le suivi automatique du courriel
Cet article discute de différentes approches pour faire le suivi automatique du courrier-électronique. Nous présentons tout d’abord les méthodes de traitement automatique de la langue (TAL) les plus utilisées pour cette tâche, puis un ensemble de critères influençant le choix d’une approche. Ces critères ont été développés grâce à une étude de cas sur un corpus fourni par Bell Canada Entreprises. Avec notre corpus, il est apparu que si aucune méthode n’est complètement satisfaisante par elle-même, une approche combinée semble beaucoup plus prometteuse.
[ "Réponse au courriel", "Analyse de texte", "Analyse de corpus" ]
[ "M", "M", "M" ]
[ "", "This paper discusses the strengths and weaknesses of different NLP techniques applied to the automatic follow-up of e-mail. First, we present the most widely-used methods, then we present a set of criteria for selecting the method to be used in particular circumstances. These criteria have been developed through a case study of a corpus provided by Bell Canada Enterprises. With our corpus, it appears that although no individual method is completely satisfactory, an approach combining several techniques is more appropriate.", "" ]
taln-2001-poster-007
Extraction de noms propres à partir de textes variés: problématique et enjeux
Cet article porte sur l’identification de noms propres à partir de textes écrits. Les stratégies à base de règles développées pour des textes de type journalistique se révèlent généralement insuffisantes pour des corpus composés de textes ne répondant pas à des critères rédactionnels stricts. Après une brève revue des travaux effectués sur des corpus de textes de nature journalistique, nous présentons la problématique de l’analyse de textes variés en nous basant sur deux corpus composés de courriers électroniques et de transcriptions manuelles de conversations téléphoniques. Une fois les sources d’erreurs présentées, nous décrivons l’approche utilisée pour adapter un système d’extraction de noms propres développé pour des textes journalistiques à l’analyse de messages électroniques.
[ "Extraction d’information", "Entités nommées" ]
[ "M", "U" ]
[ "", "This paper discusses the influence of the corpus on the automatic identification of proper names in texts. Rule-based techniques developed for the newswire genre are generally not sufficient to deal with larger corpora containing texts that do not follow strict writing constraints. After a brief review of the research performed on news texts, we present some of the problems involved in the analysis of informal texts by using two different corpora (the first one composed of electronic mails, the second one of hand-transcribed telephone conversations). Once the sources of errors have been presented, we then describe an approach to adapt a proper name extraction system developed for newspaper texts to the analysis of e-mail messages.", "" ]
taln-2001-poster-008
Défense et illustration de l'analogie
L'argumentation générativiste contre l’analogie tenait en trois points: l’hypothèse de l’inné, celle du hors-contexte et la surproduction. Des résultats théoriques et expérimen- taux reposant sur une formulation calculatoire nouvelle de l’analogie contribuent de façon constructive a la réfutation de ces points.
[ "Formalisation de l’analogie", "langages de mots analogiques", "mise en correspondance d’espaces analogiques" ]
[ "M", "M", "M" ]
[ "", "The generativists had three arguments against analogy: the innate hypothesis and the conteXt-free hypothesis, and overgeneration. Theoretical and experimental results, based on a recently obtained cornputational expression of analogy, contribute to the refutation of these three points in a constructive Way.", "Formalisation of analogy, languages of analogical strings, mapping of analogical spaces" ]
taln-2001-poster-009
Identification, interprétation et représentation de relations sémantiques entre concepts
SEEK-JAVA est un système permettant Pidentification, l’interprétation et la représentation de connaissances à partir de textes. Il attribue une étiquette aux relations et identifie automatiquement les concepts arguments des relations. Les résultats, capitalisés dans une base de données, sont proposés, par le biais d’une interface, soit sous forme de graphes soit sous forme de tables. Ce système, intégré dans la plate-forme FilText, s’appuie sur la méthode d’ exploration contextuelle.
[ "Identification", "interprétation", "représentation des connaissances", "base de données", "graphes", "exploration contextuelle" ]
[ "P", "P", "P", "P", "P", "P" ]
[ "", "SEEK-JAVA is a identification, interpretation and representation system of knowledge extracted from texts. It gives label to the relation between concepts and automatically identify arguments of the relations. The results, capitalized in a data base, are proposed by an interface, either in the form of graphs or in the form of tables. This system, integrated in the FilText platform, is based on contextual exploration method.", "" ]
taln-2001-poster-010
Gestionnaire de dialogue pour un système d’informations à reconnaissance vocale
Dans cet article, nous présentons un gestionnaire de dialogue pour un système de demande d’informations à reconnaissance vocale. Le gestionnaire de dialogue dispose de différentes sources de connaissance, des connaissances statiques et des connaissances dynamiques. Ces connaissances sont gérées et utilisées par le gestionnaire de dialogue via des stratégies. Elles sont mises en oeuvre et organisées en fonction des objectifs concernant le système de dialogue et en fonction des choix ergonomiques que nous avons retenus. Le gestionnaire de dialogue utilise un modèle de dialogue fondé sur la détermination de phases et un modèle de la tâche dynamique. Il augmente les possibilités d’adaptation de la stratégie en fonction des historiques et de l’état du dialogue. Ce gestionnaire de dialogue, implémenté et évalué lors de la dernière campagne d’évaluation du projet LE-3 ARISE, a permi une amélioration du taux de succès de dialogue (de 53% à 85%).
[ "gestionnaire de dialogue", "modèle de dialogue", "modèle de la tâche", "dialogue oral homme-machine" ]
[ "P", "P", "P", "M" ]
[ "", "In this paper we describe the dialog manager of a spoken language dialog system for information retrieval. The dialog manager maintains both static and dynamic knowledge sources, which are used according to the dialog strategies. These strategies have been developed so as to obtain the overall system objectives while taking into consideration the desired ergonomic choices. Dialog management is based on a dialog model which divides the interaction into phases and a dynamic model of the task. This allows the dialog strategy to be adapted as a function of the history and the dialog state. The dialog manager was evaluated in the context of the LE3-ARISE project, where in the last user tests the dialog success improved from 53% to 85%.", "spoken language dialog, dialog management, dialog model, task model" ]
taln-2001-poster-013
L’apport de connaissances morphologiques pour la projection de requêtes sur une terminologie normalisée
L’apport de connaissances linguistiques à la recherche d’information reste un sujet de débat. Nous examinons ici l’influence de connaissances morphologiques (flexion, dérivation) sur les résultats d’une tâche spécifique de recherche d’information dans un domaine spécialisé. Cette influence est étudiée à l’aide d’une liste de requêtes réelles recueillies sur un serveur opérationnel ne disposant pas de connaissances linguistiques. Nous observons que pour cette tâche, flexion et dérivation apportent un gain modéré mais réel.
[ "Morphologie", "terminologie", "recherche d’information", "variantes de termes", "médecine", "Doc’CISMeF", "MeSH" ]
[ "P", "P", "P", "M", "U", "U", "U" ]
[ "", "", "" ]
taln-2001-tutoriel-001
Extraction de collocations à partir de textes
Les collocations sont intéressantes dans de nombreuses applications du TALN comme la l'analyse ou la génération de textes ou encore la lexicographie monolingue ou bilingue. Les premières tentatives d'extraction automatique de collocations à partir de textes ou de dictionnaires ont vu le jour dans les années 1970. Il s'agissait principalement de méthodes à base de statistiques lexicales. Aujourd'hui, les méthodes d'identification automatique font toujours appel à des statistiques mais qu'elles combinent avec des analyses linguistiques. Nous examinons quelques méthodes d'identification des collocations en corpus en soulignant pour chaque méthode les propriétés linguistiques des collocations qui ont été prises en compte.
[ "collocations", "extraction automatique", "statistiques lexicales" ]
[ "P", "P", "P" ]
[ "", "Collocations are interesting for several NLP applications such as language generation or analysis and monolingual or bilingual lexicography. The first approaches to finding collocations appeared in 1970's and were statistically based. Today, the methods adopted for the identification of collocations still include statistics but also linguistic processing. We introduce a few approaches to finding collocations in corpora. For each method, we precise the linguistic characteristic of collocation which as been taken into account.", "collocations, automatic identification, lexical statistics" ]
taln-2012-long-001
Simplification de phrases pour l'extraction de relations
L’extraction de relations par apprentissage nécessite un corpus annoté de très grande taille pour couvrir toutes les variations d’expressions des relations. Pour contrer ce problème, nous proposons une méthode de simplification de phrases qui permet de réduire la variabilité syntaxique des relations. Elle nécessite l’annotation d’un petit corpus qui sera par la suite augmenté automatiquement. La première étape est l’annotation des simplifications grâce à un classifieur à base de CRF, puis l’extraction des relations, et ensuite une complétion automatique du corpus d’entraînement des simplifications grâce aux résultats de l’extraction des relations. Les premiers résultats que nous avons obtenus pour la tâche d’extraction de relations d’i2b2 2010 sont très encourageants.
[ "simplification de phrases", "Extraction de relations", "apprentissage automatique" ]
[ "P", "P", "R" ]
[ "Automatic Information Extraction in the Medical Domain by Cross-Lingual Projection", "Machine learning based relation extraction requires large annotated corpora to take into account the variability in the expression of relations. To deal with this problem, we propose a method for simplifying sentences, i.e. for reducing the syntactic variability of the relations. Simplification requires the annotation of a small corpus, which will be automatically augmented. The process starts with the annotation of the simplification thanks to a CRF classifier, then the relation extraction, and lastly the automatic completion of the training corpus for the simplification through the results of the relation extraction. The first results we obtained for the task of relation extraction of the i2b2 2010 challenge are encouraging.", "Relation extraction, sentence simplification, machine learning" ]
taln-2012-long-002
Extraction d'information automatique en domaine médical par projection inter-langue : vers un passage à l'échelle
Cette recherche est issue de notre volonté de tester de nouvelles méthodes automatiques d’annotation ou d’extraction d’information à partir d’une langue L1 en exploitant des ressources et des outils disponibles pour une autre langue L2. Cette approche repose sur le passage par un corpus parallèle (L1-L2) aligné au niveau des phrases et des mots. Pour faire face au manque de corpus médicaux français annotés, nous nous intéressons au couple de langues (françaisanglais) dans le but d’annoter automatiquement des textes médicaux en français. En particulier, nous nous intéressons dans cet article à la reconnaissance des entités médicales. Nous évaluons dans un premier temps notre méthode de reconnaissance d’entités médicales sur le corpus anglais. Dans un second temps, nous évaluons la reconnaissance des entités médicales du corpus français par projection des annotations du corpus anglais. Nous abordons également le problème de l’hétérogénéité des données en exploitant un corpus extrait du Web et nous proposons une méthode statistique pour y pallier.
[ "Extraction d’information", "reconnaissance des entités médicales", "projection d’annotation", "apprentissage" ]
[ "P", "P", "R", "U" ]
[ "Automatic Information Extraction in the Medical Domain by Cross-Lingual Projection", "This research stems from our willingness to test new methods for automatic annotation or information extraction from one language L1 by exploiting resources and tools available to another language L2. This approach involves the use of a parallel corpus (L1-L2) aligned at the level of sentences and words. To address the lack of annotated medical French corpus, we focus on the French-English language pair to annotate automatically medical French texts. In particular, we focus in this article on medical entity recognition. We evaluate our medical entity recognition method on the English corpus and the projection of the annotations on the French corpus. We also discuss the problem of scalability since we use a parallel corpus extracted from the Web and propose a statistical method to handle heterogeneous corpora.", "Automatic Information Extraction, Annotation Projection, Medical Entity Recognition, Machine Learning" ]
taln-2012-long-003
Une méthode d'extraction d'information fondée sur les graphes pour le remplissage de formulaires
Dans les systèmes d’extraction d’information sur des événements, une tâche importante est le remplissage automatique de formulaires regroupant les informations sur un événement donné à partir d’un texte non structuré. Ce remplissage de formulaire peut s’avérer difficile lorsque l’information est dispersée dans tout le texte et mélangée à des éléments d’information liés à un autre événement similaire. Nous proposons dans cet article une approche en deux étapes pour ce problème : d’abord une segmentation du texte en événements pour sélectionner les phrases relatives au même événement ; puis une méthode de sélection dans les phrases sélectionnées des entités liées à l’événement. Une évaluation de cette approche sur un corpus annoté de dépêches dans le domaine des événements sismiques montre un F-score de 72% pour la tâche de remplissage de formulaires.
[ "remplissage de formulaires", "Extraction d’information", "segmentation de texte" ]
[ "P", "P", "R" ]
[ "A Graph-Based Method for Template Filling in Information Extraction", "In event-based Information Extraction systems, a major task is the automated filling from unstructured texts of a template gathering information related to a particular event. Such template filling may be a hard task when the information is scattered throughout the text and mixed with similar pieces of information relative to a different event. We propose in this paper a two-step approach for template filling : first, an event-based segmentation is performed to select the parts of the text related to the target event ; then, a graph-based method is applied to choose the most relevant entities in these parts for characterizing the event. Using an evaluation of this model based on an annotated corpus for earthquake events, we achieve a 72% F-measure for the template-filling task.", "Information Extraction, Text Segmentation, Template Filling" ]
taln-2012-long-004
Traitement automatique sur corpus de récits de voyages pyrénéens : Une analyse syntaxique, sémantique et temporelle
Cet article présente notre utilisation de la théorie des types dans laquelle nous nous situons pour l’analyse syntaxique, sémantique et pour la construction du lexique. Notre outil, Grail permet de traiter le discours automatiquement à partir du texte brut et nous le testons sur un corpus de récit de voyages pyrénéens, Ititpy. Nous expliquons donc notre usage des grammaires catégorielles et plus particulièrement du calcul de Lambek et la correspondance entre ces catégories et le lambda-calcul simplement typé dans le cadre de la DRT. Une flexibilité du typage doit être autorisée dans certains cas et bloquée dans d’autres. Quelques phénomènes linguistiques participant à une forme de glissement de sens provocant des conflits de types sont présentés. Nous expliquons ensuite nos motivations d’ordre pragmatique à utiliser un système à sortes et types variables en sémantique lexicale puis notre traitement compositionnel du temps des évènements inspiré du Binary Tense de (Verkuyl, 2008).
[ "théorie des types", "récit de voyage", "grammaire catégorielle", "compositionalité", "interface syntaxe-sémantique", "interface sémantique-pragmatique" ]
[ "P", "P", "P", "U", "U", "U" ]
[ "Processing of a Pyrenees travel novels corpus : a syntactical, semantical and temporal analysis", "In this article, we present a type theoretical framework which we apply to the syntactic analysis and the computation of DRS semantics. Our tool, Grail, is used for the automatic treatment of French text and we use a Pyrenées travel novels corpus, Itipy, as a test case. We explain our use of categorial grammars and specifically the Lambek calculus and its connection to the simply typed lambda-calculus in connection with DRT. Flexible typing has to be allowed in some cases and forbidden in others. Some linguistic phenomena presenting some kind of meaning shifts inducing typing conflicts will be introduced. We then present our motivations in the pragmatic field to use a system with sorts and variable types in lexical semantics and then we present how we process events temporality, in the light of Verkuyl’s Binary Tense (Verkuyl, 2008).", "compositionality, syntax-semantics interface, semantics-pragmatics interface, categorial grammar, type theory, travel novel" ]
taln-2012-long-005
La reconnaissance des mots composés à l'épreuve de l'analyse syntaxique et vice-versa : évaluation de deux stratégies discriminantes
Nous proposons deux stratégies discriminantes d’intégration des mots composés dans un processus réel d’analyse syntaxique : (i) pré-segmentation lexicale avant analyse, (ii) post-segmentation lexicale après analyse au moyen d’un réordonnanceur. Le segmenteur de l’approche (i) se fonde sur un modèle CRF et permet d’obtenir un reconnaisseur de mots composés état-de-l’art. Le réordonnanceur de l’approche (ii) repose sur un modèle MaxEnt intégrant des traits dédiés aux mots composés. Nous montrons que les deux approches permettent de combler jusqu’à 18% de l’écart entre un analyseur baseline et un analyseur avec segmentation parfaite et jusqu’à 25% pour la reconnaissance des mots composés.
[ "Mots composés", "analyse syntaxique", "réordonnanceur", "champs markoviens aléatoires" ]
[ "P", "P", "P", "U" ]
[ "Recognition of compound words tested against parsing and vice-versa : evaluation of two discriminative approaches", "We propose two discriminative strategies to integrate compound word recognition in a real parsing context : (i) state-of-the-art compound pregrouping with Conditional Random Fields before parsing, (ii) reranking parses with features dedicated to compounds after parsing. We show that these two approaches help reduce up to 18% of the gap between a baseline parser and parser with golden segmentation and up to 25% for compound recognition.", "Multiword expressions, parsing, Conditional random Fields, reranker" ]
taln-2012-long-006
Calcul des cadres de sous catégorisation des noms déverbaux français (le cas du génitif)
L’analyse syntaxique fine en dépendances nécessite la connaissance des cadres de souscatégorisation des unités lexicales. Le cas des verbes étant bien étudié, nous nous intéressons dans cet article au cas des noms communs dérivés de verbes. Notre intérêt principal est de calculer le cadre de sous-catégorisation des noms déverbaux à partir de celui du verbe d’origine pour le français. Or, pour ce faire il faut disposer d’une liste représentative de noms déverbaux français. Pour calculer cette liste nous utilisons un algorithme simplifié de repérage des noms déverbaux, l’appliquons à un corpus et comparons la liste obtenue avec la liste Verbaction des déverbaux exprimant l’action ou l’activité du verbe. Pour les noms déverbaux ainsi obtenus et attestés ensuite par une expertise linguistique, nous analysons la provenance des groupes prépositionnels subordonnés des déverbaux dans des contextes différents en tenant compte du verbe d’origine. L’analyse est effectuée sur le corpus Paris 7 et est limitée au cas le plus fréquent du génitif, c’est-à-dire des groupes prépositionnels introduits par de, des, etc.
[ "nom déverbal", "cadre de sous-catégorisation", "groupe prépositionnel", "analyse en dépendances" ]
[ "P", "P", "P", "R" ]
[ "On Computing Subcategorization Frames of French Deverbal Nouns (Case of Genitive)", "Fine dependency analysis needs exact information on the subcategoriziation frames of lexical units. These frames being well studied for the verbs, we are interested in this paper by the case of the noun deverbals. Our main goal is to calculate the subcategoriziation frame of deverbals in French from that of the source verb. However, this task needs a representative list of French deverbal nouns. To obtain such a list, we use a simplified algorithm detecting deverbal nouns in texts. The obtained list attested by linguists is compared with the existing list Verbaction of deverbals expressing the action/activity of French verbs. For these deverbal nouns, we analyse the origin of their subordinate prepositional phrases in different contexts relative to their source verbs. This analysis is carried out over the corpus Paris 7 and is limited to the most frequent cases of the genitive, i.e. to the prepositional phrases headed by the prepositions de, des, etc.", "Deverbal Noun, Subcategorization Frame, Prepositional Phrase, Dependency Tree" ]
taln-2012-long-007
Vectorisation, Okapi et calcul de similarité pour le TAL : pour oublier enfin le TF-IDF
Dans cette prise de position, nous nous intéressons au calcul de similarité (ou distances) entre textes, problématique présente dans de nombreuses tâches de TAL. Nous nous efforçons de montrer que ce qui n’est souvent qu’un composant dans des systèmes plus complexes est parfois négligé et des solutions sous-optimales sont employées. Ainsi, le calcul de similarité par TF-IDF/cosinus est souvent présenté comme « état-de-l’art », alors que des alternatives souvent plus performantes sont employées couramment dans le domaine de la Recherche d’Information (RI). Au travers de quelques expériences concernant plusieurs tâches, nous montrons combien ce simple calcul de similarité peut influencer les performances d’un système. Nous considérons plus particulièrement deux alternatives. La première est le schéma de pondération Okapi-BM25, bien connu en RI et directement interchangeable avec le TF-IDF. L’autre, la vectorisation, est une technique de calcul de similarité que nous avons développée et qui offrent d’intéressantes propriétés.
[ "vectorisation", "Calcul de similarité", "TF-IDF", "modèle vectoriel", "Okapi BM-25" ]
[ "P", "P", "P", "U", "M" ]
[ "Vectorization, Okapi and computing similarity for NLP : say goodbye to TF-IDF", "In this position paper, we review a problem very common for many NLP tasks: computing similarity (or distances) between texts. We aim at showing that what is often considered as a small component in a broader complex system is very often overlooked, leading to the use of sub-optimal solutions. Indeed, computing similarity with TF-IDF weighting and cosine is often presented as “state-of-theart”, while more effective alternatives are in the Information Retrieval (IR) community. Through some experiments on several tasks, we show how this simple calculation of similarity can influence system performance. We consider two particular alternatives. The first is the weighting scheme Okapi-BM25, well known in IR and directly interchangeable with TF-IDF. The other, called vectorization, is a technique for calculating text similarities that we have developed which offers some interesting properties.", "Calculating similarities, vector space model, TF-IDF, Okapi BM-25, vectorization" ]
taln-2012-long-008
TCOF-POS : un corpus libre de français parlé annoté en morphosyntaxe
Nous présentons dans cet article un travail portant sur la création d’un corpus de français parlé spontané annoté en morphosyntaxe. Nous détaillons la méthodologie suivie afin d’assurer le contrôle de la qualité de la ressource finale. Ce corpus est d’ores et déjà librement diffusé pour la recherche et peut servir aussi bien de corpus d’apprentissage pour des logiciels que de base pour des descriptions linguistiques. Nous présentons également les résultats obtenus par deux étiqueteurs morphosyntaxiques entrainés sur ce corpus.
[ "français parlé", "Etiquetage morpho-syntaxique", "ressources langagières" ]
[ "P", "U", "M" ]
[ "TCOF-POS : A Freely Available POS-Tagged Corpus of Spoken French", "This article details the creation of TCOF-POS, the first freely available corpus of spontaneous spoken French. We present here the methodology that was followed in order to obtain the best possible quality in the final resource. This corpus already is freely available and can be used as a training/validation corpus for NLP tools, as well as a study corpus for linguistic research. We also present the results obtained by two POS-taggers trained on the corpus.", "Etiquetage morpho-syntaxique, français parlé, ressources langagières" ]
taln-2012-long-009
Alignement sous-phrastique hiérarchique avec Anymalign
Nous présentons un algorithme d’alignement sous-phrastique permettant d’aligner très facilement un couple de phrases à partir d’une matrice d’alignement pré-remplie. Cet algorithme s’inspire de travaux antérieurs sur l’alignement par segmentation binaire récursive ainsi que de travaux sur le clustering de documents. Nous évaluons les alignements produits sur des tâches de traduction automatique et montrons qu’il est possible d’atteindre des résultats du niveau de l’état de l’art, affichant des gains très conséquents allant jusqu’à plus de 4 points BLEU par rapport à nos travaux antérieurs, à l’aide une méthode très simple, indépendante de la taille du corpus à traiter, et produisant directement des alignements symétriques. En utilisant cette méthode en tant qu’extension à l’outil d’extraction de traductions Anymalign, nos expériences nous permettent de cerner certaines limitations de ce dernier et de définir des pistes pour son amélioration.
[ "alignement sous-phrastique", "corpus parallèle", "traduction automatique statistique" ]
[ "P", "M", "M" ]
[ "Hierarchical sub-sentential alignment with Anymalign", "We present a sub-sentential alignment algorithm that aligns sentence pairs from an existing alignment matrix in a very easy way. This algorithm is inspired by previous work on alignment by recursive binary segmentation and on document clustering. We evaluate the alignments produced on machine translation tasks and show that we can obtain state-of-the-art results, with gains up to more than 4 BLEU points compared to our previous work, with a method that is very simple, independent of the size of the corpus to be aligned, and can directly produce symmetric alignments. When using this method as an extension of the translation extraction tool Anymalign, our experiments allow us to determine some of its limitations and to define possible leads for further improvements.", "parallel corpus, sub-sentential alignment, statistical machine translation" ]
taln-2012-long-010
Utilisation de la translittération arabe pour l’amélioration de l’alignement de mots à partir de corpus parallèles français-arabe
Dans cet article, nous nous intéressons à l’utilisation de la translittération arabe pour l’amélioration des résultats d’une approche linguistique d’alignement de mots simples et composés à partir de corpus de textes parallèles français-arabe. Cette approche utilise, d’une part, un lexique bilingue et les caractéristiques linguistiques des entités nommées et des cognats pour l’alignement de mots simples, et d’autre part, les relations de dépendance syntaxique pour aligner les mots composés. Nous avons évalué l’aligneur de mots simples et composés intégrant la translittération arabe en utilisant deux procédés : une évaluation de la qualité d’alignement à l’aide d’un alignement de référence construit manuellement et une évaluation de l’impact de cet alignement sur la qualité de la traduction en faisant appel au système de traduction automatique statistique Moses. Les résultats obtenus montrent que la translittération améliore aussi bien la qualité de l’alignement que celle de la traduction.
[ "Translittération", "alignement de mots", "traduction automatique", "construction de dictionnaires multilingues", "recherche d’information interlingue" ]
[ "P", "P", "P", "M", "M" ]
[ "Using Arabic transliteration to improve word alignment from French-Arabic parallel corpora", "In this paper, we focus on the use of Arabic transliteration to improve the results of a linguistic word alignment approach from parallel text corpora. This approach uses, on the one hand, a bilingual lexicon, named entity and cognates linguistic properties to align single words, and on the other hand, syntactic dependency relations to align compound words. We have evaluated the word aligner integrating Arabic transliteration using two methods: A manual evaluation of the alignment quality and an evaluation of the impact of this alignment on the translation quality by using the statistical machine translation system Moses. The obtained results show that Arabic transliteration improves the quality of both alignment and translation.", "Transliteration, word alignment, multilingual lexicons construction, machine translation, cross-language information retrieval" ]
taln-2012-long-011
Compositionnalité et contextes issus de corpus comparables pour la traduction terminologique
Dans cet article, nous cherchons à mettre en correspondance de traduction des termes extraits de chaque partie monolingue d’un corpus comparable. Notre objectif concerne l’identification et la traduction de termes spécialisés. Pour ce faire, nous mettons en oeuvre une approche compositionnelle dopée avec des informations contextuelles issues du corpus comparable. Notre évaluation montre que cette approche améliore significativement l’approche compositionnelle de base pour la traduction de termes complexes extraits de corpus comparables.
[ "compositionnalité", "Corpus comparable", "information contextuelle", "lexique bilingue" ]
[ "P", "P", "P", "U" ]
[ "Compositionality and Context for Bilingual Lexicon Extraction from Comparable Corpora", "In this article, we study the possibilities of improving the alignment of equivalent terms monolingually acquired from bilingual comparable corpora. Our overall objective is to identify and to translate highly specialised terminology. We applied a compositional approach enhanced with pre-processed context information. Our evaluation demonstrates that our alignment method outperforms the compositional approach for translationally equivalent term discovery from comparable corpora.", "Comparable Corpora, compositionality, context information, bilingual lexicon" ]
taln-2012-long-012
Raffinement du Lexique des Verbes Français
Nous présentons dans cet article les améliorations apportées à la ressource « Les Verbes Français » afin de la rendre plus formelle et utilisable pour le traitement automatique des langues naturelles. Les informations syntaxiques et sémantiques ont été corrigées, restructurées, unifiées puis intégrées à la version XML de cette ressource, afin de pouvoir être utilisée par un système d’étiquetage de rôles sémantiques.
[ "raffinement", "lexique", "verbes", "ressource", "étiquetage de rôles sémantiques" ]
[ "P", "P", "P", "P", "P" ]
[ "Resource Refining : « Les Verbes Français »", "This paper introduce the impovements we made to the resource « Les Verbes Français » in order to make it more usable in the field of natural language processing. Syntactic and semantic information is corrected, restructured, unified and then integrated to the XML version of this resource, in order to be used by a semantic role labelling system.", "resource, lexicon, verbs, refinement, semantic roles labeling" ]
taln-2012-long-013
Étude des manifestations de la relation de méronymie dans une ressource distributionnelle
Cette étude vise à étudier les manifestations de la relation de méronymie dans une ressource lexicale générée automatiquement à partir d’un corpus de langue générale. La démarche que nous adoptons consiste à recueillir un jeu de couples de méronymes issus d’une ressource externe que nous croisons avec une base distributionnelle calculée à partir d’un corpus de textes encyclopédiques. Une annotation sémantique des mots qui entrent dans ces couples de méronymes montre que la prise en compte de la nature sémantique des mots composant les couples de méronymes permet de mettre au jour des inégalités au niveau du repérage de la relation par la méthode d’analyse distributionnelle.
[ "méronymie", "analyse distributionnelle", "sémantique lexicale", "évaluation" ]
[ "P", "P", "R", "U" ]
[ "Study of meronymy in a distribution-based lexical resource", "In this paper, we study the way meronymy behaves in a distribution-based lexical resource. We address the question of the evaluation of such resources through a semantic-based approach. Our method consists in collecting meronyms from a resource which we cross with a distributionbased lexical resource made from an encyclopedic corpus. Meronyms are then sub-categorized manually : firstly following the sub-relation they bear (STUFF/OBJECT, MEMBER/COLLECTION, etc.), then following the semantic class of their members. Results show that distributional analysis identifies meronymic relations in different proportions according to the semantic classes of the words involved in the meronymic pairs.", "distributional analysis, lexical semantics, meronymy, evaluation" ]
taln-2012-long-014
Un critère de cohésion thématique fondé sur un graphe de cooccurrences
Dans cet article, nous définissons un nouveau critère de cohésion thématique permettant de pondérer les termes d’un lexique thématique en fonction de leur pertinence. Le critère s’inspire des approches Web as corpus pour accumuler des connaissances exogènes sur un lexique. Ces connaissances sont ensuite modélisées sous forme de graphe et un algorithme de marche aléatoire est appliqué pour attribuer un score à chaque terme. Après avoir étudié les performances et la stabilité du critère proposé, nous l’évaluons sur une tâche d’aide à la création de lexiques bilingues.
[ "Cohésion thématique", "graphe de cooccurrences", "marche aléatoire" ]
[ "P", "P", "P" ]
[ "Topical Cohesion using Graph Random Walks", "In this article, we propose a novel metric to weight specialized lexicons terms according to their relevance to the underlying thematic. Our method is inspired by Web as corpus approaches and accumulates exogenous knowledge about a specialized lexicon from the web. Terms cooccurrences are modelled as a graph and a random walk algorithm is applied to compute terms relevance. Finally, we study the performance and stability of the metric and evaluate it in a bilingual lexicon creation context.", "Thematic relevance, cooccurrence graph, random walk" ]
taln-2012-long-015
Validation sur le Web de reformulations locales: application à la Wikipédia
Ce travail présente des expériences initiales en validation de paraphrases en contexte. Les révisions de Wikipédia nous servent de domaine d’évaluation : pour un énoncé ayant connu une courte révision dans l’encyclopédie, nous disposons d’un ensemble de réécritures possibles, parmi lesquelles nous cherchons à identifier celles qui correspondent à des paraphrases valides. Nous abordons ce problème comme une tâche de classification fondée sur des informations issues du Web, et parvenons à améliorer la performance de plusieurs techniques simples de référence.
[ "Wikipédia", "paraphrase", "aide à la rédaction" ]
[ "P", "P", "M" ]
[ "Assisted rephrasing for Wikipedia contributors through Web-based validation", "This works describes initial experiments on the validation of paraphrases in context. Wikipedia’s revisions are used : we assume that a set of possible rewritings are available for a given phrase that has been rewritten in the encyclopedia’s revision history, and we attempt to find the subset of those rewritings that can be considered as valid paraphrases. We tackle this problem as a classication task which we provide with features obtained from Web data. Our experiments show that our system improves performance over a set of simple baselines.", "paraphrasing, Wikipedia, authoring aids" ]
taln-2012-long-016
Simplification syntaxique de phrases pour le français
Cet article présente une méthode de simplification syntaxique de textes français. La simplification syntaxique a pour but de rendre des textes plus abordables en simplifiant les éléments qui posent problème à la lecture. La méthode mise en place à cette fin s’appuie tout d’abord sur une étude de corpus visant à étudier les phénomènes linguistiques impliqués dans la simplification de textes en français. Nous avons ainsi constitué un corpus parallèle à partir d’articles de Wikipédia et Vikidia, ce qui a permis d’établir une typologie de simplifications. Dans un second temps, nous avons implémenté un système qui opère des simplifications syntaxiques à partir de ces observations. Des règles de simplification ont été décrites afin de générer des phrases simplifiées. Un module sélectionne ensuite le meilleur ensemble de phrases. Enfin, nous avons mené une évaluation de notre système montrant qu’environ 80% des phrases générées sont correctes.
[ "simplification automatique", "lisibilité", "analyse syntaxique" ]
[ "M", "U", "M" ]
[ "Syntactic Simplification for French Sentences", "This paper presents a method for the syntactic simplification of French texts. Syntactic simplification aims at making texts easier to understand by simplifying the elements that hinder reading. It is based on a corpus study that aimed at investigating the linguistic phenomena involved in the manual simplification of French texts. We have first gathered a parallel corpus of articles from Wikipedia and Vikidia, that we used to establish a typology of simplifications. In a second step, we implemented a system that carries out syntactic simplifications based on these corpus observations. We described simplification rules in order to generate simplified sentences. A module subsequently selects the best subset of sentences. The evaluation of our system shows that about 80% of the sentences produced by our system are accurate.", "automatic simplification, readability, syntactic analysis" ]
taln-2012-long-017
Étude comparative entre trois approches de résumé automatique de documents arabes
Dans cet article, nous proposons une étude comparative entre trois approches pour le résumé automatique de documents arabes. Ainsi, nous avons proposé trois méthodes pour l’extraction des phrases les plus représentatives d'un document. La première méthode se base sur une approche symbolique, la deuxième repose sur une approche numérique et la troisième se base sur une approche hybride. Ces méthodes sont implémentées respectivement par le système ARSTResume, le système R.I.A et le système HybridResume. Nous présentons, par la suite, les résultats obtenus par les trois systèmes et nous procédons à une étude comparative entre les résultats obtenus afin de souligner les avantages et les limites de chaque méthode. Les résultats de l’évaluation ont montré que l‘approche numérique est plus performante que l’approche symbolique au niveau des textes longs. Mais, l’intégration de ces deux approches en une approche hybride aboutit aux résultats les plus performants dans notre corpus de textes.
[ "Résumé automatique", "document arabe", "approche symbolique", "approche numérique", "approche hybride" ]
[ "P", "P", "P", "P", "P" ]
[ "Comparative study of three approaches to automatic summarization of Arabic documents", "In this paper, we propose a comparative study between three approaches for automatic summarization of Arabic documents. Thus, we proposed three methods for extracting most representative sentences of a document. The first method is based on a symbolic approach, the second is relied on a numerical approach and the third is based on a hybrid approach. These methods are implemented respectively by the ARSTResume, R.I.A and HybridResume systems. Then, we present the results obtained by the three systems and we conduct a comparative study between the obtained results in order to highlight the advantages and limitations of each method. The evaluation results showed that the numerical approach has better performances than the symbolic approach. But, combining into a hybrid approach achieved the best results for our text corpus.", "Automatic summarization, symbolic approach, numerical approach, hybrid approach, Arabic document" ]
taln-2012-long-018
Etude sémantique des mots-clés et des marqueurs lexicaux stables dans un corpus technique
Cet article présente les résultats d’une analyse sémantique quantitative des unités lexicales spécifiques dans un corpus technique, relevant du domaine des machines-outils pour l’usinage des métaux. L’étude vise à vérifier si et dans quelle mesure les mots-clés du corpus technique sont monosémiques. A cet effet, nous procédons à une analyse statistique de régression simple, qui permet d’étudier la corrélation entre le rang de spécificité des mots-clés et leur rang de monosémie, mais qui soulève des problèmes statistiques et méthodologiques, notamment un biais de fréquence. Pour y remédier, nous adoptons une approche alternative pour le repérage des unités lexicales spécifiques, à savoir l’analyse des marqueurs lexicaux stables ou Stable Lexical Marker Analysis (SLMA). Nous discutons les résultats quantitatifs et statistiques de cette approche dans la perspective de la corrélation entre le rang de spécificité et le rang de monosémie.
[ "sémantique quantitative", "unités lexicales spécifiques", "analyse des marqueurs lexicaux stables", "analyse des mots-clés", "analyse de régression" ]
[ "P", "P", "P", "R", "R" ]
[ "Semantic analysis of keywords and stable lexical markers in a technical corpus", "This article presents the results of a quantitative semantic analysis of typical lexical units in a specialised technical corpus of metalworking machinery in French. The study aims to find out whether and to what extent the keywords of the technical corpus are monosemous. A simple regression analysis, used to examine the correlation between typicality rank and monosemy rank of the keywords, points out some statistical and methodological problems, notably a frequency bias. In order to overcome these problems, we adopt an alternative approach for the identification of typical lexical units, called Stable Lexical Marker Analysis (SLMA). We discuss the quantitative and statistical results of this approach with respect to the correlation between typicality rank and monosemy rank.", "typical lexical units, Keyword Analysis, Stable Lexical Marker Analysis (SLMA), quantitative semantics, regression analysis" ]
taln-2012-long-019
Fouille de graphes sous contraintes linguistiques pour l'exploration de grands textes
Dans cet article, nous proposons une approche pour explorer des textes de taille importante en mettant en évidence des sous-parties cohérentes. Cette méthode d’exploration s’appuie sur une représentation en graphe du texte, en utilisant le modèle linguistique de Hoey pour sélectionner et apparier les phrases dans le graphe. Notre contribution porte sur l’utilisation de techniques de fouille de graphes sous contraintes pour extraire des sous-parties pertinentes du texte (c’est-à-dire des collections de sous-réseaux phrastiques homogènes). Nous avons réalisé des expérimentations sur deux textes anglais de taille conséquente pour montrer l’intérêt de l’approche que nous proposons.
[ "Fouille de graphes", "réseaux phrastiques", "analyse textuelle", "navigation textuelle" ]
[ "P", "M", "U", "U" ]
[ "Graph Mining Under Linguistic Constraints to Explore Large Texts", "In this paper, we propose an approach to explore large texts by highlighting coherent sub-parts. The exploration method relies on a graph representation of the text according to the Hoey linguistic model which allows the selection and the binding of sentences in the graph. Our contribution relates to using graph mining techniques under constraints to extract relevant subparts of the text (i.e., collections of homogeneous sentence sub-networks). We have conducted some experiments on two large English texts to show the interest of the proposed approach.", "Graph Mining, sentence networks, textual analysis, textual navigation" ]
taln-2012-long-020
Une étude en 3D de la paraphrase: types de corpus, langues et techniques
Cet article présente une étude détaillée de l’impact du type du corpus sur la tâche d’acquisition de paraphrases sous-phrastiques. Nos expériences sont menées sur deux langues et quatre types de corpus, et incluent une combinaison efficace de quatre systèmes d’acquisition de paraphrases. Nous obtenons une amélioration relative de plus de 27% en F-mesure par rapport au meilleur système, en anglais et en français, ainsi qu’une amélioration relative à notre combinaison de systèmes de 22% pour l’anglais et de 5% pour le français quand tous les types de corpus sont utilisés pour l’acquisition depuis le type de corpus le plus couramment disponible.
[ "acquisition de paraphrases", "constitution de corpus" ]
[ "P", "M" ]
[ "A study of paraphrase along 3 dimensions : corpus types, languages and techniques", "In this paper, we report a detailed study of the impact of corpus type on the task of sub-sentential paraphrase acquisition. Our experiments are for 2 languages and 4 corpus types, and involve an efficient machine learning-based combination of 4 paraphrase acquisition systems. We obtain relative improvements of more than 27% in F-measure over the best individual system on English and French, and obtain a relative improvement over the combination system of 22% for English and 5% for French when using all other corpus types as additional training data for our most readily available corpus type.", "paraphrase acquisition, corpus collection" ]
taln-2012-long-021
Détection et correction automatique d'erreurs d'annotation morpho-syntaxique du French TreeBank
La qualité de l’annotation morpho-syntaxique d’un corpus est déterminante pour l’entraînement et l’évaluation de méthodes d’étiquetage. Cet article présente une série d’expériences que nous avons menée sur la détection et la correction automatique des erreurs du French Treebank. Deux méthodes sont utilisées. La première consiste à identifier les mots sans étiquette et leur attribuer celle d’une forme correspondante observée dans le corpus. La seconde méthode utilise les variations de n-gramme pour détecter et corriger les anomalies d’annotation. L’évaluation des corrections apportées au corpus est réalisée de manière extrinsèque en comparant les scores de performance de différentes méthodes d’étiquetage morpho-syntaxique en fonction du niveau de correction. Les résultats montrent une amélioration significative de la précision et indiquent que la qualité du corpus peut être sensiblement améliorée par l’application de méthodes de correction automatique des erreurs d’annotation.
[ "correction automatique", "Étiquetage morpho-syntaxique", "qualité d’annotation" ]
[ "P", "P", "R" ]
[ "Detecting and correcting POS annotation in the French TreeBank", "The quality of the Part-Of-Speech (POS) annotation in a corpus has a large impact on training and evaluating POS taggers. In this paper, we present a series of experiments that we have conducted on automatically detecting and correcting annotation errors in the French TreeBank. Two methods are used. The first simply relies on identifying tokens with missing tags and correct them by assigning the tag the same token observed in the corpus. The second method uses n-gram variations to detect and correct conflicting annotations. The evaluation of the automatic correction is performed extrinsically by comparing the performance of different POS taggers in relation to the level of correction. Results show a statistically significant improvement in precision and indicate that the POS annotation quality can be noticeably enhanced by using automatic correction methods.", "Part-Of-Speech tagging, automatic correction, annotation quality" ]
taln-2012-long-022
Annotation sémantique du French Treebank à l’aide de la réécriture modulaire de graphes
Nous proposons d’annoter le French Treebank à l’aide de dépendances sémantiques dans le cadre de la DMRS en partant d’une annotation en dépendances syntaxiques de surface et en utilisant la réécriture modulaire de graphes. L’article présente un certain nombre d’avancées concernant le calcul de réécriture utilisé : l’utilisation de règles pour faire le lien avec des lexiques, en particulier le lexique des verbes de Dicovalence, et l’introduction de filtres pour écarter à certaines étapes les annotations incohérentes. Il présente aussi des avancées dans le système de réécriture lui-même, qui a une plus large couverture (constructions causatives, verbes à montée, . . .) et dont l’ordre des modules a été étudié de façon plus systématique. Ce système a été expérimenté sur l’ensemble du French Treebank à l’aide du prototype GREW, qui implémente le calcul de réécriture utilisé.
[ "dépendances", "DMRS", "réécriture de graphes", "interface syntaxe-sémantique" ]
[ "P", "P", "R", "U" ]
[ "Semantic Annotation of the French Treebank using Modular Graph Rewriting", "We propose to annotate the French Treebank with semantic dependencies in the framework of DMRS starting from an annotation with surface syntactic dependencies and using modular graph rewriting. The article presents some new results related to the rewriting calculus: the use of rules to make a link with lexicons, especially with the lexicon of verbs Dicovalence, and the introduction of filters to discard inconsistent annotations at some computation steps. It also presents new results related to the rewriting system itself: the system has a larger coverage (causative constructions, rising verbs, . . .) and the order between modules has been studied in a more systematic way. This system has been experimented on the whole French Treebank with the prototype GREW, which implements the used rewriting calculus.", "graph rewriting, syntax-semantics interface, dependencies, DMRS" ]
taln-2012-long-023
Enrichissement du FTB : un treebank hybride constituants/propriétés
Cet article présente les mécanismes de création d’un treebank hybride enrichissant le FTB à l’aide d’annotations dans le formalisme des Grammaires de Propriétés. Ce processus consiste à acquérir une grammaire GP à partir du treebank source et générer automatiquement les structures syntaxiques dans le formalisme cible en s’appuyant sur la spécification d’un schéma d’encodage adapté. Le résultat produit, en partant d’une version du FTB corrigée et modifiée en fonction de nos besoins, constitue une ressource ouvrant de nouvelles perspectives pour le traitement et la description du français.
[ "Treebank hybride", "Grammaires de Propriétés", "French Treebank" ]
[ "P", "P", "M" ]
[ "Enriching the French Treebank with Properties", "We present in this paper the hybridation of the French Treebank with Property Grammars annotations. This process consists in acquiring a PG grammar from the source treebank and generating the new syntactic encoding on top of the original one. The result is a new resource for French, opening the way to new tools and descriptions.", "Hybrid treebank, French Treebank, Property Grammars" ]
taln-2012-long-024
Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical
Nous présentons dans cet article la méthodologie de constitution et les caractéristiques du corpus Sequoia, un corpus en français, syntaxiquement annoté d’après un schéma d’annotation très proche de celui du French Treebank (Abeillé et Barrier, 2004), et librement disponible, en constituants et en dépendances. Le corpus comporte des phrases de quatre origines : Europarl français, le journal l’Est Républicain, Wikipédia Fr et des documents de l’Agence Européenne du Médicament, pour un total de 3204 phrases et 69246 tokens. En outre, nous présentons une application de ce corpus : l’évaluation d’une technique d’adaptation d’analyseurs syntaxiques probabilistes à des domaines et/ou genres autres que ceux du corpus sur lequel ces analyseurs sont entraînés. Cette technique utilise des clusters de mots obtenus d’abord par regroupement morphologique à l’aide d’un lexique, puis par regroupement non supervisé, et permet une nette amélioration de l’analyse des domaines cibles (le corpus Sequoia), tout en préservant le même niveau de performance sur le domaine source (le FTB), ce qui fournit un analyseur multi-domaines, à la différence d’autres techniques d’adaptation comme le self-training.
[ "Corpus arboré", "analyse syntaxique statistique", "adaptation de domaine" ]
[ "M", "M", "R" ]
[ "The Sequoia corpus : syntactic annotation and use for a parser lexical domain adaptation method", "We present the building methodology and the properties of the Sequoia treebank, a freely available French corpus annotated following the French Treebank guidelines (Abeillé et Barrier, 2004). The Sequoia treebank comprises 3204 sentences (69246 tokens), from the French Europarl, the regional newspaper L’Est Républicain, the French Wikipedia and documents from the European Medicines Agency. We then provide a method for parser domain adaptation, that makes use of unsupervised word clusters. The method improves parsing performance on target domains (the domains of the Sequoia corpus), without degrading performance on source domain (the French treenbank test set), contrary to other domain adaptation techniques such as self-training.", "Treebank, statistical parsing, parser domain adaptation" ]
taln-2012-court-001
ACOLAD Plateforme pour l’édition collaborative dépendancielle
Cet article présente une plateforme open-source pour l’édition collaborative de corpus de dépendances. Cette plateforme, nommée ACOLAD (Annotation de COrpus Linguistique pour l’Analyse de Dépendances), propose des services manuels de segmentation et d’annotation multi-niveaux (segmentation en mots et en syntagmes minimaux (chunks), annotation morphosyntaxique des mots, annotation syntaxique des chunks et annotation syntaxique des dépendances entre mots ou entre chunks). Dans cet article, nous présentons la plateforme ACOLAD, puis nous détaillons la représentation pivot utilisée pour gérer les annotations concurrentes, enfin décrivons le mécanisme d’importation de ressources linguistiques externes.
[ "dépendances", "annotations concurrentes", "annotation collaborative de corpus" ]
[ "P", "P", "R" ]
[ "ACOLAD: platform for collaborative dependency annotation", "This paper presents an open-source platform for collaborative editing dependency corpora. ACOLAD platform (Annotation of corpus linguistics for the analysis of dependencies) offers manual annotation services such as segmentation and multi-level annotation (segmentation into words and phrases minimum (chunks), morphosyntactic annotation of words, syntactic annotation chunks and annotating syntactic dependencies between words or chunks). In this paper, we present ACOLAD platform, then we detail the representation used to manage concurrent annotations, then we describe the mechanism for importing external linguistic resources.", "corpus collaborative annotation, concurrent annotations, dependencies" ]
taln-2012-court-002
Extraction de préférences à partir de dialogues de négociation
Cet article présente une approche linguistique pour l’extraction d’expressions de préférence à partir de dialogues de négociation. Nous proposons un nouveau schéma d’annotation pour encoder les préférences et les dépendances exprimées linguistiquement dans deux genres de corpus différents. Ensuite, nous proposons une méthode d’apprentissage qui extrait les expressions de préférence en utilisant une combinaison de traits locaux et discursifs. Finalement, nous évaluons la fiabilité de notre approche sur chaque genre de corpus.
[ "Préférence", "dialogue", "apprentissage automatique" ]
[ "P", "P", "M" ]
[ "Towards Preference Extraction From Negotiation Dialogues", "This paper presents an NLP based approach for preference expression extraction from negotiation dialogues. We propose a new annotation schema for preferences and dependencies among them and illustrate on two different corpus genres. We then suggest a learning approach that efficiently extracts preference expressions using a combination of local and discursive features and assess the reliability of our approach on each corpus genre.", "Preference, dialogue, machine learning" ]
taln-2012-court-003
Détection de conflits dans les communautés épistémiques en ligne
La présence de conflits dans les communautés épistémiques en ligne peut s’avérer bloquante pour l’activité de conception. Nous présentons une étude sur la détection automatique de conflit dans les discussions entre contributeurs Wikipedia qui s’appuie sur des traits de surface tels que la subjectivité ou la connotation des énoncés et évaluons deux règles de décision : l’une découle d’un modèle dialectique en exploitant localement la structure linéaire de la discussion, la subjectivité et la connotation ; l’autre, plus globale, ne s’appuie que sur la taille des fils et les marques de subjectivité au détriment des marques de connotation. Nous montrons que ces deux règles produisent des résultats similaires mais que la simplicité de la règle globale en fait une approche préférée dans la détection des conflits.
[ "conflit", "wikipedia", "syntaxe", "sémantique", "interaction" ]
[ "P", "P", "U", "U", "U" ]
[ "Conflicts detection in online epistemic communities", "Conflicts in online epistemic communities can be a blocking factor when producing knowledge. We present a way to automatically detect conflict in Wikipedia discussions, based on subjectivity and connotation marks. Two rules are evaluated : a local rule that uses the structure of the discussion threads, connotation and subjectivity marks and a global rule that takes the whole thread into account and only subjectivity. We show that the two rules produce similar results but that the simplicity of the global rule makes it a preferred approach to detect conflicts.", "wikipedia, conflict, syntax, semantics, interaction" ]
taln-2012-court-004
Quel est l'apport de la détection d'entités nommées pour l'extraction d'information en domaine restreint ?
Les travaux liés à la définition et à la reconnaissance des entités nommées sont généralement envisagés en domaine ouvert, à travers la conception de catégories génériques (noms de personnes, de lieux, etc.) et leur application à des données textuelles issues de la presse (orale comme écrite). Par ailleurs, la fouille des données issues de centres d’appel est stratégique pour une entreprise comme EDF, compte tenu du rôle crucial joué par l’opinion pour les applications marketing, ce qui passe par la définition d’entités d’intérêt propres au domaine. Nous comparons les deux types de modèles d’entités - génériques et spécifiques à un domaine précis - afin d’observer leurs points de recouvrement, via l’annotation manuelle d’un corpus de conversations en centres d’appel. Nous souhaitons ainsi étudier l’apport d’une détection en entités nommées génériques pour l’extraction d’information métier en domaine restreint.
[ "entités nommées", "annotation", "extraction d’information", "concepts métier", "données conversationnelles" ]
[ "P", "P", "P", "R", "M" ]
[ "What is the contribution of named entities detection for information extraction in restricted domain ?", "In the framework of general domain dialog corpora a particular focus is dedicated to Named Entities definition and recognition, which are mostly very generic (personal names, locations, etc.). Moreover, call-centre data mining is strategic for a company like EDF, the public opinion analysis playing a significant role in EDF services quality evaluation and for marketing applications. In this purpose a domain dependant definition of entities of interest is essential. In this primary work we compare two types of entities models (generic and specific to the domain) in order to observe their respective coverage. We annotated manually a sub-corpus extracted from a large corpus of oral dialogs recorded in an EDF call-centre. The respective proportion of generic vs domain-specific Named Entities is then estimated. Impact for future work on building EDF domain-specific entities models is discussed.", "named entities, business concept, information extraction, conversational data, annotation" ]
taln-2012-court-005
Sur l'application de méthodes textométriques à la construction de critères de classification en analyse des sentiments
Depuis une dizaine d'années, le TAL s'intéresse à la subjectivité, notamment dans la perspective d'applications telles que la fouille d'opinion et l'analyse des sentiments. Or, la linguistique de corpus outillée par des méthodes textométriques a souvent abordé la question de la subjectivité dans les textes. Notre objectif est de montrer d'une part, ce que pourrait apporter à l'analyse des sentiments l'analyse textométrique et d'autre part, comment mutualiser les avantages d'une association entre celle-ci et une méthode de classification automatique basée sur l'apprentissage supervisé. En nous appuyant sur un corpus de témoignages issus de forums de discussion, nous montrerons que la prise en compte de critères sélectionnés suivant une analyse textométrique permet d'obtenir des résultats de classification satisfaisants par rapport à une vision purement lexicale.
[ "textométrie", "analyse de sentiments", "linguistique de corpus", "classification automatique supervisée" ]
[ "P", "P", "P", "R" ]
[ "About the application of textometric methods for developing classification criteria in Sentiment analysis", "Over the last ten years, NLP has contributed to applied research on subjectivity, especially in applications such as Opinion mining and Sentiment analysis. However, corpus linguistics and textometry have often addressed the issue of subjectivity in text. Our purpose is to show, !rst, what textometric analysis could bring to sentiment analysis, and second, the bene!ts of pooling linguistic/textometric analysis and automatic classification methods based on supervised learning. By processing a corpus of posts from fora, we will show that the building of criteria from a textometric analysis could improve classification results, compared to a purely lexical approach.", "corpus linguistics, textometry, sentiment analysis, supervised learning" ]
taln-2012-court-006
Méthodologie d'exploration de corpus et de formalisation de règles grammaticales pour les langues des signes
Cet article présente une méthodologie visant, à partir d'une observation de corpus vidéo de langue des signes, à repérer puis formaliser les régularités de structure dans les constructions linguistiques. Cette méthodologie est applicable à tous les niveaux du langage, du sub-lexical à l'énoncé complet. En s'appuyant sur deux exemples, il présente une application de cette méthodologie ainsi que le modèle AZee qui, intégrant la souplesse nécessaire en termes de synchronisation des articulateurs, permet une formalisation des règles repérées.
[ "Langue des signes", "synchronisation", "analyse de corpus", "modèle grammatical" ]
[ "P", "P", "M", "R" ]
[ "Methodology for corpus exploration and grammatical rule building in Sign Language", "This paper presents a methodology for Sign Language video observation to extract and then formalise observed linguistic structure. This methodology is relevant to all linguistic layers from sub-lexical to discourse as a whole. Relying on two examples, we apply this methodology and describe the AZee model, which integrates the required flexibility for synchronising articulators, hence enables a specification of any new systematic rule observed.", "Sign Language, corpus analysis, grammatical models, synchronisation" ]
taln-2012-court-007
Annotation manuelle de matchs de foot : Oh la la la ! l'accord inter-annotateurs ! et c'est le but !
Cet article présente une campagne d’annotation de commentaires de matchs de football en français. L’annotation a été réalisée à partir d’un corpus très hétérogène, contenant à la fois des comptes-rendus minute par minute et des transcriptions des commentaires vidéo. Nous montrons ici comment les accords intra- et inter-annotateurs peuvent être utilisés efficacement, en en proposant une définition adaptée à notre type de tâche et en mettant en exergue l’importance de certaines bonnes pratiques concernant leur utilisation. Nous montrons également comment certains indices collectés à l’aide d’outils statistiques simples peuvent être utilisés pour indiquer des pistes de corrections des annotations. Ces différentes propositions nous permettent par ailleurs d’évaluer l’impact des modalités sources de nos textes (oral ou écrit) sur le coût et la qualité des annotations.
[ "annotation manuelle", "accords inter-annotateurs" ]
[ "P", "P" ]
[ "Manual Annotation of Football Matches : Inter-annotator Agreement ! Gooooal !", "We present here an annotation campaign of commentaries of football matches in French. The annotation was done from a very heterogeneous text corpus of both match minutes and video commentary transcripts. We show how the intra- and inter-annotator agreement can be used efficiently during the whole campaign by proposing a definition of the markables suited to our type of task, as well as emphasizing the importance of using it appropriately. We also show how some clues, collected through statistical analyses, could be used to help correcting the annotations. These statistical analyses are then used to assess the impact of the source modality (written or spoken) on the cost and quality of the annotation process.", "manual annotation, inter-annotator agreement" ]
taln-2012-court-008
Etude de différentes stratégies d'adaptation à un nouveau domaine en fouille d'opinion
Le travail présenté dans cet article se situe dans le contexte de la fouille d’opinion et se focalise sur la détermination de la polarité d’un texte en adoptant une approche par apprentissage. Dans ce cadre, son objet est d’étudier différentes stratégies d’adaptation à un nouveau domaine dans le cas de figure fréquent où des données d’entraînement n’existent que pour un ou plusieurs domaines différents du domaine cible. Cette étude montre en particulier que l’utilisation d’une forme d’auto-apprentissage par laquelle un classifieur annote un corpus du domaine cible et modifie son corpus d’entraînement en y incorporant les textes classés avec la plus grande confiance se révèle comme la stratégie la plus performante et la plus stable pour les différents domaines testés. Cette stratégie s’avère même supérieure dans un nombre significatif de cas à la méthode proposée par (Blitzer et al., 2007) sur les mêmes jeux de test tout en étant plus simple.
[ "adaptation à un nouveau domaine", "fouille d’opinion", "auto-apprentissage" ]
[ "P", "P", "P" ]
[ "Study of various strategies for adapting an opinion classifier to a new domain", "The work presented in this article takes place in the field of opinion mining and aims more particularly at finding the polarity of a text by relying on machine learning methods. In this context, it focuses on studying various strategies for adapting a statistical classifier to a new domain when training data only exist for one or several other domains. This study shows more precisely that a self-training procedure consisting in enlarging the initial training corpus with texts from the target domain that were reliably classified by the classifier is the most successful and stable strategy for the tested domains. Moreover, this strategy gets better results in most cases than (Blitzer et al., 2007)’s method on the same evaluation corpus while it is more simple.", "opinion mining, domain adaptation, self-training" ]
taln-2012-court-009
Le Lexicoscope : un outil pour l'étude de profils combinatoires et l'extraction de constructions lexico-syntaxiques
Dans le cadre du projet franco-allemand Emolex, dédié à l'étude contrastive de la combinatoire du lexique des émotions en 5 langues, nous avons développé des outils et des méthodes permettant l'extraction, la visualisation et la comparaison de profls combinatoires pour des expressions simples et complexes. Nous présentons ici l'architecture d'ensemble de la plate-forme, conçue pour efectuer des extractions sur des corpus de grandes dimensions (de l'ordre de la centaine de millions de mots) avec des temps de réponse réduits (le corpus étant interrogeable en ligne1). Nous décrivons comment nous avons introduit la notion de pivots complexes, afn de permettre aux utilisateurs de rafner progressivement leurs requêtes pour caractériser des constructions lexico-syntaxiques élaborées. Enfn, nous donnons les premiers résultats d'un module d'extraction automatique d'expressions polylexicales récurrentes.
[ "lexique des émotions", "profl combinatoire", "expressions polylexicales", "collocations", "cooccurrences" ]
[ "P", "P", "P", "U", "U" ]
[ "The Lexicoscope : an integrated tool for combinatoric profles observation and lexico-syntactic constructs extraction", "The German-French research project Emolex whose aim is the contrastive study of the combinatorial behaviour of emotion lexemes in 5 languages has led to the development of methods and tools to extract, display and compare the combinatorial profles of simple and complex expressions. In this paper, we present the overall architecture of the query platform which has been conceived to ensure efcient processing of huge annotated text corpora (consisting of several hundred millions of word tokens) accessible through a web-based interface. We put forward the concept of “complex query nodes” introduced to enable users to carry out progressively elaborated extractions of lexical-syntactic patterns. We fnally give primary results of an automated method for the retrieval of recurrent multi-word expressions, which takes advantage of the complex query nodes implementation.", "collocations, combinatorial profles, multi-word expressions" ]
taln-2012-court-010
Analyse des contextes et des candidats dans l'identification des équivalents terminologiques en corpus comparables
L’approche standard d’identification d’équivalents terminologiques à partir de corpus comparables repose sur la comparaison de mots contextuels en langues source et cible et sur l’utilisation d’un lexique bilingue. Nous analysons manuellement, selon des critères linguistiques (parties du discours, spécificité et relations sémantiques), les propriétés des mots contextuels et des erreurs commises par l’approche standard appliquée à la terminologie médicale pour suggérer des améliorations basées sur la sélection de mots contextuels.
[ "équivalents terminologiques", "corpus comparables", "terminologie médicale", "vecteurs contextuels", "étude qualitative" ]
[ "P", "P", "P", "M", "U" ]
[ "Analysis of contexts and candidates in term-translation spotting in comparable corpora", "The standard approach for identifying terminological equivalents from comparable corpora is based on the comparison of source and target language context words using a bilingual lexicon. We cary a manual analysis of the linguistic properties (parts of speech, specificity and semantic relations) of the context words and the inacurrate equivalents given by the standard approach applied to medical terminology, in order to suggest improvements based on the selection of context words.", "terminological equivalents, contextual vectors, comparable corpora, medical terminology, qualitative study." ]
taln-2012-court-011
BiTermEx Un prototype d'extraction de mots composés à partir de documents comparables via la méthode compositionnelle
Nous décrivons BiTermEx, un prototype d'expérimentation de l'extraction de terminologie bilingue de mots composés, à partir de documents comparables, via la méthode compositionnelle. Nous expliquons la variation morphologique et la combinaison des constituants lexicaux des termes composés. Cette permet une précision TOP1 de 92% et 97,5% en français anglais, et de 94% en français japonais pour l'alignement de termes composés (textes scientifiques et de vulgarisation scientifique).
[ "prototype", "mots composés", "documents comparables", "méthode compositionnelle", "terminologie bilingue", "extraction terminologique", "corpus" ]
[ "P", "P", "P", "P", "P", "R", "U" ]
[ "BiTermEx , A prototype for the extraction of multiword terms from comparable documents through the compositional approach", "We describe BiTermEx, a prototype for extracting multiword terms from comparable corpora, using the compositional method. We focus on morphology-based variations of multiword constituents and their recombinaison. We experimented our approach on scientific and popular science corpora. We record TOP1 precisions of 92% and 97,5% on French to English alignments and 94% on French to Japanese.", "term extraction, prototype, bilingual terminology, comparable documents, compositional method, multiword terms, corpus" ]
taln-2012-court-012
Combinaison d'approches pour l'extraction automatique d'événements
Dans cet article, nous présentons un système d’extraction automatique d’événements fondé sur deux approches actuelles en extraction d’information : la première s’appuie sur des règles linguistiques construites manuellement et la seconde se fonde sur un apprentissage automatique de patrons linguistiques. Les expérimentations réalisées montrent que combiner ces deux méthodes d’extraction permet d’améliorer significativement la qualité des événements extraits (amélioration de près de 10 points de F-mesure).
[ "événements", "Extraction d’information", "approche symbolique", "apprentissage de patrons linguistiques" ]
[ "P", "P", "M", "R" ]
[ "Automatic events extraction by combining multiple approaches", "In this paper, we present an automatic system for extracting events based on the combination of two existing information extraction approaches : the first one is made of hand-crafted linguistic rules and the second one is based on an automatic learning of linguistic patterns. We have shown that this mixed approach leads to a significant improvement of extraction performances.", "Text mining, events, symbolic extraction, linguistic pattern learning" ]
taln-2012-court-013
Apprentissage automatique d'un chunker pour le français
Nous décrivons dans cet article comment nous avons procédé pour apprendre automatiquement un chunker à partir du French Tree Bank, en utilisant les CRF (Conditional Random Fields). Nous avons réalisé diverses expériences, pour reconnaître soit l’ensemble de tous les chunks possibles, soit les seuls groupes nominaux simples. Nous évaluons le chunker obtenu aussi bien de manière interne (sur le French Tree Bank lui-même) qu’externe (sur un corpus distinct transcrit de l’oral), afin de mesurer sa robustesse.
[ "apprentissage automatique", "French Tree Bank", "CRF", "chunking" ]
[ "P", "P", "P", "U" ]
[ "Machine Learning of a chunker for French", "We describe in this paper how to automatically learn a chunker for French, from the French Tree Bank and CRFs (Conditional Random Fields). We did several experiments, either to recognize every possible kind of chunks, or to focus on simple nominal phrases only. We evaluate the obtained chunker on internal data (i.e. also extracted from the French Tree Bank) as well as on external (i.e from a distinct corpus) ones, to measure its robustness.", "chunking, Machine Learning, French Tree Bank, CRF" ]
taln-2012-court-014
Effacement de dimensions de similarité textuelle pour l’exploration de collections de rapports d’incidents aéronautiques
Cet article étudie le lien entre la similarité textuelle et une classification extrinsèque dans des collections de rapports d’incidents aéronautiques. Nous cherchons à compléter les stratégies d’analyse de ces collections en établissant automatiquement des liens de similarité entre les documents de façon à ce qu’ils ne reflètent pas l’organisation des schémas de codification utilisés pour leur classement. Afin de mettre en évidence les dimensions de variation transversales à la classification, nous calculons un score de dépendance entre les termes et les classes et excluons du calcul de similarité les termes les plus corrélés à une classe donnée. Nous montrons par une application sur 500 documents que cette méthode permet effectivement de dégager des thématiques qui seraient passées inaperçues au vu de la trop grande saillance des similarités de haut niveau.
[ "similarité textuelle", "classification de documents", "corpus spécialisé" ]
[ "P", "R", "U" ]
[ "Deletion of dimensions of textual similarity for the exploration of collections of accident reports in aviation", "In this paper we study the relationship between external classification and textual similarity in collections of incident reports. Our goal is to complement the existing classification-based analysis strategies by automatically establishing similarity links between documents in such a way that they do not reflect the dominant organisation of the classification schemas. In order to discover such transversal dimensions of similarity, we compute association scores between terms and classes and exlude the most correlated terms from the similarity calculation. We demonstrate on a 500 document corpus that by using this method, we can isolate topics that would otherwise have been masked by the dominant dimensions of similarity in the collection.", "textual simliarity, document classification, specialised corpora" ]
taln-2012-court-015
Traduction automatique à partir de corpus comparables: extraction de phrases parallèles à partir de données comparables multimodales
Les performances des systèmes de traduction automatique statistique dépendent de la disponibilité de textes parallèles bilingues, appelés aussi bitextes. Cependant, les corpus parallèles sont des ressources limitées et parfois indisponibles pour certains couples de langues ou domaines. Nous présentons une technique pour l’extraction de phrases parallèles à partir d’un corpus comparable multimodal (audio et texte). Ces enregistrements sont transcrits avec un système de reconnaissance automatique de la parole et traduits avec un système de traduction automatique. Ces traductions sont ensuite utilisées comme requêtes d’un système de recherche d’information pour sélectionner des phrases parallèles sans erreur et générer un bitexte. Plusieurs expériences ont été menées sur les données de la campagne IWSLT’11 (TED) qui montrent la faisabilité de notre approche.
[ "extraction de phrases parallèles", "traduction automatique statistique", "corpus comparables multimodaux", "Reconnaissance de la parole" ]
[ "P", "P", "P", "R" ]
[ "Automatic Translation from Comparable corpora : extracting parallel sentences from multimodal comparable corpora", "Statistical Machine Translation (SMT) systems depend on the availability of bilingual parallel text, also called bitext. However parallel corpora are a limited resource and are often not available for some domains or language pairs. We present an alternative method for extracting parallel sentences from multimodal comparable corpora. This work extends the use of comparable corpora, in using audio instead of text on the source side. The audio is transcribed by an automatic speech recognition system and translated with a base-line SMT system. We then use information retrieval in a large text corpus of the target language to extract parallel sentences. We have performed a series of experiments on data of the IWSLT’11 speech translation task (TED) that shows the feasibility of our approach.", "Automatic speech recognition, statistical machine translation, multimodal comparable corpora, extraction of parallel sentences" ]
taln-2012-court-016
La reconnaissance automatique de la fonction des pronoms démonstratifs en langue arabe
La résolution d'anaphores est l'une des tâches les plus difficiles du Traitement Automatique du Langage Naturel (TALN). La capacité de classifier les pronoms avant de tenter une tâche de résolution d'anaphores serait importante, puisque pour traiter un pronom cataphorique le système doit chercher l’antécédent dans le segment qui suit le pronom. Alors que, pour le pronom anaphorique, le système doit chercher l’antécédent dans le segment qui précède le pronom. En outre, le nombre des pronoms a été jugée non-trivial dans la langue arabe. C’est dans ce cadre que se situe notre travail qui consiste à proposer une méthode pour la classification automatique des pronoms démonstratifs arabes, basée sur l’apprentissage. Nous avons évalué notre approche sur un corpus composé de 365585 mots contenant 14318 pronoms démonstratifs et nous avons obtenu des résultats encourageants : 99.3% comme F-Mesure.
[ "Pronoms démonstratifs", "résolution des anaphores", "traitement de la langue arabe" ]
[ "P", "R", "R" ]
[ "Automatic recognition of demonstrative pronouns function in Arabic", "Anaphora resolution is one of the most difficult tasks in NLP. Classifying pronouns before attempting a task of anaphora resolution is important because to handle the cataphoric pronoun, the system should determine the antecedent into the segment following the pronoun. Although, for the anaphoric pronoun, the system should look for the antecedent into the segment before the pronoun. In addition, the number of demonstrative pronouns is very important in Arabic. In this paper, we describe a machine learning method for classifying demonstrative pronouns in Arabic. We have evaluated our approach on a corpus of 365585 words which contain 14318 demonstrative pronouns and we have obtained encouraging results: 99.3% as F-Measure.", "Demonstrative pronouns, anaphora resolution, ANLP" ]
taln-2012-court-017
Un annotateur automatique d'expressions temporelles du français et son évaluation sur le TimeBank du français
Dans cet article, nous présentons un outil d’extraction et de normalisation d’un sous-ensemble d’expressions temporelles développé pour le français. Cet outil est mis au point et utilisé dans le cadre du projet ANR Chronolines1 et il est appliqué sur un corpus fourni par l’AFP. Notre but final dans le cadre du projet est de construire semi-automatiquement des chronologies événementielles à partir de la base de depêches de l’AFP. L’une des étapes du traitement est l’analyse de l’information temporelle véhiculée dans les textes. Nous avons donc développé un annotateur d’expressions temporelles pour le français que nous décrivons dans cet article. Nous présenterons également les résultats de son évaluation.
[ "évaluation", "Analyse temporelle" ]
[ "P", "R" ]
[ "An Automatic Temporal Expression Annotator and its Evaluation on the French TimeBank", "In this article, we present a tool that extracts and normalises a subset of temporal expressions in French. This tool is being developed and used in the ANR (French National Research Agency) project Chronolines, applied to a corpus of provided by the Agence France Presse. The aim of the project is to semi-automatically construct event chronologies from this corpus. To do this, a detailed analysis of the temporal information conveyed by texts, is required. The system we present here is the first version of a temporal annotator that we have developed for French. We describe it in this article and present the results of an evaluation.", "Temporal processing, evaluation" ]
taln-2012-court-018
Vers le FDTB : French Discourse Tree Bank
Nous présentons les premiers pas vers la création d’un corpus annoté en discours pour le français : le French Discourse TreeBank enrichissant le FTB. La méthodologie adoptée s’inspire du Penn Discourse TreeBank (PDTB) mais elle s’en distingue sur au moins deux points à caractère théorique. D’abord, notre objectif est de fournir une couverture totale d’un texte du corpus, tandis que le PDTB ne fournit qu’une couverture partielle, qui ne peut donc pas être qualifiée d’analyse discursive comme celle faite en RST ou SDRT, deux théories majeures sur le discours. Ensuite, nous avons été amenés à définir une nouvelle hiérarchie des relations de discours qui s’inspire de RST, de SDRT et du PDTB.
[ "Discours", "PDTB", "analyse discursive", "RST", "SDRT", "corpus annoté manuellement" ]
[ "P", "P", "P", "P", "P", "M" ]
[ "Towards the FDTB : French Discourse Tree Bank", "We present the first steps towards creating an annotated corpus for discourse in French : the French Discourse Treebank enriching the FTB. Our methodology is based on the Penn Discourse Treebank (PDTB), but it differs in at least two points of a theoretical nature. First, our goal is to provide full coverage of a text, while the PDTB provides only partial coverage, which can not be described as discourse analysis such as the one made in RST or SDRT, two major theories on discourse. Second, we were led to define a new hierarchy of discourse relations which is based on RST, SDRT and PDTB.", "Discourse, manually annotated corpus, discourse analysis, PDTB, RST, SDRT" ]
taln-2012-court-019
Combinaison de ressources générales pour une contextualisation implicite de requêtes
L’utilisation de sources externes d’informations pour la recherche documentaire a été considérablement étudiée dans le passé. Des améliorations de performances ont été mises en lumière avec des corpus larges ou structurés. Néanmoins, dans ces études les ressources sont souvent utilisées séparément mais rarement combinées. Nous présentons une évaluation de la combinaison de quatre différentes ressources générales, standards et accessibles. Nous utilisons une mesure de distance informative pour extraire les caractéristiques contextuelles des différentes ressources et améliorer la représentation de la requête. Cette évaluation est menée sur une tâche de recherche d’information sur le Web en utilisant le corpus ClueWeb09 et les topics de la piste Web de TREC. Les meilleurs résultats sont obtenus en combinant les quatre ressources, et sont statistiquement significativement supérieurs aux autres approches.
[ "Combinaison de ressources", "RI contextuelle", "recherche web" ]
[ "P", "M", "R" ]
[ "Query Contextualization and Reformulation by Combining External Corpora", "Improving document retrieval using external sources of information has been extensively studied throughout the past. Improvements with either structured or large corpora have been reported. However, in these studies resources are often used separately and rarely combined together. We present an evaluation of the combination of four different scalable corpora over a web search task. An informative divergence measure is used to extract contextual features from the corpora and improve query representation. We use the ClueWeb09 collection along with TREC’s Web Track topics for the purpose of our evaluation. Best results are achieved when combining all four corpora, and are significantly better than the results of other approaches.", "Resources combination, contextual IR, web search." ]
taln-2012-court-020
Repérage des entités nommées pour l'arabe : adaptation non-supervisée et combinaison de systèmes
La détection des Entités Nommées (EN) en langue arabe est un prétraitement potentiellement utile pour de nombreuses applications du traitement des langues, en particulier pour la traduction automatique. Cette tâche représente toutefois un sérieux défi, compte tenu des spécificités de l’arabe. Dans cet article, nous présentons un compte-rendu de nos efforts pour développer un système de repérage des EN s’appuyant sur des méthodes statistiques, en détaillant les aspects liés à la sélection des caractéristiques les plus utiles pour la tâche ; puis diverses tentatives pour adapter ce système d’une manière entièrement non supervisée.
[ "Repérage des entités nommées", "Adaptation non supervisée" ]
[ "P", "R" ]
[ "Named Entity Recognition for Arabic : Unsupervised adaptation and Systems combination", "The recognition of Arabic Named Entities (NE) is a potentially useful preprocessing step for many Natural Language Processing Applications, such as Machine Translation. This task is however made very complex by some peculiarities of the Arabic language. In this paper, we present a summary of our recent efforts aimed at developing a statistical NE recognition system, with a specific focus on feature engineering aspects. We also report several approaches for adapting this system in an entirely unsupervised manner to a new domain.", "Unsupervised domain adaptation, named entity recognition" ]
taln-2012-court-021
Propagation de polarités dans des familles de mots : impact de la morphologie dans la construction d'un lexique pour l'analyse de sentiments
Les ressources lexicales sont cruciales pour de nombreuses applications de traitement automatique de la langue (par exemple, l'extraction d'opinions à partir de corpus). Cependant, leur construction pose des problèmes à différents niveaux (coût, couverture, etc.). Dans cet article, nous avons voulu vérifier si les informations morphologiques liées à la dérivation pouvaient être exploitées pour l'annotation automatique d'informations sémantiques. En partant d'une ressource regroupant les mots en familles morphologiques en français, nous avons construit un lexique de polarités pour 4 065 mots, à partir d'une liste initiale d'adjectifs annotés manuellement. Les résultats obtenus montrent que la propagation des polarités est correcte pour 78,89% des familles avec un seul adjectif. Le lexique ainsi obtenu améliore aussi les résultats du système d'extraction d'opinions.
[ "analyse de sentiments", "ressources lexicales", "morphologie dérivationnelle" ]
[ "P", "P", "M" ]
[ "Spreading Polarities among Word Families: Impact of Morphology on Building a Lexicon for Sentiment Analysis", "Lexical resources are essential for many natural language applications (for example, opinion mining from corpora). However, building them entails different problems (cost, coverage, etc.). In this paper, we wanted to verify whether morphological information about derivation could be used to automatically annotate semantic information. Starting from a resource that groups words into morphological families in French, we have built a lexicon with polarities for 4 065 words from an initial seed set of manual annotated adjectives. The results obtained show that spreading polarities is accurate for 78.89% of the families with a unique adjective. The lexicon obtained also improves the results of the opinion mining system on different corpora.", "lexical resources, derivational morphology, opinion mining" ]
taln-2012-court-022
Transitions thématiques : Annotation d'un corpus journalistique et premières analyses
Le travail présenté dans cet article est centré sur la constitution d’un corpus de textes journalistiques annotés au niveau discursif d’un point de vue thématique. Le modèle d’annotation est une segmentation classique, à laquelle nous ajoutons un repérage de zones de transition entre unités thématiques. Nous faisons l’hypothèse que dans un texte bien construit, le scripteur fournit des indications aidant le lecteur à passer d’un sujet à un autre, l’identification de ces indices étant susceptible d’améliorer les procédures de segmentation automatique. Les annotations produites ont fait l’objet d’analyses quantitatives mettant en évidence un ensemble de propriétés des transitions entre thèmes.
[ "transitions thématiques", "annotation", "Structure du discours", "segments thématiques" ]
[ "P", "P", "U", "R" ]
[ "Manual thematic annotation of a journalistic corpus : first observations and evaluation", "The work presented in this paper focuses on the creation of a corpus of journalistic texts annotated at dicourse level, more precisely on a topic level. The annotation model is a classic segmentation one, to which we add transition zones between topical units. We assume that in a well-structured text, the author provides information helping the reader to move from one topic to another, where an identification of these clues is likely to improve automatic segmentation. The produced annotations have been subject of several quantitative analyses showing a set of linguistic properties of topical transitions.", "Discourse structure, topical segments, topical transitions, annotation" ]
taln-2012-court-023
La "multi-extraction" comme stratégie d'acquisition optimisée de ressources terminologiques et non terminologiques
A partir de l'évaluation d'extracteurs de termes menée initialement pour détecter le meilleur outil d'acquisition du lexique d'une langue contrôlée, nous proposons dans cet article une stratégie d'optimisation du processus d'extraction terminologique. Nos travaux, menés dans le cadre du projet ANR Sensunique, prouvent que la « multiextraction », c'est-à-dire la coopération de plusieurs extracteurs de termes, donne des résultats significativement meilleurs que l’extraction via un seul outil. Elle permet à la fois de réduire le silence et de filtrer automatiquement le bruit grâce à la variation d'un indice relatif au potentiel terminologique.
[ "extraction", "terminologie", "langue contrôlée", "potentiel terminologique", "filtrage de termes" ]
[ "P", "P", "P", "P", "M" ]
[ "Multi-extraction as a strategy of optimized extraction of terminological and lexical resources", "Based on the evaluation of terminological extractors, initially to find the best tool for building a controlled language lexicon, we propose a strategy of optimized extraction of terminological resources. Our work highlights that the cooperation of several extraction tools gives better results than the use of a single one. It both reduces silence and automatically filters noise thanks to a variable related to termhood.", "terminology, extraction, controlled language, termhood, term filtering" ]
taln-2012-court-024
Une Approche de Recherche d’Information Structurée fondée sur la Correction d’Erreurs à l’Indexation des Documents
Dans cet article, nous nous sommes intéressés à la prise en compte des erreurs dans les contenus textuels des documents XML. Nous proposons une approche visant à diminuer l’impact de ces erreurs sur les systèmes de Recherche d’Information (RI). En effet, ces systèmes produisent des index associant chaque document aux termes qu’il contient. Les erreurs affectent donc la qualité des index ce qui conduit par exemple à considérer à tort des documents mal indexés comme non pertinents (resp. pertinents) vis-à-vis de certaines requêtes. Afin de faire face à ce problème, nous proposons d’inclure un mécanisme de correction d’erreurs lors de la phase d’indexation des documents. Nous avons implémenté cette approche au sein d’un prototype que nous avons évalué dans le cadre de la campagne d’évaluation INEX.
[ "Recherche d’information", "correction d’erreurs", "xml", "dysorthographie" ]
[ "P", "P", "P", "U" ]
[ "Structured Information Retrieval Approach based on Indexing Time Error Correction", "In this paper, we focused on errors in the textual content of XML documents. We propose an approach to reduce the impact of these errors on Information Retrieval (IR) systems. Indeed, these systems rely on indexes associating each document to corresponding terms. Indexes quality is negatively affected by those misspellings. These errors makes it difficult to later retrieve documents (or parts of them) in an effective way during the querying phase. In order to deal with this problem we propose to include an error correction mechanism during the indexing phase of documents. We achieved an implementation of this spelling aware information retrieval system which is currently evaluated over INEX evaluation campaign documents collection.", "Information retrieval, misspellings, error correction, xml" ]
taln-2012-court-025
Post-édition statistique pour l'adaptation aux domaines de spécialité en traduction automatique
Cet article présente une approche de post-édition statistique pour adapter aux domaines de spécialité des systèmes de traduction automatique génériques. En utilisant les traductions produites par ces systèmes, alignées avec leur traduction de référence, un modèle de post-édition basé sur un alignement sous-phrastique est construit. Les expériences menées entre le français et l’anglais pour le domaine médical montrent qu’une telle adaptation a posteriori est possible. Deux systèmes de traduction statistiques sont étudiés : une implémentation locale état-de-l’art et un outil libre en ligne. Nous proposons aussi une méthode de sélection de phrases à post-éditer permettant d’emblée d’accroître la qualité des traductions et pour laquelle les scores oracles indiquent des gains encore possibles.
[ "post-édition", "adaptation aux domaines de spécialité", "Traduction automatique statistique" ]
[ "P", "P", "R" ]
[ "Statistical Post-Editing of Machine Translation for Domain Adaptation", "This paper presents a statistical approach to adapt generic machine translation systems to the medical domain through an unsupervised post-edition step. A statistical post-edition model is built on statistical machine translation outputs aligned with their translation references. Evaluations carried out to translate medical texts from French to English show that a generic machine translation system can be adapted a posteriori to a specific domain. Two systems are studied : a state-of-the-art phrase-based implementation and an online publicly available software. Our experiments also indicate that selecting sentences for post-edition leads to significant improvements of translation quality and that more gains are still possible with respect to an oracle measure.", "Statistical Machine Translation, Post-editing, Domain Adaptation" ]
taln-2012-court-026
Annotation référentielle du Corpus Arboré de Paris 7 en entités nommées
Le Corpus Arboré de Paris 7 (ou French TreeBank) est le corpus de référence pour le français aux niveaux morphosyntaxique et syntaxique. Toutefois, il ne contient pas d’annotations explicites en entités nommées. Ces dernières sont pourtant parmi les informations les plus utiles pour de nombreuses tâches en traitement automatique des langues et de nombreuses applications. De plus, aucun corpus du français annoté en entités nommées et de taille importante ne contient d’annotation référentielle, qui complète les informations de typage et d’empan sur chaque mention par l’indication de l’entité à laquelle elle réfère. Nous avons annoté manuellement avec ce type d’informations, après pré-annotation automatique, le Corpus Arboré de Paris 7. Nous décrivons les grandes lignes du guide d’annotation sous-jacent et nous donnons quelques informations quantitatives sur les annotations obtenues.
[ "Corpus arboré de Paris 7", "Résolution d’entités nommées", "Corpus annoté" ]
[ "P", "M", "R" ]
[ "Referential named entity annotation of the Paris 7 French TreeBank", "The French TreeBank developed at the University Paris 7 is the main source of morphosyntactic and syntactic annotations for French. However, it does not include explicit information related to named entities, which are among the most useful information for several natural language processing tasks and applications. Moreover, no large-scale French corpus with named entity annotations contain referential information, which complement the type and the span of each mention with an indication of the entity it refers to. We have manually annotated the French TreeBank with such information, after an automatic pre-annotation step. We sketch the underlying annotation guidelines and we provide a few figures about the resulting annotations.", "Named entity resolution, Annotated corpus, French TreeBank" ]
taln-2012-court-027
Utilisation des fonctions de croyance pour l'estimation de paramètres en traduction automatique
Cet article concerne des travaux effectués dans le cadre du 7ème atelier de traduction automatique statistique et du projet ANR COSMAT. Ces travaux se focalisent sur l’estimation de paramètres contenus dans une table de traduction. L’approche classique consiste à estimer ces paramètres à partir de fréquences relatives d’éléments de traduction. Dans notre approche, nous proposons d’utiliser le concept de masses de croyance afin d’estimer ces paramètres. La théorie des fonctions de croyances est une théorie très adaptée à la gestion des incertitudes dans de nombreux domaines. Les expériences basées sur notre approche s’appliquent sur la traduction de la paire de langue français-anglais dans les deux sens de traduction.
[ "fonctions de croyance", "estimation de paramètres", "Traduction automatique statistique", "apprentissage automatique" ]
[ "P", "P", "P", "M" ]
[ "Feature calculation for Statistical Machine Translation by using belief functions", "In this paper, we consider the translation of texts within the framework of the 7th Workshop of Machine Translation evaluation task and the COSMAT corpus using a statistical machine translation approach. This work is focused on the translation features calculation of the phrase contained in a phrase table. The classical way to estimate these features are based on the direct computation counts or frequencies. In our approach, we propose to use the concept of belief masses to estimate the phrase probabilities. The Belief Function theory has proven to be suitable and adapted for the management of uncertainties in many domains. The experiments based on our approach are focused on the language pair English-French.", "Statistical machine Translation, belief function, machine learning, feature estimation" ]
taln-2012-court-028
La longueur des tours de parole comme critère de sélection de conversations dans un centre d’appels
Cet article s’intéresse aux conversations téléphoniques d’un Centre d’Appels EDF, automatiquement découpées en « tours de parole » et automatiquement transcrites. Il fait apparaître une relation entre la longueur des tours de parole et leur contenu, en ce qui concerne le vocabulaire qui les compose et les sentiments qui y sont véhiculés. Après avoir montré qu’il y a un intérêt à étudier ces longs tours, l’article analyse leur contenu et liste quelques exemples autour des notions d’argumentation et de réclamation. Il montre ainsi que la longueur des tours de parole peut être un critère utile de sélection de conversations.
[ "Tour de parole", "Conversation", "Centre d’appels", "Reconnaissance de Parole" ]
[ "P", "P", "P", "M" ]
[ "Turn-taking length as criterion to select call center conversations", "This article focuses on telephone conversations collected in an EDF Call Center, automatically segmented in “turn-taking” and automatically transcribed. It shows a relationship between the length of the turns and their content regarding the vocabulary and the feelings that are conveyed. After showing that there is an interest in studying these long turns, the article analyzes their content and lists some examples around the notions of argumentation and claim. It shows that the length of turns can be a useful criterion for selecting conversations.", "Call Center, Conversation, Turn Taking, Automatic Speech Recognition" ]
taln-2012-court-029
Enjeux méthodologiques, linguistiques et informatiques pour le traitement du français écrit des sourds
L’ouverture du Centre National de Réception des Appels d’Urgence (CNRAU) accessible aux sourds et malentendants fait émerger des questions linguistiques qui portent sur le français écrit des sourds, et des questions informatiques dans le domaine du traitement automatique du langage naturel. Le français écrit des sourds, pratiqué par une population hétérogène, comporte des spécificités morpho-syntaxiques et morpholexicales qui peuvent rendre problématique la communication écrite entre les personnes sourdes appelantes et les agents du CNRAU. Un premier corpus de français écrit sourd élicité avec mise en situation d’urgence (FAX-ESSU) a été recueilli dans la perspective de proposer des solutions TAL et linguistiques aux agents du CNRAU dans le cadre de ces échanges écrits. Nous présentons une première étude lexicale, morphosyntaxique et syntaxique de ce corpus reposant en partie sur une chaîne de traitement automatique, afin de valider les phénomènes linguistiques décrits dans la littérature et d'enrichir la connaissance du français écrit des sourds.
[ "méthodologie", "Français écrit des sourds", "syntaxe", "TAL", "Français Langue Etrangère", "linguistique de corpus", "lexique" ]
[ "P", "P", "P", "P", "M", "R", "U" ]
[ "Methodological, linguistic and computational challenges for processing written French of deaf people", "With the setup of a national emergency call-center for deaf people in France (CNRAU), some questions arise in linguistics and natural language processing about the written expression of deaf people. It is practiced by an heterogeneous population and shows morpho-syntactic, lexical and syntactic specificities which increase the difficulty, over the emergency situation, to successfully communicate between the deaf callers and the call-center operators. A first corpus (FAX-ESSU) of written French of deaf people was built with emergency conditions in order to provide linguistic and NLP solutions to the call center operators. On this corpus, we present a first study realized with the help of a natural language processing toolbox, in order to validation linguistic phenomenons described in the scientific literature and to enrich the knowledge of written French of deaf people.", "Written French of deaf people, NLP, French as a foreign language, corpus linguistics, lexicon, syntax, methodology" ]
taln-2012-demo-001
Grew : un outil de réécriture de graphes pour le TAL
Nous présentons un outil de réécriture de graphes qui a été conçu spécifiquement pour des applications au TAL. Il permet de décrire des graphes dont les noeuds contiennent des structures de traits et dont les arcs décrivent des relations entre ces noeuds. Nous présentons ici la réécriture de graphes que l’on considère, l’implantation existante et quelques expérimentations.
[ "réécriture de graphes", "interface syntaxe-sémantique" ]
[ "P", "U" ]
[ "Grew: a Graph Rewriting Tool for NLP", "We present a Graph Rewriting Tool dedicated to NLP applications. Graph nodes contain feature structures and edges describe relations between nodes. We explain the Graph Rewriting framework we use, the implemented system and some experiments.", "graph rewriting, syntax-semantics interface" ]
taln-2012-demo-002
Interfaces de navigation dans des contenus audio et vidéo
Deux types de démonstrateurs sont présentés. Une première interface à visée didactique permet d'observer des traitements automatiques sur des documents vidéo. Plusieurs niveaux de représentation peuvent être montrés simultanément, ce qui facilite l'analyse d'approches multi-vues. La seconde interface est une interface opérationnelle de "consommation" de documents audio. Elle offre une expérience de navigation enrichie dans des documents audio grâce à une visualisation de métadonnées extraites automatiquement.
[ "navigation enrichie", "Traitements multi-vues" ]
[ "P", "R" ]
[ "Navigation interfaces through audio and video contents", "Two types of demonstrators are shown. A first interface, with didactic purposes, allows automatic processing of video documents to be observed. Several representation levels can be viewed simultaneously, which is particularly helpful to analyse the behaviour of multi-view approaches. The second interface is an operational audio document \"consumption\" interface. It offers an enriched navigation experience through the visualisation of automatically extracted metadata.", "Multi-view processing, enriched navigation" ]
taln-2012-demo-003
Synthèse de texte avec le logiciel Syntox
Le logiciel Syntox, dont une interface utilisateur en ligne ce trouve à cette URL : http://www.syntox.net, est une mise en application d’un modèle basé sur les grammaires attribuées, dans le cadre de la synthèse de texte. L’outil est une plateforme d’expérimentation dont l’ergonomie est simple. Syntox est capable de traiter des lexiques et des grammaires volumineux sur des textes ambigus à partir de la description explicite de phénomènes linguistiques.
[ "Synthèse de texte", "Grammaire attribuée", "Syntaxe" ]
[ "P", "P", "U" ]
[ "Automated generation of text with Syntox", "Syntox, which includes an online user interface at URL http://www.syntox.net, is an implementation of a model based on attribute grammars, in the context of automated generation of text. The sofware is intended as a platform for experimentation with an ergonomic interface. Syntox is usable with large vocabularies and grammars to produce ambiguous texts from an explicit description of linguistic phenomena.", "Text generation, Attribute Grammars, Syntax" ]
taln-2012-demo-004
Un segmenteur-étiqueteur et un chunker pour le français
Nous proposons une démonstration de deux programmes : un segmenteur-étiqueteur POS pour le français et un programme de parenthésage en “chunks” de textes préalablement traités par le programme précédent. Tous deux ont été appris à partir du French Tree Bank.
[ "French Tree Bank", "étiquetage POS", "chunking", "apprentissage automatique", "CRF" ]
[ "P", "M", "U", "U", "U" ]
[ "A Segmenter-POS Labeller and a Chunker for French", "We propose a demo of two softwares : a Segmenter-POS Labeller for French and a Chunker for texts treated by the first program. Both have been learned from the French Tree Bank.", "POS tagging, chunking, Machine Learning, French Tree Bank, CRF" ]
taln-2012-demo-005
SPPAS : segmentation, phonétisation, alignement, syllabation
SPPAS est le nouvel outil du LPL pour l’alignement texte/son. La segmentation s’opère en 4 étapes successives dans un processus entièrement automatique ou semi-automatique, à partir d’un fichier audio et d’une transcription. Le résultat comprend la segmentation en unités inter-pausales, en mots, en syllabes et en phonèmes. La version actuelle propose un ensemble de ressources qui permettent le traitement du français, de l’anglais, de l’italien et du chinois. L’ajout de nouvelles langues est facilitée par la simplicité de l’architecture de l’outil et le respect des formats de fichiers les plus usuels. L’outil bénéficie en outre d’une documentation en ligne et d’une interface graphique afin d’en faciliter l’accessibilité aux non-informaticiens. Enfin, SPPAS n’utilise et ne contient que des ressources et programmes sous licence libre GPL.
[ "segmentation", "phonétisation", "alignement", "syllabation" ]
[ "P", "P", "P", "P" ]
[ "SPPAS : a tool to perform text/speech alignment", "SPPAS is a new tool dedicated to phonetic alignments, from the LPL laboratory. SPPAS produces automatically or semi-automatically annotations which include utterance, word, syllabic and phonemic segmentations from a recorded speech sound and its transcription. SPPAS is currently implemented for French, English, Italian and Chinese There is a very simple procedure to add other languages in SPPAS : it is just needed to add related resources in the appropriate directories. SPPAS can be used by a large community of users : accessibility and portability are importants aspects in its development. The tools and resources will all be distributed with a GPL license.", "segmentation, phonetization, alignement, syllabification" ]
taln-2012-demo-006
Solution Proxem d’analyse sémantique verticale : adaptation au domaine des Ressources Humaines
Proxem développe depuis 2007 une plate-forme de traitement du langage, Antelope, qui permet de construire rapidement des applications sémantiques verticales (par exemple, pour l’e-réputation, la veille économique ou l’analyse d’avis de consommateurs). Antelope a servi à créer une solution pour les Ressources Humaines, utilisée notamment par l’APEC, permettant (1) d’extraire de l’information à partir d’offres et de CVs et (2) de trouver les offres d’emploi correspondant le mieux à un CV (ou réciproquement). Nous présentons ici l’adaptation d’Antelope à un domaine particulier, en l’occurrence les RH.
[ "entités nommées", "extraction de relations", "création d’ontologies", "similarité" ]
[ "U", "M", "M", "U" ]
[ "How to adapt the Proxem semantic analysis engine to the Human Resources field", "Proxem develops since 2007 the NLP platform, Antelope, with which one can quickly build vertical semantic applications (for e-reputation, business intelligence or consumer reviews analysis, for instance). Antelope was used to create a Human Resources solution, notably used by APEC, making it possible (1) to extract information from resumes and offers and (2) to find the most relevant jobs matching a given resume (or vice versa). We present here how to adapt Antelope to a particular area, namely HR.", "named entities, information extraction, ontologies development, matching" ]
taln-2012-demo-007
Nomao : un moteur de recherche géolocalisé spécialisé dans la recommandation de lieux et l’e-réputation
Cette démonstration présente NOMAO, un moteur de recherche géolocalisé qui permet à ses utilisateurs de trouver des lieux (bars, magasins...) qui correspondent à leurs goûts, à ceux de leurs amis et aux recommandations des internautes.
[ "recherche d’information", "analyse d’opinion", "génération de texte", "fouille du web" ]
[ "M", "U", "M", "U" ]
[ "Nomao : a geolocalized search engine dedicated to place recommendation and ereputation", "This demonstration showcases NOMAO, a geolocalized search engine which recommends places (bars, shops...) based on the user’s and its friend’s tastes and on the web surfers’ recommendations", "information retrieval, opinion mining, text generation, web mining" ]
taln-2012-demo-008
Le DictAm : Dictionnaire électronique des verbes amazighs-français
Le DictAm est un dictionnaire électronique des verbes amazighs-français. Il vise à rendre compte de l’ensemble des verbes dans le domaine berbère : conjugaison, diathèse et sens. Le DictAm comporte actuellement près de 3000 verbes dans une soixantaine de parlers berbères. C’est un travail qui est en cours de réalisation et qui a pour ambition de répertorier tous les verbes berbères ainsi que leurs équivalents en français.
[ "Dictionnaire électronique", "verbes", "dimension bilingue", "diversité linguistique" ]
[ "P", "P", "U", "U" ]
[ "The DictAm : An electronic dictionary of Amazigh-French verbs", "In the frame of promoting the linguistic diversity among knowledge society, we suggest to elaborate an electronic dictionary of Amazigh-French verbs (DictAm). This dictionary aims at accounting for the verbs in the Amazigh sphere as a whole: conjugation, diathesis and meaning. The DictAm also adopts a comparative perspective in the sense that it collects the lexical materials of different dialectal varieties and makes them reachable. Now, the DictAm comprises around 3000 verbs deriving from about sixty Amazigh speeches. This work is currently in progress as well as it aspires to set up a repertoire of all Amazigh verbs and their French equivalents.", "Electronic dictionary, bilingual dimension, linguistic diversity, verbs" ]
taln-2012-demo-009
Vizart3D : Retour Articulatoire Visuel pour l’Aide à la Prononciation
L’objectif du système Vizart3D est de fournir à un locuteur, en temps réel, et de façon automatique, un retour visuel sur ses propres mouvements articulatoires. Les applications principales de ce système sont l’aide à l’apprentissage des langues étrangères et la rééducation orthophonique (correction phonétique). Le système Vizart3D est basé sur la tête parlante 3D développée au GIPSA-lab, qui laisse apparaître, en plus des lèvres, les articulateurs de la parole normalement cachés (comme la langue). Cette tête parlante est animée automatiquement à partir du signal audio de parole, à l’aide de techniques de conversion de voix et de régression acoustico-articulatoire par GMM.
[ "aide à la prononciation", "temps réel", "retour visuel", "tête parlante", "GMM" ]
[ "P", "P", "P", "P", "P" ]
[ "Vizart3D: Visual Articulatory Feedack for Computer-Assisted Pronunciation Training", "We describe a system of visual articulatory feedback, which aims to provide any speaker with a real feedback on his/her own articulation. Application areas are computerassisted pronunciation training (phonetic correction) for second-language learning and speech rehabilitation. This system, named Vizartd3D, is based on the 3D augmented talking head developed at GIPSA-lab, which is able to display all speech articulators including usually hidden ones like the tongue. In our approach, the talking head is animated automatically from the audio speech signal, using GMM-based voice conversion and acoustic-to-articulatory regression.", "visual feedback, pronunciation training, GMM, real-time, talking head" ]
taln-2012-demo-010
ROCme! : logiciel pour l’enregistrement et la gestion de corpus oraux
ROCme! permet une gestion rationalisée, autonome et dématérialisée de l’enregistrement de corpus oraux. Il dispose notamment d’une interface pour le recueil de métadonnées sur les locuteurs totalement paramétrable via des balises XML. Les locuteurs peuvent gérer les réponses au questionnaire, l’enregistrement audio, la lecture, la sauvegarde et le défilement des phrases (ou autres types de corpus) en toute autonomie. ROCme! affiche du texte, avec ou sans mise en forme HTML, des images, du son et des vidéos.
[ "logiciel", "corpus", "oral", "linguistique" ]
[ "P", "P", "P", "U" ]
[ "ROCme!: software for the recording and management of oral corpora", "management of speech recordings. Users can create interfaces for metadata collection thanks to XML tags. Speakers autonomously fill in questionnaires, record, play, and save audio; and browse sentences (or other types of corpora). ROCme! can display text, optionally with HTML formatting, images, sounds, and video.", "corpus, oral, linguistics, software" ]
taln-2015-invite-002
Pourquoi construire des ressources terminologiques et pourquoi le faire différemment ?
Dans cette présentation, je défendrai l'idée selon laquelle des ressources terminologiques décrivant les propriétés lexico-sémantiques des termes constituent un complément nécessaire, voire indispensable, à d'autres types de ressources, À partir d'exemples anglais et français empruntés au domaine de l'environnement, je montrerai, d'une part, que les ressources lexicales générales (y compris celles qui ont une large couverture) n'offrent pas un portait complet du sens des termes ou de la structure lexicale observée du point de vue d'un domaine de spécialité. Je montrerai, d'autre part, que les ressources terminologiques (thésaurus, ontologies, banques de terminologie) souvent d'obédience conceptuelle, se concentrent sur le lien entre les termes et les connaissances dénotées par eux et s'attardent peu sur leur fonctionnement linguistique. Je présenterai un type de ressource décrivant les propriétés lexico-sémantiques des termes d'un domaine (structure actantielle, liens lexicaux, annotations contextuelles, etc.) et des éléments méthodologiques présidant à son élaboration.
[ "ressources terminologiques", "ressources lexicales", "liens lexicaux", "annotations contextuelles", "corpus spécialisé", "structure actancielle" ]
[ "P", "P", "P", "P", "U", "M" ]
[ "Why compile terminological resources and why do it differently?", "In this talk, I will argue that terminological resources that account for the lexico-semantic properties of terms are a necessary – perhaps even indispensable – complement to other kinds of resources. Using examples taken from the field of the environment, I will first show that general lexical resources (including those that have a large coverage) do not give a complete picture of the meaning of terms or the lexical structure observed from the point of view of a special subject field. I will then proceed to show that terminological resources (thesauri, ontologies, term banks), that often take a conceptual approach, focus on the relationship between terms and the knowledge they convey and give little information about the linguistic behavior of terms. I will present a type of resource that describes the lexico-semantic properties of terms (argument structure, lexical relationships, contextual annotations, etc.) and some methodological considerations about its compilation.", "terminological resources, lexical resources, lexical relationships, specialized corpora, argument structure, contextual annotations" ]
taln-2015-long-001
Apprentissage par imitation pour l'étiquetage de séquences : vers une formalisation des méthodes d'étiquetage « easy-first »
De nombreuses méthodes ont été proposées pour accélérer la prédiction d'objets structurés (tels que les arbres ou les séquences), ou pour permettre la prise en compte de dépendances plus riches afin d'améliorer les performances de la prédiction. Ces méthodes reposent généralement sur des techniques d'inférence approchée et ne bénéficient d'aucune garantie théorique aussi bien du point de vue de la qualité de la solution trouvée que du point de vue de leur critère d'apprentissage. Dans ce travail, nous étudions une nouvelle formulation de l'apprentissage structuré qui consiste à voir celui-ci comme un processus incrémental au cours duquel la sortie est construite de façon progressive. Ce cadre permet de formaliser plusieurs approches de prédiction structurée existantes. Grâce au lien que nous faisons entre apprentissage structuré et apprentissage par renforcement, nous sommes en mesure de proposer une méthode théoriquement bien justifiée pour apprendre des méthodes d'inférence approchée. Les expériences que nous réalisons sur quatre tâches de TAL valident l'approche proposée.
[ "Apprentissage par Imitation", "Étiquetage de Séquences", "Apprentissage Structuré" ]
[ "P", "P", "P" ]
[ "Imitation learning for sequence labeling: towards a formalization of easy-first labeling methods", "Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning and inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little theoretical guarantee regarding the optimality of the solutions they find. In this work we study a new formulation of structured learning where inference is primarily viewed as an incremental process along which a solution is progressively computed. This framework generalizes several structured learning ap- proaches. Building on the connections between this framework and reinforcement learning, we propose a theoretically sound method to learn to perform approximate inference. Experiments on four sequence labeling tasks show that our approach is very competitive when compared to several strong baselines.", "Imitation Learning, Structured Learning, Sequence Models" ]