id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
taln-2013-court-003
ProLMF version 1.2. Une ressource libre de noms propres avec des expansions contextuelles
ProLMF est la version LMF de la base lexicale multilingue de noms propres Prolexbase. Disponible librement sur le site du CNRTL, la version 1.2 a été largement améliorée et augmentée par de nouvelles entrées en français, complétées par des expansions contextuelles, et par de petits lexiques en une huitaine de langues.
[ "ressource libre", "noms propres", "expansions contextuelles", "base lexicale multilingue", "Prolexbase", "schémas de contextualisation", "relations sémantiques", "alias", "point de vue" ]
[ "P", "P", "P", "P", "P", "M", "U", "U", "M" ]
[ "ProLMF 1.2, Proper Names with their Expansions", "ProLMF is the LMF version of Prolexbase, a multilingual lexical database of Proper Names. It can be freely downloaded on the CNRTL Website. Version 1.2 had been widely improved and increased, with new French entries whose description includes contextual expansions, and eight small lexica for other languages.", "free resource, multilingual lexical database, Proper Names, context, semantic relations, alias, point of view, Prolexbase" ]
taln-2013-court-004
Vers un décodage guidé pour la traduction automatique
Récemment, le paradigme du décodage guidé a montré un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de décodage via l’utilisation de transcriptions auxiliaires. Ce paradigme appliqué à la traduction automatique permet d’envisager de nombreuses applications telles que la combinaison de systèmes, la traduction multi-sources etc. Cet article présente une approche préliminaire de l’application de ce paradigme à la traduction automatique (TA). Nous proposons d’enrichir le modèle log-linéaire d’un système primaire de TA avec des mesures de distance relatives à des systèmes de TA auxiliaires. Les premiers résultats obtenus sur la tâche de traduction Français/Anglais issue de la campagne d’évaluation WMT 2011 montrent le potentiel du décodage guidé.
[ "Décodage guidé", "traduction automatique", "combinaison de systèmes" ]
[ "P", "P", "P" ]
[ "Driven Decoding for machine translation", "Recently, the concept of driven decoding (DD), has been sucessfully applied to the automatic speech recognition (speech-to-text) task : an auxiliary transcription guide the decoding process. There is a strong interest in applying this concept to statistical machine translation (SMT). This paper presents our approach on this topic. Our first attempt in driven decoding consists in adding several feature functions corresponding to the distance between the current hypothesis decoded and the auxiliary translations available. Experimental results done for a french-to-english machine translation task, in the framework of the WMT 2011 evaluation, show the potential of the DD approach proposed.", "Driven Decoding, machine translation, system combination" ]
taln-2013-court-005
La La préédition avec des règles peu coûteuses, utile pour la TA statistique des forums ?
Cet article s’intéresse à la traduction automatique statistique des forums, dans le cadre du projet européen ACCEPT (« Automated Community Content Editing Portal »). Nous montrons qu’il est possible d’écrire des règles de préédition peu coûteuses sur le plan des ressources linguistiques et applicables sans trop d’effort avec un impact très significatif sur la traduction automatique (TA) statistique, sans avoir à modifier le système de TA. Nous décrivons la méthodologie proposée pour écrire les règles de préédition et les évaluer, ainsi que les résultats obtenus par type de règles.
[ "préédition", "forums", "langage contrôlé", "traduction statistique" ]
[ "P", "P", "U", "R" ]
[ "Can lightweight pre-editing rules improve statistical MT of forum content?", "This paper focuses on the statistical machine translation (SMT) of forums within the context of the European Framework ACCEPT («Automated Community Content Editing Portal») project. We demonstrate that it is possible to write lightweight pre-editing rules that require few linguistic resources, are relatively easy to apply and have significant impact on SMT without any changes to the machine translation system. We describe methodologies for rule development and evaluation, and provide results obtained for different rule types.", "pre-edition, controlled language, statistical machine translation, forums" ]
taln-2013-court-006
Édition interactive d’énoncés en langue des signes française dédiée aux avatars signeurs
Les avatars signeurs en Langue des Signes Française (LSF) sont de plus en plus utilisés en tant qu’interface de communication à destination de la communauté sourde. L’un des critères d’acceptation de ces avatars est l’aspect naturel et réaliste des gestes produits. Par conséquent, des méthodes de synthèse de gestes ont été élaborées à l’aide de corpus de mouvements capturés et annotés provenant d’un signeur réel. Néanmoins, l’enrichissement d’un tel corpus, en faisant fi des séances de captures supplémentaires, demeure une problématique certaine. De plus, l’application automatique d’opérations sur ces mouvements (e.g. concaténation, mélange, etc.) ne garantit pas la consistance sémantique du geste résultant. Une alternative est d’insérer l’opérateur humain dans la boucle de construction des énoncés en LSF. Dans cette optique, cet article propose un premier système interactif d’édition de gestes en LSF, basé "données capturées" et dédié aux avatars signeurs.
[ "édition", "interaction", "Langue des Signes Française", "geste", "base de données sémantiques", "signeur virtuel" ]
[ "P", "P", "P", "P", "R", "M" ]
[ "Interactive editing of utterances in French sign language dedicated to signing avatars", "Signing avatars dedicated to French Sign Language (LSF) are more and more used as a communication interface for the deaf community. One of the acceptation criteria of these avatars is the natural and realistic aspect of the constructed gestures. Consequently, gestures synthesis methods have been designed thanks to some corpus of captured and annotated motions, performed by a real signer. However, the enlarging of such a corpus, without requiring of some additional capture sessions, is a major issue. Furthermore, the automatic application of motion transformations (e.g. concatenation, blending, etc.) does not guarantee the semantic consistency of the resulting gesture. Another option is to insert the human operator in the utterance building loop. In this context, this paper provides a first interactive editing system of FSL gestures, based on captured motions and dedicated to signing avatars.", "French sign language, editing, gesture, semantic data base, virtual signer, interaction" ]
taln-2013-court-007
ANCOR, premier corpus de français parlé d’envergure annoté en coréférence et distribué librement
Cet article présente la réalisation d’ANCOR, qui constitue par son envergure (453 000 mots) le premier corpus francophone annoté en anaphores et coréférences permettant le développement d’approches centrées sur les données pour la résolution des anaphores et autres traitements de la coréférence. L’annotation a été réalisée sur trois corpus de parole conversationnelle (Accueil_UBS, OTG et ESLO) qui le destinent plus particulièrement au traitement du langage parlé. En l’absence d’équivalent pour le langage écrit, il est toutefois susceptible d’intéresser l’ensemble de la communauté TAL. Par ailleurs, le schéma d’annotation retenu est suffisamment riche pour permettre des études en linguistique de corpus. Le corpus sera diffusé librement à la mi-2013 sous licence Creative Commons BY-NC-SA. Cet article se concentre sur sa mise en oeuvre et décrit brièvement quelques résultats obtenus sur la partie déjà annotée de la ressource.
[ "Corpus", "annotation", "coréférence", "anaphore", "parole conversationnelle" ]
[ "P", "P", "P", "P", "P" ]
[ "ANCOR, the first large French speaking corpus of conversational speech annotated in coreference to be freely available", "This paper presents the first French spoken corpus annotated in coreference whose size (453,000 words) is sufficient to investigate the achievement of data oriented systems of coreference resolution. The annotation was conducted on three different corpora of conversational speech (Accueil_UBS, OTG, ESLO) but this resource can also be interesting for NLP researchers working on written language, considering the lack of a large written French corpus annotated in coreference. We followed a rich annotation scheme which enables also research motivated by linguistic considerations. This corpus will be freely available (Creative Commons BY-NC-SA) around mid-2013. The paper details the achievement of the resource as well as preliminary experiments conducted on the part of the corpus already annotated.", "Corpus, annotation, coreference, anaphora, conversational speech" ]
taln-2013-court-008
Segmentation Multilingue des Mots Composés
La composition est un phénomène fréquent dans plusieurs langues, surtout dans des langues ayant une morphologie riche. Le traitement des mots composés est un défi pour les systèmes de TAL car pour la plupart, ils ne sont pas présents dans les lexiques. Dans cet article, nous présentons une méthode de segmentation des composés qui combine des caractéristiques indépendantes de la langue (mesure de similarité, données du corpus) avec des règles de transformation sur les frontières des composants spécifiques à une langue. Nos expériences de segmentation de termes composés allemands et russes montrent une exactitude jusqu’à 95 % pour l’allemand et jusqu’à 91 % pour le russe. Nous constatons que l’utilisation de corpus spécialisés relevant du même domaine que les composés améliore la qualité de segmentation.
[ "mesure de similarité", "corpus spécialisés", "segmentation des mots composés", "outil multilingue", "règles de transformation des composants" ]
[ "P", "P", "R", "M", "R" ]
[ "Multilingual Compound Splitting", "Compounding is a common phenomenon for many languages, especially those with a rich morphology. Dealing with compounds is a challenge for natural language processing systems since all compounds can not be included in lexicons. In this paper, we present a compound splitting method combining language independent features (similarity measure, corpus data) and language dependent features (component transformation rules). We report on our experiments in splitting of German and Russian compound terms giving accuracy up to 95% for German and up to 91% for Russian language. We observe that the usage of a corpus of the same domain as compounds improves splitting quality.", "compound splitting, multilingual tool, similarity measure, component transformation rules, specialized corpora" ]
taln-2013-court-009
Gestion des terminologies riches : l'exemple des acronymes
La gestion des terminologies pose encore des problèmes, en particulier pour des constructions complexes comme les acronymes. Dans cet article, nous proposons une solution en reliant plusieurs termes différents à un seul référent via les notions de pivot et de prolexème. Ces notions permettent par exemple de faire le lien entre plusieurs termes qui désignent un même et unique référent : Nations Unies, ONU, Organisation des Nations Unies et onusien. Il existe Jibiki, une plate-forme générique de gestion de bases lexicales permettant de gérer n'importe quel type de structure (macro et microstructure). Nous avons implémenté une nouvelle macrostructure de ProAxie dans la plate-forme Jibiki pour réaliser la gestion des acronymes.
[ "Jibiki", "macrostructure", "Proaxie", "base lexicale multilingue", "Common Dictionary Markup", "Prolèxeme" ]
[ "P", "P", "P", "M", "U", "U" ]
[ "Complex terminologies management - the case of acronyms", "Terminology management is still problematic, especially for complex constructions such as acronyms. In this paper, we propose a solution to connect several different terms with a single referent through using the concepts of pivot and prolexeme. These concepts allow for example to link several terms for the same referent: Nations Unies, ONU, Organisation des Nations Unies and onusien. Jibiki is a generic platform for lexical database management, allowing the representation of any type of structure (macro and microstructure). We have implemented a new macrostructure ProAxie in the Jibiki platform to achieve acronym management.", "multilingual lexical database, macrostructure, Jibiki, Common Dictionary Markup, Proaxie, Prolexeme" ]
taln-2013-court-010
Ngrammes et Traits Morphosyntaxiques pour la Identification de Variétés de l’Espagnol
Notre article présente expérimentations portant sur la classification supervisée de variétés nationales de l’espagnol. Outre les approches classiques, basées sur l’utilisation de ngrammes de caractères ou de mots, nous avons testé des modèles calculés selon des traits morphosyntaxiques, l’objectif étant de vérifier dans quelle mesure il est possible de parvenir à une classification automatique des variétés d’une langue en s’appuyant uniquement sur des descripteurs grammaticaux. Les calculs ont été effectués sur la base d’un corpus de textes journalistiques de quatre pays hispanophones (Espagne, Argentine, Mexique et Pérou).
[ "ngrammes", "espagnol", "variétés nationales", "classification automatique" ]
[ "P", "P", "P", "P" ]
[ "N-gram Language Models and POS Distribution for the Identification of Spanish Varieties", "This article presents supervised computational methods for the identification of Spanish varieties. The features used for this task were the classical character and word n-gram language models as well as POS and morphological information. The use of these features is to our knowledge new and we aim to explore the extent to which it is possible to identify language varieties solely based on grammatical differences. Four journalistic corpora from different countries were used in these experiments : Spain, Argentina, Mexico and Peru.", "automatic classification, n-grams, Spanish, language varieties" ]
taln-2013-court-011
L’apport des Entités Nommées pour la classification des opinions minoritaires
La majeure partie des travaux en fouille d’opinion et en analyse de sentiment concerne le classement des opinions majoritaires. Les méthodes d’apprentissage supervisé à base de ngrammes sont souvent employées. Elles ont l’inconvénient d’avoir un biais en faveur des opinions majoritaires si on les utilise de manière classique. En fait la présence d’un terme particulier, fortement associé à la cible de l’opinion dans un document peut parfois suffire à faire basculer le classement de ce document dans la classe de ceux qui expriment une opinion majoritaire sur la cible. C’est un phénomène positif pour l’exactitude globale du classifieur, mais les documents exprimant des opinions minoritaires sont souvent mal classés. Ce point est un problème dans le cas où l’on s’intéresse à la détection des signaux faibles (détection de rumeur) ou pour l’anticipation de renversement de tendance. Nous proposons dans cet article d’améliorer la classification des opinions minoritaires en prenant en compte les Entités Nommées dans le calcul de pondération destiné à corriger le biais en faveur des opinions majoritaires.
[ "Entités Nommées", "Apprentissage", "Pondération", "Fouille d’opinions", "Opinion minoritaires", "N-grammes" ]
[ "P", "P", "P", "R", "R", "U" ]
[ "Improving Minor Opinion Polarity Classification with Named Entity Analysis", "The main part of the work on opinion mining and sentiment analysis concerns polarity classification of majority opinions. Supervised machine learning with n-gram features is a common approach to polarity classification, which is often biased towards the majority of opinions about a given opinion target, when using this kind of approach with traditional settings. The presence of a specific term, strongly associated to the opinion target in a document, is often enough to tip the classifier decision toward the majority opinion class. This is actually a good thing for overall accuracy. Howeverm documents about the opinion taget, but expressing a polarity different from the majority one, get misclassified. It is a problem if we want to detect weak signals (rumor detection) or for anticipating opinion reversal trends. We propose in this paper to improve minor reviews polarity classification by taking into account Named Entity information in the computation of specific weighting scheme used for correcting the bias toward majority opinions.", "Opinion Mining, Minor Opinion, Named Entities, Machine Learning, N-grams, Weighting Scheme" ]
taln-2013-court-012
Trouver les mots dans un simple réseau de co-occurrences
Au cours des deux dernières décennies des psychologues et des linguistes informaticiens ont essayé de modéliser l'accès lexical en construisant des simulations ou des ressources. Cependant, parmi ces chercheurs, pratiquement personne n'a vraiment cherché à améliorer la navigation dans des 'dictionnaires électroniques destinés aux producteurs de langue'. Pourtant, beaucoup de travaux ont été consacrés à l'étude du phénomène du mot sur le bout de la langue et à la construction de réseaux lexicaux. Par ailleurs, vu les progrès réalisés en neurosciences et dans le domaine des réseaux complexes, on pourrait être tenté de construire un simulacre du dictionnaire mental, ou, à défaut une ressource destinée aux producteurs de langue (écrivains, conférenciers). Nous sommes restreints en construisant un réseau de co-occurrences à partir des résumés de Wikipedia, le but étant de vérifier jusqu'où l'on pouvait pousser une telle ressource pour trouver un mot, sachant que la ressource ne contient pas de liens sémantiques, car le réseau est construit de manière automatique et à partir de textes non-annotés.
[ "accès lexical", "mot sur le bout de la langue", "réseaux lexicaux", "anomie" ]
[ "P", "P", "P", "U" ]
[ "Lexical access via a simple co-occurrence network", "During the last two decades psychologists and computational linguists have attempted to tackle the problem of word access via computational resources, yet hardly none of them has seriously tried to support 'interactive' word finding. Yet, a lot of work has been done to understand the causes of the tip-of-the-tongue problem (TOT). Given the progress made in neuroscience, corpus linguistics, and graph theory (complex graphs), one may be tempted to emulate the mental lexicon, or to build a resource likely to help authors (speakers, writers) to overcome word-finding problems. Our goal here is much more limited. We try to identify good hints for finding a target word. To this end we have built a co-occurrence network on the basis of Wikipedia abstracts. Since the network is built automatically and from raw data, i.e. non-annotated text, it does not reveal the kind of relationship holding between the nodes. Despite this shortcoming we tried to see whether we can find a given word, or, to identify what is a good clue word.", "lexical access, anomia, tip of the tongue (TOT), lexical networks" ]
taln-2013-court-013
Analyse statique des interactions entre structures élémentaires d’une grammaire
Nous nous intéressons ici à la construction semi-automatique de grammaires computationnelles et à leur utilisation pour l’analyse syntaxique. Nous considérons des grammaires lexicalisées dont les structures élémentaires sont des arbres, sous-spécifiés ou pas. Nous présentons un algorithme qui vise à prévoir l’ensemble des arbres élémentaires attachés aux mots qui peuvent s’intercaler entre deux mots donnés d’une phrase, dont on sait que les arbres élémentaires associées sont des compagnons, c’est-à-dire qu’ils interagiront nécessairement dans la composition syntaxique de la phrase.
[ "grammaire lexicalisée", "grammaire d’interaction", "construction de grammaires" ]
[ "P", "R", "R" ]
[ "Static Analysis of Interactions between Elementary Structures of a Grammar", "We are interested in the semi-automatic construction of computational grammars and in their use for parsing. We consider lexicalized grammars with elementary structures which are trees, underspecified or not. We present an algorithm that aims at foreseeing all elementary trees attached at words which can come between two given words of a sentence, whose associated elementary trees are companions, that is, they will necessarily interact in the syntactic composition of the sentence.", "Lexicalized Grammar, Interaction Grammar, Grammar Construction" ]
taln-2013-court-014
Influence des annotations sémantiques sur un système de détection de coréférence à base de perceptron multi-couches
La série de campagnes d’évaluation CoNLL-2011/2012 a permis de comparer diverses propositions d’architectures de systèmes de détection de co-références. Cet article décrit le système de résolution de coréférence Poly-co développé dans le cadre de la campagne d’évaluation CoNLL-2011 et évalue son potentiel d’amélioration en introduisant des propriétés sémantiques dans son modèle de détection. Notre système s’appuie sur un classifieur perceptron multi-couches. Nous décrivons les heuristiques utilisées pour la sélection des paires de mentions candidates, ainsi que l’approche de sélection des traits caractéristiques que nous avons utilisée lors de la campagne CoNLL-2011. Nous introduisons ensuite un trait sémantique complémentaire et évaluons son influence sur les performances du système.
[ "Coréférence", "Perceptron multi-couches" ]
[ "P", "P" ]
[ "Semantic annotation influence on coreference detection using perceptron approach", "The ConLL-2011/2012 evaluation campaign was dedicated to coreference detection systems. This paper presents the coreference resolution system Poly-co submitted to the closed track of the CoNLL-2011 Shared Task and evaluate is potential of evolution when it includes a semantic feature. Our system integrates a multilayer perceptron classifier in a pipeline approach. We describe the heuristic used to select the candidate coreference pairs that are fed to the network for training, and our feature selection method. We introduce a complementary semantic feature and evaluate the performances improvement.", "Coreference, Multilayer perceptron" ]
taln-2013-court-015
Traduction automatique statistique pour l’arabe-français améliorée par le prétraitement et l’analyse de la langue
Dans cet article, nous nous intéressons au prétraitement de la langue arabe comme langue source à des fins de traduction automatique statistique. Nous présentons une étude sur la traduction automatique statistique basée sur les syntagmes, pour la paire de langues arabe-français utilisant le décodeur Moses ainsi que d’autres outils de base. Les propriétés morphologiques et syntaxiques de la langue arabe sont complexes, ce qui rend cette langue difficile à maîtriser dans le domaine du TALN. Aussi, les performances d’un système de traduction statistique dépendent considérablement de la quantité et de la qualité des corpus d’apprentissage. Dans cette étude, nous montrons qu’un prétraitement basé sur les mots de la langue source (arabe) et l’introduction de quelques règles linguistiques par rapport à la syntaxe de la langue cible (français), permet d’obtenir des améliorations du score BLEU. Cette amélioration est réalisée sans augmenter la quantité des corpus d’apprentissage.
[ "Traduction automatique statistique", "traduction arabe-français", "pré-traitement de corpus", "morphologie de l’Arabe" ]
[ "P", "R", "M", "R" ]
[ "Pre-processing and Language Analysis for Arabic to French Statistical Machine Translation", "Arabic is a morphologically rich and complex language, which presents significant challenges for natural language processing and machine translation. In this paper, we describe an ongoing effort to build a competitive Arabic-French phrase–based machine translation system using the Moses decoder and other tools. The results show an increase in terms of BLEU score after introducing some pre-processing schemes for Arabic and applying additional language analysis rules in relation to the target language. The proposed approach is completed using pre-processing and language analysis rules without increasing the amount of training data.", "Statistical machine translation, Arabic-French translation, Corpus pre-processing, Arabic morphology" ]
taln-2013-court-016
Expériences de formalisation d’un guide d’annotation : vers l’annotation agile assistée
Nous proposons dans cet article une méthodologie, qui s’inspire du développement agile et qui permettrait d’assister la préparation d’une campagne d’annotation. Le principe consiste à formaliser au maximum les instructions contenues dans le guide d’annotation afin de vérifier automatiquement si le corpus en construction est cohérent avec le guide en cours d’écriture. Pour exprimer la partie formelle du guide, nous utilisons la réécriture de graphes, qui permet de décrire par des motifs les constructions définies. Cette formalisation permet de repérer les constructions prévues par le guide et, par contraste, celles qui ne sont pas cohérentes avec le guide. En cas d’incohérence, un expert peut soit corriger l’annotation, soit mettre à jour le guide et relancer le processus.
[ "guide d’annotation", "annotation", "annotation agile", "réécriture de graphes" ]
[ "P", "P", "P", "P" ]
[ "Formalizing an annotation guide : some experiments towards assisted agile annotation", "This article presents a methodology, inspired from the agile development paradigm, that helps preparing an annotation campaign. The idea behind the methodology is to formalize as much as possible the instructions given in the guidelines, in order to automatically check the consistency of the corpus being annotated with the guidelines, as they are being written. To formalize the guidelines, we use a graph rewriting tool, that allows us to use a rich language to describe the instructions. This formalization allows us to spot the rightfully annotated constructions and, by contrast, those that are not consistent with the guidelines. In case of inconsistency, an expert can either correct the annotation or update the guidelines and rerun the process.", "annotation, annotation guide, agile annotation, graph rewriting" ]
taln-2013-court-017
Repérer des toponymes dans des titres de cartes topographiques
Les titres de cartes topographiques personnalisées composent un corpus spécifique caractérisé par des variations orthographiques et un nombre élevé de désignations de lieux. L'article présente le repérage des toponymes dans ces titres. Ce repérage est fondé sur l'utilisation de BDNyme, la base de données de toponymes géoréférencés de l'IGN, et sur une analyse de surface à l'aide de patrons. La méthode proposée élargit la définition du toponyme pour tenir compte de la nature du corpus et des données qu'il contient. Elle se décompose en trois étapes successives qui tirent parti du contexte extralinguistique de géoréférencement des toponymes et du contexte linguistique. Une quatrième étape qui ne retient pas le géoréférencement est aussi étudiée. Le balisage et le typage des toponymes permettent de mettre en avant d'une part la diversité des désignations de lieux et d'autre part leurs variations d'écriture. La méthode est évaluée (rappel, précision, F-mesure) et les erreurs analysées.
[ "toponyme", "BDNyme", "information spatiale", "écriture des toponymes", "ressource lexicale" ]
[ "P", "P", "U", "R", "U" ]
[ "Localizing toponyms in topographic map titles", "The titles of customized topographic maps constitute a specific corpus which is characterized by spelling variations and a very significant number of place names. This paper is about identifying toponyms in these titles. The toponym tracking is based on IGN's toponym data base as well as light parsing according to patterns. The method used broadens the definition of the toponym to include the nature of the corpus and the data in it. It consists of three successive stages where both the extralinguistic context - in this case georeferencing toponyms - and the linguistic context are taken into account. The fourth stage which is without georeferencing is examined too. Toponym tagging and typing allow to highlight toponym naming and spelling variations. The method has been assessed (recall, precision, F-measure) and the results analysed.", "toponyme, spatial information, toponyme writing, BDNyme, lexical resource" ]
taln-2013-court-018
Extraction des relations temporelles entre événements médicaux dans des comptes rendus hospitaliers
Le défi i2b2/VA 2012 était dédié à la détection de relations temporelles entre événements et expressions temporelles dans des comptes rendus hospitaliers en anglais. Les situations considérées étaient beaucoup plus variées que dans les défis TempEval. Nous avons donc axé notre travail sur un examen systématique de 57 situations différentes et de leur importance dans le corpus d’apprentissage en utilisant un oracle, et avons déterminé empiriquement le classifieur qui se comportait le mieux dans chaque situation, atteignant ainsi une F-mesure globale de 0,623.
[ "relations temporelles", "événements médicaux", "extraction d’information", "médecine" ]
[ "P", "P", "M", "U" ]
[ "Extraction of temporal relations between clinical events in clinical documents", "The 2012 i2b2/VA challenge focused on the detection of temporal relations between events and temporal expressions in English clinical texts. The addressed situations were much more diverse than in the TempEval challenges. We thus focused on the systematic study of 57 distinct situations and their importance in the training corpus by using an oracle, and empirically determined the best performing classifier for each situation, thereby achieving a 0.623 F-measure.", "Information Extraction, Clinical Events, Temporal Relations, Medicine" ]
taln-2013-court-019
Similarité de second ordre pour l’exploration de bases textuelles multilingues
Cet article décrit l’utilisation de la technique de similarité de second ordre pour l’identification de textes semblables au sein d’une base de rapports d’incidents aéronautiques mélangeant les langues française et anglaise. L’objectif du système est, pour un document donné, de retrouver des documents au contenu similaire quelle que soit leur langue. Nous utilisons un corpus bilingue aligné de rapports d’accidents aéronautiques pour construire des paires de pivots et indexons les documents avec des vecteurs de similarités, tels que chaque coordonnée correspond au score de similarité entre un document dans une langue donnée et la partie du pivot de la même langue. Nous évaluons les performances du système sur un volumineux corpus de rapports d’incidents aéronautiques pour lesquels nous disposons de traductions. Les résultats sont prometteurs et valident la technique.
[ "similarité de second ordre", "multilingue", "ESA" ]
[ "P", "P", "U" ]
[ "Second order similarity for exploring multilingual textual databases", "This paper describes the use of second order similarities for identifying similar texts inside a corpus of aviation incident reports written in both French and English. We use a second bilingual corpus to construct pairs of reference documents and map each target document to a vector so each coordinate represents a similarity score between this document and the part of the reference corpus written in the same language. We evaluate the system using a large corpus of translated incident reports. The results are promising and validate the approach.", "second order similarity, multilingual, ESA" ]
taln-2013-court-020
Apprentissage d’une classification thématique générique et cross-langue à partir des catégories de la Wikipédia
La catégorisation de textes nécessite généralement un investissement important en amont, avec une adaptation de domaine. L’approche que nous proposons ici permet d’associer finement à un texte tout-venant écrit dans une langue donnée, un graphe de catégories de la Wikipédia dans cette langue. L’utilisation de l’index inter-langues de l’encyclopédie en ligne permet de plus d’obtenir un sous-ensemble de ce graphe dans la plupart des autres langues.
[ "apprentissage", "Wikipédia", "catégorisation", "graphes", "recherche d’information" ]
[ "P", "P", "P", "P", "M" ]
[ "Cross-lingual and generic text categorization", "Text categorization usually requires a significant investment, which must often be associated to a field adaptation. The approach we propose here allows to finely associate a graph of Wikipedia categories to any text written in a given language. Moreover, the inter-lingual index of the online encyclopedia allows to get a subset of this graph in most other languages.", "categorization, machine learning, information retrieval, Wikipedia, graphs" ]
taln-2013-court-021
Apprentissage supervisé sur ressources encyclopédiques pour l’enrichissement d’un lexique de noms propres destiné à la reconnaissance des entités nommées
Cet article présente une méthode hybride d’enrichissement d’un lexique de noms propres à partir de la base encyclopédique en ligne Wikipedia. Une des particularités de cette recherche est de viser l’enrichissement d’une ressource existante (Prolexbase) très contrôlée décrivant finement les noms propres. A la différence d’autres travaux destinés à la reconnaissance des entités nommées, notre objectif est donc de réaliser un enrichissement automatique de qualité. Notre approche repose sur l’utilisation en pipe-line de règles déterministes basées sur certaines informations DBpedia et d’une catégorisation supervisée à base de classifieur SVM. Nos résultats montrent qu’il est ainsi possible d’enrichir un lexique de noms propres avec une très bonne précision.
[ "lexique de nom propre", "reconnaissance des entités nommées", "Wikipedia", "règles", "SVM", "enrichissement automatique de lexique", "classification supervisée", "machine à vecteurs de support" ]
[ "P", "P", "P", "P", "P", "R", "M", "M" ]
[ "Supervised learning on encyclopaedic resources for the extension of a lexicon of proper names dedicated to the recognition of named entities", "This paper concerns the automatic extension of a lexicon of proper names by means of a hybrid mining of Wikipedia. The specificity of this research is to focus on the quality of the added lexical entries, since the mining process is supposed to extend a controlled existing resource (Prolexbase). Our approach consists in the successive application of deterministic rules based on some specific information of the DBpedia and of a supervised classification with a SVM classifier. Our experiments show that it is possible to extend automatically such a lexicon without adding a perceptible noise to the resource.", "named entities recognition, proper names lexicon, automatic extension of lexicon, Wikipedia, rules, supervised classification, support vector machines, SVM" ]
taln-2013-court-022
Convertir des analyses syntaxiques en dépendances vers les relations fonctionnelles PASSAGE
Nous présentons ici les premiers travaux concernant l’établissement d’une passerelle bidirectionnelle entre d’une, part les schémas d’annotation syntaxique en dépendances qui ont été définis pour convertir les annotations du French Treebank en arbres de dépendances de surface pour l’analyseur syntaxique Bonsai, et d’autre part le formalisme d’annotation PASSAGE développé initialement pour servir de support à des campagnes d’évaluation ouvertes en mode objectif quantitatif boîte-noire pour l’analyse syntaxique du français.
[ "Analyse Syntaxique", "PASSAGE", "Corpus arboré", "Dependances", "DepFTB", "ConLL" ]
[ "P", "P", "U", "U", "U", "U" ]
[ "Converting dependencies for syntactic analysis of French into PASSAGE functional relations", "We present here a first attempt at building a bidrictionnal converter between, on the one hand the dependency based syntaxtic formalism which has been defined to map the French Treebank annotation onto surface dependency trees used by the Bonsai parser, on the other hand the PASSAGE formalism developped intially for French parsing quantitative black-box objective open evaluation campaigns.", "Parsing, Treebank, Dependencies, DepFTB, ConLL, PASSAGE" ]
taln-2013-court-023
Résolution d’anaphores et traitement des pronoms en traduction automatique à base de règles
La traduction des pronoms est l’un des problèmes actuels majeurs en traduction automatique. Étant donné que les pronoms ne transmettent pas assez de contenu sémantique en euxmêmes, leur traitement automatique implique la résolution des anaphores. La recherche en résolution des anaphores s’intéresse à établir le lien entre les entités sans contenu lexical (potentiellement des syntagmes nominaux et pronoms) et leurs référents dans le texte. Dans cet article, nous mettons en oeuvre un premier prototype d’une méthode inspirée de la théorie du liage chomskyenne pour l’interprétation des pronoms dans le but d’améliorer la traduction des pronoms personnels entre l’espagnol et le français.
[ "Résolution d’anaphores", "traduction automatique à base de règles", "sujets nuls" ]
[ "P", "P", "U" ]
[ "Anaphora Resolution for Machine Translation", "Pronoun translation is one of the current problems within Machine Translation. Since pronouns do not convey enough semantic content by themselves, pronoun processing requires anaphora resolution. Research in anaphora resolution is interested in establishing the link between entities (NPs and pronouns) and their antecedents in the text. In this article, we implement a prototype of a linguistic anaphora resolution method inspired from the Chomskyan Binding Theory in order to improve the translation of personal pronouns between Spanish and French.", "Anaphora Resolution, Rule-based Machine Translation, nul subjects" ]
taln-2013-court-024
Lexiques de corpus comparables et recherche d’information multilingue
Nous évaluons l’utilité de trois lexiques bilingues dans un cadre de recherche interlingue français vers anglais sur le corpus CLEF. Le premier correspond à un dictionnaire qui couvre le corpus, alors que les deux autres ont été construits automatiquement à partir des sous-ensembles français et anglais de CLEF, en les considérant comme des corpus comparables. L’un contient des mots simples, alors que le deuxième ne contient que des termes complexes. Les lexiques sont intégrés dans des interfaces différentes dont les performances de recherche interlingue sont évaluées par 5 utilisateurs sur 15 thèmes de recherche CLEF. Les meilleurs résultats sont obtenus en intégrant le lexique de mots simples généré à partir des corpus comparables dans une interface proposant les cinq « meilleures » traductions pour chaque mot de la requête.
[ "corpus comparables", "recherche d’information multilingue", "lexiques multilingues" ]
[ "P", "P", "R" ]
[ "Lexicons from Comparable Corpora for Multilingual Information Retrieval", "We evaluate the utility of three bilingual lexicons for English-to-French crosslingual search on the CLEF corpus. The first one is a kind of dictionary whose content covers the corpus. The other two have been automatically built on the French and English subparts of the CLEF corpus, by considering them as comparable corpora. One is made of simple words, the other one of complex words. The lexicons are integrated in different interfaces whose crosslingual search performances are evaluated by 5 users on 15 topics of CLEF. The best results are given with the interface having the simple-words lexicon generated on comparable corpora and proposing 5 translations for each query term.", "multilingual information retrieval, comparable corpora, multilingual lexicons" ]
taln-2013-court-025
Utilisation de contextes pour la correction automatique ou semi-automatique de réclamations clients
Cet article présente deux méthodes permettant de corriger des réclamations contenant des erreurs rédactionnelles, en s’appuyant sur le graphe des voisins orthographiques et contextuels. Ce graphe est constitué des formes ou mots trouvés dans un corpus d’apprentissage. Un lien entre deux formes traduit le fait que les deux formes se « ressemblent » et partagent des contextes similaires. La première méthode est semi-automatique et consiste à produire un dictionnaire de substitution à partir de ce graphe. La seconde méthode, plus ambitieuse, est entièrement automatisée. Elle s’appuie sur les contextes pour déterminer à quel mot correspond telle forme abrégée ou erronée. Les résultats ainsi obtenus permettent d’améliorer le processus déjà existant de constitution d’un dictionnaire de substitution mis en place au sein d’EDF.
[ "contexte", "Correction automatique", "graphe", "analyse distributionnelle" ]
[ "P", "P", "P", "U" ]
[ "Using contexts for automatic or semi-automatic correction of customer complaints", "This article presents two methods allowing correcting complaints containing spelling errors, by using the spelling and contextual neighbors' graph. This graph is made of forms or words found in a learning corpus. A link between two forms conveys the fact that the two forms ''look alike'' and share similar contexts. The first method is semi-automatic and consists in producing a substitutional dictionary from this graph. The second method, more ambitious, is fully automatic. It is based on contexts to determine to which word corresponds such abbreviated or erroneous form. The results thus obtained allow us to improve the existing process regarding the creation of a substitutional dictionary at EDF.", "Spelling correction, distributional analysis, graph, context" ]
taln-2013-court-026
SegCV : traitement efficace de CV avec analyse et correction d’erreurs
Le marché d’offres d’emploi et des candidatures sur Internet a connu, ces derniers temps, une croissance exponentielle. Ceci implique des volumes d’information (majoritairement sous la forme de textes libres) intraitables manuellement. Les CV sont dans des formats très divers : .pdf, .doc, .dvi, .ps, etc., ce qui peut provoquer des erreurs lors de la conversion en texte plein. Nous proposons SegCV, un système qui a pour but l’analyse automatique des CV des candidats. Dans cet article, nous présentons des algorithmes reposant sur une analyse de surface, afin de segmenter les CV de manière précise. Nous avons évalué la segmentation automatique selon des corpus de référence que nous avons constitués. Les expériences préliminaires réalisées sur une grande collection de CV en français avec correction du bruit montrent de bons résultats en précision, rappel et F-Score.
[ "RI", "Ressources humaines", "traitement de CV", "Modèle à base de règles" ]
[ "U", "U", "R", "M" ]
[ "SegCV : Eficient parsing of résumés with analysis and correction of errors", "Over the last years, the online market of jobs and candidatures offers has reached an exponential growth. This has implied great amounts of information (mainly in a text free style) which cannot be processed manually. The résumés are in several formats : .pdf, .doc, .dvi, .ps, etc., that can provoque errors or noise during the conversion to plain text. We propose SegCV, a system that has as goal the automatic parsing of candidates’ résumés. In this article we present the algoritms, which are based over a surface analysis, to segment the résumés in an accurate way. We evaluated the automatic segmentation using a reference corpus that we have created. The preliminary experiments, done over a large collection of résumés in French with noise correction, show good results in precision, recall and F-score.", "Information Retrieval, Human Resources, CV Parsing, Rules Model" ]
taln-2013-court-027
Recherche et utilisation d'entités nommées conceptuelles dans une tâche de catégorisation
Les recherches présentées sont directement liées aux travaux menés pour résoudre les problèmes de catégorisation automatique de texte. Les mots porteurs d’opinions jouent un rôle important pour déterminer l’orientation du message. Mais il est essentiel de pouvoir identifier les cibles auxquelles ils se rapportent pour en contextualiser la portée. L’analyse peut également être menée dans l’autre sens, on cherchant dans le contexte d’une cible détectée les termes polarisés. Une première étape d’apprentissage depuis des données permet d'obtenir automatiquement les marqueurs de polarité les plus importants. A partir de cette base, nous cherchons les cibles qui apparaissent le plus fréquemment à proximité de ces marqueurs d'opinions. Ensuite, nous construisons un ensemble de couples (marqueur de polarité, cible) pour montrer qu’en s’appuyant sur ces couples, on arrive à expliquer plus finement les prises de positions tout en maintenant (voire améliorant) le niveau de performance du classifieur.
[ "Marqueurs de polarité", "Fouille d’opinion", "Reconnaissance d’entités nommées" ]
[ "P", "M", "M" ]
[ "Search and usage of named conceptual entities in a categorisazion task", "The researchs presented are part of a text automatic categorization task. Words bearing opinions play an important role in determining the overall direction of the message. But it is essential to identify the elements (targets) which they are intended to relativize the scope. The analysis can also be conducted in the reverse direction. When a target is detected we need to search polarized terms in the context. A first step in an automatic learning from data will allow us to obtain the most important polarity markers. From this basis, we look for targets that appear most frequently in the vicinity of these opinions markers. Then, we construct a set of pairs (polarity marker, target) to show that relying on these couples we can maintain (or improve) the performance of the classifier.", "Opinion Mining, Named Entity Recognition" ]
taln-2013-court-028
Un corpus d’erreurs de traduction
Avec le développement de la post-édition, de plus en plus de corpus contenant des corrections de traductions sont disponibles. Ce travail présente un corpus de corrections d’erreurs de traduction collecté dans le cadre du projet ANR/TRACE et illustre les différents types d’analyses auxquels il peut servir. Nous nous intéresserons notamment à la détection des erreurs fréquentes et à l’analyse de la variabilité des post-éditions.
[ "Traduction automatique", "Analyse d’erreur", "Post-édiition" ]
[ "M", "R", "U" ]
[ "A corpus of post-edited translations", "More and more datasets of post-edited translations are being collected. These corpora have many applications, such as failure analysis of SMT systems and the development of quality estimation systems for SMT. This work presents a large corpus of post-edited translations that has been gathered during the ANR/TRACE project. Applications to the detection of frequent errors and to the analysis of the inter-rater agreement of hTER are also reported.", "Machine Translation, Failure Analysis, Post-edition" ]
taln-2013-court-029
Une méthode d’évaluation des résumés basée sur la combinaison de métriques automatiques et de complexité textuelle
Cet article présente une méthode automatique d’évaluation du contenu des résumés automatiques. La méthode proposée est basée sur une combinaison de caractéristiques englobant des scores de contenu et d’autres de complexité textuelle et ce en s’appuyant sur une technique d’apprentissage, à savoir la régression linéaire. L’objectif de cette combinaison consiste à prédire le score manuel PYRAMID à partir des caractéristiques utilisées. Afin d’évaluer la méthode présentée, nous nous sommes intéressés à deux niveaux de granularité d’évaluation : la première est qualifiée de Micro-évaluation et propose l’évaluation de chaque résumé, alors que la deuxième est une Macro-évaluation et s’applique au niveau de chaque système.
[ "complexité textuelle", "évaluation du contenu", "résumé automatique", "régression linéaire", "Evaluation intrinsèque" ]
[ "P", "P", "P", "P", "U" ]
[ "An evaluation summary method based on combination of automatic and textual complexity metrics", "This article presents an automatic method for evaluating content summaries. The proposed method is based on a combination of features encompassing scores of content and others of textual complexity. This method relies on a learning technique namely the linear regression. The objective of this combination is to predict the PYRAMID score from used features. In order to evaluate the presented method, we are interested in two levels of granularity evaluation: the first is named Micro-evaluation and proposes an evaluation of each summary, while the second is called Macro-evaluation and it applies at the level of each system.", "Intrinsic evaluation, content evaluation, automatic summary, textual complexity, linear regression" ]
taln-2013-court-030
Segmentation thématique : processus itératif de pondération intra-contenu
Dans cet article, nous nous intéressons à la segmentation thématique d’émissions télévisées exploitant la cohésion lexicale. Le but est d’étudier une approche générique, reposant uniquement sur la transcription automatique sans aucune information externe ni aucune information structurelle sur le contenu traité. L’étude porte plus particulièrement sur le mécanisme de pondération des mots utilisés lors du calcul de la cohésion lexicale. Les poids TF-IDF sont estimés à partir du contenu lui-même, qui est considéré comme une collection de documents mono-thème. Nous proposons une approche itérative, intégrée à un algorithme de segmentation, visant à raffiner la partition du contenu en documents pour l’estimation de la pondération. La segmentation obtenue à une itération donnée fournit un ensemble de documents à partir desquels les poids TF-IDF sont ré-estimés pour la prochaine itération. Des expériences menées sur un corpus couvrant différents formats des journaux télévisés issus de 8 chaînes françaises montrent une amélioration du processus global de segmentation.
[ "Segmentation thématique", "cohésion lexicale", "pondération TF-IDF", "TextTiling" ]
[ "P", "P", "R", "U" ]
[ "An iterative topic segmentation algorithm with intra-content term weighting", "This paper deals with topic segmentation of TV Broadcasts using lexical cohesion. The aim is to propose a generic approach, only relying on the automatic speech transcription with no external nor a priori information on the TV content. The study focuses on a new weighting scheme for lexical cohesion computation. TF-IDF weights are estimated from the content itself which is considered as a collection of mono-thematic documents. We propose an iterative process, integrated to a segmentation algorithm, aiming to refine the partition of a content into documents in order to estimate the weights. Topic segmentation obtained at a given iteration provides a set of documents from which TF-IDF weights are re-estimated for the next iteration. An experiment on a rich corpus covering various formats of Broadcast News shows from 8 French TV channels improves the overall topic segmentation process.", "Topic segmentation, TF-IDF weighting, lexical cohesion, TextTiling" ]
taln-2013-court-031
Recherche et visualisation de mots sémantiquement liés
Nous présentons PatternSim, une nouvelle mesure de similarité sémantique qui repose d’une part sur des patrons lexico-syntaxiques appliqués à de très vastes corpus et d’autre part sur une formule de réordonnancement des candidats extraits. Le système, initialement développé pour l’anglais, a été adapté au français. Nous rendons compte de cette adaptation, nous en proposons une évaluation et décrivons l’usage de ce nouveau modèle dans la plateforme de consultation en ligne Serelex.
[ "Mesure de similarité sémantique", "relations sémantiques" ]
[ "P", "M" ]
[ "Search and Visualization of Semantically Related Words", "We present PatternSim, a new semantic similarity measure that relies on morpho-syntactic patterns applied to very large corpora and on a re-ranking formula that reorder extracted candidates. The system, originally developed for English, was adapted to French. We explain this adaptation, propose a first evaluation of it and we describe how this new model was used to build the Serelex online search platform.", "Semantic similarity measure, semantic relations" ]
taln-2013-court-032
Un analyseur morphologique étendu de l'allemand traitant les formes verbales à particule séparée
Nous décrivons l’organisation et l'état courant de l’analyseur morphologique de l’allemand AMALD de grande taille couvrant (près de 103000 lemmes et 500000 formes fléchies simples, en croissance) développé dans le cadre du projet ANR-Émergence Traouiero. C’est le premier lemmatiseur de l’allemand capable de traiter non seulement les mots simples et les mots composés, mais aussi les verbes à particules séparables quand elles sont séparées, même par un grand nombre de mots (ex : Hier schlagen wir eine neue Methode für die morphologische Analyse vor).
[ "allemand", "verbes à particule séparable", "analyse morphologique", "lemmatisation" ]
[ "P", "P", "R", "U" ]
[ "An extended morphological analyzer of German handling verbal forms with separated separable particles", "We describe the organisation and the current state of the large-scale (nearly 103000 lemmas and 500000 simple inflected forms, growing) morphological analyzer AMALD developed in the framework of the ANR-Émergence Traouiero project. It is the first lemmatizer of German able to handle not only simple and compound words, but also verbs with separable particles when they are separated, even by many words (e.g. Hier schlagen wir eine neue Methode für die morphologische Analyse vor.).", "morphological analysis, lemmatization, German, verbs with separable particles" ]
taln-2013-court-033
Construction et exploitation d’un corpus français pour l’analyse de sentiment
Ce travail présente un corpus en français dédié à l’analyse de sentiment. Nous y décrivons la construction et l’organisation du corpus. Nous présentons ensuite les résultats de l’application de techniques d’apprentissage automatique pour la tâche de classification d’opinion (positive ou négative) véhiculée par un texte. Deux techniques sont utilisées : la régression logistique et la classification basée sur des Support Vector Machines (SVM). Nous mentionnons également l’intérêt d’appliquer une sélection de variables avant la classification (par régularisation par elastic net).
[ "Corpus", "Analyse de sentiments", "Apprentissage automatique", "Classification", "Sélection de variable" ]
[ "P", "P", "P", "P", "P" ]
[ "Building and exploiting a French corpus for sentiment analysis", "This work introduces a French corpus for sentiment analysis. We describe the construction and organization of the corpus. We then apply machine learning techniques to automatically predict whether a text is positive or negative (the opinion classification task). Two techniques are used : logistic regression and classification based on Support Vector Machines (SVM). Finally, we briefly evaluate the merits of applying feature selection algorithms to our models (via elastic net regularization).", "Sentiment Analysis, Corpus, Opinion Mining, Classification, Machine Learning, Variable Selection" ]
taln-2013-court-034
Résolution d'anaphores appliquée aux collocations: une évaluation préliminaire
Le traitement des collocations en analyse et en traduction est depuis de nombreuses années au centre de nos intérêts de recherche. L’analyseur Fips a été récemment enrichi d’un module de résolution d’anaphores. Dans cet article nous décrivons comment la résolution d’anaphores a été appliquée à l’identification des collocations et comment cela permet à l’analyseur de repérer une collocation même si un de ses termes a été pronominalisé. Nous décrivons aussi la méthodologie de l’évaluation, notamment la préparation des données pour le calcul du rappel. Dans la tâche d’identification des collocations pronominalisées, Fips montre des résultats très encourageants : la précision mesurée est de 98% alors que le rappel est proche de 50%. Dans cette évaluation nous nous intéressons aux collocations de type verbe-objet direct en conjonction avec les pronoms anaphoriques à la 3e personne. Le corpus utilisé est un corpus anglais d’environ dix millions de mots.
[ "collocations", "Analyse", "résolution d’anaphores", "corpus", "pronoms personnels" ]
[ "P", "P", "P", "P", "M" ]
[ "Anaphora Resolution Applied to Collocation Identification: A Preliminary Evaluation", "Collocation identification and collocation translation have been at the center of our research interests for several years. Recently, the Fips parser has been enriched by an anaphora resolution mechanism. This article discusses how anaphora resolution has been applied to the collocation identification task, and how it enables the parser to identify a collocation when one of its terms is pronominalized. We also describe the evaluation methodology, in particular the preparation of data for the calculation of the recall. In the task of pronominalized collocation identification, Fips shows encouraging results: the measured precision is 98% while recall approaches 50%. In this paper we focus on collocations of the type verb-direct object and on a widespread type of anaphora: the third personal pronouns. The corpus used is a corpus of approximately ten million English words.", "Parsing, anaphora resolution, personal pronoun, collocations, corpus" ]
taln-2013-court-035
Aide à l’enrichissement d’un référentiel terminologique : propositions et expérimentations
En s’appuyant sur une expérience d’enrichissement terminologique, cet article montre comment assister le travail d’acquisition terminologique et surmonter concrètement les deux difficultés qu’il présente : la masse de candidats-termes à considérer et la subjectivité des jugements terminologiques qui varient notamment en fonction du type de terminologie à produire. Nous proposons des stratégies simples pour filtrer a priori une partie du bruit des résultats des extracteurs et rendre ainsi la validation praticable pour des terminologues et nous démontrons leur efficacité sur un échantillon de candidats-termes proposés à la validation de deux spécialistes du domaine. Nous montrons également qu’en appliquant à une campagne de validation terminologique les mêmes principes méthodologiques que pour une campagne d’annotation, on peut contrôler la qualité des jugements de validation posés et de la terminologie qui en résulte.
[ "Acquisition terminologique", "validation de candidats-termes", "filtrage de termes", "distance terminologique", "vote", "accord inter-juges" ]
[ "P", "R", "M", "M", "U", "U" ]
[ "Help enrich a terminological repository : proposals and experiments", "Based on an experience of terminological enrichment, this paper shows how to support the work of terminological acquisition and overcome practical difficulties it presents, i.e. the mass of candidate terms to consider and the subjectivity of terminological judgments which depends on the type of terminology to produce. We propose simple strategies to filter a priori part of the noise from the results of term extractors so as to make the validation practicable for terminologists. We demonstrate their effectiveness on a sample of candidate terms proposed for the validation of two experts. We also show that by applying to term validation campaigns the methodological principles that have been proposed for corpus annotation campaigns, we can control the quality of validation judgments and of the resulting terminologies.", "Terminology acquisition, term candidate validation, term filtering, terminological distance, vote, inter-judge agreement" ]
taln-2013-demo-001
DAnIEL : Veille épidémiologique multilingue parcimonieuse
DAnIEL est un système multilingue de veille épidémiologique. DAnIEL permet de traiter un grand nombre de langues à faible coût grâce à une approche parcimonieuse en ressources.
[ "veille", "multilinguisme", "extraction d’information", "recherche d’information", "genre journalistique", "grain caractère" ]
[ "P", "P", "U", "U", "U", "U" ]
[ "DAnIEL, parsimonious yet high-coverage multilingual epidemic surveillance", "DAnIEL is a multilingual epidemic surveillance system. DAnIEL relies on a parsimonious scheme making it possible to process new languages at small cost.", "information extraction, information retrieval, news surveillance, multilingualism, news genre, character-level analysis" ]
taln-2013-demo-002
Lexique multilingue dans le cadre du modèle Compreno développé ABBYY
Le lexique multilingue basé sur une hiérarchie sémantique universelle fait partie du modèle linguistique Compreno destiné à plusieurs applications du TALN, y compris la traduction automatique et l’analyse sémantique et syntaxique. La ressource est propriétaire et n’est pas librement disponible.
[ "Lexique multilingue", "hiérarchie sémantique universelle", "traduction automatique" ]
[ "P", "P", "P" ]
[ "Multilingual lexical database in the framework of COMPRENO linguistic model developed by ABBYY", "The multilingual lexical database based on the universal semantic hierarchy is part of Compreno linguistic model. This model is meant for various NLP applications dealing with machine translation, semantic and syntactic analysis. The resource is private and is not freely available.", "Multilingual lexical database, universal semantic hierarchy, machine translation" ]
taln-2013-demo-003
Inbenta Semantic Search Engine : un moteur de recherche sémantique inspiré de la Théorie Sens-Texte
Avec la digitalisation massive de documents apparaît la nécessité de disposer de systèmes de recherche capables de s’adapter aux habitudes de recherche des utilisateurs et de leur permettre d’accéder à l’information rapidement et efficacement. INBENTA a ainsi créé un moteur de recherche intelligent appellé Inbenta Semantic Search Engine (ISSE). Les deux tâches principales de l’ISSE sont d’analyser les questions des utilisateurs et de trouver la réponse appropriée à la requête en effectuant une recherche dans une base de connaissances. Pour cela, la solution logicielle d’INBENTA se base sur la Théorie Sens-Texte qui se concentre sur le lexique et la sémantique.
[ "Moteur de Recherche Sémantique", "Théorie Sens-Texte", "fonction lexicale" ]
[ "P", "P", "U" ]
[ "Inbenta Semantic Search Engine: a semantic search engine inspired by the Meaning-Text Theory", "The need to have search systems able to adapt themselves to the particular way users pose their questions so that they can get a quick and efficient access to information is increasingly relevant due to the huge digitalization of documents. To cope with this reality, INBENTA has developed an intelligent search engine, called Inbenta Semantic Search Engine (ISSE). ISSE's main two tasks are analysing users' queries and finding the most appropriate answer to those questions in a knowledge-base. To carry out these tasks, INBENTA's software solution relies upon the Meaning-Text Theory, which focusses on the lexicon and semantics.", "Semantic Search Engine, Meaning-Text Theory, lexical function" ]
taln-2013-demo-004
FMO : un outil d’analyse automatique de l’opinion
Nous décrivons notre prototype d’analyse automatique d’opinion. Celui-ci est basé sur un moteur d’analyse linguistique. Il permet de détecter finement les segments de texte porteurs d’opinions, de les extraire, et de leur attribuer une note selon la polarité qu’ils expriment. Nous présentons enfin les différentes perspectives que nous envisageons pour ce prototype.
[ "Analyse d’opinion", "e-reputation", "extraction d’information" ]
[ "R", "U", "M" ]
[ "FMO: a tool for automated opinion mining", "We describe our prototype of automatic opinion mining. It is based on a linguistic analysis engine. It allows to subtly identifying the text phrases which bear some opinion, to extract them, and to give them a note according to the polarity that they express. Finally, we present the perspectives that we plan to carry out.", "Opinion mining, e-reputation, information extraction" ]
taln-2013-demo-005
Corriger, analyser et représenter le texte Synapse Développement
Synapse Développement souhaite échanger avec les conférenciers autour des technologies qu'elle commercialise : correction de textes et analyse sémantique. Plusieurs produits et démonstrateurs seront présentés, notre but étant d'instaurer un dialogue et de confronter notre approche du TAL, à base de méthodes symboliques et statistiques influencées par des contraintes de production, et celles utilisées par les chercheurs, industriels ou passionnés qui viendront à notre rencontre.
[ "analyse sémantique", "Correction grammaticale", "analyse syntaxique", "analyse d'opinions" ]
[ "P", "M", "M", "M" ]
[ "Checking, analysing and representing texts", "Synapse Développement would like to demonstrate its grammar checker and semantic analysis technologies to open exciting discussions with natural language specialists. We are particularly interested in discussing the scientific issues we have to face and solve according to our industrial needs.", "Grammar checker, POS tagging, semantic analysis, opinion mining" ]
taln-2013-demo-006
Une interface pour la validation et l’évaluation de chronologies thématiques
Cet article décrit une interface graphique de visualisation de chronologies événementielles construites automatiquement à partir de requêtes thématiques en utilisant un corpus de dépêches fourni par l’Agence France Pressse (AFP). Cette interface permet également la validation des chronologies par des journalistes qui peuvent ainsi les éditer et les modifier.
[ "validation", "évaluation", "chronologie événementielle" ]
[ "P", "P", "P" ]
[ "An Interface for Validating and Evaluating Thematic Timelines", "This demo paper presents a graphical interface for the visualization and evaluation of event timelines built automatically from a search query on a newswire article corpus provided by the Agence France Pressse (AFP). This interface also enables journalists to validate chronologies by editing and modifying them.", "event timeline, evaluation, validation" ]
taln-2013-demo-007
CasSys Un système libre de cascades de transducteurs
CasSys est un système de création et de mise en oeuvre de cascades de transducteurs intégré à la plateforme Unitex. Nous présentons dans cette démonstration la nouvelle version implantée fin 2012. En particulier ont été ajoutées une interface plus conviviale et la possibilité d’itérer un même transducteur jusqu’à ce qu’il n’ait plus d’influence sur le texte. Un premier exemple concernera le traitement de texte avec une gestion complexe de balises XML et un deuxième présentera la cascade CasEN de reconnaissance des entités nommées.
[ "cascade de transducteurs", "graphes Unitex", "texte avec balises XML", "reconnaissance d'entités nommées" ]
[ "P", "M", "R", "M" ]
[ "CasSys, a free transducer cascade system", "CasSys is a free toolkit integrated in the Unitex platform to create and use transducer cascades. We are presenting the new version implemented at the end of 2012. The system interface has been improved and the Kleen star operation has been added: this operation allows applying the same transducer until it no longer produces changes in the text. The first example deals with complex XML text parsing and the second with CasEN, a free cascade for French Named Entity Recognition.", "transducer cascade, Unitex graphs, XML text, French Named Entity Recognition" ]
taln-2013-demo-008
iMAG : post-édition, évaluation de qualité de TA et production d'un corpus parallèle
Une passerelle interactive d’accès multilingue (iMAG) dédiée à un site Web S (iMAG-­‐S) est un bon outil pour rendre S accessible dans beaucoup de langues, immédiatement et sans responsabilité éditoriale. Les visiteurs de S ainsi que des post-­‐éditeurs et des modérateurs payés ou non contribuent à l’amélioration continue et incrémentale des segments textuels les plus importants, et éventuellement de tous. Dans cette approche, les pré-­‐traductions sont produites par un ou plusieurs systèmes de Traduction Automatique (TA) gratuits. Il y a deux effets de bord intéressants, obtenables sans coût additionnel : les iMAGs peuvent être utilisées pour produire des corpus parallèles de haute qualité, et pour mettre en place une évaluation permanente et finalisée de multiples systèmes de TA.
[ "post-édition", "évaluation de systèmes de TA", "production d’un corpus parallèle" ]
[ "P", "R", "R" ]
[ "iMAG : MT-postediting, translation quality evaluation and parallel corpus production", "An interactive Multilingual Access Gateway (iMAG) dedicated to a web site S (iMAG-­‐S) is a good tool to make S accessible in many languages immediately and without editorial responsibility. Visitors of S as well as paid or unpaid post-­‐editors and moderators contribute to the continuous and incremental improvement of the most important textual segments, and eventually of all. In this approach, pre-­‐translations are produced by one or more free machine translation systems. There are two interesting side effects obtainable without any added cost: iMAGs can be used to produce high-­‐quality parallel corpora and to set up a permanent task-­‐based evaluation of multiple MT systems.", "post-edition, evaluation of MT systems, production of parallel corpora" ]
taln-2013-demo-009
Technologies du Web Sémantique pour l'exploitation de données lexicales en réseau (Lexical Linked Data)
Nous présentons un système basé sur les technologies du Web Sémantique pour la gestion, le développement et l'exploitation de données lexicales en réseau (Lexical Linked Data, LLD).
[ "Lexical Linked Data", "Lexique Multilingue", "Pivot", "Axies", "Sparql", "Spin" ]
[ "P", "U", "U", "U", "U", "U" ]
[ "Semantic Web technologies for Lexical Linked Data management", "We present a system based on Semantic Web technologies for Lexical Linked Data management.", "Lexical Linked Data, Multilingual Lexicon, Pivot, Axies, Sparql, Spin" ]
taln-2013-demo-010
Adaptation de la plateforme corporale ScienQuest pour l'aide à la rédaction en langue seconde
La plateforme ScienQuest fut initialement créée pour l'étude linguistique du positionnement et du raisonnement dans le corpus Scientext. Cette démonstration présente les modifications apportées à cette plateforme, pour en faire une base phraséologique adaptée à l'aide à la rédaction en langue seconde. Cette adaptation est utilisée dans le cadre de deux expérimentations en cours : l'aide à la rédaction en anglais pour les scientifiques, et l'aide à la rédaction académique en français pour les apprenants.
[ "ScienQuest", "Aide à la rédaction", "langue seconde", "Scientext" ]
[ "P", "P", "P", "P" ]
[ "Adaptation of the corpus platform ScienQuest for assistance to writing in a second language", "The ScienQuest platform was initially created for the linguistic study of positioning and reasoning in the Scientext corpus. This demonstration introduces modifications to this platform, transforming it into a phraseological database adapted for assistance to writing in a second language. This adaptation is used as part of two ongoing experiments: an assistance to writing in English for scientists, and an assistance to academic writing in French for learners.", "Writing assistance, second language, ScienQuest, Scientext" ]
taln-2013-demo-011
Démonstrateur Apopsis pour l’analyse des tweets
Le démonstrateur Apopsis permet de délimiter et de catégoriser les opinions émises sur les tweets en temps réel pour un sujet choisi par l’utilisateur au travers d’une interface web.
[ "fouille d’opinion", "polarité", "twitter" ]
[ "M", "U", "U" ]
[ "Apopsis Demonstrator for Tweet Analysis", "Apopsis web demonstrator detects and categorizes opinion expressions appearing in Twitter in real time thorigh a web interface.", "opinion mining, polarity, twitter" ]
taln-2013-demo-012
L’analyse des sentiments au service des centres d’appels
Les conversations téléphoniques qui contiennent du sentiment négatif sont particulièrement intéressantes pour les centres d’appels, aussi bien pour évaluer la perception d’un produit par les clients que pour améliorer la formation des télé-conseillers. Néanmoins, ces conversations sont peu nombreuses et difficiles à trouver dans la masse d’enregistrements. Nous présentons un module d’analyse des sentiments qui permet de visualiser le déroulement émotionnel des conversations. Il se greffe sur un moteur de recherche, ce qui permet de trouver rapidement les conversations problématiques grâce à l’ordonnancement par score de négativité.
[ "analyse des sentiments", "conversations téléphoniques", "recherche d’information", "parole spontanée", "parole conversationnelle" ]
[ "P", "P", "M", "U", "U" ]
[ "Sentiment Analysis for Call-centers", "Phone conversations in which negative sentiment is expressed are particularly interesting for call centers, both to evaluate the clients’ perception of a product and for the training of the agents. However, these conversations are scarce and hard to find in the mass of the recorded calls. We present a module for sentiment analysis that allows the user to visualize the emotional course of each conversation. In combination with a search engine, a user can rapidly find the problematic calls using the ranking by negativity score.", "sentiment analysis, information retrieval, spontaneous speech, conversational speech" ]
taln-2013-demo-013
TTC TermSuite alignement terminologique à partir de corpus comparables
TermSuite est outil libre multilingue réalisant une extraction terminologique monolingue et une extraction terminologique bilingue à partir de corpus comparables.
[ "alignement", "corpus comparable", "extraction terminologique", "UIMA" ]
[ "P", "P", "P", "U" ]
[ "TTC TermSuite - Terminological Alignment from Comparable Corpora", "TermSuite is based on a UIMA framework and performs monolingual and bilingual term extraction from comparable corpora for a range of languages.", "comparable corpora, terminology extraction, terminology alignment, UIMA" ]
taln-1999-long-006
Une bibliothèque d’opérateurs linguistiques pour la consultation de base de données en langue naturelle
L’interrogation de bases de données en langue naturelle est une application directe du traitement automatique des langues naturelles. Son utilité va en s’accroissant avec le développement d’outils d’information accessibles au grand public à travers la Toile Internet. L’approche que nous proposons s’appuie d’une part sur les fondations linguistiques établies par la théorie de Z. S. Harris (dans l’élaboration du dictionnaire, et surtout dans la définition des opérateurs linguistiques), et d’autre part sur un outil informatique précis (les transducteurs). Elle représente une alternative aux traitements syntaxico-sémantiques habituellement développés dans des formalismes logiques. Elle s’appuie sur la constitution d’une bibliothèque d’opérateurs linguistiques pour les domaines d’application.
[ "opérateurs linguistiques", "interrogation de base de données", "langage naturel", "transducteur (automate à nombre fini d’états)" ]
[ "P", "P", "M", "M" ]
[ "", "", "" ]
taln-1999-long-014
Peut-on couper à la polysémie verbale ?
Dans ce bref document, nous présentons des résultats préliminaires d’une méthode de description de la sémantique des formes prédicatives dans un cadre génératif. Nous proposons une méthode pour découper les sens, en identifiant les types d’inférences qu’ils entrainent. Nous proposons une analyse intégrée des métaphores et des métonymies, ainsi qu’une représentation des sens sous forme typée et sous-spécifiée.
[ "sémantique lexicale", "prédicats", "lexique génératif" ]
[ "M", "U", "M" ]
[ "", "", "" ]
taln-1999-long-023
Apprentissage et Evaluation de Modèles de Langage par des Techniques de Correction d’Erreurs
Cet article a pour but de décrire la mise au point et l’expérimentation de méthodes d’apprentissage de syntaxe à partir d’exemples positifs, en particulier pour des applications de Reconnaissance de la Parole et de Dialogue Oral. Les modèles syntaxiques, destinés à être intégrés dans une chaîne de traitement de la parole, sont extraits des données par des méthodes d’inférence grammaticale symbolique et stochastique. Ils sont fondés sur des techniques de correction d’erreurs dans les séquences. L’ensemble de ce travail a été réalisé dans le cadre du contrat 97- 1B-004 avec France-Telecom (Centre National d’Etudes des Télécommunications). Dans la première partie de cet article, nous rappellons les distances entre séquences basées sur des opérations élémentaires de correction d’erreur. Nous décrivons ensuite un algorithme classique d’inférence grammaticale fondé sur cette notion, et nous en proposons une amélioration. Nous abordons à cet endroit le problème de l’évaluation d’un concept appris seulement à partir d’exemples positifs, sans contre-exemples. Par la suite, le modèle syntaxique est étendu en attribuant des probabilités (apprises à partir des données) aux règles de la grammaire. On dispose dans ce cadre d’un outil d’évaluation de la qualité de l’apprentissage : la perplexité ; cependant pour obtenir des résultats significatifs, il faut être capable de probabiliser l’espace entier des séquences, ce qui implique de lisser la grammaire stochastique apprise. Une technique de lissage est proposée, qui permet alors d’évaluer l’apprentissage sur le corpus de données issues de l’expérimentation en dialogue oral.
[ "Inférence grammaticale régulière", "analyse corrective", "évaluation du modèle de language" ]
[ "M", "M", "M" ]
[ "", "", "" ]
taln-2004-long-001
Evaluation de méthodes de segmentation thématique linéaire non supervisées après adaptation au français
Nous proposons une évaluation de différentes méthodes et outils de segmentation thématique de textes. Nous présentons les outils de segmentation linéaire et non supervisée DotPlotting, Segmenter, C99, TextTiling, ainsi qu’une manière de les adapter et de les tester sur des documents français. Les résultats des tests montrent des différences en performance notables selon les sujets abordés dans les documents, et selon que le nombre de segments à trouver est fixé au préalable par l’utilisateur. Ces travaux font partie du projet Technolangue AGILE-OURAL.
[ "Segmentation thématique", "métriques de Beeferman et WindowDiff", "cohésion lexicale", "chaînes lexicales" ]
[ "P", "M", "U", "U" ]
[ "", "This paper presents an empirical comparison between different methods for segmenting texts. After presenting segmentation tools and more specifically linear segmentation algorithms, we present a comparison of these methods on both French and English text corpora. This evalutation points out that the performance of each method heavilly relies on the topic of the documents, and the number of boundaries to be found. This work is part of the project Technolangue AGILE-OURAL.", "Topic segmentation, WindowDiff and Beeferman measures, lexical cohesion, lexical chains" ]
taln-2004-long-002
Ambiguïté de rattachement prépositionnel : introduction de ressources exogènes de sous-catégorisation dans un analyseur syntaxique de corpus endogène
Nous présentons les résultats d’expérimentations visant à introduire des ressources lexicosyntaxiques génériques dans un analyseur syntaxique de corpus à base endogène (SYNTEX) pour la résolution d’ambiguïtés de rattachement prépositionnel. Les données de souscatégorisation verbale sont élaborées à partir du lexique-grammaire et d’une acquisition en corpus (journal Le Monde). Nous présentons la stratégie endogène de désambiguïsation, avant d’y intégrer les ressources construites. Ces stratégies sont évaluées sur trois corpus (scientifique, juridique et journalistique). La stratégie mixte augmente le taux de rappel (+15% sur les trois corpus cumulés) sans toutefois modifier le taux de précision (~ 85%). Nous discutons ces performances, notamment à la lumière des résultats obtenus par ailleurs sur la préposition de.
[ "ambiguïté de rattachement prépositionnel", "ressources exogènes", "analyse syntaxique automatique", "procédures endogènes", "approche mixte" ]
[ "P", "P", "M", "M", "M" ]
[ "", "We report the results of experiments aimed at integrating general lexico-syntactic resources into a corpus syntactic parser (SYNTEX) based on endogenous learning. We tackle the issue of prepositional phrase attachment. We make use of both French lexico-syntactic resources and automatic acquisition to extract verb subcategorisation data. We describe both the endogenous and hybrid approaches and show how the latter improves the recall rate - +15% in average - but has no impact on the precision rate (~ 85%).", "automatic parsing, prepositional phrase attachement disambiguation, endogenous learning, exogenous resources, hybrid approach" ]
taln-2004-long-003
Vers un statut de l’arbre de dérivation : exemples de construction de representations sémantiques pour les Grammaires d’Arbres Adjoints
Cet article propose une définition des arbres de dérivation pour les Grammaires d’Arbres Adjoints, étendant la notion habituelle. Elle est construite sur l’utilisation des Grammaires Catégorielles Abstraites et permet de manière symétrique le calcul de la représentation syntaxique (arbre dérivé) et le calcul de la représentation sémantique.
[ "Sémantique", "grammaires d’arbre adjoints", "grammaires catégorielles", "λ-calcul" ]
[ "P", "P", "P", "U" ]
[ "", "This paper suggests a definition for Tree Adjoining Grammar derivation trees, extending the usual notion. It results from using Abstract Categorial Grammars and enables, in a symmetric way, the computation of both the syntactic representation (derived tree) and the semantic representation.", "Semantics, tree adjoining grammars, categorial grammars, λ-calculus" ]
taln-2004-long-004
Extension de requêtes par lien sémantique nom-verbe acquis sur corpus
En recherche d’information, savoir reformuler une idée par des termes différents est une des clefs pour l’amélioration des performances des systèmes de recherche d’information (SRI) existants. L’un des moyens pour résoudre ce problème est d’utiliser des ressources sémantiques spécialisées et adaptées à la base documentaire sur laquelle les recherches sont faites. Nous proposons dans cet article de montrer que les liens sémantiques entre noms et verbes appelés liens qualia, définis dans le modèle du Lexique génératif (Pustejovsky, 1995), peuvent effectivement améliorer les résultats des SRI. Pour cela, nous extrayons automatiquement des couples nom-verbe en relation qualia de la base documentaire à l’aide du système d’acquisition ASARES (Claveau, 2003a). Ces couples sont ensuite utilisés pour étendre les requêtes d’un système de recherche. Nous montrons, à l’aide des données de la campagne d’évaluation Amaryllis, que cette extension permet effectivement d’obtenir des réponses plus pertinentes, et plus particulièrement pour les premiers documents retournés à l’utilisateur.
[ "extension de requête", "recherche d’information", "Lexique génératif", "Lexique sémantique", "acquisition sur corpus" ]
[ "P", "P", "P", "R", "R" ]
[ "", "In the information retrieval field, managing the equivalent reformulations of a same idea is a key point to improve the performances of existing retrieval systems. One way to reach this goal is to use specialised semantic resources that are suited to the document database on which the queries are processed. In this paper, we show that the semantic links between nouns and verbs called qualia links, defined in the Generative lexicon framework (Pustejovsky, 1995), enable us to improve the results of retrieval systems. To achieve this goal, we automatically extract from the document database noun-verb pairs that are in qualia relation with the acquisition system ASARES (Claveau, 2003a). These pairs are then used to expand the queries of a retrieval system. With the help of the Amaryllis evaluation campaign data, we show that these expansions actually lead to better results, especially for the first documents proposed to the user.", "Semantic lexicon, corpus-based acquisition, information retrieval, Generative lexicon, query expansion" ]
taln-2004-long-005
Découvrir des sens de mots à partir d’un réseau de cooccurrences lexicales
Les réseaux lexico-sémantiques de type WordNet ont fait l’objet de nombreuses critiques concernant la nature des sens qu’ils distinguent ainsi que la façon dont ils caractérisent ces distinctions de sens. Cet article présente une solution possible à ces limites, solution consistant à définir les sens des mots à partir de leur usage. Plus précisément, il propose de différencier les sens d’un mot à partir d’un réseau de cooccurrences lexicales construit sur la base d’un large corpus. Cette méthode a été testée à la fois pour le français et pour l’anglais et a fait l’objet dans ce dernier cas d’une première évaluation par comparaison avec WordNet.
[ "réseaux lexico-sémantiques", "Sémantique lexicale", "découverte du sens des mots" ]
[ "P", "M", "M" ]
[ "", "Lexico-semantic networks such as WordNet have been criticized a lot on the nature of the senses they distinguish as well as on the way they define these senses. In this article, we present a possible solution to overcome these limits by defining the sense of words from the way they are used. More precisely, we propose to differentiate the senses of a word from a network of lexical cooccurrences built from a large corpus. This method was tested both for French and English and for English, was evaluated through a comparison with WordNet.", "Lexical semantics, word sense discovery, lexico-semantic networks" ]
taln-2004-long-006
Désambiguïsation par proximité structurelle
L’article présente une méthode de désambiguïsation dans laquelle le sens est déterminé en utilisant un dictionnaire. La méthode est basée sur un algorithme qui calcule une distance « sémantique » entre les mots du dictionnaire en prenant en compte la topologie complète du dictionnaire, vu comme un graphe sur ses entrées. Nous l’avons testée sur la désambiguïsation des définitions du dictionnaire elles-mêmes. L’article présente des résultats préliminaires, qui sont très encourageants pour une méthode ne nécessitant pas de corpus annoté.
[ "dictionnaires", "Désambiguïsation sémantique", "réseaux petits mondes hiérarchiques" ]
[ "P", "R", "U" ]
[ "", "This paper presents a disambiguation method in which word senses are determined using a dictionary. We use a semantic proximity measure between words in the dictionary, taking into account the whole topology of the dictionary, seen as a graph on its entries. We have tested the method on the problem of disambiguation of the dictionary entries themselves, with promising results considering we do not use any prior annotated data.", "Word sense desambiguation, hierarchical small words, dictionaries" ]
taln-2004-long-007
Fusionner pour mieux analyser : Conception et évaluation de la plate-forme de combinaison
L’objectif de cet article est de présenter nos travaux concernant la combinaison d’analyseurs syntaxiques pour produire un analyseur plus robuste. Nous avons créé une plate-forme nous permettant de comparer des analyseurs syntaxiques pour une langue donnée en découpant leurs résultats en informations élémentaires, en les normalisant, et en les comparant aux résultats de référence. Cette même plate-forme est utilisée pour combiner plusieurs analyseurs pour produire un analyseur de dépendance plus couvrant et plus robuste. À long terme, il sera possible de “compiler” les connaissances extraites de plusieurs analyseurs dans un analyseur de dépendance autonome.
[ "Analyse de dépendance", "analyse syntaxique", "combinaisons d’informations" ]
[ "R", "R", "R" ]
[ "", "The goal of this article is to present our works about the combination of syntactic parsers to produce a more robust parser. We have built a platform which allows us to compare syntactic parsers for a given language by splitting their results in elementary pieces, normalizing them, and comparing them with reference results. The same platform is used to combine several parsers to produce a dependency parser, which is big construction broader and more robust than its component parsers. In the future, it should by possible to “compile” the knowledge extracted from several analyzers into an autonomous dependency parser.", "Dependency parsing, syntactic parsing, Information combination" ]
taln-2004-long-008
Un modèle d’acquisition de la syntaxe à l’aide d’informations sémantiques
Nous présentons dans cet article un algorithme d’apprentissage syntaxico-sémantique du langage naturel. Les données de départ sont des phrases correctes d’une langue donnée, enrichies d’informations sémantiques. Le résultat est l’ensemble des grammaires formelles satisfaisant certaines conditions et compatibles avec ces données. La stratégie employée, validée d’un point de vue théorique, est testée sur un corpus de textes français constitué pour l’occasion.
[ "apprentissage syntaxico-sémantique", "Grammaires catégorielles", "types sémantiques" ]
[ "P", "M", "M" ]
[ "", "This paper presents a syntactico-semantic learning algorithm for natural languages. Input data are syntactically correct sentences of a given natural language, enriched with semantic information. The output is the set of compatible formal grammars satisfying certain conditions. The strategy used, which has been proved theoretically valid, is tested on a corpus of French texts built for this purpose.", "Categorial grammars, semantic types, syntactico-semantic learning" ]
taln-2004-long-009
Catégorisation de patrons syntaxiques par Self Organizing Maps
Dans cet article, nous présentons quelques résultats en catégorisation automatique de données du langage naturel sans recours à des connaissances préalables. Le système part d’une liste de formes grammaticales françaises et en construit un graphe qui représente les chaînes rencontrées dans un corpus de textes de taille raisonnable ; les liens sont pondérés à partir de données statistiques extraites du corpus. Pour chaque chaîne de formes grammaticales significative, un vecteur reflétant sa distribution est extrait et passé à un réseau de neurones de type carte topologique auto-organisatrice. Une fois le processus d’apprentissage terminé, la carte résultante est convertie en un graphe d’étiquettes générées automatiquement, utilisé dans un tagger ou un analyseur de bas niveau. L’algorithme est aisément adaptable à toute langue dans la mesure où il ne nécessite qu’une liste de marques grammaticales et un corpus important (plus il est gros, mieux c’est). Il présente en outre un intérêt supplémentaire qui est son caractère dynamique : il est extrêmement aisé de recalculer les données à mesure que le corpus augmente.
[ "Langues naturelles", "réseaux neuronaux", "extraction de connaissances" ]
[ "R", "M", "M" ]
[ "", "The present paper presents some results in automatic categorization of natural language data without previous knowledge. The system starts with a list of French grammatical items, builds them into a graph that represents the strings encountered in a reasonable corpus of texts; the links are weighted based upon statistical data extracted from the corpus. For each significant string of grammatical items a vector reflecting its distribution is extracted, and fed into a Self- Organizing Map neural network. Once the learning process is achieved, the resulting map will be converted into a graph of automatically generated tags, used in a tagger or a shallow parser. The algorithm may easily be adapted to any language, as it needs only the list of grammatical markers and a large corpus (the bigger the better). Another point of interest is its dynamic character: it is easy to recompute the data as the corpus grows.", "Natural languages, neural networks, knowledge extraction" ]
taln-2004-long-010
Couplage d’un étiqueteur morpho-syntaxique et d’un analyseur partiel représentés sous la forme d’automates finis pondérés
Cet article présente une manière d’intégrer un étiqueteur morpho-syntaxique et un analyseur partiel. Cette integration permet de corriger des erreurs effectuées par l’étiqueteur seul. L’étiqueteur et l’analyseur ont été réalisés sous la forme d’automates pondérés. Des résultats sur un corpus du français ont montré une dimintion du taux d’erreur de l’ordre de 12%.
[ "automates finis pondérés", "Analyse morpho-syntaxique", "analyse syntaxique partielle" ]
[ "P", "M", "M" ]
[ "", "This paper presents a method of integrating a part-of-speech tagger and a chunker. This integration lead to the correction of a number of errors made by the tagger when used alone. Both tagger and chunker are implemented as weighted finite state machines. Experiments on a French corpus showed a decrease of the word error rate of about 12%.", "Part-of-speech tagging, chunking, weighted finite state machines" ]
taln-2004-long-011
Deux premières étapes vers les documents auto-explicatifs
Dans le cadre du projet LIDIA, nous avons montré que dans de nombreuses situations, la TA Fondée sur le Dialogue (TAFD) pour auteur monolingue peut offrir une meilleure solution en traduction multicible que les aides aux traducteurs, ou la traduction avec révision, même si des langages contrôlés sont utilisés. Nos premières expériences ont mis en évidence le besoin de conserver les « intentions de l’auteur » au moyen « d’annotations de désambiguïsation ». Ces annotations permettent de transformer le document source en un Document Auto-Explicatif (DAE). Nous présentons ici une solution pour intégrer ces annotations dans un document XML et les rendre visibles et utilisables par un lecteur pour une meilleure compréhension du « vrai contenu » du document. Le concept de Document Auto-Explicatif pourrait changer profondément notre façon de comprendre des documents importants ou écrits dans un style complexe. Nous montrerons aussi qu’un DAE, traduit dans une langue cible L, pourrait aussi être transformé, sans interaction humaine, en un DAE en langue L si un analyseur et un désambiguïseur sont disponibles pour cette langue L. Ainsi, un DAE pourrait être utilisé dans un contexte monolingue, mais aussi dans un contexte multilingue sans travail humain additionnel.
[ "Document Auto-Explicatifs (DAE)", "désambiguïsation interactive", "documents actifs" ]
[ "P", "R", "M" ]
[ "", "In the LIDIA project, we have demonstrated that, in many situations, Dialogue-Based MT (DBMT) for monolingual author is likely to offer better solutions to multitarget translation needs than machine aids to translators or batch MT, even if controlled languages are used. First experiments have shown the need to keep a memory of the “author’s intention” by means of “disambiguating annotations” transforming the source document into a “selfexplaining document” (SED). We present ways to integrate these annotations into an XML document (SED-XML), and to make them visible and usable by readers for better understanding of the “true content” of a document. The very concept of SED might deeply change our way of understanding important or difficult written material. We also show that a SED, once translated into a target language L, might be transformed into an SED in L with no human interaction, if an analyzer and a disambiguator are available for L. Hence, the SED structure might be used in multilingual as well as in monolingual contexts, without addition of human work.", "Self-Explaining Document (SED), interactive disambiguation, active documents" ]
taln-2004-long-012
Interprétariat à distance et collecte de dialogues spontanés bilingues, sur une plate-forme générique multifonctionnelle
Parallèlement à l’intégration du français en TA de Parole multilingue (projets C-STAR, NESPOLE!), nous avons développé plusieurs plates-formes, dans le cadre des projets ERIM (Environnement Réseau pour l’Interprétariat Multimodal) et ChinFaDial (collecte de dialogues parlés spontanés français-chinois), pour traiter différents aspects de la communication orale spontanée bilingue non finalisée sur le web : interprétariat humain à distance, collecte de données, intégration d’aides automatiques (serveur de TA de Parole utilisant des composants du marché, interaction multimodale entre interlocuteurs, et prochainement aides en ligne aux intervenants, locuteurs ou interprètes). Les corpus collectés devraient être disponibles sur un site DistribDial au printemps 2004. Ces plates-formes sont en cours d’intégration, en un système générique multifonctionnel unique ERIMM d’aide à la communication multilingue multimodale, dont une variante s’étendra également à la formation à distance (e-training) à l’interprétariat.
[ "dialogues spontanés", "communication multilingue", "Interprétariat à distance sur réseau", "collecte de corpus oraux bilingues", "mutualisation de ressources" ]
[ "P", "P", "R", "R", "M" ]
[ "", "In parallel with integrating the French language into multilingual Speech Machine Translation (within the C-STAR and NESPOLE! projects), we have developed in recent years several platforms, in the framework of projects ERIM (Network-based Environment for Multimodal Interpreting) and ChinFaDial (collecting French-Chinese spontaneously spoken dialogues), allowing to handle various aspects of spontaneous, general-purpose bilingual spoken dialogues on the web: distant human interpreting, data collection, integration of machine aids including server-based speech translation based on commercial products, multimodal user interaction, and next, online aids to speakers and/or interpreters. Collected data should be available on the web (DistribDial) in spring 2004. All platforms are being integrated into one single multifunctional ERIMM generic system, which should then be extended to distant e-training in interpreting.", "Web-based interpreting, bilingual spoken corpora collection, spontaneous dialogues, multilingual communication, resource mutualization" ]
taln-2004-long-013
Extraction de terminologies bilingues à partir de corpus comparables
Cet article présente une méthode pour extraire, à partir de corpus comparables d’un domaine de spécialité, un lexique bilingue comportant des termes simples et complexes. Cette méthode extrait d’abord les termes complexes dans chaque langue, puis les aligne à l’aide de méthodes statistiques exploitant le contexte des termes. Après avoir rappelé les difficultés que pose l’alignement des termes complexes et précisé notre approche, nous présentons le processus d’extraction de terminologies bilingues adopté et les ressources utilisées pour nos expérimentations. Enfin, nous évaluons notre approche et démontrons son intérêt en particulier pour l’alignement de termes complexes non compositionnels.
[ "Terminologie bilingue", "corpus comparable", "termes complexes" ]
[ "P", "P", "P" ]
[ "", "This article presents a method of extracting bilingual lexica composed of simple and multi-word terms from comparable corpora of a technical domain. First, this method extracts the multiword terms in each language, and then uses statistical methods to align them by exploiting the term contexts. After explaining the difficulties involved in aligning multi-word terms and specifying our approach, we show the adopted process for bilingual terminology extraction and the resources used in our experiments. Finally, we evaluate our approach and demonstrate its significance, particularly in relation to non-compositional multi-word term alignment.", "Bilingual terminology, comparable corpora, multi-word terms" ]
taln-2004-long-014
Traduction, traduction de mots, traduction de phrases
Une des conséquences du développement d’Internet et de la globalisation des échanges est le nombre considérable d’individus amenés à consulter des documents en ligne dans une langue autre que la leur. Après avoir montré que ni la traduction automatique, ni les aides terminologiques en ligne ne constituent une réponse pleinement adéquate à ce nouveau besoin, cet article présente un système d’aide à la lecture en langue étrangère basé sur un analyseur syntaxique puissant. Pour un mot sélectionné par l’usager, ce système analyse la phrase entière, de manière (i) à choisir la lecture du mot sélectionné la mieux adaptée au contexte morphosyntaxique et (ii) à identifier une éventuelle expression idiomatique ou une collocation dont le mot serait un élément. Une démonstration de ce système, baptisé TWiC (Translation of words in context "Traduction de mots en contexte"), pourra être présentée.
[ "Traduction automatique", "collocations", "aide à la traduction", "analyse syntaxique" ]
[ "P", "P", "R", "R" ]
[ "", "As a consequence of globalisation and the development of the Internet, an increasing number of people are struggling with on-line documents in languages other than their own. In this paper, we will first argue that neither machine translation nor existing on-line terminology tools constitute an adequate answer to this problem, and then present a new system conceived as a foreign-language reading assistant, based on a powerful syntactic parser. Given a word selected by the user, this system carries out a syntactic analysis of the whole sentence in order (i) to select the most appropriate reading of the selected word, given the morpho-syntactic context, and (ii) to identify a possible idiom or collocation the selected word might be part of. A demo of this system, dubbed TWiC (Translation of words in context) will be available.", "Machine translation, Translation aids, syntactic parsing, collocations" ]
taln-2004-long-015
Extraction d’information en domaine restreint pour la génération multilingue de résumés ciblés
Dans cet article nous présentons une application de génération de résumés multilingues ciblés à partir de textes d’un domaine restreint. Ces résumés sont dits ciblés car ils sont produits d’après les spécifications d’un utilisateur qui doit décider a priori du type de l’information qu’il souhaite voir apparaître dans le résumé final. Pour mener à bien cette tâche, nous effectuons dans un premier temps l’extraction de l’information spécifiée par l’utilisateur. Cette information constitue l’entrée d’un système de génération multilingue qui produira des résumés normalisés en trois langues (anglais, français et espagnol) à partir d’un texte en anglais.
[ "extraction d’information", "génération multilingue", "Résumé multilingue ciblé" ]
[ "P", "P", "P" ]
[ "", "We present an application of oriented multilingual summarization from domain specific texts. These summaries are oriented because the user has to define in a first step the kind of information he/she wants to be present in the final summary. In order to acheive this task, a first step of information extraction is performed. This extracted information which corresponds to the user’s specification is then the input of a multilingual generator that produces the desired summaries in three languages (english, french and spanish) from an english input text.", "Multilingual oriented summaries, information extraction, multilingual generation" ]
taln-2004-long-016
Repérage et exploitation d’énoncés définitoires en corpus pour l’aide à la construction d’ontologie
Pour construire une ontologie, un modéliseur a besoin d’objecter des informations sémantiques sur les termes principaux de son domaine d’étude. Les outils d’exploration de corpus peuvent aider à repérer ces types d’information, et l’identification de couples d’hyperonymes a fait l’objet de plusieurs travaux. Nous proposons d’exploiter des énoncés définitoires pour extraire d’un corpus des informations concernant les trois axes de l’ossature ontologique : l’axe vertical, lié à l’hyperonymie, l’axe horizontal, lié à la co-hyponymie et l’axe transversal, lié aux relations du domaine. Après un rappel des travaux existants en repérage d’énoncés définitoires en TAL, nous développons la méthode que nous avons mise en place, puis nous présentons son évaluation et les premiers résultats obtenus. Leur repérage atteint de 10% à 69% de précision suivant les patrons, celui des unités lexicales varie de 31% à 56%, suivant le référentiel adopté.
[ "Repérage d’énoncés définitoires", "relations sémantiques", "patrons lexico-syntaxiques" ]
[ "P", "R", "M" ]
[ "", "In order to build an ontology, a modeler needs to objectivate semantic information about the main terms of his domain. Some tools meant to explore corpora can help pointing out this information, and previous work has focused on the identification of hyperonyms. We propose here to rely on lay definitions to extract the information necessary to build an ontology structure: the vertical axis, related to hypernymy, the horizontal axis, related to co-hyponymy, and the transversal axis, linked to domain-related cross relations. After a survey of previous work about the extraction of definitions in NLP, we develop the method we followed, then present its evaluation criteria and the first results. The mining of lay definitions reached from 10 to 69% of precision, depending on the pattern involved, the mining of lexical items varied from 31 to 56%, following the reference considered.", "Mining definitions, semantic relations, lexico-syntactic pattern" ]
taln-2004-long-017
Anonymisation de décisions de justice
La publication de décisions de justice sur le Web permet de rendre la jurisprudence accessible au grand public, mais il existe des domaines du droit pour lesquels la Loi prévoit que l’identité de certaines personnes doit demeurer confidentielle. Nous développons actuellement un système d’anonymisation automatique à l’aide de l’environnement de développement GATE. Le système doit reconnaître certaines entités nommées comme les noms de personne, les lieux et les noms d’entreprise, puis déterminer automatiquement celles qui sont de nature à permettre l’identification des personnes visées par les restrictions légales à la publication.
[ "Anonymisation", "désidentification", "reconnaissance d’entités nommées", "textes juridiques" ]
[ "P", "U", "M", "U" ]
[ "", "Publishing court decisions on theWeb can make case law available to the general public, but the Law sometimes prohibits the disclosure of the identity of people named in decisions. We are currently developing an automatic anonymization system, using the GATE development environment. The tasks of the system are the recognition of some named entities like person names, locations and company names, then the automatic selection of the ones that may lead to the identification of people whose identities must be legally kept confidential.", "Anonymization, de-identification, named entity recognition, law texts" ]
taln-2004-long-018
Système d’aide à l’accès lexical : trouver le mot qu’on a sur le bout de la langue
Le Mot sur le Bout de la Langue (Tip Of the Tongue en anglais), phénomène très étudié par les psycholinguistes, nous a amené nombre d’informations concernant l’organisation du lexique mental. Un locuteur en état de TOT reconnaît instantanément le mot recherché présenté dans une liste. Il en connaît le sens, la forme, les liens avec d’autres mots... Nous présentons ici une étude de développement d’outil qui prend en compte ces spécificités, pour assister un locuteur/rédacteur à trouver le mot qu’il a sur le bout de la langue. Elle consiste à recréer le phénomène du TOT, où, dans un contexte de production un mot, connu par le système, est momentanément inaccessible. L’accès au mot se fait progressivement grâce aux informations provenant de bases de données linguistiques. Ces dernières sont essentiellement des relations de type paradigmatique et syntagmatique. Il s’avère qu’un outil, tel que SVETLAN, capable de structurer automatiquement un dictionnaire par domaine, peut être avantageusement combiné à une base de données riche en liens paradigmatiques comme EuroWordNet, augmentant considérablement les chances de trouver le mot auquel on ne peut accéder.
[ "accès lexical", "SVETLAN", "MBL", "relations sémantiques", "associations", "EWN" ]
[ "P", "P", "U", "M", "U", "U" ]
[ "", "The study of the Tip of the Tongue phenomenon (TOT) provides valuable clues and insights concerning the organisation of the mental lexicon (meaning, number of syllables, relation with other words, etc.). This paper describes a tool based on psycho-linguistic observations concerning the TOT phenomenon. We’ve built it to enable a speaker/writer to find the word he is looking for, word he may know, but which he is unable to access in time. We try to simulate the TOT phenomenon by creating a situation where the system knows the target word, yet is unable to access it. In order to find the target word we make use of the paradigmatic and syntagmatic associations stored in the linguistic databases. Our experiment allows the following conclusion: a tool like SVETLAN, capable to structure (automatically) a dictionary by domains can be used sucessfully to help the speaker/writer to find the word he is looking for, if it is combined with a database rich in terms of paradigmatic links like EuroWordNet.", "TOT, word access, semantic relations, associations, SVETLAN, EWN" ]
taln-2004-long-019
De l’écrit à l’oral : analyses et générations
Longtemps considérée comme ornementale, la structure informationnelle des documents écrits prise en charge par la morpho-disposition devient un objet d’étude à part entière dans diverses disciplines telles que la linguistique, la psycholinguistique ou l’informatique. En particulier, nous nous intéressons à l’utilité de cette dimension et, le cas échéant, son utilisabilité, dans le cadre de la transposition automatique à l’oral des textes. Dans l’objectif de fournir des solutions qui permettent de réagir efficacement à cette « inscription morphologique », nous proposons la synoptique d’un système d’oralisation. Nous avons modélisé et partiellement réalisé le module spécifique aux stratégies d’oralisation, afin de rendre « articulables » certaines parties signifiantes des textes souvent « oubliées » par les systèmes de synthèse. Les premiers résultats de cette étude ont conduit à des spécifications en cours d’intégration par un partenaire industriel. Les perspectives de ce travail peuvent intéresser la communauté TAL en reconnaissance de la parole, en génération/résumé de texte ou en multimodalité.
[ "stratégies d’oralisation", "Architecture textuelle", "synthèse de la parole" ]
[ "P", "U", "R" ]
[ "", "Considered for a long time as ornamental, the informational structure of written documents carried by texts morpho-disposition becomes a full object of investigation in various disciplines such as linguistic, psycholinguistic or computer sciences. In Particular, we are interested in the utility of these aspects of documents and, if the need arises, their usability, within the framework of their oral transposition. In the objective to provide solutions which make it possible to react effectively to this “morphological inscription”, we propose the synoptic of an oralisation system. We modelled and partially realized the module specific to the oralisation strategies, in order to render some signifying parts of the text often “forgotten” by synthesis systems. The first results of this study led to specifications in the course of integration by an industrial partner. The prospects of this work can interest NLP community in voice recognition, text generation/summarization or multimodality.", "Textual architecture, speech synthesis, oralisation strategies" ]
taln-2004-long-020
Désambiguïsation de corpus monolingues par des approches de type Lesk
Cet article présente une analyse détaillée des facteurs qui déterminent les performances des approches de désambiguïsation dérivées de la méthode de Lesk (1986). Notre étude porte sur une série d’expériences concernant la méthode originelle de Lesk et des variantes que nous avons adaptées aux caractéristiques de WORDNET. Les variantes implémentées ont été évaluées sur le corpus de test de SENSEVAL2, English All Words, ainsi que sur des extraits du corpus SEMCOR. Notre évaluation se base d’un côté, sur le calcul de la précision et du rappel, selon le modèle de SENSEVAL, et d’un autre côté, sur une taxonomie des réponses qui permet de mesurer la prise de risque d’un décideur par rapport à un système de référence.
[ "WORDNET", "Désambiguïsation sémantique", "algorithme de Lesk", "naive Bayes" ]
[ "P", "M", "M", "U" ]
[ "", "This paper deals with a detailed analysis of the factors determining the performances of Leskbased WSD methods. Our study consists in a series of experiments on the original Lesk algorithm and on its variants that we adapted to WORDNET. These methods were evaluated on the test corpus from SENSEVAL2, English All Words, and on excerpts from SEMCOR. The evaluation metrics are based on precision and recall, as in SENSEVAL exercises, and on a new method estimating the risk taken by each variant.", "Word sense desambiguation, Lesk’s algorithm, naive Bayes, WORDNET" ]
taln-2004-long-021
Densité d'information syntaxique et gradient de grammaticalité
Cet article propose l'introduction d'une notion de densité syntaxique permettant de caractériser la complexité d'un énoncé et au-delà d'introduire la spécification d'un gradient de grammaticalité. Un tel gradient s'avère utile dans plusieurs cas : quantification de la difficulté d'interprétation d'une phrase, gradation de la quantité d'information syntaxique contenue dans un énoncé, explication de la variabilité et la dépendances entre les domaines linguistiques, etc. Cette notion exploite la possibilité de caractérisation fine de l'information syntaxique en termes de contraintes : la densité est fonction des contraintes satisfaites par une réalisation pour une grammaire donnée. Les résultats de l'application de cette notion à quelques corpus sont analysés.
[ "Syntaxe", "contraintes", "analyse", "robustesse", "information linguistique", "complexité syntaxique" ]
[ "P", "P", "P", "U", "R", "R" ]
[ "", "This paper introduces the notion of syntactic density that makes it possible to characterize the complexity of an utterance and to specify a gradient of grammaticality. Such a gradient is useful in several cases: quantification of the difficulty of interpreting an utterance, quantification of syntactic information of an utterance, description of variability and linguistic domains interaction, etc. This notion exploits the possibility of fine syntactic characterization in terms of constraints: density if function of satisfied constraints by an utterance for a given grammar. Some results are presented and analyzed.", "Syntax, parsing, robustness, constraints, linguistic information, syntactic complexity" ]
taln-2004-long-022
Application des programmes de contraintes orientés objet à l’analyse du langage naturel
Les évolutions récentes des formalismes et théories linguistiques font largement appel au concept de contrainte. De plus, les caractéristiques générales des grammaires de traits ont conduit plusieurs auteurs à pointer la ressemblance existant entre ces notions et les objets ou frames. Une évolution récente de la programmation par contraintes vers les programmes de contraintes orientés objet (OOCP) possède une application possible au traitement des langages naturels. Nous proposons une traduction systématique des concepts et contraintes décrits par les grammaires de propriétés sous forme d’un OOCP. Nous détaillons l’application de cette traduction au langage "context free" archétypal anbn, en montrant que cette approche permet aussi bien l’analyse que la génération de phrases, de prendre en compte la sémantique au sein du même modèle et ne requiert pas l’utilisation d’algorithmes ad hoc pour le parsage.
[ "contraintes", "Grammaires de propriétés", "traitement du langage naturel", "configuration" ]
[ "P", "P", "R", "U" ]
[ "", "Recent evolutions of linguistic theories heavily rely upon the concept of constraint. Also, several authors have pointed the similitude existing between the categories of feature based theories and the notions of objects or frames. A recent evolution of constraint programming to object oriented constraint programs (OOCP) can be applied to natural language parsing. We propose here a systematic translation of the concepts and constraints introduced by property grammars to an OOCP. We apply this translation to the archetypal context free language anbn, and show that this approach allows to both parse and generate, to account for the semantics in the same formalism, and also that it does not require the use of ad hoc algorithms.", "Property grammars, natural language processing, constraints, configuration" ]
taln-2004-long-023
Grammaires d'unification polarisées
Cet article propose un formalisme mathématique générique pour la combinaison de structures. Le contrôle de la saturation des structures finales est réalisé par une polarisation des objets des structures élémentaires. Ce formalisme permet de mettre en évidence et de formaliser les mécanismes procéduraux masqués de nombreux formalismes, dont les grammaires de réécriture, les grammaires de dépendance, TAG, HPSG et LFG.
[ "unification", "polarisation", "grammaire de réécriture", "grammaire de dépendance", "TAG", "HPSG", "LFG", "Grammaire formelle", "graphe", "arbre", "dag" ]
[ "P", "P", "P", "P", "P", "P", "P", "M", "U", "U", "U" ]
[ "", "This paper proposes a generic mathematical formalism for the combination of structures. The control of saturation of the final structures is realized by a polarization of the objects of the elementary structures. This formalism allows us to bring to the fore and to formalize the hidden procedural mechanisms of numerous formalisms, including rewriting systems, dependency grammars, TAG, HPSG and LFG.", "Formal grammar, unification, polarization, rewriting system, dependency grammar, TAG, HPSG, LFG, graph, tree, dag" ]
taln-2004-long-025
Une mesure de pertinence pour le tri de l’information dans un index de “fin de livre”
Nous nous intéressons à la construction des index de fin de livres. Nous avons développé le système IndDoc qui aide la construction de tels index. L’un des enjeux de la construction d’index est la sélection des informations : sélection des entrées les plus pertinentes et des renvois au texte les plus intéressants. Cette sélection est évidemment utile pour le lecteur qui doit trouver suffisamment d’information mais sans en être submergé. Elle est également précieuse pour l’auteur de l’index qui doit valider et corriger une ébauche d’index produite automatiquement par IndDoc. Nous montrons comment cette sélection de l’information est réalisée par IndDoc. Nous proposons une mesure qui permet de trier les entrées par ordre de pertinence décroissante et une méthode pour calculer les renvois au texte à associer à chaque entrée de l’index.
[ "Segmentation thématique de texte", "extraction d’information", "indexation automatique" ]
[ "M", "M", "R" ]
[ "", "This paper deals with the construction of end-of-book indexes. We have developed the IndDoc system which assists the construction of such indexes. One of the stakes of the construction of an index is the information selection: selection of the most relevant entries and the most interesting textual fragments. This selection is obviously useful for the reader who is looking for information. It is also invaluable for the index author who has to validate and correct an outline of index produced automatically by IndDoc. We show how this information selection is carried out by IndDoc. We put forward a measure which sorts the entries in decreasing relevance order and a method to calculate the references to text for each entry.", "Text segmentation, information extraction, automatic indexing" ]
taln-2004-long-026
Approche statistique pour le repérage de mots informatifs dans les textes oraux
Nous présentons les résultats de l’approche statistique que nous avons développée pour le repérage de mots informatifs à partir de textes oraux. Ce travail fait partie d’un projet lancé par le département de la défense canadienne pour le développement d’un système d’extraction d’information dans le domaine de la Recherche et Sauvetage maritime (SAR). Il s’agit de trouver et annoter les mots pertinents avec des étiquettes sémantiques qui sont les concepts d’une ontologie du domaine (SAR). Notre méthode combine deux types d’information : les vecteurs de similarité générés grâce à l’ontologie du domaine et le dictionnaire-thésaurus Wordsmyth ; le contexte d’énonciation représenté par le thème. L’évaluation est effectuée en comparant la sortie du système avec les réponses de formulaires d’extraction d’information prédéfinis. Les résultats obtenus sur les textes oraux sont comparables à ceux obtenus dans le cadre de MUC7 pour des textes écrits.
[ "extraction d’information", "Étiquetage sémantique" ]
[ "P", "M" ]
[ "", "We present results of a statistical method we developped for the detection of informative words from manually transcribed conversations. This work is part of an ongoing project for an information extraction system in the field of maritime Search And Rescue (SAR). Our purpose is to automatically detect relevant words and annotate them with concepts from a SAR ontology. Our approach combines similarity score vectors and topical information. Similarity vectors are generated using a SAR ontology and theWordsmyth dictionary-thesaurus. Evaluation is carried out by comparing the output of the system with key answers of predefined extraction templates. Results on speech transcriptions are comparable to those on written texts in MUC7.", "Semantic tagging, information extraction" ]
taln-2004-long-027
Fiabilité de la référence humaine dans la détection de thème
Dans cet article, nous nous intéressons à la tâche de détection de thème dans le cadre de la reconnaissance automatique de la parole. La combinaison de plusieurs méthodes de détection montre ses limites, avec des performances de 93.1 %. Ces performances nous mènent à remetttre en cause le thème de référence des paragraphes de notre corpus. Nous avons ainsi effectué une étude sur la fiabilité de ces références, en utilisant notamment les mesures Kappa et erreur de Bayes. Nous avons ainsi pu montrer que les étiquettes thématiques des paragraphes du corpus de test comportaient vraisemblablement des erreurs, les performances de détection de thème obtenues doivent donc êtres exploitées prudemment.
[ "Détection de thème", "erreur de Bayes", "Etiquetage thématique", "statistique Kappa" ]
[ "P", "P", "M", "M" ]
[ "", "In this paper, topic detection is studied in the frame of automatic speech recognition. Topic detection methods combination reaches 93.1% correct detection. This rate makes us throw the reference labeling back into question. We have then studied the reliability of the topic labeling of our test corpus, by using the Kappa statistics and the Bayes error. With these measures, we show the topic label of some paragraphs may be wrong, then performance of topic detection may be carefully exploited.", "Topic detection, topic assignment, Kappa statistics, Bayes error" ]
taln-2004-long-028
Résolution des anaphores pronominales : quelques postulats du TALN mis à l’épreuve du dialogue oral finalisé
Cet article étudie l'adaptation au dialogue oral homme-machine des techniques de résolution des anaphores pronominales qui ont été développées par le TALN pour les documents écrits. A partir d'une étude de corpus de dialogue oral, il étudie la faisabilité de ce portage de l'écrit vers l'oral. Les résultats de cette étude montrent que certains indices utilisés à l'écrit (accord en nombre, distance entre le pronom est son antécédent) sont plus friables en dialogue oral finalisé. Les techniques développées pour l'écrit ne peuvent donc pas être réutilisées directement à l'oral.
[ "anaphore pronominale", "dialogue oral homme-machine", "Référence", "analyse des usages sur corpus" ]
[ "P", "P", "U", "M" ]
[ "", "In this paper, we present a corpus analysis on pronominal anaphora that investigate the adaptation of anaphora resolution techniques which have been developed for written language processing and that should apply to spoken man-machine dialogue. Unfortunately, this corpus study shows that the criteria that are used on written texts (gender and number agreement, distance between the pronoun and its antecedent) seems to lack robustness on interactive spoken language.", "Reference, pronominal anaphora, spoken man-machine dialogue, corpus analysis" ]
taln-2004-long-029
Une méthode pour l’annotation de relations temporelles dans des textes et son évaluation
Cet article traite de l’annotation automatique d’informations temporelles dans des textes et vise plus particulièrement les relations entre événements introduits par les verbes dans chaque clause. Si ce problème a mobilisé beaucoup de chercheurs sur le plan théorique, il reste en friche pour ce qui est de l’annotation automatique systématique (et son évaluation), même s’il existe des débuts de méthodologie pour faire réaliser la tâche par des humains. Nous proposons ici à la fois une méthode pour réaliser la tâche automatiquement et une manière de mesurer à quel degré l’objectif est atteint. Nous avons testé la faisabilité de ceci sur des dépêches d’agence avec des premiers résultats encourageants.
[ "Annotation", "Temps", "Discours" ]
[ "P", "U", "U" ]
[ "", "This paper focuses on the automated processing of temporal information in written texts, more specifically on relations between events introduced by verbs in every clause. While this latter problem has been largely studied from a theoretical point of view, it has very rarely been applied to real texts, if ever, with quantified results. The methodology required is still to be defined, even though there have been proposals in the human annotation case. We propose here both a procedure to achieve this task and a way of measuring the results. We have been testing the feasability of this on neswire articles, with promising first results.", "Text annotation, Time, Discourse" ]
taln-2004-long-030
Annoter les documents XML avec un outil d’analyse syntaxique
Cet article présente l’intégration au sein d’un analyseur syntaxique (Xerox Incremental Parser) de règles spécifiques qui permettent de lier l’analyse grammaticale à la sémantique des balises XML spécifiques à un document donné. Ces règles sont basées sur la norme XPath qui offre une très grande finesse de description et permet de guider très précisément l’application de l’analyseur sur une famille de documents partageant une même DTD. Le résultat est alors être intégré directement comme annotation dans le document traité.
[ "XML", "analyse syntaxique", "Xpath", "traitement automatique des langues", "traitement de documents", "XIP" ]
[ "P", "P", "P", "M", "R", "U" ]
[ "", "This article presents the embedding within a syntactic parser (Xerox Incremental Parser or XIP) of specific rules which are used to bind the grammatical analysis to the semantic of the XML mark up tags specific to a given document. The goal of these rules is to guide the application of a natural language processing tool through the use of XPath instructions to describe documents that share the same DTD. The result can then be embedded within the input document in order to annotate that document.", "XML, parsing, natural language processing, document processing, XPath, XIP" ]
taln-2004-long-031
La FREEBANK : vers une base libre de corpus annotés
Les corpus français librement accessibles annotés à d’autres niveaux linguistiques que morpho-syntaxique sont insuffisants à la fois quantitativement et qualitativement. Partant de ce constat, la FREEBANK -- construite sur la base d’outils d’analyse automatique dont la sortie est révisée manuellement -- se veut une base de corpus du français annotés à plusieurs niveaux (structurel, morphologique, syntaxique, coréférentiel) et à différents degrés de finesse linguistique qui soit libre d’accès, codée selon des schémas normalisés, intégrant des ressources existantes et ouverte à l’enrichissement progressif.
[ "normalisation", "ressources libres", "annotation multiniveau", "corpus arboré", "codage référentiel" ]
[ "P", "R", "M", "M", "U" ]
[ "", "The few available French resources for evaluating linguistic models or algorithms on other linguistic levels than morpho-syntax are either insufficient from quantitative as well as qualitative point of view or not freely accessible. Based on this fact, the FREEBANK project intends to create French corpora constructed using manually revised output from a hybrid Constraint Grammar parser and annotated on several linguistic levels (structure, morphosyntax, syntax, coreference), with the objective to make them available on-line for research purposes. Therefore, we will focus on using standard annotation schemes, integration of existing resources and maintenance allowing for continuous enrichment of the annotations.", "free resources, multi-level annotation, treebank, reference annotation, normalisation" ]
taln-2004-long-032
Annoter en constituants pour évaluer des analyseurs syntaxiques
Cet article présente l’annotation en constituants menée dans le cadre d’un protocole d’évaluation des analyseurs syntaxiques (mis au point dans le pré-projet PEAS, puis dans le projet EASY). Le choix des constituants est décrit en détail et une première évaluation effectuée à partir des résultats de deux analyseurs est donnée.
[ "annotation en constituants", "évaluation", "analyseurs syntaxiques" ]
[ "P", "P", "P" ]
[ "", "This paper focuses on constituent annotation in a syntactic parsers evaluation protocol (which was elaborated in PEAS pre-project and EASY project). The choice of the constituents is described in details, and the results of a first evaluation between two parsers are given.", "constituent annotation, evaluation, syntactic parser" ]
taln-2004-long-033
Détermination de contenu dans GEPHOX
Le générateur GEPHOX que nous réalisons a pour ambition de produire des textes pour des définition ou preuves mathématiques écrites à l’aide de l’assistant de preuve PHOX. Dans cet article nous nous concentrons sur le module de détermination de contenu ContDet de GEPHOX. Après un aperçu sur l’entrée du générateur, i.e. la preuve formelle et l’ensemble des règles ayant permis de l’obtenir, nous décrivons les base de connaissances du générateur et le fonctionnement de l’algorithme de détermination de contenu.
[ "détermination de contenu", "assistant de preuve", "bases de connaissance", "Génération de textes", "logique de description" ]
[ "P", "P", "P", "R", "M" ]
[ "", "This paper deals with content determination in a text proofs generation system. Our system, GEPHOX produces a textual version of a mathematical proof formalized using the proof assistant PHOX. We start with a quick presentation of the input of the generator : the formal proof and the set of rules that the proof assistant user employs in order to find it. We describe the generator knowledge bases and define the reasoning tasks associated with the KB and show how the content determination algorithm work.", "Natural language generation, description logic, content determination, knowledge bases, proof assistant" ]
taln-2004-long-034
Apprentissage partiel de grammaires catégorielles
Cet article traite de l’apprentissage symbolique de règles syntaxiques dans le modèle de Gold. Kanazawa a montré que certaines classes de grammaires catégorielles sont apprenables dans ce modèle. L’algorithme qu’il propose nécessite une grande quantité d’information en entrée pour être efficace. En changeant la nature des informations en entrée, nous proposons un algorithme d’apprentissage de grammaires catégorielles plus réaliste dans la perspective d’applications au langage naturel.
[ "Apprentissage partiel", "grammaire catégorielles", "inférence grammaticale" ]
[ "P", "P", "U" ]
[ "", "This article deals with symbolic learning of syntactic rules in Gold’s model. Kanazawa showed that some classes of categorial grammars are learnable in this model. But the algorithm needs a high amount of information as input to be efficient. By changing the kind of information taken as input, we propose a learning algorithm for categorial grammars which is more realistic in the perspective of applications to natural language.", "Partial learning, grammatical inference, categorial grammars" ]
taln-2004-long-035
La sémantique dans les grammaires d’interaction
Nous proposons d’intégrer la sémantique dans les grammaires d’interaction, formalisme qui a été conçu pour représenter la syntaxe des langues. Pour cela, nous ajoutons au formalisme un niveau supplémentaire qui s’appuie sur les mêmes principes fondamentaux que le niveau syntaxique : contrôle de la composition par un système de polarités et utilisation de la notion de description de structure pour exprimer la sous-spécification. A la différence du niveau syntaxique, les structures sont des graphes acycliques orientés et non des arbres localement ordonnés. L’interface entre les deux niveaux est assurée de façon souple par une fonction de liage qui associe à tout noeud syntaxique au plus un noeud sémantique.
[ "polarités", "sous-spécification", "formalisme grammatical", "interface syntaxe-sémantique" ]
[ "P", "P", "M", "M" ]
[ "", "We propose an integration of semantics into Interaction Grammars, a formalism that was designed for representing the syntax of natural languages. It consists in the addition of a new level to the formalism and this level is based on the same fundamental principles as the syntactical level: the control of composition with a system of polarities and the use of the notion of structure description for expressing underspecification. Unlike the syntactical level, structures are directed acyclic graphs and not locally ordered trees. The interface between the two levels is performed in a flexible way by a linking function which maps every syntactical node to at most one semantical node.", "grammatical formalism, syntax-semantics interface, underspecification, polarities" ]
taln-2004-long-036
Les Grammaires à Concaténation d’Intervalles (RCG) comme formalisme grammatical pour la linguistique
Le but de cet article est de montrer pourquoi les Grammaires à Concaténation d’Intervalles (Range Concatenation Grammars, ou RCG) sont un formalisme particulièrement bien adapté à la description du langage naturel. Nous expliquons d’abord que la puissance nécessaire pour décrire le langage naturel est celle de PTIME. Ensuite, parmi les formalismes grammaticaux ayant cette puissance d’expression, nous justifions le choix des RCG. Enfin, après un aperçu de leur définition et de leurs propriétés, nous montrons comment leur utilisation comme grammaires linguistiques permet de traiter des phénomènes syntagmatiques complexes, de réaliser simultanément l’analyse syntaxique et la vérification des diverses contraintes (morphosyntaxiques, sémantique lexicale), et de construire dynamiquement des grammaires linguistiques modulaires.
[ "Grammaires à Concaténation d’Intervalles (RCG)", "Grammaires de réécriture", "Grammaires Faiblement Contextuelles", "complexité du langage naturel" ]
[ "P", "M", "M", "R" ]
[ "", "The aim of this paper is to show why Range Concatenation Grammars (RCG) are a formalism particularly suitable to describe natural language. We first explain that the power necessary to describe natural language is that of PTIME. Then, among grammatical formalisms that have this expressing power, we justify the choice of RCGs. Finally, after an overview of their definition and properties, we show how their use as linguistic grammars makes it possible to deal with complex syntactic phenomena, to achieve simultaneously both syntactic parsing and constraints checking (e.g., morphosyntactic and/or lexical semantic constraints), and to build dynamically modular linguistic grammars.", "Rewriting Systems, Mildly Context-Sensitive Grammars, Complexity of Natural Language, Range Concatenation Grammars (RCG)" ]
taln-2004-poster-001
Mots composés dans les modèles de langue pour la recherche d’information
Une approche classique en recherche d’information (RI) consiste à bâtir une représentation des documents et des requêtes basée sur les mots simples les constituant. L’utilisation de modèles bigrammes a été étudiée, mais les contraintes sur l’ordre et l’adjacence des mots dans ces travaux ne sont pas toujours justifiées pour la recherche d’information. Nous proposons une nouvelle approche basée sur les modèles de langue qui incorporent des affinités lexicales (ALs), c’est à dire des paires non ordonnées de mots qui se trouvent proches dans un texte. Nous décrivons ce modèle et le comparons aux plus traditionnels modèles unigrammes et bigrammes ainsi qu’au modèle vectoriel.
[ "mots composés", "Modèles de langue", "recherche d’information" ]
[ "P", "P", "P" ]
[ "", "Previous language modeling approaches to information retrieval have focused primarily on single terms. The use of bigram models has been studied, but the restriction on word order and adjacency may not be justified for information retrieval. We propose a new language modeling approach to information retrieval that incorporates lexical affinities (LAs), or pairs of words that occur near each other, without a constraint on word order. We explore the use of LAs in a language modeling approach, and compare our results with the vector space model, and unigram and bigram language model approaches.", "Language models, information retrieval, compound terms, word pairs" ]
taln-2004-poster-002
Le Regroupement de Types de Mots et l'Unification d'Occurrences de Mots dans des Catégories grammaticales de mots
Ce papier discute la Néoposie: l'inférence auto-adaptive de catégories grammaticales de mots de la langue naturelle. L'inférence grammaticale peut être divisée en deux parties : l'inférence de catégories grammaticales de mots et l'inférence de la structure. Nous examinons les éléments de base de l'apprentissage auto-adaptif du marquage des catégories grammaticales, et discutons l'adaptation des trois types principaux de marqueurs des catégories grammaticales à l'inférence auto-adaptive de catégories grammaticales de mots. Des marqueurs statistiques de n-grammes suggèrent une approche de regroupement statistique, mais le regroupement n'aide ni avec les types de mots peu fréquents, ni avec les types de mots nombreux qui peuvent se présenter dans plus d'une catégorie grammaticale. Le marqueur alternatif d'apprentissage basé sur la transformation suggère une approche basée sur la contrainte de l'unification de contextes d'occurrences de mots. Celle-ci présente un moyen de regrouper des mots peu fréquents, et permet aux occurrences différentes d'un seul type de mot d'appartenir à des catégories différentes selon les contextes grammaticaux où ils se présentent. Cependant, la simple unification de contextes d'occurrences de mots produit un nombre incroyablement grand de catégories grammaticales de mots. Nous avons essayé d'unifier plus de catégories en modérant le contexte de la correspondance pour permettre l'unification des catégories de mots aussi bien que des occurrences de mots, mais cela entraîne des unifications fausses. Nous concluons que l'avenir peut être un hybride qui comprend le regroupement de types de mots peu fréquents, l'unification de contextes d'occurrences de mots, et le `seeding' avec une connaissance linguistique limitée. Nous demandons un programme de nouvelles recherches pour développer une valise pour la découverte de la langue naturelle.
[ "regroupement", "unification", "marquage des catégories grammaticales", "catégories de mots", "Corpus", "type/occurrence", "évaluation" ]
[ "P", "P", "P", "P", "U", "M", "U" ]
[ "Clustering of Word Types and Unification of Word Tokens into Grammatical Word-Classes", "This paper discusses Neoposy: unsupervised inference of grammatical word-classes in Natural Language. Grammatical Inference can be divided into inference of grammatical word-classes and inference of structure. We review the background of supervised learning of Part-of-Speech tagging; and discuss the adaptation of the three main types of Part-of-Speech tagger to unsupervised inference of grammatical word-classes. Statistical N-gram taggers suggest a statistical clustering approach, but clustering does not help with low-frequency word-types, or with the many word-types which can appear in more than one grammatical category. The alternative Transformation-Based Learning tagger suggests a constraint-based approach of unification of word-token contexts. This offers a way to group together low-frequency word-types, and allows different tokens of one word-type to belong to different categories according to grammatical contexts they appear in. However, simple unification of word-token-contexts yields an implausibly large number of Part-of-Speech categories; we have attempted to merge more categories by \"relaxing\" matching context to allow unification of word-categories as well as word-tokens, but this results in spurious unifications. We conclude that the way ahead may be a hybrid involving clustering of frequent word-types, unification of word-token-contexts, and \"seeding\" with limited linguistic knowledge. We call for a programme of further research to develop a Language Discovery Toolkit.", "Corpus, Part-of-Speech tagging, clustering, unification, word classes, type/token, evaluation" ]
taln-2004-poster-003
Temporalité linguistique et S-Langages
Après un rappel de la problématique de l’ordonnancement temporel dans un texte, nous décrivons les S-langages qui offrent une représentation unifiée des relations temporelles et une opération (la jointure) permettant de calculer les combinaisons entre celles-ci.
[ "S-langages", "Structure(s) temporelle(s) dans un texte narratif" ]
[ "P", "M" ]
[ "", "After a brief overview of the problem of text temporal structures calculus, we describe the formal language of S-languages. This framework offers an unified representation of temporal relations and an operation (the joint) which computes combinations between such relations.", "Narratives temporal structure(s), S-langages" ]
taln-2004-poster-004
Modélisation de la modulation
Le dialogue est un processus interactif pendant lequel les différents agents impliqués vont s’engager sur un certain nombre d’éléments propositionnels. La modulation implique des ajouts propositionnels - révisés et atténués - qui ne constituent pas nécessairement une base pour un accord. L’objectif de cet article est donc de proposer une description formelle du phénomène de modulation dans le cadre du modèle de J. Ginzburg.
[ "Modulation", "discours", "modèles de dialogue", "interaction verbale", "annotation" ]
[ "P", "U", "R", "M", "U" ]
[ "", "Dialogue is an interactive process in which agents involved must commit about some propositional elements. These elements are then available into the common ground shared by the agents. Mitigation is a particularly productive phenomenon which is problematic for the update of the common ground. We propose a formalisation of the phenomenon into the model of J. Ginzburg.", "Mitigation, discourse, verbal interaction, models of dialogue, annotation" ]
taln-2004-poster-005
Traduction de dialogue: résultats du projet NESPOLE! et pistes pour le domaine
Dans cet article, nous détaillons les résultats de la seconde évaluation du projet européen NESPOLE! auquel nous avons pris part pour le français. Dans ce projet, ainsi que dans ceux qui l’ont précédé, des techniques d’évaluation subjectives — réalisées par des évaluateurs humains — ont été mises en oeuvre. Nous présentons aussi les nouvelles techniques objectives — automatiques — proposées en traduction de l’écrit et mises en oeuvre dans le projet C-STAR III. Nous conclurons en proposant quelques idées et perspectives pour le domaine.
[ "Traduction de dialogue", "évaluation subjective et objective de composants de TALN" ]
[ "P", "M" ]
[ "", "", "" ]
taln-2004-poster-006
Spécification et implantation informatique d’un langage de description des structures discursives
Cet article présente le langage de représentation des connaissances linguistiques LangTex qui permet de spécifier d’une manière unifiée les descriptions linguistiques nécessaires au repérage d’objets textuels qui organisent les textes écrits.
[ "langage de représentation des connaissances linguistiques", "Représentation des structures discursives" ]
[ "P", "R" ]
[ "", "This article presents LangTex, a language for linguistic knowledge representation. This language allows to specify in a unified way the linguistic descriptions necessary for the location of textual objects which organize written texts.", "Representation of discourse structures, linguistic knowledge language representation" ]
taln-2004-poster-007
@GEWEB : Agents personnels d’aide à la recherche sur le Web
Nous présentons dans cet article un logiciel permettant d’assister l’usager, de manière personnalisée lors de la recherche documentaire sur le Web. L’architecture du logiciel est basée sur l’intégration d’outils numériques de traitements des langues naturelles (TLN). Le système utilise une stratégie de traitement semi-automatique où la contribution de l’utilisateur assure la concordance entre ses attentes et les résultats obtenus.
[ "Personnalisation", "Reformulation de requêtes", "Extraction de l’information" ]
[ "P", "M", "M" ]
[ "", "We here present a new software that can help the user to formulate his web search queries and customize the information retrieval tasks to her individual and subjective needs. The software’s architecture is based on numeric natural language processing tools. The software involves a semi-automatic processing strategy in which the user’s contribution ensures that the results are useful and meaningful to her.", "Text mining, Web customization, Query reformulation, Information retrieval" ]
taln-2004-poster-008
Prédiction d’actes et attentes en dialogue : expérience avec un assistant virtuel simulé
Dans cet article, nous présentons une plate-forme de test et de recueil de dialogue oral homme-machine. Dans son architecture générale, des magiciens d’Oz simulent la compréhension des énoncés des utilisateurs et le contrôle du dialogue. Puis, nous comparons, dans un tel corpus, la prédiction statistique d’acte de dialogue avec les attentes du locuteur.
[ "attentes", "Dialogue", "magicien d’Oz", "statistique", "pragmatique", "analyse" ]
[ "P", "P", "P", "P", "U", "U" ]
[ "", "This paper presents a platform for testing and building human-computer spoken dialog system. In the general architecture of the platform, understanding and dialog management are simulated. Thus, comparison between statistic act prediction and expectation will be made. First results obtained show a credible way of capturing and annotate spoken dialogs.", "Dialog, expectations, magicien d’Oz, pragmatics, analysis, statistics" ]
taln-2004-poster-010
Le projet GÉRAF : Guide pour l’Évaluation des Résumés Automatiques Français
Dans cet article, nous présentons le projet GÉRAF (Guide pour l’Évaluation des Résumés Automatiques Français), lequel vise l’élaboration de protocoles et la construction de corpus de résumés de référence pour l’évaluation des systèmes résumant des textes français. La finalité de ce projet est de mettre à la disposition des chercheurs les ressources ainsi créées.
[ "GÉRAF", "évaluation", "résumé automatique", "textes français" ]
[ "P", "P", "P", "P" ]
[ "", "In this paper, we introduce GÉRAF (Guide pour l’Évaluation des Résumés Automatiques Français), which aims at elaborating protocols and creating human-generated summaries for summarization evaluation in the context of French texts. The goal of this project is to provide researchers with protocols and corpora needed for French summarization evaluation.", "evaluation, automatic summarization, French texts, GÉRAF" ]
taln-2004-poster-011
Repérage de relations terminologiques transversales en corpus
Les relations transversales encodent des relations spécifiques entre les termes, par exemple localisé-dans, consomme, etc. Elles sont très souvent dépendantes des domaines, voire des corpus. Les méthodes automatiques consacrées au repérage de relations terminologiques plus classiques (hyperonymie, synonymie), peuvent générer occasionnellement les relations transversales. Mais leur repérage et typage restent sujets à une conceptualisation : ces relations ne sont pas attendues et souvent pas connues à l’avance pour un nouveau domaine à explorer. Nous nous attachons ici à leur repérage mais surtout à leur typage. En supposant que les relations sont souvent exprimées par des verbes, nous misons sur l’étude des verbes du corpus et de leurs divers dérivés afin d’aborder plus directement la découverte des relations du domaine. Les expériences montrent que ce point d’attaque peut être intéressant, mais reste pourtant dépendant de la polysémie verbale et de la synonymie.
[ "Terminologie", "relations transversales", "verbes", "corpus spécialisés", "structuration de terminologies" ]
[ "P", "P", "P", "M", "M" ]
[ "", "Transversal relations describe specific information existing between terms, for instance consumes, located-in, etc. They are often dependent on domains and even on corpora. Automatic methods, conceived to detect classical terminological relations (hyperonymy, synonymy), can occasionnally generate transversal relations. But their detection and typology depend on their conceptualisation : these relations are not expected and often not known for a newly explored domain. We aim here at their detection, but mainly at their typology. Since we suppose these relations are often expressed with verbs, we concentrate our investigation on the study of verbs and their derivatives to attack directly their discovering. Experiences show that this approach proposes interesting results which are nevertheless dependent on verbal polysemy and synonymy.", "Terminology, Specialised Corpora, Terminology Structuring, Transversal Relations, Verbs" ]
taln-2004-poster-012
Classification automatique de définitions en sens
Dans le cadre de la recherche en sémantique lexicale, l’équipe TAL du LIRMM développe actuellement un système d’analyse des aspects thématiques des textes et de désambiguisation lexicale basé sur les vecteurs conceptuels. Pour la construction des vecteurs, les définitions provenant de sources lexicales différentes (dictionnaires à usage humain, listes de synonymes, définitions de thésaurus, . . .) sont analysées. Aucun découpage du sens n’est présent dans la représentation : un vecteur conceptuel est associé à chaque définition et un autre pour représenter le sens global du mot. Nous souhaitons effectuer une catégorisation afin que chaque élément ne soit plus une définition mais un sens. Cette amélioration concerne bien sur directement les applications courantes (désambiguïsation, transfert lexical, . . .) mais a aussi pour objectif majeur d’améliorer l’apprentissage de la base.
[ "classification automatique", "Traitement automatique des langues naturelles", "désambiguïsation sémantique lexicale" ]
[ "P", "M", "R" ]
[ "", "In the framework of research in meaning representation in NLP, we focus our attention on thematic aspects and conceptual vectors. A vectorial base is built upon a morphosyntactic analysis of several lexical resources to reduce isolated problems. A conceptual vector is associated with each definition and another one with the global meaning of a word. There is no effective meaning division and representation the the knowledge base. We study in the article a clustering method that merge definitions into senses. This applies on common problems (word sense disambiguation, word translation, . . .) and mainly to improve knowledge base learning.", "Natural language processing, unsupervised clustering, word sense disambiguation" ]
taln-2004-poster-015
Gestion de buts de dialogue
La gestion du but de dialogue est une tâche délicate pour le contrôleur de dialogue, car bien souvent il est en concurrence avec le gestionnaire de tâches avec lequel on le confond parfois dans certains systèmes. Dans cet article, nous présentons une stratégie dynamique de gestion de buts qui permet au contrôleur de dialogue de réduire sa dépendance au gestionnaire de tâche et lui apporte une meilleure réutilisabilité. Nous expérimentons le système dans le cadre du projet PVE (Portail Vocal d’Entreprise) dans lequel le dialogue peut se dérouler en plusieurs sessions et avec des interlocuteurs différents.
[ "but de dialogue", "Dialogue oral homme-machine", "modèle de dialogue" ]
[ "P", "M", "M" ]
[ "", "The dialogue goal management is an difficult task because often, dialogue management and task control are strong mixed together. We present in this paper a dynamic strategy to manage dialogue goals that enhances more independence of the dialogue manager with the task manager and brings a better reusability to the whole dialogue system. Our experiment in the framework of PVE (Vocal Portal for Enterprise) shows the possibility to use the dialogue system along a series of sessions and with different speakers.", "Human-machine spoken dialogue, dialogue model, dialogue goal" ]
taln-2004-poster-016
Un modèle d’interprétation constructionnelle pour les expressions référentielles extensionnelles
Dans le dialogue finalisé, les expressions référentielles portant sur les objets du contexte peuvent contenir des prédicats vagues ou relationnels, qu’il est difficile de traiter avec une logique propositionnelle. Inversement, les approches adaptées à ces types de prédicats sont difficilement implémentables dans un modèle générique et adaptable aux théories d’analyse linguistique. Nous proposons un modèle d’interprétation constructionnelle inspiré des grammaires de construction qui permet de modéliser le processus de résolution d’expressions référentielles extensionnelles tout en restant compatible avec la grammaire dont nous nous sommes inspirés.
[ "Grammaire de Construction", "Référence Extensionnelle", "Domaines de Référence" ]
[ "P", "M", "M" ]
[ "", "In practical dialogue, vague or relational predicates play an important role in referential expressions that refer to the objects in the context. These kind of referential expressions are difficult to handle using propositional logic but in the same time, approaches dealing with such predicates are hardly adaptable to language analysis theories. We propose a model of constructional interpretation that allow modelisation of resolution of extensional referential expressions while keeping compatibility with construction grammar theory.", "Construction Grammar, Extensionnal Reference Resolution, Reference Domains" ]
taln-2004-poster-017
Apprentissage collectif et lexique
Cet article présente l’influence de la zone de travail que possède une entité logicielle pour lui permettre de prédire l’état futur de son environnement, sur la constitution d’un lexique partagé par les différents membres d’une population, dans le cadre d’une variante “du jeu de désignation” (naming game).
[ "lexique", "apprentissage automatique", "système multi-agents" ]
[ "P", "M", "U" ]
[ "", "In this paper, we show the influence that the work area used by software entities to predict the future state of their environment, has on the establishment of a common lexicon shared by the members of a population involved in a variant of the naming game.", "lexicon, machine learning, multi-agent system" ]
taln-2004-poster-018
L’outil de traitement de corpus LIKES
LIKES (LInguistic and Knowledge Engineering Station) est une station d’ingénierie linguistique destinée à traiter des corpus, elle fonctionne pour l’instant sur la plupart des langues européennes et slaves en utilisant des ressources minimales pour chaque langue. Les corpus sont constitués d’un ou plusieurs textes en ASCII ou en HTML, l’interface donne la possibilité de constituer son corpus et d’y exécuter un certain nombre de tâches allant de simples tâches de découpage en mot, de tri ou de recherche de motifs à des tâches plus complexes d’aide à la synthèse de grammaire, d’aide au repérage de relations, d’aide à la construction d’une terminologie. Nous décrivons ici les principales fonctionnalités de LIKES en rapport avec le traitement des corpus et ce qui fait sa spécificité par rapport à d’autres environnements comparables : l’utilisation minimale de ressources linguistiques.
[ "Traitement de corpus", "segments répétés", "recherches de relations", "automates", "transducteurs" ]
[ "P", "U", "R", "U", "U" ]
[ "", "LIKES (Llnguistic and Knowledge Engineering Station) is a linguistic engineering environment, build for corpora processing. Its provides different modules able to process most european and slavian languages. Corpora in Likes must be constituted by Texts in TXT format or in HTML texts of one particular. Tasks available are elementary likes classical basic corpora processing tasks (making list of forms, segmenting, sorting) and also more sophisticated as term extraction, help in relation extraction, pattern search, aimed at helping terminology building and ontology building. Main functionalities usefull for corpora processing are presented here.", "Corpus processing, repeated segments, search of semantic relations, automata, transducers" ]
taln-2004-poster-019
Résolution automatique d’anaphores infidèles en français : Quelles ressources pour quels apports ?
La performance d’une résolution automatique d’anaphores infidèles pour le français pourrait atteindre une F-mesure de 30%. Ce résultat repose toutefois sur une ressource équivalente à un bon dictionnaire de la langue française, une analyse syntaxique de qualité satisfaisante et un traitement performant des entités nommées. En l’absence de telles ressources, les meilleurs résultats plafonnent autour d’une F-mesure de 15%.
[ "anaphore infidèle", "ressource sémantique", "résolution d’anaphore", "corpus annoté multiniveau" ]
[ "P", "M", "R", "U" ]
[ "", "A system for solving indirect anaphora in French seems to be able to achieve a F-measure of 30%. However, this result supposes a high quality lexical database (equivalent to a classical dictionary), a good parser and a high precision named entity recognition. In case such resources are not available, the best results are obtained by using simple heuristics and are limited to a F-measure of 15%.", "indirect anaphor, lexical database, anaphora resolution, multi-level corpus annotation" ]