{"id":"recital-2011-long-001","title":"Analyse de l\u2019ambigu\u00eft\u00e9 des requ\u00eates utilisateurs par cat\u00e9gorisation th\u00e9matique","abstract":"Dans cet article, nous cherchons \u00e0 identifier la nature de l\u2019ambigu\u00eft\u00e9 des requ\u00eates utilisateurs issues d\u2019un moteur de recherche d\u00e9di\u00e9 \u00e0 l\u2019actualit\u00e9, 2424actu.fr, en utilisant une t\u00e2che de cat\u00e9gorisation. Dans un premier temps, nous verrons les diff\u00e9rentes formes de l\u2019ambigu\u00eft\u00e9 des requ\u00eates d\u00e9j\u00e0 d\u00e9crites dans les travaux de TAL. Nous confrontons la vision lexicographique de l\u2019ambigu\u00eft\u00e9 \u00e0 celle d\u00e9crite par les techniques de classification appliqu\u00e9es \u00e0 la recherche d\u2019information. Dans un deuxi\u00e8me temps, nous appliquons une m\u00e9thode de cat\u00e9gorisation th\u00e9matique afin d\u2019explorer l\u2019ambigu\u00eft\u00e9 des requ\u00eates, celle-ci nous permet de conduire une analyse s\u00e9mantique de ces requ\u00eates, en int\u00e9grant la dimension temporelle propre au contexte des news. Nous proposons une typologie des ph\u00e9nom\u00e8nes d\u2019ambigu\u00eft\u00e9 bas\u00e9e sur notre analyse s\u00e9mantique. Enfin, nous comparons l\u2019exploration par cat\u00e9gorisation \u00e0 une ressource comme Wikip\u00e9dia, montrant concr\u00e8tement les divergences des deux approches.","translation":["","In this paper, we try to identify the nature of ambiguity of user queries from a search engine dedicated to news, 2424actu.fr, using a categorization task. At first, we see different forms of ambiguity queries already described in the works of NLP. We confront lexicographical vision of the ambiguity to that described by classification techniques applied to information retrieval. In a second step, we apply a method of categorizing themes to explore the ambiguity of queries, it allow us to conduct a semantic analysis of these applications by integrating temporal context-specific news. We propose a typology of phenomena of ambiguity based on our semantic analysis. Finally, we compare the exploration by categorization with a resource as Wikipedia, showing concretely the differences between these two approaches.","Information retrieval, ambiguity, classification queries"],"keyphrases":["ambigu\u00eft\u00e9","recherche d\u2019information","classification de requ\u00eates"],"prmu":["P","P","R"]} {"id":"recital-2011-long-002","title":"Extraction Automatique d'Informations P\u00e9dagogiques Pertinentes \u00e0 partir de Documents Textuels","abstract":"Plusieurs utilisateurs ont souvent besoin d'informations p\u00e9dagogiques pour les int\u00e9grer dans leurs ressources p\u00e9dagogiques, ou pour les utiliser dans un processus d'apprentissage. Une indexation de ces informations s'av\u00e8re donc utile en vue d'une extraction des informations p\u00e9dagogiques pertinentes en r\u00e9ponse \u00e0 une requ\u00eate utilisateur. La plupart des syst\u00e8mes d'extraction d'informations p\u00e9dagogiques existants proposent une indexation bas\u00e9e sur une annotation manuelle ou semi-automatique des informations p\u00e9dagogiques, t\u00e2che qui n'est pas pr\u00e9f\u00e9r\u00e9e par les utilisateurs. Dans cet article, nous proposons une approche d'indexation d'objets p\u00e9dagogiques (D\u00e9finition, Exemple, Exercice, etc.) bas\u00e9e sur une annotation s\u00e9mantique par Exploration Contextuelle des documents. L'index g\u00e9n\u00e9r\u00e9 servira \u00e0 une extraction des objets pertinents r\u00e9pondant \u00e0 une requ\u00eate utilisateur s\u00e9mantique. Nous proc\u00e9dons, ensuite, \u00e0 un classement des objets extraits selon leur pertinence en utilisant l'algorithme Rocchio. Notre objectif est de mettre en valeur une indexation \u00e0 partir de contextes s\u00e9mantiques et non pas \u00e0 partir de seuls termes linguistiques.","translation":["","Different users need pedagogical information in order to use them in their resources or in a learning process. Indexing this information is therefore useful for extracting relevant pedagogical information in response to a user request. Several searching systems of pedagogical information propose manual or semi-automatic annotations to index documents, which is a complex task for users. In this article, we propose an approach to index pedagogical objects (Definition, Exercise, Example, etc.) based on automatic annotation of documents using Contextual Exploration. Then, we use the index to extract relevant pedagogical objects as response to the user's requests. We proceed to sort the extracted objects according to their relevance. Our objective is to reach the relevant objects using a contextual semantic analysis of the text.","Information retrieval, pedagogical objects, semantic map, Contextual Exploration, Rocchio algorithm"],"keyphrases":["objets p\u00e9dagogiques","exploration contextuelle","algorithme Rocchio","extraction d\u2019informations","carte s\u00e9mantique"],"prmu":["P","P","P","M","M"]} {"id":"recital-2011-long-003","title":"Des outils de TAL en support aux experts de s\u00fbret\u00e9 industrielle pour l\u2019exploitation de bases de donn\u00e9es de retour d\u2019exp\u00e9rience","abstract":"Cet article pr\u00e9sente des applications d\u2019outils et m\u00e9thodes du traitement automatique des langues (TAL) \u00e0 la ma\u00eetrise du risque industriel gr\u00e2ce \u00e0 l\u2019analyse de donn\u00e9es textuelles issues de volumineuses bases de retour d\u2019exp\u00e9rience (REX). Il explicite d\u2019abord le domaine de la gestion de la s\u00fbret\u00e9, ses aspects politiques et sociaux ainsi que l\u2019activit\u00e9 des experts en s\u00fbret\u00e9 et les besoins qu\u2019ils expriment. Dans un deuxi\u00e8me temps il pr\u00e9sente une s\u00e9rie de techniques, comme la classification automatique de documents, le rep\u00e9rage de subjectivit\u00e9, et le clustering, adapt\u00e9es aux donn\u00e9es REX visant \u00e0 r\u00e9pondre \u00e0 ces besoins pr\u00e9sents et \u00e0 venir, sous forme d\u2019outils, en support \u00e0 l\u2019activit\u00e9 des experts.","translation":["","This article presents a series of natural language processing (NLP) techniques, applied to the domain of industrial risk management and the analysis of large collections of textual feedback data. First we describe the socio-political aspects of the risk mangement domain, the activity of the investigators working with this data. We then present present applications of NLP techniques like automatic text classification, clustering and opinion extraction, responding to different needs stated by the investigators.","risk management, incident report, industrial safety, weak signals, automatic classification, information retrieval, similarity, clustering, subjectivity"],"keyphrases":["s\u00fbret\u00e9 industrielle","risque","REX","classification automatique","subjectivit\u00e9","clustering","rapport d\u2019incident","signaux faibles","recherche d\u2019information","similarit\u00e9"],"prmu":["P","P","P","P","P","P","M","U","M","U"]} {"id":"recital-2011-long-004","title":"Vers une alg\u00e8bre des relations de discours pour la comparaison de structures discursives","abstract":"Nous proposons une m\u00e9thodologie pour la construction de r\u00e8gles de d\u00e9duction de relations de discours, destin\u00e9es \u00e0 \u00eatre int\u00e9gr\u00e9es dans une alg\u00e8bre de ces relations. La construction de ces r\u00e8gles a comme principal objectif de pouvoir calculer la fermeture discursive d\u2019une structure de discours, c\u2019est-\u00e0-dire de d\u00e9duire toutes les relations que la structure contient implicitement. Calculer la fermeture des structures discursives peut permettre d\u2019am\u00e9liorer leur comparaison, notamment dans le cadre de l\u2019\u00e9valuation de syst\u00e8mes d\u2019analyse automatique du discours. Nous pr\u00e9sentons la m\u00e9thodologie adopt\u00e9e, que nous illustrons par l\u2019\u00e9tude d\u2019une r\u00e8gle de d\u00e9duction.","translation":["","We propose a methodology for the construction of discourse relations inference rules, to be integrated into an algebra of these relations. The construction of these rules has as main objective to allow for the calculation of the discourse closure of a structure, i.e. deduce all the relations implicitly contained in the structure. Calculating the closure of discourse structures improves their comparison, in particular within the evaluation of discourse parsing systems. We present the adopted methodology, which we illustrate by the study of a rule.","Discourse relation, discourse closure, evaluation, inference"],"keyphrases":["Relation de discours","d\u00e9duction","fermeture discursive","\u00e9valuation"],"prmu":["P","P","P","P"]} {"id":"recital-2011-court-002","title":"Ressources lexicales au service de recherche et d\u2019indexation des images","abstract":"Cet article pr\u00e9sente une m\u00e9thodologie d\u2019utilisation du Tr\u00e9sor de la Langue Fran\u00e7aise informatis\u00e9e (TLFi) pour l\u2019indexation et la recherche des images fond\u00e9e sur l\u2019annotation textuelle. Nous utilisons les d\u00e9finitions du TLFi pour la cr\u00e9ation automatique et l\u2019enrichissement d\u2019un th\u00e9saurus \u00e0 partir des mots-cl\u00e9s de la requ\u00eate de recherche et des mots-cl\u00e9s attribu\u00e9s \u00e0 l\u2019image lors de l\u2019indexation. Plus pr\u00e9cisement il s\u2019agit d\u2019associer, de fa\u00e7on automatis\u00e9, \u00e0 chaque mot-cl\u00e9 de l\u2019image une liste des mots extraits de ses d\u00e9finitions TLFi pour un domaine donn\u00e9, en construisant ainsi un arbre hi\u00e9rarchique. L\u2019approche propos\u00e9e permet une cat\u00e9gorisation tr\u00e8s pr\u00e9cise des images, selon les domaines, une indexation de grandes quantit\u00e9s d\u2019images et une recherche rapide.","translation":["","This article presents a methodology for using the \u201cTr\u00e9sor de la Langue Fran\u00e7aise informatis\u00e9e\u201d (TLFi) for indexing and searching images based on textual annotation. We use the definitions of TLFi for automatic creation and enrichment of a thesaurus based on keywords from the search query and the keywords assigned to the image during indexing. More specifically it is automatically to associate, to each keyword of the image a list of words from their TLFi\u2019s definitions for a given area, thus building a hierarchical tree. The proposed approach allows a very accurate categorization of images, depending on the fields, a indexing of large amounts of images and a quick search.","TLFi, indexing, search, images, thesaurus"],"keyphrases":["recherche","indexation","images","TLFi","th\u00e9saurus"],"prmu":["P","P","P","P","P"]} {"id":"recital-2011-court-003","title":"Rep\u00e9rer les phrases \u00e9valuatives dans les articles de presse \u00e0 partir d\u2019indices et de st\u00e9r\u00e9otypes d\u2019\u00e9criture","abstract":"Ce papier pr\u00e9sente une m\u00e9thode de recherche des phrases \u00e9valuatives dans les articles de presse \u00e9conomique et financi\u00e8re \u00e0 partir de marques et d\u2019indices st\u00e9r\u00e9otyp\u00e9s, propres au style journalistique, apparaissant de mani\u00e8re concomitante \u00e0 l\u2019expression d\u2019\u00e9valuation(s) dans les phrases. Ces marques et indices ont \u00e9t\u00e9 d\u00e9gag\u00e9s par le biais d\u2019une annotation manuelle. Ils ont ensuite \u00e9t\u00e9 impl\u00e9ment\u00e9s, en vue d\u2019une phase-test d\u2019annotation automatique, sous forme de grammaires DCG\/GULP permettant, par filtrage, de matcher les phrases les contenant. Les r\u00e9sultats de notre premi\u00e8re tentative d\u2019annotation automatique sont pr\u00e9sent\u00e9s dans cet article. Enfin les perspectives offertes par cette m\u00e9thode relativement peu co\u00fbteuse en ressources (\u00e0 base d\u2019indices non intrins\u00e8quement \u00e9valuatifs) font l\u2019objet d\u2019une discussion.","translation":["","This paper presents a method to locate evaluative sentences in financial and economic newspapers, relying on marks and stereotyped signs. Peculiar to journalese, these are present concomitantly with the expression of evaluation(s) in sentences. These marks or signs have been found by means of a manual annotation. Then, in preparation for an automatic annotation phase, they have been implemented in the form of DCG\/GULP grammars which, by filtering, allows to locate the sentences containing them. The results of our first automatic annotation attempt are shown in this article. Furthermore, the prospects offered by this method, which relies on nonintrinsically evaluative marks and therefore does not require long lists of lexical resources, are discussed.","Opinion, appraisal, detection of evaluative sentences, financial and economic newspapers, journalese, writing signs\/marks\/stereotypes"],"keyphrases":["\u00e9valuation","presse \u00e9conomique et financi\u00e8re","style journalistique","Opinion","rep\u00e9rage de phrases \u00e9valuatives","indices\/marques\/st\u00e9r\u00e9otypes d\u2019\u00e9criture"],"prmu":["P","P","P","U","M","R"]} {"id":"recital-2011-court-004","title":"La complexit\u00e9 linguistique M\u00e9thode d\u2019analyse","abstract":"La complexit\u00e9 linguistique regroupe diff\u00e9rents ph\u00e9nom\u00e8nes dont il s\u2019agit de mod\u00e9liser le rapport. Le travail en cours que je d\u00e9cris ici propose une r\u00e9flexion sur les approches linguistiques et techniques de cette notion et la mise en application d\u2019un balayage des textes qui s\u2019efforce de contribuer \u00e0 leur enrichissement. Ce traitement en surface effectu\u00e9 suivant une liste de crit\u00e8res qui repr\u00e9sentent parfois des approximations de logiques plus \u00e9labor\u00e9es tente de fournir une image ``raisonnable'' de la complexit\u00e9.","translation":["","Linguistic complexity includes various linguistic phenomena which interaction is to be modeled. The ongoing work described here tackles linguistic and technical approaches of this idea as well as an implementation of a parsing method which is part of text enrichment techniques. This chunk parsing is performed according to a list of criteria that may consist in logical approximations of more sophisticated processes in order to provide a ``reasonable'' image of complexity.","Complexity, lisibility, German, chunk parsing"],"keyphrases":["Complexit\u00e9","lisibilit\u00e9","allemand","analyse de surface"],"prmu":["P","U","U","R"]} {"id":"recital-2010-long-001","title":"Attribution d\u2019auteur au moyen de mod\u00e8les de langue et de mod\u00e8les stylom\u00e9triques","abstract":"Dans une t\u00e2che consistant \u00e0 trouver l\u2019auteur (parmi 53) de chacun de 114 textes, nous analysons la performance de mod\u00e8les de langue et de mod\u00e8les stylom\u00e9triques sous les angles du rappel et du nombre de param\u00e8tres. Le mod\u00e8le de mots bigramme \u00e0 lissage de Kneser-Ney modifi\u00e9 interpol\u00e9 est le plus performant (75 % de bonnes r\u00e9ponses au premier rang). Parmi les mod\u00e8les stylom\u00e9triques, une combinaison de 7 param\u00e8tres li\u00e9s aux parties du discours produit les meilleurs r\u00e9sultats (rappel de 25 % au premier rang). Dans les deux cat\u00e9gories de mod\u00e8les, le rappel maximal n\u2019est pas atteint lorsque le nombre de param\u00e8tres est le plus \u00e9lev\u00e9.","translation":["","In a task consisting of attributing the proper author (among 53) of each of 114 texts, we analyze the performance of language models and stylometric models from the point of view of recall and the number of parameters. The best performance is obtained with a bigram word model using interpolated modified Kneser-Ney smoothing (first-rank recall of 75 %). The best of the stylometric models, which combines 7 parameters characterizing the proportion of the different parts of speech in a text, has a firstrank recall of 25 % only. In both types of models, the maximal recall is not reached when the number of parameters is highest.","Authorship attribution, language model, stylometry, n-grams, feature vectors"],"keyphrases":["Attribution d\u2019auteur","mod\u00e8le de langue","stylom\u00e9trie","n-grammes","vecteurs de traits"],"prmu":["P","P","P","U","M"]} {"id":"recital-2010-long-002","title":"Densid\u00e9es : calcul automatique de la densit\u00e9 des id\u00e9es dans un corpus oral","abstract":"La densit\u00e9 des id\u00e9es, qui correspond au ratio entre le nombre de propositions s\u00e9mantiques et le nombre de mots dans un texte refl\u00e8te la qualit\u00e9 informative des propositions langagi\u00e8res d\u2019un texte. L'apparition de la maladie d'Alzheimer a \u00e9t\u00e9 reli\u00e9e \u00e0 une d\u00e9gradation de la densit\u00e9 des id\u00e9es, ce qui explique l'int\u00e9r\u00eat pour un calcul automatique de cette mesure. Nous proposons une m\u00e9thode bas\u00e9e sur un \u00e9tiquetage morphosyntaxique et des r\u00e8gles d'ajustement, inspir\u00e9e du logiciel CPIDR. Cette m\u00e9thode a \u00e9t\u00e9 valid\u00e9e sur un corpus de quarante entretiens oraux transcrits et obtient de meilleurs r\u00e9sultats pour le fran\u00e7ais que CPIDR pour l\u2019anglais. Elle est impl\u00e9ment\u00e9e dans le logiciel libre Densid\u00e9es disponible sur http:\/\/code.google.com\/p\/densidees.","translation":["","Idea density, which is the ratio of semantic propositions divided by the number of words in a text, reflects the informative quality of the sentences of a text. A decreasing idea density has been identified as one of the symptoms of Alzheimer\u2019s disease, which explains the interest in an automatic calculation of idea density. We propose a method based on part-of-speech tagging followed by adjustment rules inspired from the CPIDR software. This method was validated on a corpus of 40 transcribed conversations in French and obtains better results in French than CPIDR in English. It is implemented in the free software Densid\u00e9es available at http:\/\/code.google.com\/p\/densidees.","idea density, propositional analysis, semantic tagging, psycholinguistics"],"keyphrases":["densit\u00e9 des id\u00e9es","analyse pr\u00e9dicative","\u00e9tiquetage s\u00e9mantique","psycholinguistique"],"prmu":["P","U","R","U"]} {"id":"recital-2010-long-003","title":"Outils de segmentation du chinois et textom\u00e9trie","abstract":"La segmentation en mots est une premi\u00e8re \u00e9tape possible dans le traitement automatique de la langue chinoise. Les syst\u00e8mes de segmentation se sont beaucoup d\u00e9velopp\u00e9s depuis le premier apparu dans les ann\u00e9es 1980. Il n\u2019existe cependant aucun outil standard aujourd\u2019hui. L\u2019objectif de ce travail est de faire une comparaison des diff\u00e9rents outils de segmentation en s\u2019appuyant sur une analyse statistique. Le but est de d\u00e9finir pour quel type de texte chacun d\u2019eux est le plus performant. Quatre outils de segmentation et deux corpus avec des th\u00e8mes distincts ont \u00e9t\u00e9 choisis pour cette \u00e9tude. \u00c0 l\u2019aide des outils textom\u00e9triques Lexico3 et mkAlign, nous avons centr\u00e9 notre analyse sur le nombre de syllabes du chinois. Les donn\u00e9es quantitatives ont permis d\u2019objectiver des diff\u00e9rences entre les outils. Le syst\u00e8me Hylanda s\u2019av\u00e8re performant dans la segmentation des termes sp\u00e9cialis\u00e9s et le syst\u00e8me Stanford est plus indiqu\u00e9 pour les textes g\u00e9n\u00e9raux. L\u2019\u00e9tude de la comparaison des outils de segmentation montre le statut incontournable de l\u2019analyse textom\u00e9trique aujourd\u2019hui, celle-ci permettant d\u2019avoir acc\u00e8s rapidement \u00e0 la recherche d\u2019information.","translation":["","Chinese word segmentation is the first step in Chinese natural language processing. The system of segmentation has considerably developed since the first automatic system of segmentation of the 1980\u2019s. However, till today there are no standard tools. The aim of this paper is to compare various tools of segmentation by through statistical analysis. Our goal is to identify the kind of texts for which these segmentation tools are the most effective. This study chose four segmentation tools and two corpora, marked by distinct themes. Using two textometric toolboxes, Lexico3 and mkAlign, we focused on the number of syllables in Chinese. The quantitative data allowed us to objectify disparities between tools. The Hylanda system turns out to be effective in the segmentation of specialized terms and the Stanford system is more appropriate for general texts. The comparative study of segmenters shows the undeniable status of textometrical analysis which is able to quickly access information retrieval.","Textometry, comparison of Chinese segmenters, number of syllables"],"keyphrases":["Textom\u00e9trie","nombre de syllabes","comparaison des segmenteurs chinois"],"prmu":["P","P","M"]} {"id":"recital-2010-long-004","title":"Acquisition de grammaires locales pour l\u2019extraction de relations entre entit\u00e9s nomm\u00e9es","abstract":"La constitution de ressources linguistiques est une t\u00e2che cruciale pour les syst\u00e8mes d\u2019extraction d\u2019information fond\u00e9s sur une approche symbolique. Ces syst\u00e8mes reposent en effet sur des grammaires utilisant des informations issues de dictionnaires \u00e9lectroniques ou de r\u00e9seaux s\u00e9mantiques afin de d\u00e9crire un ph\u00e9nom\u00e8ne linguistique pr\u00e9cis \u00e0 rechercher dans les textes. La cr\u00e9ation et la r\u00e9vision manuelle de telles ressources sont des t\u00e2ches longues et co\u00fbteuses en milieu industriel. Nous pr\u00e9sentons ici un nouvel algorithme produisant une grammaire d\u2019extraction de relations entre entit\u00e9s nomm\u00e9es, de mani\u00e8re semi-automatique \u00e0 partir d\u2019un petit ensemble de phrases repr\u00e9sentatives. Dans un premier temps, le linguiste rep\u00e8re un jeu de phrases pertinentes \u00e0 partir d\u2019une analyse des cooccurrences d\u2019entit\u00e9s rep\u00e9r\u00e9es automatiquement. Cet \u00e9chantillon n\u2019a pas forc\u00e9ment une taille importante. Puis, un algorithme permet de produire une grammaire en g\u00e9n\u00e9ralisant progressivement les \u00e9l\u00e9ments lexicaux exprimant la relation entre entit\u00e9s. L\u2019originalit\u00e9 de l\u2019approche repose sur trois aspects : une repr\u00e9sentation riche du document initial permettant des g\u00e9n\u00e9ralisations pertinentes, la collaboration \u00e9troite entre les aspects automatiques et l\u2019apport du linguiste et sur la volont\u00e9 de contr\u00f4ler le processus en ayant toujours affaire \u00e0 des donn\u00e9es lisibles par un humain.","translation":["","Building linguistics resources is a vital task for information extraction systems based on a symbolic approach : cascaded patterns use information from digital dictionaries or semantic networks to describe a precise linguistic phenomenon in texts. The manual elaboration and revision of such patterns is a long and costly process in an industrial environment. This work presents a semi-automatic method for creating patterns that detect relations between named entities in corpora. The process is made of two different phases. The result of the first phase is a collection of sentences containing the relevant relation. This collection isn\u2019t necessairly big. During the second phase, an algorithm automatically produces the recognition grammar by generalizing the actual content of the different relevant sentences. This method is original from three different points of view : it uses a rich description of the linguistic content to allow accurate generalizations, it is based on a close collaboration between an automatic process and a linguist and, lastly, the output of the acquisition process is always readable and modifiable by the end user.","relation, named entity, pattern"],"keyphrases":["grammaire","relation","entit\u00e9 nomm\u00e9e"],"prmu":["P","P","P"]} {"id":"recital-2010-long-005","title":"Construction d\u2019un corpus de paraphrases d\u2019\u00e9nonc\u00e9s par traduction multiple multilingue","abstract":"Les corpus de paraphrases \u00e0 large \u00e9chelle sont importants dans de nombreuses applications de TAL. Dans cet article nous pr\u00e9sentons une m\u00e9thode visant \u00e0 obtenir un corpus parall\u00e8le de paraphrases d\u2019\u00e9nonc\u00e9s en fran\u00e7ais. Elle vise \u00e0 collecter des traductions multiples propos\u00e9es par des contributeurs volontaires francophones \u00e0 partir de plusieurs langues europ\u00e9ennes. Nous formulons l\u2019hypoth\u00e8se que deux traductions soumises ind\u00e9pendamment par deux participants conservent g\u00e9n\u00e9ralement le sens de la phrase d\u2019origine, quelle que soit la langue \u00e0 partir de laquelle la traduction est effectu\u00e9e. L\u2019analyse des r\u00e9sultats nous permet de discuter cette hypoth\u00e8se.","translation":["","Large scale paraphrase corpora are important for a variety of natural language processing applications. In this paper, we present an approach which collects multiple translations from several languages proposed by volunteers in order to obtain a parallel corpus of paraphrases in French. We hypothesize that two translations proposed independently by two volunteers usually retain the meaning of the original sentence, regardless of the language from which the translation is done. The analysis of results allows us to discuss this hypothesis.","monolingual parallel corpora, paraphrases, multiple translations"],"keyphrases":["paraphrases","traductions multiples","corpus monolingue parall\u00e8le"],"prmu":["P","P","M"]} {"id":"recital-2010-long-006","title":"Ces noms qui cachent des \u00e9v\u00e9nements : un premier rep\u00e9rage","abstract":"La d\u00e9tection des informations temporelles est cruciale pour le traitement automatique des textes, qu\u2019il s\u2019agisse de mod\u00e9lisation linguistique, d\u2019applications en compr\u00e9hension du langage ou encore de t\u00e2ches de recherche documentaire ou d\u2019extraction d\u2019informations. De nombreux travaux ont \u00e9t\u00e9 d\u00e9di\u00e9s \u00e0 l\u2019analyse temporelle des textes, et plus pr\u00e9cis\u00e9ment l\u2019annotation des expressions temporelles ou des \u00e9v\u00e9nements sous leurs diff\u00e9rentes formes : verbales, adjectivales ou nominales. Dans cet article, nous d\u00e9crivons une m\u00e9thode pour la d\u00e9tection des syntagmes nominaux d\u00e9notant des \u00e9v\u00e9nements. Notre approche est bas\u00e9e sur l\u2019impl\u00e9mentation d\u2019un test linguistique simple propos\u00e9 par les linguistes pour cette t\u00e2che. Nous avons exp\u00e9riment\u00e9 notre m\u00e9thode sur deux corpus diff\u00e9rents ; le premier est compos\u00e9 d\u2019articles de presse et le second est beaucoup plus grand, utilisant une interface pour interroger automatiquement le moteur de recherche Yahoo. Les r\u00e9sultats obtenus ont montr\u00e9 que cette m\u00e9thode se r\u00e9v\u00e8le plus pertinente pour un plus large corpus.","translation":["","The detection of temporal information is a crucial task for automatic text processing. It is not only used in linguistics for the modelization of phenomenon and reasoning implying time entities but also in numerous applications in language comprehension, information retrieval, question-answering and information extraction. Many studies have been devoted to the temporal analysis of texts, and more precisely to the tagging of temporal entities and relations occurring in texts. Among these lasts, the various avatars of events in their multiples occurring forms has been tackled by numerous works. In this article we describe a method for the detection of noun phrases denoting events. Our approach is based on the implementation of a simple linguistic test proposed by linguists for this task. Our method is applied on two different corpora ; the first is composed of newspaper articles and the second, a much larger one, rests on an interface for automatically querying the Yahoo search engine. Primary results are encouraging and increasing the size of the learning corpora should allow for a real statistical validation of the results.","Nominal event recognition, temporal annotation"],"keyphrases":["Rep\u00e9rage des \u00e9v\u00e9nements nominaux","annotation temporelle"],"prmu":["R","R"]} {"id":"recital-2010-long-007","title":"Cat\u00e9gorisation automatique d'adjectifs d'opinion \u00e0 partir d'une ressource linguistique g\u00e9n\u00e9rique","abstract":"Cet article d\u00e9crit un processus d\u2019annotation manuelle de textes d\u2019opinion, bas\u00e9 sur un sch\u00e9ma fin d'annotation ind\u00e9pendant de la langue et du corpus. Ensuite, \u00e0 partir d'une partie de ce sch\u00e9ma, une m\u00e9thode de construction automatique d'un lexique d'opinion \u00e0 partir d'un analyseur syntaxique et d'une ressource linguistique est d\u00e9crite. Cette m\u00e9thode consiste \u00e0 construire un arbre de d\u00e9cision bas\u00e9 sur les classes de concepts de la ressource utilis\u00e9e. Dans un premier temps, nous avons \u00e9tudi\u00e9 la couverture du lexique d'opinion obtenu par comparaison avec l\u2019annotation manuelle effectu\u00e9e sur un premier corpus de critiques de restaurants. La g\u00e9n\u00e9ricit\u00e9 de ce lexique a \u00e9t\u00e9 mesur\u00e9e en le comparant avec un second lexique, g\u00e9n\u00e9r\u00e9 \u00e0 partir d'un corpus de commentaires de films. Dans un second temps, nous avons \u00e9valu\u00e9 l'utilisabilit\u00e9 du lexique au travers d'une t\u00e2che extrins\u00e8que, la reconnaissance de la polarit\u00e9 de commentaires d'internautes.","translation":["","This paper introduces a manual annotation process of opinion texts, based on a fine-featured annotation scheme, independent of language and corpus. Then, from a part of this scheme, a method to build automatically an opinion lexicon from a syntactic analyser and a linguistic resource is described. This method consists in building a decision tree from the classes of the resource. The coverage of the lexicon has been determined by comparing it to the gold annotation of a restaurants review corpus. Its genericity was determined by comparing it to another lexicon generated from a different domain corpus (movie reviews). Eventually, the usefulness of the lexicon has been measured with an extrinsic task, the recognition of the polarity of reviews.","Opinion mining, Lexicon extension, Opinion annotation"],"keyphrases":["Analyse d'opinion","Extension de lexique","Annotation d'opinions"],"prmu":["M","M","M"]} {"id":"recital-2010-long-008","title":"R\u00e9sum\u00e9 automatique de documents arabes bas\u00e9 sur la technique RST","abstract":"Dans cet article, nous nous int\u00e9ressons au r\u00e9sum\u00e9 automatique de textes arabes. Nous commen\u00e7ons par pr\u00e9senter une \u00e9tude analytique r\u00e9alis\u00e9e sur un corpus de travail qui nous a permis de d\u00e9duire, suite \u00e0 des observations empiriques, un ensemble de relations et de frames (r\u00e8gles ou patrons) rh\u00e9toriques; ensuite nous pr\u00e9sentons notre m\u00e9thode de production de r\u00e9sum\u00e9s pour les textes arabes. La m\u00e9thode que nous proposons se base sur la Th\u00e9orie de la Structure Rh\u00e9torique (RST) (Mann et al., 1988) et utilise des connaissances purement linguistiques. Le principe de notre proposition s\u2019appuie sur trois piliers. Le premier pilier est le rep\u00e9rage des relations rh\u00e9toriques entres les diff\u00e9rentes unit\u00e9s minimales du texte dont l\u2019une poss\u00e8de le statut de noyau \u2013 segment de texte primordial pour la coh\u00e9rence \u2013 et l\u2019autre a le statut noyau ou satellite \u2013 segment optionnel. Le deuxi\u00e8me pilier est le dressage et la simplification de l\u2019arbre RST. Le troisi\u00e8me pilier est la s\u00e9lection des phrases noyaux formant le r\u00e9sum\u00e9 final, qui tiennent en compte le type de relation rh\u00e9toriques choisi pour l\u2019extrait.","translation":["","In this paper, we focus on automatic summarization of Arabic texts. We start by presenting an analytical study carried out on a study corpus which enabled us to deduce, following empirical observations, a set of relations and rhetorical frames; then we present our proposed method to produce summaries for Arabic texts. This method is based bases on the Rhetorical Structure Theory (RST) technique (Mann and Al., 1988) and uses purely linguistic knowledge. The principle of the proposed method is based on three pillars. The first pillar is the location of the rhetorical relations between the various minimal units of the text of which one has the status of nucleus - text segment necessary to maintain coherence - and the other has the status of nucleus or satellite - optional segment. The second pillar is the representation and the simplification of RST-tree that is considered most descriptive. The third pillar is the selection of the nucleus sentences forming the final summary, which hold in account the type of rhetorical relations chosen.","Rhetorical Structure Theory, Rhetorical relations, Linguistic markers, Automatic summarization of Arabic texts"],"keyphrases":["R\u00e9sum\u00e9 automatique de textes arabes","Th\u00e9orie de la Structure Rh\u00e9torique","Relations rh\u00e9toriques","Marqueurs linguistiques"],"prmu":["P","P","P","M"]} {"id":"recital-2010-long-009","title":"Inf\u00e9rences aspecto-temporelles analys\u00e9es avec la Logique Combinatoire","abstract":"Ce travail s\u2019inscrit dans une recherche centr\u00e9e sur une approche de l\u2019Intelligence Artificielle (IA) et de la linguistique computationnelle. Il permet d\u2019int\u00e9grer diff\u00e9rentes techniques formelles de la Logique Combinatoire avec des types (Curry) et sa programmation fonctionnelle (Haskell) avec une th\u00e9orie \u00e9nonciative du temps et de l\u2019aspect. Nous proposons des calculs formels de valeurs aspectotemporelles (processus inaccompli pr\u00e9sent, processus inaccompli pass\u00e9, \u00e9v\u00e9nement pass\u00e9 et \u00e9tatr\u00e9sultant pr\u00e9sent) associ\u00e9es \u00e0 des repr\u00e9sentations de significations verbales sous forme de sch\u00e8mes applicatifs.","translation":["","This work is in line with the research centered on an approach of the Artificial Intelligence and the Computational linguistic. It allows integrating different formal technologies of the Combinatory Logic with types (Curry) and their functional programme (Haskell) with an enunciative theory of the tense and the aspect. We propose formal calculus of aspecto-temporal values (present unaccomplished process, past unaccomplished process, past event and present r\u00e9sultative-state) associated with representations of verbal meanings in the form of applicative schemes.","Combinatory Logic, Enunciative Frame of reference, Semantic-cognitive scheme, Applicative and Cognitive Grammar, Haskell"],"keyphrases":["Logique Combinatoire","Haskell","R\u00e9f\u00e9rentiel \u00e9nonciatif","Sch\u00e8me s\u00e9mantico-cognitif","Grammaire Applicative et Cognitive"],"prmu":["P","P","M","M","M"]} {"id":"recital-2010-long-010","title":"Automatiser la r\u00e9daction de d\u00e9finitions terminographiques : questions et traitements","abstract":"Dans cet article, nous pr\u00e9sentons une analyse manuelle de corpus de contextes conceptuels afin (i) de voir dans quelle mesure les m\u00e9thodes de TALN existantes sont en principe ad\u00e9quates pour automatiser la r\u00e9daction de d\u00e9finitions terminographiques, et (ii) de d\u00e9gager des question pr\u00e9cises dont la r\u00e9solution permettrait d\u2019automatiser davantage la production de d\u00e9finitions. Le but est de contribuer \u00e0 la r\u00e9flexion sur les enjeux de l\u2019automatisation de cette t\u00e2che, en proc\u00e9dant \u00e0 une s\u00e9rie d\u2019analyses qui nous m\u00e8nent, \u00e9tape par \u00e9tape, \u00e0 examiner l\u2019ad\u00e9quation des m\u00e9thodes d\u2019extraction de d\u00e9finitions et de contextes plus larges au travail terminographique de r\u00e9daction des d\u00e9finitions. De ces analyses \u00e9mergent des questions pr\u00e9cises relatives \u00e0 la pertinence des informations extraites et \u00e0 leur s\u00e9lection. Des propositions de solutions et leurs implications pour le TALN sont examin\u00e9es.","translation":["","A manual corpus analysis of conceptual contexts is presented in order (i) to indicatively evaluate to what extent NLP methods can in principle be used to automate the production of terminographic definitions, and (ii) to identify central questions to be answered if one wants to further automate the task. The objective is to contribute to reflection on the challenges faced by the automation of this task. Through a series of analyses, the adequacy of extraction methods for defining or knowledge-rich contexts is examined in the light of the terminographic activity of definition writing. Precise questions emerge from these analyses relating to the relevance and the selection of the extracted information. Some solutions are proposed and their implications to NLP reviewed.","Terminology, terminographic definitions, feature selection, feature relevance, definition extraction, conceptual contexts, definition processing."],"keyphrases":["d\u00e9finitions terminographiques","contextes conceptuels","extraction de d\u00e9finitions","Terminologie","s\u00e9lection des traits","pertinence des traits","traitement automatique des d\u00e9finitions."],"prmu":["P","P","P","U","R","R","M"]} {"id":"recital-2010-long-011","title":"Repr\u00e9sentation vectorielle de textes courts d\u2019opinions, Analyse de traitements s\u00e9mantiques pour la fouille d\u2019opinions par clustering","abstract":"Avec le d\u00e9veloppement d\u2019internet et des sites d\u2019\u00e9changes (forums, blogs, sondages en ligne, ...), l\u2019exploitation de nouvelles sources d\u2019informations dans le but d\u2019en extraire des opinions sur des sujets pr\u00e9cis (film, commerce,...) devient possible. Dans ce papier, nous pr\u00e9sentons une approche de fouille d\u2019opinions \u00e0 partir de textes courts. Nous expliquons notamment en quoi notre choix d\u2019utilisation de regroupements autour des id\u00e9es exprim\u00e9es nous a conduit \u00e0 opter pour une repr\u00e9sentation implicite telle que la repr\u00e9sentation vectorielle. Nous voyons \u00e9galement les diff\u00e9rents traitements s\u00e9mantiques int\u00e9gr\u00e9s \u00e0 notre cha\u00eene de traitement (traitement de la n\u00e9gation, lemmatisation, stemmatisation, synonymie ou m\u00eame polys\u00e9mie des mots) et discutons leur impact sur la qualit\u00e9 des regroupements obtenus.","translation":["","With the internet and sharing web sites developement (forums, blogs, online surveys, ...), new data source exploitation in order to extract opinions about various subjects (film, business, ...) becomes possible. In this paper, we show an opinion mining approach from short texts. We explain how our choice of using opinions clustering have conducted us to use an implicit representation like vectorial representation. We present different semantic process that we have incorporated into our process chain (negation process, lemmatisation, stemmatisation, synonymy or polysemy) and we discut their impact on the cluster quality.","text representation, vectorial representation, short text processing, opinion clustering"],"keyphrases":["repr\u00e9sentation vectorielle","repr\u00e9sentation des textes","traitement de textes courts","regroupements d\u2019opinions"],"prmu":["P","R","R","R"]} {"id":"recital-2003-long-001","title":"Analyse syntaxique de l\u0092'Arabe: Le syst\u00e8me MASPAR","abstract":"De nombreux syst\u00e8mes de Traitement Automatique des Langues (TAL) utilisent une architecture s\u00e9quentielle bas\u00e9e sur la transmission, \u00e0 la fin de chaque phase d\u0092analyse, des r\u00e9sultats trouv\u00e9s \u00e0 la phase d\u0092analyse suivante. Ces types de syst\u00e8mes s\u00e9quentiels posent plusieurs probl\u00e8mes (i.e. explosion combinatoire des solutions, lourdeur d\u0092analyse, etc.). Pour rem\u00e9dier \u00e0 ces probl\u00e8mes, plusieurs solutions de remplacement ont vu le jour, nous pouvons citer par exemple, l\u0092utilisation des approches multi-agent que nous avons adopt\u00e9 pour faire l\u0092analyse syntaxique de textes Arabes, et que nous pr\u00e9sentons dans cet article.","translation":["","","Syntactic Analysis, Robust analysis, HPSG, multi-agent system, AgentBuilder"],"keyphrases":["Analyse syntaxique","Robustesse d\u0092analyse","HPSG","syst\u00e8me multi-agent","AgentBuilder"],"prmu":["P","M","U","R","U"]} {"id":"recital-2003-long-002","title":"Fusionner pour mieux analyser: quelques id\u00e9es et une premi\u00e8re exp\u00e9rience","abstract":"L\u2019objectif de cet article est de pr\u00e9senter nos travaux sur l\u2019analyse d\u2019un \u00e9nonc\u00e9 vers une structure de d\u00e9pendance. Cette structure d\u00e9crit les relations entre mots, des relations syntaxiques mais \u00e9galement des relations s\u00e9mantiques de surface de l\u2019\u00e9nonc\u00e9 de d\u00e9part dans un certain contexte. L\u2019id\u00e9e est de cr\u00e9er une plateforme d\u2019analyse capable d\u2019int\u00e9grer des analyseurs linguistiques existants (syntaxiques ou de d\u00e9pendance) et de fusionner leurs r\u00e9sultats dans le but d\u2019obtenir une analyse de d\u00e9pendance pour des \u00e9nonc\u00e9s quelconques.","translation":["","The article\u2019s goal is to present our work about the parsing of a sentence to a dependency structure. This structure describes the relations between words, syntactic relations but also surface semantic relations of a sentence in a certain context. The idea is to create an analysis\u2019 platform capable of integrating existing linguistic parsers (syntactic parsers or dependency parsers) and to fusion their results to obtain a dependency parsing from a sentence.","Dependency parsing, syntactic parsing, integration, fusion"],"keyphrases":["fusion","int\u00e9gration","Analyse de d\u00e9pendance","analyse syntaxique"],"prmu":["P","P","P","R"]} {"id":"recital-2003-long-003","title":"Extraction de segments th\u00e9matiques pour la construction de r\u00e9sum\u00e9 multi-document orient\u00e9 par un profil utilisateur","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thode qui vise \u00e0 donner \u00e0 un utilisateur la possibilit\u00e9 de parcourir rapidement un ensemble de documents par le biais d\u2019un profil utilisateur. Un profil est un ensemble de termes structur\u00e9 en sous-ensembles th\u00e9matiquement homog\u00e8nes. L\u2019analyse des documents se fonde pour sa part sur l\u2019extraction des passages les plus \u00e9troitement en relation avec ce profil. Cette analyse permet en particulier d\u2019\u00e9tendre le vocabulaire d\u00e9finissant un profil en fonction du document trait\u00e9 en s\u00e9lectionnant les termes de ce dernier les plus \u00e9troitement li\u00e9s aux termes du profil. Cette capacit\u00e9 ouvre ainsi la voie \u00e0 une plus grande finesse du filtrage en permettant la s\u00e9lection d\u2019extraits de documents ayant un lien plus t\u00e9nu avec les profils mais davantage susceptibles d\u2019apporter des informations nouvelles et donc int\u00e9ressantes. La production du r\u00e9sum\u00e9 r\u00e9sulte de l\u2019appariement entre les segments d\u00e9limit\u00e9s lors de l\u2019analyse des documents et les th\u00e8mes du profil.","translation":["","In this article, we present an information extraction method that selects from a set of documents their most significant excerpts in relation to an user profile. This method relies on both structured profiles and a topical analysis of documents. The topical analysis is notably used for expanding a profile in relation to a particular document by selecting the terms of the document that are closely linked to those of the profile. This expansion is a way for selecting in a more reliable way excerpts that are not strongly linked to profiles but that may bring new and interessant information about their topics.","Information extraction, user profile, multi-document summarization"],"keyphrases":["r\u00e9sum\u00e9 multi-document","profil utilisateur","Extraction d\u2019information"],"prmu":["P","P","R"]} {"id":"recital-2003-long-004","title":"Structure communicative du discours : \u00e9tude pour la g\u00e9n\u00e9ration automatique de textes","abstract":"Dans cet article, nous montrons que la coh\u00e9rence d\u2019un discours d\u00e9pend de la relation entre la structure communicative des phrases et la structure du discours. Du point de vue de la synth\u00e8se, la vis\u00e9e communicative contr\u00f4le la structure du discours, et la structure du discours contraint le choix des structures communicatives phrastiques : nous proposons de reproduire ce processus dans un syst\u00e8me de g\u00e9n\u00e9ration de textes. Nous montrons de quelle mani\u00e8re la structure communicative intervient lors de la phase de structuration de document pour permettre la g\u00e9n\u00e9ration de discours coh\u00e9rents et r\u00e9pondant \u00e0 des vis\u00e9es communicatives particuli\u00e8res.","translation":["","In this paper, we show that discourse coherence depends on the relationship between communicative structure of sentences and discourse structure. From the synthesis point of view, communicative goal controls discourse structure, and discourse structure constrains choice of communicative structures of sentences : we propose to reproduce this process in a natural language generation system. We show how communicative structure can be used during document structuring task so as to produce discourses which are coherent and corresponding to particular communicative goals.","Communicative structure (or information structure), thematic progression, discourse structure (discourse relations), document structuring, natural language generation"],"keyphrases":["g\u00e9n\u00e9ration automatique de textes","structuration de document","Structure communicative (ou structure informationnelle)","progression th\u00e9matique","structure du discours (relations de discours)"],"prmu":["P","P","M","U","M"]} {"id":"recital-2003-long-005","title":"Proc\u00e9dures d\u0092apprentissage endog\u00e8ne doubl\u00e9es de ressources exog\u00e8nes : r\u00e9solution en corpus d\u0092une ambigu\u00eft\u00e9 sur \u0093de \u0094","abstract":"Dans cette \u00e9tude, nous nous int\u00e9ressons \u00e0 l\u0092apport de ressources exog\u00e8nes dans un analyseur syntaxique de corpus bas\u00e9 sur des proc\u00e9dures d\u0092apprentissage endog\u00e8ne. Nous menons une exp\u00e9rience en corpus sur un cas d\u0092ambigu\u00eft\u00e9 cat\u00e9gorielle du fran\u00e7ais (forme de en position postverbale, article ou pr\u00e9position). Apr\u00e8s avoir pr\u00e9sent\u00e9 et \u00e9valu\u00e9 la strat\u00e9gie endog\u00e8ne, nous en analysons les limites. Nous discutons ensuite la perspective d\u0092une approche mixte combinant des informations acquises de mani\u00e8re endog\u00e8ne \u00e0 des informations exog\u00e8nes (donn\u00e9es de sous-cat\u00e9gorisation verbale sur la pr\u00e9position de). Nous montrons alors comment un apport maximal de ressources exog\u00e8nes am\u00e9liore les performances de l\u0092analyseur (+8%, +15% sur les deux corpus \u00e9valu\u00e9s). Nous pr\u00e9sentons les premiers r\u00e9sultats d\u0092une approche mixte avant de conclure sur les orientations futures du travail.","translation":["","This paper addresses the issue of the contribution of exogenous resources within the framework of a parser, based on endogenous techniques. We discuss how exogenous resources could combine with endogenous techniques in the context of a POS French ambiguity (the word de, determiner or preposition). We present and evaluate our endogenous strategy on cases where verbs are adjacent to de. We highlight the limits of such a strategy and show how exogenous resources improve the parser output (+8%, +15% on the corpus evaluated). Finally, we present the first results of the combined strategy and conclude on future work.","automatic parsing, endogenous strategy, exogenous resources, hybrid approach, POS ambiguity"],"keyphrases":["ressource exog\u00e8ne","approche mixte","analyse syntaxique automatique","approche endog\u00e8ne","ambigu\u00eft\u00e9 cat\u00e9gorielle"],"prmu":["P","P","M","R","R"]} {"id":"recital-2003-long-006","title":"Polys\u00e9mie verbale et construction syntaxique : \u00e9tude sur le verbe jouer","abstract":"Dans l\u0092analyse s\u00e9mantique de textes, un des obstacles au TAL est la polys\u00e9mie des unit\u00e9s linguistiques. Par exemple, le sens du verbe jouer peut varier en fonction du contexte : Il joue de la trompette (pratiquer) ; Il joue avec son fils (s\u0092amuser). Une des approches pour traiter ces ambigu\u00eft\u00e9s de sens, est le mod\u00e8le de la construction dynamique du sens propos\u00e9 par B. Victorri et C. Fuchs (1996). Dans ce mod\u00e8le, on associe \u00e0 chaque unit\u00e9 polys\u00e9mique un espace s\u00e9mantique, et le sens de l\u0092unit\u00e9 dans un \u00e9nonc\u00e9 donn\u00e9 est le r\u00e9sultat d\u0092une interaction dynamique avec les autres unit\u00e9s pr\u00e9sentes dans l\u0092\u00e9nonc\u00e9. Nous voulons montrer ici que les constructions verbales sont des \u00e9l\u00e9ments du co-texte qui contribuent, au m\u00eame titre que le co-texte lexical, au processus dynamique de construction du sens du verbe. L\u0092objectif est alors de montrer que les constructions verbales sont porteuses de sens intrins\u00e8que (Goldberg, 1995) et qu\u0092elles permettent dans notre mod\u00e8le de contraindre automatiquement le sens d\u2019un verbe.","translation":["","Polysemy is an important issue in Natural Language Processing. For instance, in French, the meaning of the verb jouer (to play) change with the context : Il joue de la trompette (to practice) ; Il joue avec son fils (to enjoy oneself). The model of \"Dynamical construction of meaning\" (Victorri, Fuchs, 1996) is an interesting approach for dealing with this problem. In this model, each polysemic unit is assigned a semantic space. The meaning of unit in a particular sentence is the result of a dynamical interaction with all other units of the sentence. In this paper, we consider the syntactic constructions as units contributing to the global meaning like the other linguistics units. We want to show that verbal constructions have an intrinsic meaning (Goldberg, 1995), and that we can use automatically this meaning to held selecting the right meaning of a verb.","polysemy, meaning calculation, syntactic structure, semantic space, preposition"],"keyphrases":["polys\u00e9mie","construction syntaxique","espace s\u00e9mantique","calcul du sens","pr\u00e9position"],"prmu":["P","P","P","M","U"]} {"id":"recital-2003-long-007","title":"Vers une Approche Fonctionnelle de la R\u00e9solution de la R\u00e9f\u00e9rence dans le Dialogue Finalis\u00e9","abstract":"Dans cet article, nous montrons l\u0092insuffisance du pouvoir d\u0092expression des approches par pr\u00e9dicats pour la r\u00e9solution de la r\u00e9f\u00e9rence en extension dans un cadre g\u00e9n\u00e9rique de dialogue homme-machine. Cette insuffisance oblige pour l\u0092instant les concepteurs de tels syst\u00e8mes de dialogue \u00e0 concevoir des heuristiques ad hoc impossibles \u00e0 int\u00e9grer dans un cadre de description unifi\u00e9. Nous montrons que la r\u00e9solution des expressions r\u00e9f\u00e9rentielles n\u00e9cessite la prise en compte du contexte m\u00eame pour les termes portant sur des caract\u00e9ristiques intrins\u00e8ques aux \u00e9l\u00e9ments. Nous proposons alors un formalisme pour repr\u00e9senter la s\u00e9mantique des extracteurs r\u00e9f\u00e9rentiels intrins\u00e8ques. Ce formalisme repose sur trois fonctions, la premi\u00e8re permet de calculer le rapport de similarit\u00e9 de deux \u00e9l\u00e9ments en fonction d\u0092une certaine dimension et dans un certain contexte, les deux autres permettent de partitionner un domaine de r\u00e9f\u00e9rence tri\u00e9 par l\u0092utilisation de la premi\u00e8re fonction.","translation":["","In this paper, we show the lack of expressiveness of predicative approaches for extensional reference resolution. This drawback forces dialogue systems designers to develop specific heuristics for solving some reference cases they can\u0092t integrate in a unified representation framework. As we focus on extensional reference resolution in a generic framework for human computer dialogue system, we point the fact that the process of resolving referential expressions needs to take context into account even for expressions involving intrinsic characteristics of elements. Thus we propose a representation model for the semantic of intrinsic referential extractors. This model is built on three functions, the first one serves to calculate the similarity ratio between two elements, the two others serve to partition a reference domain which is previously sorted by the first function.","Reference Resolution, Intrinsic Reference, Functional Approach, Human Computer Dialogue"],"keyphrases":["Approche Fonctionnelle","R\u00e9solution de la R\u00e9f\u00e9rence Intrins\u00e8que","Dialogue Homme Machine"],"prmu":["P","R","M"]} {"id":"recital-2003-long-008","title":"Soci\u00e9t\u00e9 d\u2019agents apprenants et s\u00e9mantique lexicale : comment construire des vecteurs conceptuels \u00e0 l\u2019aide de la double boucle","abstract":"Dans le cadre de la repr\u00e9sentation du sens en TALN, nous d\u00e9veloppons actuellement un syst\u00e8me d\u2019analyse des aspects th\u00e9matiques des textes et de d\u00e9sambigu\u00efsation lexicale bas\u00e9e sur les vecteurs conceptuels. Ces vecteurs visent \u00e0 repr\u00e9senter un ensemble d\u2019id\u00e9es associ\u00e9es \u00e0 tout segment textuel. \u00c0 partir de ce mod\u00e8le, nous avons pos\u00e9 des hypoth\u00e8ses sur la construction des vecteurs. Dans cet article, nous montrons comment ces hypoth\u00e8ses, ainsi que des consid\u00e9rations techniques comme la possibilit\u00e9 de distribuer les t\u00e2ches \u00e0 effectuer ou la modularit\u00e9, nous ont amen\u00e9es \u00e0 adopter une architecture multi-agents. Chaque agent poss\u00e8de un certain nombre de comp\u00e9tences, une m\u00e9moire qui lui est propre et peut interragir avec son environnement (les autres agents). Pour finir, nous pr\u00e9sentons les agents d\u00e9j\u00e0 impl\u00e9ment\u00e9s et un exemple de leur collaboration.","translation":["","In the framework of research in meaning representations in NLP, we focus our attention on thematic aspects and lexical disambiguation based on conceptual vectors. These vectors are supposed to encode \u201cideas\u201d associated to words or expressions. Starting from this model, we have built a number of hypothesis on the construction of vectors. In this article, we show how we adopted a multi-agents architecture using these hypothesis together with some technical considerations such as modularity and tasks distribution. Each agent has some abilities, a memory, and can interact with its environment (the other agents). To conclude, we present implemented agents and an example of their collaboration.","agents society, conceptual vectors, lexical semantic, learning"],"keyphrases":["soci\u00e9t\u00e9s d\u2019agents","s\u00e9mantique lexicale","vecteurs conceptuels","apprentissage"],"prmu":["P","P","P","U"]} {"id":"recital-2003-poster-001","title":"Un \"langage pivot\" pour articuler description et formalisation : l\u2019exemple des verbes introducteurs de \"que-phrases\"","abstract":"Nous pr\u00e9sentons dans cet article une r\u00e9flexion en vue de la mod\u00e9lisation d\u2019une partie du patrimoine descriptif du fran\u00e7ais finalement peu utilis\u00e9 en TALN. Pour ce faire, nous utilisons le concept de langage \"pivot\" qui permet d\u2019articuler la description et la pr\u00e9sentation formalis\u00e9e.","translation":["","This paper presents insights to rewrite in a \"one level\" formal language a part of French descriptive patrimony finally not much employed in NLP. We make use the concept of \"pivot\" language that allows to combine the description of a language and his formalized presentation.","\"pivot\" language, Wh-sentence, description, formalization"],"keyphrases":["description","formalisation","que-phrase","Langage \"pivot\""],"prmu":["P","P","P","P"]} {"id":"recital-2003-poster-002","title":"Un \u00e9tiquetage morphologique pour une r\u00e9solution des ambigu\u00eft\u00e9s morphologiques en anglais","abstract":"Cet article expose la recherche effectu\u00e9e dans le cadre de mon doctorat visant \u00e0 \u00e9laborer un \u00e9tiquetage morphologique de l\u0092anglais et \u00e0 d\u00e9sambigu\u00efser automatiquement les ambigu\u00eft\u00e9s dues \u00e0 la morphologie dans le cadre du projet LABELGRAM [9]. Nous montrons qu\u0092il est tr\u00e8s pertinent et efficace de travailler conjointement sur l\u0092\u00e9tiquetage et la d\u00e9sambigu\u00efsation. Nous d\u00e9crivons de mani\u00e8re pr\u00e9cise notre contribution au syst\u00e8me qui a consist\u00e9 \u00e0 mettre en place la partie anglaise. Pour ce faire, nous avons \u00e9tabli un dictionnaire en intention, nous avons \u00e9valu\u00e9 quantitativement le ph\u00e9nom\u00e8ne d\u0092ambigu\u00eft\u00e9 morphologique et \u00e9tabli la validit\u00e9 de la m\u00e9thode de d\u00e9sambigu\u00efsation par r\u00e8gles contextuelles pour l\u0092anglais.","translation":["","The issue of this paper is to present a morphological tagging of English dedicated to resolve morphological ambiguities within the LABELGRAM project. We show it is useful to work on both fields of NLP at the same time since they make their mutual contribution to each other. To establish the base of the English part of the LABELGRAM software, we completely built up an intention dictionary of the English language, we quantitatively brought the ambiguity to the fore, and we precisely described ambiguous contexts of simple words and proved the context based disambiguation valid for English. Finally we give a tool, useful for many NLP fields, even semantic processing.","English, NLP, morphological tagging, morphological ambiguities, local grammars, context"],"keyphrases":["\u00e9tiquetage morphologique","Anglais","ambigu\u00eft\u00e9s dues \u00e0 la morphologie","TAL","grammaires locales","contexte"],"prmu":["P","P","P","U","U","U"]} {"id":"recital-2003-poster-003","title":"Traitement de la morphologie du finnois par transducteurs \u00e0 nombre fini d\u2019\u00e9tats","abstract":"Cette \u00e9tude pr\u00e9sente un mod\u00e8le pour le traitement de la morphologie du finnois. Ce mod\u00e8le est fond\u00e9 sur des transducteurs \u00e0 nombre fini d\u2019\u00e9tats. L\u2019approche utilise une fa\u00e7on originale d\u2019organiser les donn\u00e9es et de g\u00e9n\u00e9rer dynamiquement une structure s\u00e9mantique \u00e0 partir d\u2019une analyse morphologique. L\u2019approche est linguistiquement valid\u00e9e par une \u00e9tude des suffixes de d\u00e9rivation verbale en finnois.","translation":["","This study presents a model for Finnish morphology processing. This model is based on finite-state machines. The approach uses an original way to structure the data and dynamically generates semantic information from the morphology analysis. The approach is linguistically validated by a study of Finnish verbal suffixes.","Derivation, suffix, finnish, finite state tranducers"],"keyphrases":["finnois","suffixe","D\u00e9rivation","tranducteurs \u00e0 nombre fini d\u2019\u00e9tats"],"prmu":["P","P","P","M"]} {"id":"recital-2003-poster-004","title":"Un outil de repr\u00e9sentation et de d\u00e9veloppement des Grammaires de Propri\u00e9t\u00e9s","abstract":"Nous pr\u00e9sentons dans cet article un outil graphique de d\u00e9veloppement de grammaire, bas\u00e9 sur le formalisme des Grammaires de Propri\u00e9t\u00e9s. Nous y exprimons les raisons pour lesquelles l\u2019association d\u2019une repr\u00e9sentation compl\u00e8te et ergonomique, et d\u2019un mod\u00e8le formel flexible et homog\u00e8ne fournit un avantage consid\u00e9rable pour l\u2019int\u00e9gration des informations issues de la linguistique descriptive.","translation":["","We present in this paper a graphical tool for grammar development, based upon the Property Grammars formalism. We explain the reasons why the association of a complete and ergonomic representation and a neutral and homogeneous model, provides the considerable advantage of integrating information coming from descriptive linguistics.","Descriptive linguistics, Formal linguistics, Property Grammars (PG), Natural Language Processing (NLP), Syntax"],"keyphrases":["Linguistique descriptive","Linguistique formelle","Grammaires de Propri\u00e9t\u00e9s (GP)","Traitement Automatique des Langues Naturelles (TALN)","Syntaxe"],"prmu":["P","R","M","M","U"]} {"id":"recital-2003-poster-005","title":"Annotation s\u00e9mantique hors-source \u00e0 l\u2019aide de vecteurs conceptuels","abstract":"Dans le cadre de la recherche en s\u00e9mantique lexicale, nous utilisons le mod\u00e8le des vecteurs conceptuels pour repr\u00e9senter les sens de termes. La base vectorielle est construite \u00e0 partir de d\u00e9finitions provenant de diverses sources lexicales, ce qui permet statistiquement de temp\u00e9rer les diverses incoh\u00e9rences locales. Pour d\u00e9signer le sens obtenu apr\u00e8s un regroupement des d\u00e9finitions, nous utilisons un identificateur qui entra\u00eene certaines contraintes. En particulier, un \u201ccluster\u201d de d\u00e9finition est d\u00e9sign\u00e9 par une r\u00e9f\u00e9rence vers diff\u00e9rentes d\u00e9finitions de la multisource. D\u2019autre part, le contr\u00f4le de la qualit\u00e9 d\u2019une classification ou d\u00e9sambiguisation de sens impose de faire r\u00e9f\u00e9rence en permanence au lexique source. Nous proposons donc de nommer un sens \u00e0 l\u2019aide d\u2019un autre terme du lexique. L\u2019annotation est un outil l\u00e9ger et efficace qui est essentiellement une association d\u2019id\u00e9es que l\u2019on peut extraire de toute base de connaissance linguistique. Les annotations obtenues peuvent finalement constituer une nouvelle source d\u2019apprentissage pour la base de vecteurs conceptuels.","translation":["","In the framework of research in meaning representation in NLP, we focus our attention on thematic aspects and conceptual vectors. This vectorial base is built by a morphosyntaxic analysis of several lexical resources to reduce isolated problems. Also a meaning is a cluster of definitions that are pointed by an Id number. To check the results of an automatic clustering or WSD, we must refer continously to the source dictionnary. We describe in this article a method for naming a word sens by a term of vocabulary. This kind of annotation is a light and efficient method the uses meanings associations someone or something can extract from any lexical knowledge base. Finally, the annotations should become a new lexical learning resource to improve the vectorial base.","WSD, word sense disambiguation, word sense tagging, annotation"],"keyphrases":["annotation s\u00e9mantique","d\u00e9sambiguisation s\u00e9mantique lexicale"],"prmu":["P","R"]} {"id":"recital-2003-poster-006","title":"Un syst\u00e8me de segmentation du chinois bas\u00e9 sur des triplets","abstract":"Un des probl\u00e8mes rencontr\u00e9s lors de l\u2019analyse de textes en chinois est qu\u2019il n\u2019existe pas de s\u00e9parateur entr\u00e9 l\u00e9s mots dans cette langue. Le mot \u00e9tant une unit\u00e9 linguistique fondamentale en traitement automatique d\u00e9 la langue, il est n\u00e9cessaire d'identifier les mots dans un texte chinois afin que des analys\u00e9s de plus haut niveau puissent \u00eatre r\u00e9alis\u00e9es. Le but de cet article est d\u00e9 pr\u00e9senter un syst\u00e8me d\u2019id\u00e9ntification d\u00e9s mots bas\u00e9 sur un algorithme utilisant des triplets d\u00e9 cat\u00e9gories grammaticales \u00e9t d\u00e9s fr\u00e9quences de mots. C\u00e9 syst\u00e8me comprend deux dictionnaires : l\u2019un d\u00e9di\u00e9 aux mots \u00e9t \u00e0 l\u00e9urs fr\u00e9quences, l\u2019autr\u00e9 aux triplets d\u00e9s cat\u00e9gories correspondantes. Les tests qui ont \u00e9t\u00e9 effectu\u00e9s r\u00e9v\u00e8lent que 98,5% d\u00e9s phrases sont d\u00e9coup\u00e9es correctement. Certaines erreurs sont du\u00e9s \u00e0 la taill\u00e9 limit\u00e9e du dictionnaire utilis\u00e9. Une r\u00e9flexion sur la cr\u00e9ation de nouvelles cat\u00e9gories \u00e9t d\u00e9s \u00e9tudes proposant des r\u00e8gles grammaticales sont en cours de r\u00e9alisation afin d\u2019aug1n\u00e9nter la performance du syst\u00e8me.","translation":["","One of the problems encountered by Chinese texts analysis is that there is no separator between the words in this language. As a fundamental linguistic unit in automatic treatment of the language, word is necessary to be identified in a Chinese text so that higher-level analyses can be carried out. The goal of this work is to develop a system, identifying words, based on an algorithm of triplets of grammatical categories and words frequencies. This system contains two dictionaries. One is dedicated to the words and their frequencies, the other, to the triplets of the corresponding categories. The tests carried out reveal that this system works very well, 98.5% of the sentences are segmented correctly. Thus, a reflection about the creation of new categories and the study proposing the grammatical rules are carrying out to improve the performance of the triplets.","Chinese segmentation, ngrams, statistical approach, maximum matching"],"keyphrases":["segmentation du chinois","Tokenisation","ngrammes","approche statistique","maximum matching"],"prmu":["P","U","U","U","U"]} {"id":"recital-2003-poster-007","title":"Vers une architecture g\u00e9n\u00e9rique de syst\u00e8me de dialogue oral homme-machine","abstract":"Cet article pr\u00e9sente une architecture g\u00e9n\u00e9rique de syst\u00e8me de dialogue oral homme-machine. Premi\u00e8rement, nous abordons quelques probl\u00e8mes soulev\u00e9s par la g\u00e9n\u00e9ricit\u00e9 des syst\u00e8mes de dialogue homme-machine. Nous d\u00e9crivons ensuite dans ce cadre quelques syst\u00e8mes r\u00e9cents et typiques. Nous pr\u00e9sentons finalement une architecture g\u00e9n\u00e9rique pour concevoir\/construire des syst\u00e8mes de dialogue oral homme-machine.","translation":["","In this paper, we present a general architecture for the dialog person-machine system that enables human interacts with a machine via speech\u2019s modality. First, we approach some notions of dialog system, the role of the speech in application, their interests and their limitations. Then, we present some recent, critical dialog person-machine systems and finally, we describe our architecture proposed for designing and constructing the general dialog systems.","Human-machine dialogue system, dialogue management, task management, comprehension, interpretation"],"keyphrases":["Dialogue homme-machine","gestion du dialogue","gestion de la t\u00e2che","compr\u00e9hension","interpr\u00e9tation"],"prmu":["P","M","M","U","U"]} {"id":"recital-2003-poster-008","title":"S\u00e9lection de crit\u00e8res pour le filtrage automatique de messages","abstract":"La plupart des syst\u00e8mes de filtrage du courrier \u00e9lectronique existants enregistrent des lacunes ou faiblesses sur l\u0092efficacit\u00e9 du filtrage. Certains syst\u00e8mes sont bas\u00e9s seulement sur le traitement de la partie structur\u00e9e (un ensemble de r\u00e8gles sur l\u0092ent\u00eate du message), et d\u0092autres sont bas\u00e9s sur un balayage superficiel de la partie texte du message (occurrence d\u0092un ensemble de mots cl\u00e9s d\u00e9crivant les int\u00e9r\u00eats de l\u0092utilisateur). Cet article propose une double am\u00e9lioration de ces syst\u00e8mes. D\u0092une part, nous proposons un ensemble de crit\u00e8res automatisables et susceptibles d\u0092influer sur le processus de filtrage. Ces crit\u00e8res sont des indices qui portent g\u00e9n\u00e9ralement sur la structure et le contenu des messages. D\u0092autre part, nous utilisons une m\u00e9thode d\u0092apprentissage automatique permettant au syst\u00e8me d\u0092apprendre \u00e0 partir de donn\u00e9es et de s\u0092adapter \u00e0 la nature des mails dans le temps. Dans cet article, nous nous int\u00e9ressons \u00e0 un type de messages bien particulier, qui continue \u00e0 polluer nos bo\u00eetes emails de fa\u00e7on croissante : les messages ind\u00e9sirables, appel\u00e9s spam. Nous pr\u00e9sentons \u00e0 la fin les r\u00e9sultats d\u0092une exp\u00e9rience d\u0092\u00e9valuation.","translation":["","Most of existing filtering messages systems exhibit weaknesses in term of efficiency. In fact, there are systems that use only message header information and others use a superficial processing of message body. In this paper, we try to improve the filtering processes efficiency. First, we introduce a set of criteria which are cues related to the message structure and content. Second, we use a machine learning method allowing the system to learn from data and to adapt to the email nature. We are interested in a special type of messages that continuously poluate our email boxes: spam email. At the end, to measure the approach performances, we illustrate and discuss the results obtained by experimental evaluations.","Information filtering, e-mail, neural network, learning, e-mail filtering, spam"],"keyphrases":["spam","Filtrage d\u0092information","e-mail","r\u00e9seaux de neurones","apprentissage"],"prmu":["P","M","U","M","U"]} {"id":"recital-2004-long-001","title":"Syst\u00e8me de Question R\u00e9ponse : apport de l\u2019analyse syntaxique lors de l\u2019extraction de la r\u00e9ponse","abstract":"Dans cet article, nous pr\u00e9sentons le syst\u00e8me de Question R\u00e9ponse QALC, et nous nous int\u00e9ressons tout particuli\u00e8rement \u00e0 l\u2019extraction de la r\u00e9ponse. Un appariement question-r\u00e9ponse fond\u00e9 sur les relations syntaxiques a \u00e9t\u00e9 d\u00e9velopp\u00e9, afin d\u2019am\u00e9liorer les performances du syst\u00e8me. Un projet de g\u00e9n\u00e9ration de r\u00e9ponses \u00e0 partir de plusieurs documents est \u00e9galement discut\u00e9.","translation":["","In this paper, we present the question answering system QALC, and we particularly focus on the answer extraction. A question and answer matching based on syntactic relations has been developed, in order to improve the results of our system. A project aiming at fusing answers from several documents is also discussed.","Question answering system, syntactic analysis, document fusion"],"keyphrases":["Syst\u00e8me de Question R\u00e9ponse","analyse syntaxique","fusion de documents"],"prmu":["P","P","M"]} {"id":"recital-2004-long-002","title":"Acquisition de relations lexicales d\u00e9sambigu\u00efs\u00e9es \u00e0 partir du Web","abstract":"Nous montrons dans cet article qu\u2019un pr\u00e9-\u00e9tiquetage des usages des mots par un algorithme de d\u00e9sambigu\u00efsation tel qu\u2019HyperLex (V\u00e9ronis, 2003, 2004) permet d\u2019obtenir des relations lexicales (du type NOM-ADJECTIF, NOM de NOM, NOM-VERBE) beaucoup plus exploitables, parce qu\u2019elles-m\u00eames cat\u00e9goris\u00e9es en fonction des usages. De plus, cette technique permet d\u2019obtenir des relations pour des usages tr\u00e8s peu fr\u00e9quents, alors qu\u2019une extraction indiff\u00e9renci\u00e9e \u00ab noie \u00bb ces relations au milieu de celles correspondant aux usages les plus fr\u00e9quents. Nous avons conduit une \u00e9valuation sur un corpus de plusieurs milliers de pages Web comportant l\u2019un des 10 mots-cibles tr\u00e8s polys\u00e9miques choisis pour cette exp\u00e9rience, et nous montrons que la pr\u00e9cision obtenue est tr\u00e8s bonne, avec un rappel honorable, suffisant en tout cas pour de nombreuses applications. L\u2019analyse des erreurs ouvre des perspectives d\u2019am\u00e9liorations pour la suite de notre travail de th\u00e8se.","translation":["","This study shows that a pre-labeling of word uses by means of a disambiguation algorithm such as HyperLex (V\u00e9ronis, 2003, 2004) allows a better extraction of lexical relations (NOUNADJECTIVE, NOUN \u201cde\u201d NOUN, NOUN-VERB, etc.), since these relations are categorised with respect to word use. In addition, this technique enables us to retrieve relations for very infrequent word uses, which otherwise would be buried in the residual noise corresponding to the most frequent uses. We performed an evaluation on several thousand web pages containing a target word among a set of 10 highly polysemic ones. We show that the precision obtained is very good, with a quite honourable recall, sufficient in any case for many applications. The analysis of errors opens avenues of research for the rest of our PhD work.","Corpus, lexical relations, automatic acquisition, word sense disambiguation"],"keyphrases":["relations lexicales","Corpus","acquisition automatique","d\u00e9sambigu\u00efsation lexicale"],"prmu":["P","P","M","R"]} {"id":"recital-2004-long-003","title":"Indexation automatique de ressources de sant\u00e9 \u00e0 l\u2019aide d\u2019un vocabulaire contr\u00f4l\u00e9","abstract":"Nous pr\u00e9sentons ici le syst\u00e8me d\u2019indexation automatique actuellement en cours de d\u00e9veloppement dans l\u2019\u00e9quipe CISMeF afin d\u2019aider les documentalistes lors de l\u2019indexation de ressources de sant\u00e9. Nous d\u00e9taillons l\u2019architecture du syst\u00e8me pour l\u2019extraction de mots cl\u00e9s MeSH, et pr\u00e9sentons les r\u00e9sultats d\u2019une premi\u00e8re \u00e9valuation. La strat\u00e9gie d\u2019indexation choisie atteint une pr\u00e9cision comparable \u00e0 celle des syst\u00e8mes existants. De plus, elle permet d\u2019extraire des paires mot cl\u00e9\/qualificatif, et non des termes isol\u00e9s, ce qui constitue une indexation beaucoup plus fine. Les travaux en cours s\u2019attachent \u00e0 \u00e9tendre la couverture des dictionnaires, et des tests \u00e0 plus grande \u00e9chelle sont envisag\u00e9s afin de valider le syst\u00e8me et d\u2019\u00e9valuer sa valeur ajout\u00e9e dans le travail quotidien des documentalistes.","translation":["","This paper presents the automatic indexing system currently developed in the CISMeF team to assist human indexers. The system architecture, using the INTEX platform for MeSH term extraction is detailed. The results of a preliminary experiment indicate that the automatic indexing strategy is relevant, as it achieves a precision comparable to that of other existing operational systems. Moreover, the system presented in this paper retrieves keyword\/qualifier pairs as opposed to single terms, therefore providing a significantly more precise indexing. Further development and tests will be carried out in order to improve the coverage, and validate the efficiency of the system in the librarians\u2019 everyday work.","Automatic Indexing, Medical terminology, Controlled Vocabulary"],"keyphrases":["Indexation Automatique","Vocabulaire Contr\u00f4l\u00e9","Terminologie M\u00e9dicale"],"prmu":["P","P","U"]} {"id":"recital-2004-long-004","title":"Appariement bilingue de mots par propagation syntaxique \u00e0 partir de corpus fran\u00e7ais\/anglais align\u00e9s","abstract":"Nous pr\u00e9sentons une m\u00e9thode d\u2019appariement de mots, \u00e0 partir de corpus fran\u00e7ais\/anglais align\u00e9s, qui s\u2019appuie sur l\u2019analyse syntaxique en d\u00e9pendance des phrases. Tout d\u2019abord, les mots sont appari\u00e9s \u00e0 un niveau global gr\u00e2ce au calcul des fr\u00e9quences de cooccurrence dans des phrases align\u00e9es. Ces mots constituent les couples amorces qui servent de point de d\u00e9part \u00e0 la propagation des liens d\u2019appariement \u00e0 l\u2019aide des diff\u00e9rentes relations de d\u00e9pendance identifi\u00e9es par un analyseur syntaxique dans chacune des deux langues. Pour le moment, cette m\u00e9thode dite d\u2019appariement local traite majoritairement des cas de parall\u00e9lisme, c\u2019est-\u00e0-dire des cas o\u00f9 les relations syntaxiques sont identiques dans les deux langues et les mots appari\u00e9s de m\u00eame cat\u00e9gorie. Elle offre un taux de r\u00e9ussite de 95,4% toutes relations confondues.","translation":["","We present a word alignment procedure based on a syntactic dependency analysis of French\/English parallel corpora. First, words are associated at a global level by comparing their co-occurrences in aligned sentences with respect to their overall occurrences in order to derive a set of anchor words. The anchor words are the starting point of the propagation process of alignment links using the different syntactic relations identified by a parser for each language. This process is called the local alignment. For the moment, it is performed basically when the syntactic relations are identical in both languages and the words aligned have the same part of speech. This method achieves a precision rate of 95,4% all syntactic relations taken into account.","syntactic word alignment, parallel corpora, natural language processing"],"keyphrases":["appariement syntaxique de mots","corpus parall\u00e8le","traitement automatique des langues naturelles"],"prmu":["R","R","M"]} {"id":"recital-2004-long-005","title":"Quelques principes pour une grammaire multimodale non-modulaire du fran\u00e7ais","abstract":"Dans cet article, nous introduisons une approche de la repr\u00e9sentation et de l\u2019analyse des discours multimodaux, bas\u00e9e sur un traitement unimodulaire par contraintes. Le but de cet article est de pr\u00e9senter (i) un syst\u00e8me de repr\u00e9sentation des donn\u00e9es et (ii) une m\u00e9thode d\u2019analyse, permettant une interaction simplifi\u00e9e entre les diff\u00e9rentes modalit\u00e9s de communication. L\u2019avantage de cette m\u00e9thode est qu\u2019elle permet la prise en compte rigoureuse d\u2019informations communicatives de natures diverses en un traitement unique, gr\u00e2ce \u00e0 une repr\u00e9sentation homog\u00e8ne des objets, de leurs relations, et de leur m\u00e9thode d\u2019analyse, selon le mod\u00e8le des Grammaires de Propri\u00e9t\u00e9s.","translation":["","In this paper, we introduce an approach to multimodal discourse representation and analysis, based on a unimodular constraint-based treatment. The aim of this paper is to present (i) a data representation system, and (ii) an analysis method, which allow a simple interaction between the various modalities of communication. The advantage of this method is that it allows to rigorously take into account multi-character information within a single treatment, thanks to a homogeneous representation of the objects, of their relations, and of their analysis method, according to the Property Grammars formalism.","Multimodal analysis, Formal linguistics, Grammar development, Property Grammars"],"keyphrases":["Grammaires de Propri\u00e9t\u00e9s","Analyse multimodale","Linguistique formelle","D\u00e9veloppement de grammaire"],"prmu":["P","R","U","M"]} {"id":"recital-2004-long-006","title":"L'annotation syntaxique de corpus oraux constitue-t-elle un probl\u00e8me sp\u00e9cifique ?","abstract":"Dans cet article, nous pr\u00e9sentons une typologie des ph\u00e9nom\u00e8nes qui posent probl\u00e8me pour l'annotation syntaxique de corpus oraux. Nous montrons \u00e9galement que ces ph\u00e9nom\u00e8nes, m\u00eame s'ils y sont d'une fr\u00e9quence moindre, sont loin d'\u00eatre absents \u00e0 l'\u00e9crit (ils peuvent m\u00eame \u00eatre tout \u00e0 fait significatifs dans certains corpus : e-mails, chats, SMS\u2026), et que leur prise en compte peut am\u00e9liorer l'annotation et fournir un cadre int\u00e9gr\u00e9 pour l'oral et l'\u00e9crit.","translation":["","In this paper, we present a typology of the phenomena that create problems for the syntactic tagging of spoken corpora. We also show that these phenomena, although less frequent, are far from being absent in written language (they can even be quite significant in some corpora: e-mails, chats, SMS\u2026). Taken them into account can improve the annotation and provide a unified analysis framework for both spoken and written data.","Syntactic annotation, spoken corpora, reference annotation"],"keyphrases":["Annotation syntaxique","corpus oraux","NFCE","annotation de r\u00e9f\u00e9rence"],"prmu":["P","P","U","M"]} {"id":"recital-2004-long-007","title":"Automates lexicaux avec structure de traits","abstract":"Nous pr\u00e9sentons les automates lexicaux avec structure de traits, une extension du mod\u00e8le des automates finis sur le mots dans lesquels les transitions sont \u00e9tiquet\u00e9es par des motifs qui s\u00e9lectionnent un sous-ensemble des mots \u00e9tiquet\u00e9s en fonction de leurs traits positionn\u00e9s. Nous montrons l\u2019ad\u00e9quation de ce mod\u00e8le avec les ressources linguistiques dont nous disposons et nous exposons les grandes lignes de nos m\u00e9thodes pour effectuer des op\u00e9rations telles que la d\u00e9terminisation, l\u2019intersection ou la compl\u00e9mentation sur ces objets. Nous terminons en pr\u00e9sentant une application concr\u00e8te de ces m\u00e9thodes pour la lev\u00e9e d\u2019ambigu\u00eft\u00e9s lexicales par intersection d\u2019automates \u00e0 l\u2019aide de contraintes locales.","translation":["","We present an extension to finite automata on words in which transitions are labeled with lexical masks describing a subset of their alphabet. We first show the connection between this model and our linguitic data and we present our implementation of classical automata operations on these objects. Then we show a concrete application of our methods to lexical disambiguation making use of grammatical constraints described in local grammars.","finite state automata, local grammar, electronic dictionnary, disambiguation, lexicon-grammar"],"keyphrases":["automates finis","lev\u00e9e d\u2019ambigu\u00eft\u00e9s","grammaire locale","dictionnaire \u00e9lectronique","lexique-grammaire"],"prmu":["P","P","M","U","U"]} {"id":"recital-2004-long-008","title":"G\u00e9om\u00e9triser le sens","abstract":"Les recherches en s\u00e9mantique lexicale s\u2019appuient de plus en plus sur des ressources \u00e9lectroniques de grande taille (dictionnaires informatis\u00e9s, corpus, ontologies) \u00e0 partir desquelles on peut obtenir diverses relations s\u00e9mantiques entre unit\u00e9s lexicales. Ces relations sont naturellement mod\u00e9lis\u00e9es par des graphes. Bien qu'ils d\u00e9crivent des ph\u00e9nom\u00e8nes lexicaux tr\u00e8s diff\u00e9rents, ces graphes ont en commun des caract\u00e9ristiques bien particuli\u00e8res. On dit qu\u2019ils sont de type petit monde. Nous voulons mener une \u00e9tude th\u00e9orique math\u00e9matique et informatique de la structure de ces graphes pour le lexique. Il s\u2019agit de les g\u00e9om\u00e9triser afin de faire appara\u00eetre l'organisation du lexique, qui est implicitement encod\u00e9e dans leur structure. Les outils mis en place sont test\u00e9s sur le graphe du dictionnaire \u00e9lectronique des synonymes (www.crisco.unicaen.fr). Ils constituent une extension du logiciel Visusyn d\u00e9velopp\u00e9 par Ploux et Victorri (1998).","translation":["","Research in lexical semantics tends to rely on large-scale electronic language resources (machine-readable dictionaries, corpora, ontologies), from which one can get varied semantic relationships between lexical units. Such relationships are naturally modelled by graphs. Although they describe different lexical phenomena, these graphs share some very specific characteristics. They are called \"small worlds\". We want to carry out a theoretical mathematical and informatic study of these graphs. The point is to geometrise them in order to reveal the organisation of the lexicon that is encoded in their structure. The tools we developed are tested on the graph of the electronic dictionary of synonyms (www.crisco.unicaen.fr). They represent an extension of Visusyn, the software developed by Ploux and Victorri (1998).","Lexicon, Semantic space, synonymy, graph, small world"],"keyphrases":["Lexique","synonymie","espace s\u00e9mantique","graphes petit monde"],"prmu":["P","P","M","R"]} {"id":"recital-2004-poster-001","title":"ICHARATE : Un Atelier Logique pour les Grammaires Multimodales","abstract":"Cet article pr\u00e9sente le projet de l\u2019atelier logique ICHARATE d\u00e9di\u00e9 \u00e0 l\u2019\u00e9tude des grammaires cat\u00e9gorielles multimodales. Cet atelier se pr\u00e9sente sous la forme de biblioth\u00e8ques pour l\u2019assistant de preuves Coq.","translation":["","",""],"keyphrases":["grammaires cat\u00e9gorielles","assistant de preuves","analyse syntaxique","th\u00e9orie des types"],"prmu":["P","P","U","M"]} {"id":"recital-2004-poster-002","title":"De la lexie au vocable : la repr\u00e9sentation formelle des liens de polys\u00e9mie","abstract":"Cet article s\u2019int\u00e9resse aux d\u00e9finitions formalis\u00e9es de la base de donn\u00e9es BD\u00e9f et montre en quoi la structure formelle de ces d\u00e9finitions est \u00e0 m\u00eame d\u2019offrir une repr\u00e9sentation originale de la polys\u00e9mie lexicale.","translation":["","This article deals with formal structure of BD\u00e9f\u2019s definitions and shows in what way this structure is appropriate to offer an original representation of the lexical polysemy phenomenon.","ECL, formalised electronical dictionnary, structure of the definition, NLP"],"keyphrases":["LEC","dictionnaire \u00e9lectronique formalis\u00e9","structure d\u00e9finitionnelle","TAL"],"prmu":["U","M","M","U"]} {"id":"recital-2004-poster-003","title":"Syst\u00e8me d'extraction d'information d\u00e9di\u00e9 \u00e0 la veille Qui est qui? Qui fait quoi? O\u00f9? Quand? Comment?","abstract":"Dans cet article nous pr\u00e9sentons un outil d\u2019extraction d\u2019information d\u00e9di\u00e9 \u00e0 la veille qui r\u00e9pond \u00e0 un certain nombre de requ\u00eates formul\u00e9es par l'utilisateur, en combinant la puissance des outils et les ressources informatiques \u00e0 une analyse linguistique. Cette analyse linguistique permet le rep\u00e9rage des entit\u00e9s nomm\u00e9es (acteurs, lieux, temps,\u2026) ainsi que la mise en relation des acteurs avec leur environnement dans l'espace et le temps au moyen d'indices d\u00e9clencheurs, d\u2019indices compl\u00e9mentaires et de r\u00e8gles qui les combinent, c'est le principe de l'Exploration Contextuelle. Les r\u00e9sultats capitalis\u00e9s dans des fichiers XML, sont propos\u00e9s par le biais d\u2019une interface, soit sous forme de graphes soit sous forme de base d'informations.","translation":["","In this article we present an information extraction tool which answers a certain number of requests formulated by the user, by combining data-processing with a linguistic analysis. This linguistic analysis allows the location of the named entities (actors, places, time...) thus the relations between actors and their environments in space and time by means of indices, indicators and rules which combine them, it is the principle of Contextual Exploration. The results capitalized in XML files are presented in an interface, either in the form of graphs or in the form of databases.","Semantic classes, Information Extraction, Contextual Exploration, Resources, Semantic network"],"keyphrases":["Extraction d\u2019information","Ressources","Exploration Contextuelle","Classes s\u00e9mantiques","R\u00e9seau s\u00e9mantique"],"prmu":["P","P","P","U","U"]} {"id":"recital-2004-poster-004","title":"D\u00e9veloppement d\u2019un syst\u00e8me de R\u00e9sum\u00e9 automatique de Textes Juridiques","abstract":"Nous d\u00e9crivons notre m\u00e9thode de production automatique du r\u00e9sum\u00e9 de textes juridiques. C\u2019est une nouvelle application du r\u00e9sum\u00e9 qui permet aux juristes de consulter rapidement les id\u00e9es cl\u00e9s d\u2019une d\u00e9cision juridique pour trouver les jurisprudences pertinentes \u00e0 leurs besoins. Notre approche est bas\u00e9e sur l\u2019exploitation de l\u2019architecture des documents et les structures th\u00e9matiques, afin de constituer automatiquement des fiches de r\u00e9sum\u00e9 qui augmentent la coh\u00e9rence et la lisibilit\u00e9 du r\u00e9sum\u00e9. Dans cet article nous d\u00e9taillons les conceptions des diff\u00e9rentes composantes du syst\u00e8me, appel\u00e9 LetSum et le r\u00e9sultat d\u2019\u00e9valuation.","translation":["","We describe our method for dealing with automatic summarization techniques in the legal domain. This new application of summary helps a legal expert determine the key ideas of a judgement. Our approach is based on the exploration of the document\u2019s architecture and its thematic structures, in order to build a table style summary, which improves coherency and readability in the summary. We present the components of a system, called LetSum, built with this approach and some preliminary results of the evaluation.","Automatic text summarization, summary table, topic segmentation, legals texts"],"keyphrases":["R\u00e9sum\u00e9 automatique","textes juridiques","fiches de r\u00e9sum\u00e9","segmentation th\u00e9matique"],"prmu":["P","P","P","M"]} {"id":"recital-2004-poster-005","title":"M\u00e9thodes statistiques et apprentissage automatique pour l\u2019\u00e9valuation de requ\u00eates en recherche documentaire","abstract":"Pour la recherche documentaire il est souvent int\u00e9ressant d\u2019avoir une bonne mesure de confiance dans les r\u00e9ponses trouv\u00e9es par le moteur de recherche. Une bonne estimation de pertinence peut permettre de faire un choix entre plusieurs r\u00e9ponses (venant \u00e9ventuellement de diff\u00e9rents syst\u00e8mes), d\u2019appliquer des m\u00e9thodes d\u2019enrichissement additionnelles selon les besoins, ou encore de permettre \u00e0 l\u2019utilisateur de prendre des d\u00e9cisions (comme d\u2019approfondir la recherche \u00e0 travers un dialogue). Nous proposons une m\u00e9thode permettant de faire une telle estimation, utilisant des connaissances extraites d\u2019un ensemble de requ\u02c6etes connues pour en d\u00e9duire des pr\u00e9dictions sur d\u2019autres requ\u02c6etes pos\u00e9es au syst\u00e8me de recherche documentaire.","translation":["","In document retrieval applications it is often interesting to have a measure of confidence in the answers found by the retrieval system. A good relevance estimation can allow us to make a choice between different answers (possibly provided by different sources), apply additional expansion techniques according to the specific needs, or enable the user to make decisions (such as to refine the search interactively). We propose a method that allows us to make such estimations, using knowledge extracted from a known query corpus to deduce predictions on new queries presented to the document retrieval system.","automatic learning\/decision, document retrieval, query expansion, difficulty evaluation"],"keyphrases":["recherche documentaire","apprentissage\/d\u00e9cision automatique","expansion de requ\u00eates","\u00e9valuation de difficult\u00e9"],"prmu":["P","M","M","M"]} {"id":"recital-2004-poster-006","title":"Mot vide, mot plein ? Comment trancher localement","abstract":"Nous pr\u00e9sentons une m\u00e9thode multilingue de cat\u00e9gorisation en mot vide \/ mot plein \u00e0 partir de corpus brut. Cette m\u00e9thode fait appel \u00e0 des propri\u00e9t\u00e9s tr\u00e8s g\u00e9n\u00e9rales des langues ainsi qu\u2019\u00e0 des techniques issues de la communaut\u00e9 de la fouille de donn\u00e9es.","translation":["","We are presenting a NLP multilingual method for function word \/ content word categorization using no other resource than the raw text itself. This method uses very general linguistic properties and also engineering from data mining community.","Multilingual NLP, function words discovery, stop-list alternation, rules and frequent pattern mining"],"keyphrases":["Traitements multilingues","d\u00e9couverte de mots vides","alternative \u00e0 une stop-list","extraction de r\u00e8gles et de motifs fr\u00e9quents"],"prmu":["M","M","M","M"]} {"id":"recital-2004-poster-007","title":"G\u00e9n\u00e9ration s\u00e9mantico-syntaxique pour la traduction automatique bas\u00e9e sur une architecture interlingue","abstract":"Dans cet article, nous pr\u00e9sentons un processus de g\u00e9n\u00e9ration s\u00e9mantico-syntaxique con\u00e7u et mis en oeuvre dans la r\u00e9alisation d\u2019un prototype de traduction automatique bas\u00e9e sur le mod\u00e8le \u00e0 structure interm\u00e9diaire (ou structure pivot). Dans une premi\u00e8re partie de l\u2019article, nous pr\u00e9sentons l\u2019organisation des ressources lexicales et s\u00e9mantiques multilingues, ainsi que les m\u00e9canismes permettant d\u2019exploiter ces ressources pour produire une repr\u00e9sentation conceptuelle du sens de la phrase source. Dans une seconde partie, nous pr\u00e9sentons la premi\u00e8re phase de g\u00e9n\u00e9ration \u00e0 partir d\u2019une structure pivot (g\u00e9n\u00e9ration S\u00e9mantico-Syntaxique) permettant la construction d\u2019une structure syntaxique profonde de la phrase cible \u00e0 produire. Les autres phases de g\u00e9n\u00e9ration ne seront pas abord\u00e9es dans cet article.","translation":["","This paper aims to present a method for the semantic-syntactic generation that has been proposed to build a machine translation prototype based on the interlingua translation model. The first part of the paper introduces the multilingual lexical and semantical resources, and the way they are used to build conceptual representations of the meaning of source sentences. The following part of the paper presents the first step in generating the target text from the conceptual representation (semantic-syntactic generation) which results on a deep syntactic structure of the targeted text. The other steps of the generation process will not be discussed in this paper.","Machine Translation, Interlingual architecture, lexical semantics, semantic-syntactic generation, deep syntactic structure"],"keyphrases":["Traduction Automatique","Architecture interlingue","structure syntaxique profonde","s\u00e9mantique lexicale","G\u00e9n\u00e9ration s\u00e9manticosyntaxique"],"prmu":["P","P","P","R","M"]} {"id":"recital-2004-poster-008","title":"Reconnaissance automatique des adjectifs durs et des adverbes r\u00e9guliers lors de l\u2019analyse morphologique automatique du slovaque","abstract":"L\u2019analyse morphologique automatique du slovaque constitue la premi\u00e8re \u00e9tape d\u2019un syst\u00e8me d\u2019analyse automatique du contenu des textes scientifiques et techniques slovaques. Un tel syst\u00e8me pourrait \u00eatre utilis\u00e9 par des applications telles que l\u2019indexation automatique des textes, la recherche automatique de la terminologie ou par un syst\u00e8me de traduction. Une description des r\u00e9gularit\u00e9s de la langue par un ensemble de r\u00e8gles ainsi que l\u2019utilisation de tous les \u00e9l\u00e9ments au niveau de la forme du mot qui rendent possible son interpr\u00e9tation permettent de r\u00e9duire d\u2019une mani\u00e8re consid\u00e9rable le Volume des dictionnaires. Notamment s\u2019il s\u2019ag\u00eet d\u2019une langue \u00e0 flexion tr\u00e8s riche, comme le slovaque. La reconnaissance automatique des adjectifs durs et des adverbes r\u00e9guliers constitue la partie la plus importante de nos travaux. Les r\u00e9sultats que nous obtenons lors de l\u2019analyse morphologique confirment la faisabilit\u00e9 et la grande fiabilit\u00e9 d\u2019une analyse morphologique bas\u00e9e sur la reconnaissance des formes et ceci pour toutes les cat\u00e9gories lexicales.","translation":["","Automatic morphological analysis of Slovak language is the first level of an automatic analyser for Slovak scientific and technical texts. Such a system could be used for different applications: automatic text indexation, automatic research of terminology or translation systems. Rule-based descriptions of language regularities as Well as the use of all the formal level elements of Words allow reducing considerably the volume of dictionaries. Notably in case of inflectionally rich languages such as Slovak. The most important part of our research is the automatic recognition of adjectives and regular adverbs. The results obtained by our morphological analyser justify such an approach and confirm the high reliability of morphological analysis based on form-recognition for all lexical categories.","Natural Language Processing of Slovak, Morphological Analysis, Inflectional Morphology, Derivational Morphology"],"keyphrases":["Analyse morphologique","Traitement automatique du slovaque","Morphologie flexionnelle","Morphologie d\u00e9rivationnelle"],"prmu":["P","M","M","M"]} {"id":"recital-2004-poster-009","title":"Traitement informatique de l\u2019inflexion dans le Lunaf, dictionnaire \u00e9lectronique du luxembourgeois","abstract":"Afin de g\u00e9n\u00e9rer les formes fl\u00e9chies des noms luxembourgeois dans le dictionnaire luxembourgeois, nous utilisons un code flexionnel. Ce code s\u2019\u00e9tant r\u00e9v\u00e9l\u00e9 trop contraignant pour traiter l\u2019inflexion (alternance vocalique\/Umlaut), nous pr\u00e9sentons ici un moyen efficace pour coder ce ph\u00e9nom\u00e8ne. La pertinence de ce type de code est double. D\u2019une part, il correspond mieux aux besoins du linguiste qui aimerait \u00e9tablir des classes flexionnelles naturelles sans trop de contraintes informatiques. D\u2019autre part, il permet de r\u00e9duire significativement le nombre de classes flexionnelles. Le dictionnaire \u00e9lectronique luxembourgeois dispose ainsi de deux codes qui peuvent se combiner entre eux pour mieux traiter les particularit\u00e9s morphologiques des mots luxembourgeois.","translation":["","In order to generate the inflected forms of the Luxemburgish nouns in the Luxemburgish dictionary, we use a flexional. This code having proved to be too constraining to treat the inflection (vocalic alternation\/Umlaut), we present here an effective means to encode this phenomenon. The relevance of this code is two-fold. On the one hand, it corresponds better to the needs of the linguist who would like to establish natural flexional classes without too many data-processing constraints. In addition, it reduces the number of flexional classes significantly. The Luxemburgish dictionary has thus two codes which can be combined for a better processing of the morphological characteristics of the Luxemburgish words.","vowel inflection, encoding, automatic generation, Luxemburgish"],"keyphrases":["luxembourgeois","inflexion vocalique","codage","g\u00e9n\u00e9ration automatique"],"prmu":["P","R","U","M"]} {"id":"recital-2004-poster-010","title":"Nouvelle m\u00e9thode syntagmatique de vectorisation appliqu\u00e9e au self-organizing map des textes vietnamiens","abstract":"Par ses caract\u00e9ristiques \u00e9minentes dans la pr\u00e9sentation des donn\u00e9es, Self-Organizing Map (SOM) est particuli\u00e8rement convenable \u00e0 l\u2019organisation des cartes. SOM se comporte d\u2019un ensemble des vecteurs prototypes pour repr\u00e9senter les donn\u00e9es d\u2019entr\u00e9e, et fait une projection, en conservant la topologie, \u00e0 partir des vecteurs prototypes de n-dimensions sur une carte de 2-dimensions. Cette carte deviendra une vision qui refl\u00e8te la structure des classes des donn\u00e9es. Nous notons un probl\u00e8me crucial pour SOM, c\u2019est la m\u00e9thode de vectorisation des donn\u00e9es. Dans nos \u00e9tudes, les donn\u00e9es se pr\u00e9sentent sous forme des textes. Bien que le mod\u00e8le g\u00e9n\u00e9ral du SOM soit d\u00e9j\u00e0 cr\u00e9\u00e9, il nous faut de nouvelles recherches pour traiter des langues sp\u00e9cifiques, comme le vietnamien, qui sont de nature assez diff\u00e9rente de l\u2019anglais. Donc, nous avons appliqu\u00e9 la conception du syntagme pour \u00e9tablir un algorithme qui est capable de r\u00e9soudre ce probl\u00e8me.","translation":["","",""],"keyphrases":["syntagme","Self-Organizing Map","text mining","classification","vectorisation du texte","\u00e9valuation visuelle"],"prmu":["P","P","M","U","R","U"]} {"id":"recital-2004-poster-011","title":"Repr\u00e9sentation compositionnelle de la s\u00e9mantique de aussi","abstract":"L\u2019objectif de notre travail est de d\u00e9gager une repr\u00e9sentation formelle compositionnelle de la contribution s\u00e9mantique de aussi lorsqu\u2019il a une valeur additive. Plusieurs probl\u00e8mes de compositionnalit\u00e9, li\u00e9s surtout \u00e0 la diversit\u00e9 des arguments concern\u00e9s par l\u2019adverbe, vont se poser. Nous proposons une alternative compositionnelle \u00e0 la repr\u00e9sentation propos\u00e9e initialement en l-DRT.","translation":["","The aim is to find a compositional formal representation to the French adverb aussi when it has an additive meaning. The variety of arguments of the adverb entails several problems of compositionality. Given the l-DRT representation is problematic, we try to propose an other one, compositional too.","Semantics, l-DRT, presupposition, compositionality"],"keyphrases":["S\u00e9mantique","compositionnalit\u00e9","l-DRT","pr\u00e9supposition"],"prmu":["P","P","P","U"]} {"id":"recital-2004-poster-012","title":"La Transcription Orthographique-Phonetique De La Langue Arabe","abstract":"Notre article pr\u00e9sente les composants n\u00e9cessaires \u00e0 la synth\u00e8se de la parole arabe. Nous nous attarderons sur la transcription graph\u00e8me phon\u00e8me, \u00e9tape primordiale pour l\u2019\u00e9laboration d\u2019un syst\u00e8me de synth\u00e8se d\u2019une qualit\u00e9 acceptable. Nous pr\u00e9senterons ensuite quelques-unes des r\u00e8gles utilis\u00e9es pour la r\u00e9alisation de notre syst\u00e8me de traitement phon\u00e9tique. Ces r\u00e8gles sont, pour notre syst\u00e8me, stock\u00e9es dans une base de donn\u00e9es et sont parcourues plusieurs fois lors de la transcription.","translation":["","Our paper presents the components which are necessary for the arabic speech synthesis. We will dwell on the transcription graph\u00e8me phoneme, a primordial stage for the development of a synthesis system with an acceptable quality. Then, we will present some of the rules used for the realization of our phonetic treatment system. These rules are, for our system, stocked in a data base and are browsed several times during the transcription.","Grapheme-phoneme transcription, Arabic language, transcription rules"],"keyphrases":["langue arabe","Transcription graph\u00e8me-phon\u00e8me","r\u00e8gles de transcription"],"prmu":["P","M","R"]} {"id":"recital-2004-poster-014","title":"Un syst\u00e8me adaptable pour l\u2019initialisation automatique d\u2019une base lexicale interlingue par acceptions","abstract":"Cet article pr\u00e9sente une strat\u00e9gie de construction semi-automatique d\u2019une base lexicale interlingue par acception, \u00e0 partir de ressources existantes, qui utilise en synergie des techniques existantes de d\u00e9sambigu\u00efsation. Les apports et limitations de chaque technique sont pr\u00e9sent\u00e9s. Notre proposition est de pouvoir composer arbitrairement des techniques, en fonction des ressources disponibles, afin d\u2019obtenir une base interlingue de la qualit\u00e9 souhait\u00e9e. Jeminie, un syst\u00e8me adaptable qui met en oeuvre cette strat\u00e9gie, est introduit dans cet article.","translation":["","This article presents a strategy for the semi-automatic building of an interlingual lexical database, based on existing resources, and using existing disambiguisation techniques in synergy. The pros and cons of each technique are given. Our proposal is to be able to compose techniques arbitrarily, according to the available resources, in order to produce an interlingual database of the desired quality. Jeminie, an adaptable system that implements this strategy, is introduced in this article.","multilingual lexical database, automatic building of lexies and axies, interlingual acception"],"keyphrases":["base lexicale multilingue","construction automatique de lexies et axies","acception interlingue"],"prmu":["M","M","R"]} {"id":"recital-2004-poster-015","title":"Analyse syntaxique et granularit\u00e9 variable","abstract":"Il est souhaitable qu\u2019une analyse syntaxique -en traitement automatique des langues naturellessoit r\u00e9alis\u00e9e avec plus ou moins de pr\u00e9cision en fonction du contexte, c\u2019est-\u00e0-dire que sa granularit\u00e9 soit r\u00e9glable. Afin d\u2019atteindre cet objectif, nous pr\u00e9sentons ici des \u00e9tudes pr\u00e9liminaires permettant d\u2019appr\u00e9hender les contextes technique et scientifique qui soul\u00e8vent ce probl\u00e8me. Nous \u00e9tablissons un cadre pour les d\u00e9veloppements \u00e0 r\u00e9aliser. Plusieurs types de granularit\u00e9 sont d\u00e9finis. Puis nous d\u00e9crivons une technique bas\u00e9e sur la densit\u00e9 de satisfaction, d\u00e9velopp\u00e9e dans ce cadre avec des algorithmes bas\u00e9s sur un formalisme de satisfaction de contraintes (celui des Grammaires de Propri\u00e9t\u00e9s) ayant l\u2019avantage de permettre l\u2019utilisation des m\u00eames ressources linguistiques avec un degr\u00e9 de pr\u00e9cision r\u00e9glable. Enfin, nous envisageons les d\u00e9veloppements ult\u00e9rieurs pour une analyse syntaxique \u00e0 granularit\u00e9 variable.","translation":["","It is gainful for a syntactic analysis - in Natural Language Processing- to be carried out with more or less accuracy depending on the context, i.e. its granularity should be adjustable. In order to reach this objective, we present here preliminary studies allowing, first of all, to understand the technical and scientific contexts which raise this problem. We establish a framework within which developments can be carried out. Several kinds of variable granularity are defined. We then describe a technic developed within this framework using satisfaction density, on algorithms based on a constraints satisfaction formalism (Property Grammars) and allowing the use of the same linguistic resources with an adjustable degree of accuracy. Lastly, we further consider developments towards a syntactic analysis with variable granularity.","Parsing, variable granularity, property grammars, shallow parsing, deep parsing, satisfaction density"],"keyphrases":["Analyse syntaxique","granularit\u00e9 variable","densit\u00e9 de satisfaction","grammaire de propri\u00e9t\u00e9s","shallow parsing","deep parsing"],"prmu":["P","P","P","P","U","U"]} {"id":"recital-2004-poster-016","title":"R\u00e9utilisation de traducteurs gratuits pour d\u00e9velopper des syst\u00e8mes multilingues","abstract":"Nous pr\u00e9sentons ici une m\u00e9thode de r\u00e9utilisation de syst\u00e8mes de traduction automatique gratuits en ligne pour d\u00e9velopper des applications multilingues et \u00e9valuer ces m\u00eames syst\u00e8mes. Nous avons d\u00e9velopp\u00e9 un outil de traitement et de traduction de documents h\u00e9t\u00e9rog\u00e8nes (multilingues et multicodage). Cet outil permet d'identifier la langue et le codage du texte, de segmenter un texte h\u00e9t\u00e9rog\u00e8ne en zones homog\u00e8nes, d'appeler un traducteur correspondant avec une paire de langue source et cible, et de r\u00e9cup\u00e9rer les r\u00e9sultats traduits dans la langue souhait\u00e9e. Cet outil est utilisable dans plusieurs applications diff\u00e9rentes comme la recherche multilingue, la traduction des courriers \u00e9lectroniques, la construction de sites web multilingues, etc.","translation":["","We present here a method of the reuse of the free on line automatic translation systems to develop multilingual applications and to evaluate translators. We developed a tool for treatment and translation of the heterogeneous documents (multilingual and multicoding). This tool makes it possible to identify the language and the coding of the text, to segment a heterogeneous text in homogeneous zones, to call a translator corresponding with a fair of languages and to recover the results translated into desired language. We can use this tool in several different applications as multilingual research, the translation of the e-mail, the construction of the multilingual Web, etc.","Machine Translation, Multilingual Translator, Multilingualism, Multilingual Document"],"keyphrases":["Multilinguisme","Traduction Automatique","Traducteur Multilingue","Document Multilingue"],"prmu":["P","P","R","R"]} {"id":"recital-2004-poster-017","title":"La relation de synonymie en g\u00e9nomique","abstract":"L\u2019acc\u00e8s au contenu des textes de g\u00e9nomique est aujourd\u2019hui un enjeu important. Cela suppose au d\u00e9part d\u2019identifier les noms d\u2019entit\u00e9s biologiques comme les g\u00e8nes ou les prot\u00e9ines. Se pose alors la question de la variation de ces noms. Cette question rev\u00eat une importance particuli\u00e8re en g\u00e9nomique o\u00f9 les noms de g\u00e8nes sont soumis \u00e0 de nombreuses variations, notamment la synonymie. A partir d\u2019une \u00e9tude de corpus montrant que la synonymie est une relation stable et linguistiquement marqu\u00e9e, cet article propose une mod\u00e9lisation de la synonymie et une m\u00e9thode d\u2019extraction sp\u00e9cifiquement adapt\u00e9e \u00e0 cette relation. Au vu de nos premi\u00e8res exp\u00e9riences, cette m\u00e9thode semble plus prometteuse que les approches g\u00e9n\u00e9riques utilis\u00e9es pour l\u2019extraction de cette relation.","translation":["","The access to textual content in genomics is now recognized as an important issue. One of the first steps is the recognition of biological entity names such as gene or protein names. It has often been observed that entity names may vary in texts but this phenomenon is especially common in genomics. Besides a gene canonical name, one can find various abbreviation forms, typographic variants and synonyms. Stemming in a corpus analysis, this paper argues that synonymy in genomic texts is a stable and linguistically marked relation. This paper presents a method for extracting couples of synonymous gene or protein names. From a preliminary experiment, this method seems more promising than generic approaches that are exploited to extract synonymy relations.","Information extraction, synonymy, named entities, genomics"],"keyphrases":["synonymie","g\u00e9nomique","Extraction d\u2019information","entit\u00e9s nomm\u00e9es"],"prmu":["P","P","M","M"]} {"id":"recital-2004-poster-018","title":"Analyse macro-s\u00e9mantique: vers une analyse rh\u00e9torique du discours","abstract":"S\u2019inscrivant dans les domaines du TAL, de la linguistique sur corpus et de l\u2019informatique documentaire, l\u2019\u00e9tude pr\u00e9sent\u00e9e ici op\u00e8re plus pr\u00e9cis\u00e9ment dans la perspective d\u2019une analyse macros\u00e9mantique de la structuration discursive. Plus sp\u00e9cifiquement, nous proposons une analyse s\u00e9mantique des structures rh\u00e9toriques du discours. Apr\u00e8s avoir envisag\u00e9 certaines voies ouvertes en la mati\u00e8re, nous d\u00e9finissons notre approche, et pr\u00e9sentons les exp\u00e9rimentations conduites, dans le cadre du projet GeoSem, sur les structures \u00e9num\u00e9ratives dans le domaine g\u00e9ographique.","translation":["","Within the frameworks of automatic NLP, corpus linguistics, and automatic document processing, this study aims more precisely at a macro-semantic examination of the discursive structuring. Specifically, a semantic study of the rhetorical structures of discourse is here suggested. After considering existing approaches, we present our own methodology, and relate experimentations, as part of the GeoSem project, on enumerative structures in geographical corpus.","Macro-semantics, rhetorical analysis, discourse structuring, information retrieval"],"keyphrases":["Macro-s\u00e9mantique","analyse rh\u00e9torique","structure du discours","extraction d\u2019information"],"prmu":["P","P","R","M"]} {"id":"recital-2005-long-002","title":"Quels types de connaissance s\u00e9mantique pour Questions-R\u00e9ponses ?","abstract":"Les syst\u00e8mes de Questions R\u00e9ponse ont besoin de connaissances s\u00e9mantiques pour trouver dans les documents des termes susceptibles d\u2019\u00eatre des reformulations des termes de la question. Cependant, l\u2019utilisation de ressources s\u00e9mantiques peut apporter un bruit important et alt\u00e9rer la pr\u00e9cision du syst\u00e8me. ne fournit qu\u2019une partie des reformulations possibles. Cet article pr\u00e9sente un cadre d\u2019\u00e9valuation pour les ressources s\u00e9mantiques dans les syst\u00e8mes de question-r\u00e9ponse. Il d\u00e9crit la fabrication semi-automatique d\u2019un corpus de questions et de r\u00e9ponses destin\u00e9 \u00e0 \u00e9tudier les reformulations pr\u00e9sentes entre termes de la question et termes de la r\u00e9ponse. Il \u00e9tudie la fr\u00e9quence et la fiabilit\u00e9 des reformulations extraites de l\u2019ontologie WordNet.","translation":["","Question Answering systems need semantic knowledge to find in the documents terms that are reformulations of the question\u2019s terms. However, the use of semantic resources brings an important noise and a system\u2019s precision might get depreciated. This article presents a framework for evaluating semantic resources in question-answering systems. It describes the semi-automated construction of a corpus containing questions and answers. This corpus can be used to study the various reformulations between the terms of the questions and the terms of the answers. This article studies the frequency and reliability of reformulations given by the WordNet ontology.","Question Answering system, semantic resources, evaluation of reformulations"],"keyphrases":["Syst\u00e8me de Question R\u00e9ponse","ressources s\u00e9mantiques","\u00e9valuation des reformulations"],"prmu":["P","P","R"]} {"id":"recital-2005-long-003","title":"Une plate-forme logicielle d\u00e9di\u00e9e \u00e0 la cartographie th\u00e9matique de corpus","abstract":"Cet article pr\u00e9sente les principes de fonctionnement et les int\u00e9r\u00eats d\u2019une plate-forme logicielle centr\u00e9e sur un utilisateur ou un groupe d\u2019utilisateurs et d\u00e9di\u00e9e \u00e0 la visualisation de propri\u00e9t\u00e9s th\u00e9matiques d\u2019ensembles de documents \u00e9lectroniques. Cette plate-forme, appel\u00e9e ProxiDocs, permet de dresser des repr\u00e9sentations graphiques (des cartes) d\u2019un ensemble de textes \u00e0 partir de th\u00e8mes choisis et d\u00e9finis par un utilisateur ou un groupe d\u2019utilisateurs. Ces cartes sont interactives et permettent de visualiser les proximit\u00e9s et les diff\u00e9rences th\u00e9matiques entre textes composant le corpus \u00e9tudi\u00e9. Selon le type d\u2019analyse souhait\u00e9e par l\u2019utilisateur, ces cartes peuvent \u00e9galement s\u2019animer afin de repr\u00e9senter les changements th\u00e9matiques d\u2019un ensemble de textes au fil du temps.","translation":["","This article presents a user-centered software dedicated to the visualization of thematic properties of sets of electronic documents. This software, called ProxiDocs, allows its users to realize thematic maps from a corpora and themes they choose and defined. These maps are interactive and reveal thematic proximities and differences between texts composing the studied corpus. According to the analysis wished by the user, maps can be animated in order to represent thematic changes of the analysed set of texts relating to the time.","corpora cartography, thematic analysis, user-centered software, textual data analysis"],"keyphrases":["cartographie de corpus","analyse th\u00e9matique","logiciel individu-centr\u00e9","analyse des donn\u00e9es textuelles"],"prmu":["R","R","M","M"]} {"id":"recital-2005-long-004","title":"Segmentation morphologique \u00e0 partir de corpus","abstract":"Nous d\u00e9crivons une m\u00e9thode de segmentation morphologique automatique. L'algorithme utilise uniquement une liste des mots d'un corpus et tire parti des probabilit\u00e9s conditionnelles observ\u00e9es entre les sous-cha\u00eenes extraites de ce lexique. La m\u00e9thode est \u00e9galement fond\u00e9e sur l'utilisation de graphes d'alignement de segments de mots. Le r\u00e9sultat est un d\u00e9coupage de chaque mot sous la forme (pr\u00e9fixe*) + base + (suffixe*). Nous \u00e9valuons la pertinence des familles morphologiques d\u00e9couvertes par l'algorithme sur un corpus de textes m\u00e9dicaux fran\u00e7ais contenant des mots \u00e0 la structure morphologique complexe.","translation":["","We describe a method that automatically segments words into morphs. The algorithm only uses a list of words collected in a corpus. It is based on the conditional probabilities between the substrings extracted from this lexicon. The method also makes use of word segments alignment graphs. As a result, all words are segmented into a sequence of morphs which has the following pattern: (prefix*) + base + (suffix*). We evaluate the morphological families discovered by the algorithm using a corpus of French medical texts containing words whose morphological structure is complex.","Morphological segmentation, word segments alignment, corpus"],"keyphrases":["Segmentation morphologique","corpus","alignement de segments de mots"],"prmu":["P","P","P"]} {"id":"recital-2005-long-005","title":"Traduction des r\u00e8gles de construction des mots pour r\u00e9soudre l'incompl\u00e9tude lexicale en traduction automatique - Etude de cas","abstract":"Cet article propose d\u2019exploiter les similitudes constructionnelles de deux langues morphologiquement proches (le fran\u00e7ais et l\u2019italien), pour cr\u00e9er des r\u00e8gles de construction des mots capables de d\u00e9construire un n\u00e9ologisme construit de la langue source et g\u00e9n\u00e9rer de mani\u00e8re similaire un n\u00e9ologisme construit dans la langue cible. Nous commen\u00e7ons par pr\u00e9senter diverses motivations \u00e0 cette m\u00e9thode, puis d\u00e9taillons une exp\u00e9rience pour laquelle plusieurs r\u00e8gles de transfert ont \u00e9t\u00e9 cr\u00e9\u00e9es et appliqu\u00e9es \u00e0 un ensemble de n\u00e9ologismes construits.","translation":["","This paper presents a method which aims at exploiting constructional similarities between two morphologically-related languages (French an Italian), in order to create wordconstruction rules that can disassemble a constructed neologism and create in a similar way a constructed neologism into the target language. We present the main motivation for this method and describe an experiment for which transfer rules has been developed and applied to a group of constructed neologism.","Machine Translation, constructional morphology, lexical incompleteness"],"keyphrases":["incompl\u00e9tude lexicale","Traduction automatique","morphologie constructionnelle"],"prmu":["P","P","R"]} {"id":"recital-2005-long-006","title":"A la d\u00e9couverte de la polys\u00e9mie des sp\u00e9cificit\u00e9s du fran\u00e7ais technique","abstract":"Cet article d\u00e9crit l\u2019analyse s\u00e9mantique des sp\u00e9cificit\u00e9s dans le domaine technique des machines-outils pour l\u2019usinage des m\u00e9taux. Le but de cette \u00e9tude est de v\u00e9rifier si et dans quelle mesure les sp\u00e9cificit\u00e9s dans ce domaine sont monos\u00e9miques ou polys\u00e9miques. Les sp\u00e9cificit\u00e9s (situ\u00e9es dans un continuum de sp\u00e9cificit\u00e9) seront identifi\u00e9es avec la KeyWords Method en comparant le corpus d\u2019analyse \u00e0 un corpus de r\u00e9f\u00e9rence. Elles feront ensuite l\u2019objet d\u2019une analyse s\u00e9mantique automatis\u00e9e \u00e0 partir du recouvrement des cooccurrences des cooccurrences, afin d\u2019\u00e9tablir le continuum de monos\u00e9mie. Les travaux de recherche \u00e9tant en cours, nous pr\u00e9senterons des r\u00e9sultats pr\u00e9liminaires de cette double analyse.","translation":["","This article discusses a semantic analysis of pivotal terms (keywords) in the domain of machining terminology in French. Building on corpus data, the investigation attempts to find out whether, and to what extent, the keywords are polysemous. In order to identify the most typical words of the typicality continuum, the KeyWords Method will be used to compare the technical corpus with a reference corpus. The monosemy continuum will be implemented in terms of degree of overlap between the co-occurrents of the co-occurrents of the keywords. We present some preliminary results of work in progress.","lexical semantics, language for specific purposes (LSP), keywords, polysemy, co-occurrences"],"keyphrases":["polys\u00e9mie","sp\u00e9cificit\u00e9s","cooccurrences","s\u00e9mantique lexicale","langue sp\u00e9cialis\u00e9e"],"prmu":["P","P","P","M","U"]} {"id":"recital-2005-long-007","title":"Syst\u00e8me AlALeR - Alignement au niveau phrastique des textes parall\u00e8les fran\u00e7ais-japonais","abstract":"Le pr\u00e9sent article d\u00e9crit le Syst\u00e8me AlALeR (Syst\u00e8me d\u2019Alignement Autonome, L\u00e9ger et Robuste). Capable d\u2019aligner au niveau phrastique un texte en fran\u00e7ais et un texte en japonais, le Syst\u00e8me AlALeR ne recourt cependant \u00e0 aucun moyen ext\u00e9rieur tel qu\u2019un analyseur morphologique ou des dictionnaires, au contraire des m\u00e9thodes existantes. Il est caract\u00e9ris\u00e9 par son analyse morphologique partielle mettant \u00e0 profit des particularit\u00e9s du syst\u00e8me d\u2019\u00e9criture japonais et par la transcription des mots emprunts, \u00e0 l\u2019aide d\u2019un transducteur.","translation":["","The present paper describes the AlALeR System, an Autonomous, Robust and Light Alignment System. Capable of aligning at the sentence level a French text and a Japanese one, the AlALeR System doesn\u2019t use any external tool, such as morphological parsers or dictionaries, contrary to existing methods. This system is characterized by a partial morphological analysis taking advantage of some peculiarities of japanese writing system, and by the transcription of loan words with a transducer.","Alignment, parallel corpora, partial japanese morphological analysis, translation memory"],"keyphrases":["Alignement","corpus parall\u00e8les","analyse morphologique japonaise partielle","m\u00e9moire de traduction"],"prmu":["P","M","M","M"]} {"id":"recital-2005-long-008","title":"Acquisition semi-automatique de relations lexicales bilingues (fran\u00e7ais-anglais) \u00e0 partir du Web","abstract":"Cet article pr\u00e9sente une m\u00e9thode d\u2019acquisition semi-automatique de relations lexicales bilingues (fran\u00e7ais-anglais) faisant appel \u00e0 un processus de validation sur le Web. Notre approche consiste d\u2019abord \u00e0 extraire automatiquement des relations lexicales fran\u00e7aises. Nous g\u00e9n\u00e9rons ensuite leurs traductions potentielles gr\u00e2ce \u00e0 un dictionnaire \u00e9lectronique. Ces traductions sont enfin automatiquement filtr\u00e9es \u00e0 partir de requ\u00eates lanc\u00e9es sur le moteur de recherche Google. Notre \u00e9valuation sur 10 mots fran\u00e7ais tr\u00e8s polys\u00e9miques montre que le Web permet de constituer ou compl\u00e9ter des bases de donn\u00e9es lexicales multilingues, encore trop rares, mais dont l\u2019utilit\u00e9 est pourtant primordiale pour de nombreuses applications, dont la traduction automatique.","translation":["","This paper presents a method of semi-automatic acquisition of bilingual (French-English) lexical relations using a validation process via the Web. Our approach consists firstly of automatically extracting French lexical relations. We then generate their potential translations by means of an electronic dictionary. These translations are finally automatically filtered using queries on the Google search engine. Our evaluation on 10 very polysemous French words shows that the Web is a useful resource for building or improving multilingual lexical databases, which are urgently needed in a wide range of applications, such as machine translation.","Translation, corpus, bilingual lexical relations, semi-automatic acquisition, World Wide Web"],"keyphrases":["acquisition semi-automatique","relations lexicales bilingues","Traduction","corpus","World Wide Web"],"prmu":["P","P","P","U","M"]} {"id":"recital-2005-long-010","title":"Constitution d'un corpus de fran\u00e7ais tchat\u00e9","abstract":"Nous pr\u00e9sentons dans cet article un corpus de fran\u00e7ais tchat\u00e9, destin\u00e9 \u00e0 l'\u00e9tude de la langue du tchat. Ce corpus, collect\u00e9 et encod\u00e9 automatiquement, est remarquable avant tout par son \u00e9tendue, puisqu'il couvre un total de 4 millions de messages sur 105 canaux, h\u00e9t\u00e9rog\u00e8nes sur les plans th\u00e9matique et pragmatique. Son codage simple ne sera toutefois pas satisfaisant pour tous les usages. Il est disponible sur un site Internet, et consultable gr\u00e2ce \u00e0 une interface web.","translation":["","We present in this article a french chat corpus, intended for the study of chat language. This corpus, automatically collected and coded, is especially remarkable for its extent, since it covers a total of 4 million messages on 105 channels, heterogeneous from a thematic and pragmatic point of view. Its simple coding will not, however, be sufficient for all purposes. It is available on an Internet site, and viewable using a web interface.","chat language, linguistic resources, resource acquisition"],"keyphrases":["langue tchat\u00e9e","ressources linguistiques","collecte de donn\u00e9es"],"prmu":["R","U","M"]} {"id":"recital-2005-long-011","title":"\u00c9tude de quelques probl\u00e8mes de phon\u00e9tisation dans un syst\u00e8me de synth\u00e8se de la parole \u00e0 partir de SMS","abstract":"Cet article pr\u00e9sente une \u00e9tude dont l\u0092\u2019objectif \u00e9tait d\u0092\u2019am\u00e9liorer la phon\u00e9tisation d\u0092\u2019un syst\u00e8me de synth\u00e8se vocale de SMS en ce qui concerne trois types de probl\u00e8mes : l\u0092\u2019\u00e9criture r\u00e9bus (chiffres et lettres utilis\u00e9s pour leur valeur phonique), les abr\u00e9viations sous forme de squelettes consonantiques et les agglutinations (d\u00e9terminants ou pronoms coll\u00e9s graphiquement au mot qui suit). Notre approche se base sur l\u0092\u2019analyse d\u0092\u2019un corpus de SMS, \u00e0 partir duquel nous avons extrait des listes de formes permettant de compl\u00e9ter les lexiques du syst\u00e8me, et mis au point de nouvelles r\u00e8gles pour les grammaires internes. Les modifications effectu\u00e9es apportent une am\u00e9lioration substantielle du syst\u00e8me, bien qu\u0092\u2019il reste, \u00e9videmment, de nombreuses autres classes de probl\u00e8mes \u00e0 traiter.","translation":["","This article presents a study whose goal is to improve the grapheme-to-phoneme component of an SMS-to-speech system. The three types of problems tackled in the study are: rebus writing (digits and letters used for their phonetic value), consonant skeleton abbreviations and agglutinations (determiner or pronouns merged with the next word). Our approach is based on the analysis of an SMS corpus, from which we extracted lists of forms to enhance the system\u0092\u2019s lexicons, and developed new grammatical rules for the internal grammars. Our modifications result in a substantial improvement of the system, although, of course, there remain many other categories of problems to address.","SMS, phonetisation, speech synthesis"],"keyphrases":["phon\u00e9tisation","synth\u00e8se de la parole","SMS"],"prmu":["P","P","P"]} {"id":"recital-2005-court-001","title":"Synchronisation syntaxe s\u00e9mantique, des grammaires minimalistes cat\u00e9gorielles (GMC) aux Constraint Languages for Lambda Structures (CLLS)","abstract":"Ces travaux se basent sur l\u2019approche computationelle et logique de Ed Stabler (?), qui donne une formalisation sous forme de grammaire du programme minimaliste de Noam Chomsky (?). La question que je veux aborder est comment, \u00e0 partir d\u2019une analyse syntaxique retrouver la forme pr\u00e9dicative de l\u2019\u00e9nonc\u00e9. Pour cela, il faut mettre en place une interface entre syntaxe et s\u00e9mantique. C\u2019est ce que je propose en utilisant les Grammaires Minimalistes Cat\u00e9gorielles (GMC) extension des GM vers le calcul de Lambeck. Ce nouveau formalisme permet une synchronisation simple avec le lambda-calcul. Parmi les questions fr\u00e9quemment rencontr\u00e9es dans le traitement des langues naturelles, j\u2019interroge la performance de cette interface pour la r\u00e9solution des probl\u00e8mes de port\u00e9e des quantificateurs. Je montre pourquoi et comment il faut utiliser un lambda-calcul plus \u00e9labor\u00e9 pour obtenir les diff\u00e9rentes lectures, en utilisant Constraint Languages for Lambda Structures -CLLS.","translation":["","This work is based on the computational and logical approach of Ed Stabler (?), which gives a formalization of the minimalist program of Noam Chomsky (?). The question I want to solve is, starting from a syntactic analysis, how to find the predicative forms of a sentence. I propose an interface between syntax and semantic by using Categorical Minimalists Grammars (CMG) extension of the MG towards the Lambeck calculus and Constraint Language for Lambda Structures (CLLS). This interface is powerful for the resolution of quantifier scope ambiguities.","logic, minimalist grammars, lambda-calculus, quantifiers scope, Constraint Language for Lambda Structures"],"keyphrases":["grammaires minimalistes cat\u00e9gorielles","Constraint Language for Lambda Structures","logique","lambda-calcul","port\u00e9e des quantificateurs"],"prmu":["P","P","P","P","P"]} {"id":"recital-2005-court-002","title":"Recherche d'information en langue arabe : influence des param\u00e8tres linguistiques et de pond\u00e9ration en LSA","abstract":"Nous nous int\u00e9ressons \u00e0 la recherche d\u2019information en langue arabe en utilisant le mod\u00e8le de l\u2019analyse s\u00e9mantique latente (LSA). Nous proposons dans cet article de montrer que le traitement linguistique et la pond\u00e9ration des unit\u00e9s lexicales influent sur la performance de la LSA pour quatre cas d\u2019\u00e9tudes : le premier avec un simple pr\u00e9traitement des corpus; le deuxi\u00e8me en utilisant un anti-dictionnaire; le troisi\u00e8me avec un racineur de l\u2019arabe ; le quatri\u00e8me o\u00f9 nous avons combin\u00e9 l\u2019anti-dictionnaire et le racineur. Globalement les r\u00e9sultats de nos exp\u00e9rimentations montrent que les traitements linguistiques ainsi que la pond\u00e9ration des unit\u00e9s lexicales utilis\u00e9s am\u00e9liorent la performance de LSA.","translation":["","We are interested in information retrieval in Arabic language by using latent semantic analysis method (LSA). We propose in this article to show that the linguistic treatment and weighting of lexemes influence the performance of LSA. Four cases are studied: the first with a simple pretreatment of the corpora; the second by using a stopword list; the third with arabic stemmer; the fourth where we combined stopword list and arabic stemmer. Broadly the results of our experiments show that the linguistic treatments as well as weighting of lexemes used improve the performance of LSA.","Information retrieval, Latent semantic analyses, Arabic language, Stemming"],"keyphrases":["Langue arabe","Recherche d\u2019information","Analyse de la s\u00e9mantique latente","Racinisation"],"prmu":["P","P","R","U"]} {"id":"recital-2005-court-003","title":"Etiquetage morpho-syntaxique des textes arabes par mod\u00e8le de Markov cach\u00e9","abstract":"L\u2019\u00e9tiquetage des textes est un outil tr\u00e8s important pour le traitement automatique de langage, il est utilis\u00e9 dans plusieurs applications par exemple l\u2019analyse morphologique et syntaxique des textes, l\u2019indexation, la recherche documentaire, la voyellation pour la langue arabe, les mod\u00e8les de langage probabilistes (mod\u00e8les n-classes), etc. Dans cet article nous avons \u00e9labor\u00e9 un syst\u00e8me d\u2019\u00e9tiquetage morpho-syntaxique de la langue arabe en utilisant les mod\u00e8les de Markov cach\u00e9s, et ceci pour construire un corpus de r\u00e9f\u00e9rence \u00e9tiquet\u00e9 et repr\u00e9sentant les principales difficult\u00e9s grammaticales rencontr\u00e9es en langue arabe g\u00e9n\u00e9rale. Pour l\u2019estimation des param\u00e8tres de ce mod\u00e8le, nous avons utilis\u00e9 un corpus d\u2019apprentissage \u00e9tiquet\u00e9 manuellement en utilisant un jeu de 52 \u00e9tiquettes de nature morpho-syntaxique. Ensuite on proc\u00e8de \u00e0 une am\u00e9lioration du syst\u00e8me gr\u00e2ce \u00e0 la proc\u00e9dure de r\u00e9estimation des param\u00e8tres de ce mod\u00e8le.","translation":["","The tagging of texts is a very important tool for various applications of natural language processing : morphological and syntactic analysis of texts, indexation and information retrieval, vowelling of arabic texts, probabilistic language model (n-class model). In this paper we have used the Hidden Markov Model (HMM) to tag the arabic texts. This system of tagging is used to build a large labelled arabic corpus. The experiments are carried in the set of the labelled texts and the 52 tags of morpho-syntactic nature, in order to estimate the parameters of the HMM.","Corpus, the set of tags, the morpho-syntactic tagging, arabic text, Hidden Markov Model"],"keyphrases":["Etiquetage morpho-syntaxique","texte arabe","mod\u00e8le de Markov cach\u00e9","Corpus","jeu d\u2019\u00e9tiquettes"],"prmu":["P","P","P","P","R"]} {"id":"recital-2005-court-004","title":"Identification des composants temporels pour la repr\u00e9sentation des d\u00e9p\u00eaches \u00e9pid\u00e9miologiques","abstract":"Dans le cadre du projet Epid\u00e9mIA qui vise \u00e0 la construction d\u2019un syst\u00e8me d\u2019aide \u00e0 la d\u00e9cision pour assister l\u2019utilisateur dans son activit\u00e9 de gestion des risques sanitaires, un travail pr\u00e9alable sur la compositionalit\u00e9 des \u00e9v\u00e8nements (STEEL) nous a permis d\u2019orienter notre travail dans le domaine de la localisation d\u2019information spatio-temporelle. Nous avons construit des graphes de transducteurs pour identifier les informations temporelles sur un corpus de 100 d\u00e9p\u00eaches de la langue anglaise de ProMed. Nous avons utilis\u00e9 le syst\u00e8me d\u2019extraction d\u2019information INTEX pour la construction de ces transducteurs. Les r\u00e9sultats obtenus pr\u00e9sentent une efficacit\u00e9 de ces graphes pour l\u2019identification des donn\u00e9es temporelles.","translation":["","Epid\u00e9mIA project aims to the construction of a computerized decision-making system to assist user in his activity of medical risk management. A preliminary work on the events compositionality (STEEL) enables us to direct our work in the field of the space-time information localization. We have created some transducers graphs to identify temporal information on a corpus of 100 SARS ProMed English reports. We used the extraction information system INTEX to construct these transducers. The results obtained present an effectiveness of these graphs to identify temporal data.","Text analysis, event structure, extraction information, temporal semantics"],"keyphrases":["extraction d\u2019information","Analyse de textes","structure des \u00e9v\u00e8nements","s\u00e9mantique du temps"],"prmu":["P","M","M","M"]} {"id":"recital-2005-court-005","title":"Utilisation de la Linguistique Syst\u00e9mique Fonctionnelle pour la d\u00e9tection des noms de personnes ambigus","abstract":"Dans cet article, nous nous proposons de construire un lexique \u00e9tiquet\u00e9 selon les principes de la Linguistique Syst\u00e9mique Fonctionnelle (LSF) et de l\u2019appliquer \u00e0 la d\u00e9tection des noms de personnes ambigus dans les textes. Nous ne faisons pas d\u2019analyse compl\u00e8te mais testons plut\u00f4t si certaines caract\u00e9ristiques de la LSF peuvent permettre de compl\u00e9ter les mod\u00e8les linguistiques actuellement utilis\u00e9s pour la d\u00e9tection des entit\u00e9s nomm\u00e9es. Nous souhaitons ainsi apporter une contribution \u00e0 l\u2019application du formalisme LSF dans l\u2019analyse automatique de textes apr\u00e8s son application d\u00e9j\u00e0 \u00e9prouv\u00e9e \u00e0 la g\u00e9n\u00e9ration de textes.","translation":["","In this paper, we propose to build a tagged lexicon according to the Systemic Functional Linguistics (SFL) principles and to apply it to the recognition of ambiguous person names in texts. We do not achieve a complete analysis but rather test if some characteristics of the SFL could enable the completion of actual linguistic models used in named entity recognition. We want thus to bring a contribution to the application of the SFL model in automatic text analysis while it already proved its usefulness for text generation.","Systemic Functional Linguistics, Named entity recognition, Text mining"],"keyphrases":["Linguistique Syst\u00e9mique Fonctionnelle","D\u00e9tection des entit\u00e9s nomm\u00e9es","Fouille de textes"],"prmu":["P","P","M"]} {"id":"recital-2005-court-006","title":"Dur\u00e9e des consonnes g\u00e9min\u00e9es en parole arabe : mesures et comparaison","abstract":"Dans ce papier, nous pr\u00e9sentons les r\u00e9sultats d\u2019une \u00e9tude exp\u00e9rimentale de la dur\u00e9e des consonnes g\u00e9min\u00e9es de l\u2019arabe. Nous visons \u00e0 d\u00e9terminer la dur\u00e9e, pour une s\u00e9quence VCCV, de la consonne g\u00e9min\u00e9e CC ainsi que de la voyelle qui la pr\u00e9c\u00e8de. Nous comparons ces valeurs \u00e0 celles mesur\u00e9es pour une s\u00e9quence VCV. Les r\u00e9sultats ont prouv\u00e9 que la dur\u00e9e de la consonne simple \u00e9tait sensiblement diff\u00e9rente de celle g\u00e9min\u00e9e, ainsi que la dur\u00e9e de la voyelle pr\u00e9c\u00e9dant la consonne. A la base, ce travail est entrepris dans un but d\u2019\u00e9tudier l\u2019utilisation des dur\u00e9es de phon\u00e8mes comme une source d\u2019information pour optimiser un syst\u00e8me de reconnaissance, donc introduire des mod\u00e8les explicites de dur\u00e9e des phon\u00e8mes, et mettre en application ces mod\u00e8les comme partie du mod\u00e8le acoustique du syst\u00e8me de reconnaissance.","translation":["","In this paper, we represent the results of an experimental study concerning the duration of geminated consonants in the Arabic language. We are seeking to determine the duration of a sequence VCCV, of the geminated consonant CC and of the vowel that precedes it. We are comparing these items with those measured for a sequence VCV. The results have shown that the duration of the simple consonant was so apparently different from that geminated and the same was true for the duration of the vowel that precedes such consonant. Basically, this work is undertaken with an aim of studying the use of the durations of phonemes like a source of information to optimize a recognition system, therefore to introduce explicit models of duration of the phonemes, and to apply these models like part of the acoustic model of the recognition system.","Acoustic analyze, standard Arabic, gemination, duration, speech recognition"],"keyphrases":["dur\u00e9e","g\u00e9mination","Analyse acoustique","arabe standard","reconnaissance de la parole"],"prmu":["P","P","M","M","R"]} {"id":"recital-2005-court-007","title":"Vers une utilisation du TAL dans la description p\u00e9dagogique de textes dans l'enseignement des langues","abstract":"Alors que de nombreux travaux portent actuellement sur la linguistique de corpus, l'utilisation de textes authentiques en classe de langue, ou de corpus dans l'enseignement des langues (via concordanciers), quasiment aucun travail n'a \u00e9t\u00e9 r\u00e9alis\u00e9 en vue de la r\u00e9alisation de bases de textes \u00e0 l'usage des enseignants de langue, index\u00e9es en fonction de crit\u00e8res relevant de la probl\u00e9matique de la didactique des langues. Dans le cadre de cet article, nous proposons de pr\u00e9ciser cette notion d'indexation p\u00e9dagogique, puis de pr\u00e9senter les principaux standards de description de ressources p\u00e9dagogiques existants, avant de montrer l'inad\u00e9quation de ces standards \u00e0 la description de textes dans l'optique de leur utilisation dans l'enseignement des langues. Enfin nous en aborderons les cons\u00e9quences relativement \u00e0 la r\u00e9alisation de la base.","translation":["","Despite numerous works concerning corpus linguistics, the use of authentic texts in language teaching as well as corpora in language teaching (through concordancers), hardly any work deals with the creation of a teacher-friendly text base that would be indexed according to criteria relevant to the set of problems of language didactics. In this article, we will first discuss the notion of pedagogical indexation. We will then present the principal pedagogical resource description standards, before showing that those standards are inadequate to handle our problem. Finally we shall give an overview of the consequences of these inadequacies on the implementation of the text base.","Corpus, CALL, NLP, pedagogical indexation, textual resources"],"keyphrases":["TAL","Corpus","indexation p\u00e9dagogique","ALAO","ressources textuelles"],"prmu":["P","P","P","U","M"]} {"id":"recital-2005-court-008","title":"Une m\u00e9thode pour la classification de signal de parole sur la caract\u00e9ristique de nasalisation","abstract":"Nous exposons ici une m\u00e9thode permettant d\u2019\u00e9tudier la nature d\u2019un signal de parole dans le temps. Plus pr\u00e9cis\u00e9ment, nous nous int\u00e9ressons \u00e0 la caract\u00e9ristique de nasalisation du signal. Ainsi nous cherchons \u00e0 savoir si \u00e0 un instant t le signal est nasalis\u00e9 ou oralis\u00e9. Nous proc\u00e9dons par classification \u00e0 l\u2019aide d\u2019un r\u00e9seau de neurones type perceptron multi-couches, apr\u00e8s une phase d\u2019apprentissage supervis\u00e9e. La classification, apr\u00e8s segmentation du signal en fen\u00eatres, nous permet d\u2019associer \u00e0 chaque fen\u00eatre de signal une \u00e9tiquette renseignant sur la nature du signal.","translation":["","In this paper we expose a method that allows the study of the phonetic features of a speech signal through time. More specifically, we focus on the nasal features of the signal. We try to consider the signal as [+nasal] or [-nasal] at any given time.We proceed with a classifier system based on a multilayer perceptron neural net. The classifier is trained on a hand tagged corpus. The signal is tokenized into 30ms hamming windows. The classification process lets us tag each window with information concerning the properties of its content.","Phonology, phonetic, classifier, neural nets"],"keyphrases":["r\u00e9seaux de neurones","Phonologie","phon\u00e9tique","classifieur"],"prmu":["P","U","U","U"]} {"id":"recital-2005-court-009","title":"De la linguistique aux statistiques pour indexer des documents dans un r\u00e9f\u00e9rentiel m\u00e9tier","abstract":"Cet article pr\u00e9sente une m\u00e9thode d\u2019indexation automatique de documents bas\u00e9e sur une approche linguistique et statistique. Cette derni\u00e8re est une combinaison s\u00e9quentielle de l\u2019analyse linguistique du document \u00e0 indexer par l\u2019extraction des termes significatifs du document et de l\u2019analyse statistique par la d\u00e9composition en valeurs singuli\u00e8res des mots composant le document. La pond\u00e9ration des termes tire avantage de leur contexte local, par rapport au document, global, par rapport \u00e0 la base de donn\u00e9es, et de leur position par rapport aux autres termes, les co-occurrences. Le syst\u00e8me d\u2019indexation pr\u00e9sent\u00e9 fait des propositions d\u2019affectations du document \u00e0 un r\u00e9f\u00e9rentiel m\u00e9tier dont les th\u00e8mes sont pr\u00e9d\u00e9finis. Nous pr\u00e9sentons les r\u00e9sultats de l\u2019exp\u00e9rimentation de ce syst\u00e8me men\u00e9e sur un corpus des p\u00f4les m\u00e9tiers de la soci\u00e9t\u00e9 Suez-Environnement.","translation":["","This article presents an automatic method of documents indexing based on a hybrid, linguistic statistical approach. The proposed approach combines a linguistic analysis of the document by the extraction of the significant terms of the document in conformity with the referential; and a statistical analysis of the same document decomposed into separed words. Innovating weighting of terms is set to take judiciously advantage of both their position with respect to other terms (co-occurrence) and their local and global context. An application was developed in order to assign referential-based topics to documents. Finally, we will present experiments results and evaluation carried out on documents of Suez-Environnement Company.","Linguistics, statistics, indexing, information processing"],"keyphrases":["Linguistique","statistique","indexation","recherche d\u2019information"],"prmu":["P","P","P","M"]} {"id":"recital-2005-court-010","title":"Vers un Syst\u00e8me d'\u00e9criture Informatique Amazighe :M\u00e9thodes et d\u00e9veloppements","abstract":"L'int\u00e9gration des technologies de l'information et de communication (TIC) \u00e0 l'apprentissage de la langue Amazighe est absolument n\u00e9cessaire pour qu\u2019elle ait droit de cit\u00e9 plein et entier sur le Web et dans le monde informatis\u00e9. Nous pr\u00e9sentons quelques r\u00e9flexions sur les strat\u00e9gies et m\u00e9thodes d'informatisation de l'amazighe qui est une langue peu dot\u00e9e informatiquement. Ces r\u00e9flexions visent surtout l'optimisation de l'effort d'informatisation. En effet, les m\u00e9thodes propos\u00e9es tiennent en compte non seulement l'alphabet propos\u00e9 par l'IRCAM1 et confirm\u00e9e par l'ISO (format Unicode) le 21 juin 2004 (IRCAM, 2004 a) mais aussi le contexte francophone des populations berb\u00e8res.","translation":["","Learning the Amazighe language would require the introduction of Information and Communication technologies so that the language would have full entire freedom of a mentioning on the Web and in the computerized world. We present some reflections on strategies and methods of the amazighe computerization which is a language little dowered. These reflections aim particularly the optimisation of the effort of computerization. Indeed, proposed methods hold in account no only the proposed alphabet by the IRCAM1 and confirmed by the ISO (Unicode format) the 21 June 2004 but therefore the French speaking context of Berber populations.","Amazighe, Tifinaghe Alphabet, Natural Language Processing"],"keyphrases":["Amazighe","Alphabet Tifinaghe","Traitement des langues naturelles"],"prmu":["P","M","M"]} {"id":"recital-2005-court-011","title":"Un syst\u00e8me de lissage lin\u00e9aire pour la synth\u00e8se de la parole arabe : Discussion des r\u00e9sultats obtenus","abstract":"Notre article s'int\u00e8gre dans le cadre du projet intitul\u00e9 \"Or\u00e9odule\" : un syst\u00e8me embarqu\u00e9 temps r\u00e9el de reconnaissance, de traduction et de synth\u00e8se de la parole. L'objet de notre int\u00e9r\u00eat dans cet article est la pr\u00e9sentation de notre syst\u00e8me de synth\u00e8se hybride de la parole arabe. Nous pr\u00e9senterons, dans ce papier, les diff\u00e9rents modules et les diff\u00e9rents choix techniques de notre syst\u00e8me de synth\u00e8se hybride par concat\u00e9nation de polyph\u00e8mes. Nous d\u00e9taillerons \u00e9galement les r\u00e8gles de transcription et leurs effets sur le traitement linguistique, les r\u00e8gles de syllabation et leurs impacts sur le co\u00fbt (temps et difficult\u00e9) de r\u00e9alisation du module acoustique et nous poursuivrons par l'expos\u00e9 de nos choix au niveau du module de concat\u00e9nation. Nous d\u00e9crirons le module de lissage, un traitement acoustique, post concat\u00e9nation, n\u00e9cessaire \u00e0 l'am\u00e9lioration de la qualit\u00e9 de la voix synth\u00e9tis\u00e9e. Enfin, nous pr\u00e9senterons les r\u00e9sultats de l'\u00e9tude statistique de compr\u00e9hension, r\u00e9alis\u00e9e sur un corpus.","translation":["","This research paper is within the project entitled \"Oreillodule\" : a real time embedded system of speech recognition, translation and synthesis. The core of our interest in this work is the presentation of the hybrid system of the Arabic speech synthesis and more precisely of the linguistic and the acoustic treatment. Indeed, we will focus on the grapheme-phoneme transcription, an integral stage for the development of this speech synthesis system with an acceptable quality. Then, we will present some of the rules used for the realization of the phonetic treatment system. These rules are stocked in a data base and browsed several times during the transcription. We will also present the module of syllabication in acoustic units of variable sizes (phoneme, diphone and triphone), as well as the corresponding polyphones dictionary. We will list the stages of the establishment of this dictionary and the difficulties faced during its development. Finally, we will present the results of the statistical survey of understanding, achieved on a corpus.","Arabic speech sythesis, Phoneme, Diphones, Triphones, Acoustic units, Polyphones dictionary"],"keyphrases":["Synth\u00e8se de la parole arabe","Phon\u00e8mes","Diphones","Triphones","Unit\u00e9s acoustiques","Dictionnaire de polyphones"],"prmu":["P","U","U","U","M","M"]} {"id":"recital-2005-court-013","title":"Memory-based-Learning et Base de r\u00e8gles pour un Etiqueteur du Texte Arabe","abstract":"Jusqu\u2019a pr\u00e9sent il n\u2019y a pas de syst\u00e8me automatique complet pour l\u2019\u00e9tiquetage du texte arabe. Les m\u00e9thodes qu\u2019elles soient bas\u00e9es sur des r\u00e8gles explicites ou sur des calculs statistiques, ont \u00e9t\u00e9 d\u00e9velopp\u00e9es pour pallier au probl\u00e8me de l\u2019ambigu\u00eft\u00e9 lexicale. Celles-ci introduisent des informations sur le contexte imm\u00e9diat des mots, mais font l\u2019impasse sur les exceptions qui \u00e9chappent aux traitements. L'apparition des m\u00e9thodes Memory-Based Learning(MBL) a permis l\u2019exploitation automatique de la similarit\u00e9 de l\u2019information contenue dans de grandes masses de textes et , en cas d'anomalie, permet de d\u00e9duire la cat\u00e9gorie la plus probable dans un contexte donn\u00e9, sans que le linguiste ait \u00e0 formuler des r\u00e8gles explicites. Ce papier qui pr\u00e9sente une approche hybride combine les m\u00e9thodes \u00e0 base de r\u00e8gles et MBL afin d\u2019optimiser la performance de l\u2019\u00e9tiqueteur. Les r\u00e9sultats ainsi obtenus, pr\u00e9sent\u00e9s en section 6, sont satisfaisants et l\u2019 objectif recherch\u00e9 est atteint.","translation":["","Since now there is no complete automatic system for tagging an Arabian text. Methods based on explicit rules or on statistical calculations, have been developed to palliate problems of lexical ambiguousness. They introduce some information on the immediate context of the words but , make the dead end on the exceptions that escape to treatments. The apparition of the Memory-Based Learning(MBL) methods, that exploit automatically the similarity of information contained in big masses of texts and permit, in case of anomaly, to deduct the likeliest category in a given context, without the linguist has to formulate explicit rules. This paper presents an hybrid approach that combines methods based on rules and MBL, thus, in order to optimize the labeller's performance. Our objective is reached and the gotten results, presented in section 6, are satisfactory.","Tagging, Memory-based learning, K-NN, Based-rules, Morphosyntaxitic, Arabic language"],"keyphrases":["Base de r\u00e8gles","Etiquetage","Memory-Based Leaning","K-NN","Morphosyntaxique","Langue Arabe"],"prmu":["P","U","M","U","U","M"]} {"id":"recital-2005-court-014","title":"Cent mille milliards de po\u00e8mes et combien de sens? Une \u00e9tude d'analyse potentielle","abstract":"A partir du concept de coh\u00e9sion comme mesure de l\u2019unit\u00e9 du texte et du mod\u00e8le oulipien de la litt\u00e9rature par contraintes, notre \u00e9tude propose une m\u00e9thode d\u2019analyse potentielle sur ordinateur dans le cas des Cent mille milliards des po\u00e8mes. En s\u2019appuyant sur un ensemble de contraintes initiales, notre programme serait capable d\u2019analyser tous les textes potentiels produits par la machine en utilisant ces contraintes.","translation":["","Using the concept of cohesion as a measure for the unity of text and the Oulipian model of the literature by constraints, our study proposes a computational method of potential analysis for One hundred billions sonnets. Starting from a set of initial constraints, our program would be able to analyze all the potential texts produced by the machine under these constraints.","Discourse unity, networks of cohesion, thematic analysis, potential literature"],"keyphrases":["Unit\u00e9 du discours","r\u00e9seaux de coh\u00e9sion","analyse th\u00e9matique","litt\u00e9rature potentielle"],"prmu":["M","M","M","R"]} {"id":"recital-2005-court-015","title":"Analyse informatique du roman proustien \"Du cot\u00e9 de chez Swann\"","abstract":"Dans le cadre du d\u00e9veloppement des environnements d\u2019analyse linguistique, d\u2019\u00e9tiquetage de corpus et d\u2019analyse statistique afin de traiter des corpus de grande taille, nous proposons de mettre au point des proc\u00e9dures nouvelles d\u2019\u00e9tiquetage morpho-syntaxique et s\u00e9mantique. Nous pr\u00e9sentons un ensemble de ressources linguistiques - dictionnaires et grammaires - dans le but d\u2019\u00e9tiqueter enti\u00e8rement le roman proustien : \u00ab Du c\u00f4t\u00e9 de chez Swann \u00bb. Notre recherche avance deux atouts majeurs : la pr\u00e9cision des \u00e9tiquettes attribu\u00e9es aux formes linguistiques du texte ; et le rep\u00e9rage et \u00e9tiquetage exhaustifs des mots compos\u00e9s.","translation":["","To deal with a great amount of corpus data within the framework of environmental development of linguistic analysis of corpus' tagging and statistic analysis, we propose to establish new procedures of syntactic and semantic tagging. We present some general linguistic resources, such as dictionary and grammar built-in the way to entirely tag the novel of Proust \u00abDu c\u00f4t\u00e9 de chez Swann\u00bb. Our research leads to two main advantages: precise tagging assigned to linguistic forms of the text and identification and exhaustive tagging of compound nouns.","Finite state automata, local grammar, electronic dictionary, morpho-syntactic tagging, disambiguation, literary texts"],"keyphrases":["\u00e9tiquetage morpho-syntaxique","Automate fini","grammaire locale","dictionnaire \u00e9lectronique","d\u00e9sambigu\u00efsation","textes litt\u00e9raires"],"prmu":["P","U","M","M","U","M"]} {"id":"recital-2005-court-016","title":"Un \u00e9tiqueteur s\u00e9mantique des \u00e9nonc\u00e9s en langue arabe","abstract":"Notre article s\u2019int\u00e8gre dans le cadre du projet intitul\u00e9 Or\u00e9odule: un syst\u00e8me de reconnaissance, de traduction et de synth\u00e8se de la parole spontan\u00e9e. L\u2019objectif de cet article est de pr\u00e9senter un mod\u00e8le d\u2019\u00e9tiquetage probabiliste, selon une approche componentielle et s\u00e9lective. Cette approche ne consid\u00e8re que les \u00e9l\u00e9ments de l\u2019\u00e9nonc\u00e9 porteurs de sens. La signification de chaque mot est repr\u00e9sent\u00e9e par un ensemble de traits s\u00e9mantiques Ts. Ce mod\u00e8le participe au choix des Ts candidats lors du d\u00e9codage s\u00e9mantique d\u2019un \u00e9nonc\u00e9.","translation":["","The work reported here is part of a larger research project, Or\u00e9odule, aiming at developing tools for automatic speech recognition, translation, and synthesis for the Arabic language. This article focuses on a probabilistic labelling model, according to a componential and selective approach. This approach considers only the elements of the statement carrying direction. The significance of each word is represented by a whole of semantic features Ts. This model takes part in the choice of the Ts candidates at the time of the semantic decoding of a statement.","Statistical models of language, Models N-classes, Semantic analyze, Componential and selective approach"],"keyphrases":["Approche componentielle et s\u00e9lective","D\u00e9codage s\u00e9mantique","Mod\u00e8les statistiques de langage","Mod\u00e8les n-classes"],"prmu":["P","P","M","M"]} {"id":"recital-2002-long-001","title":"M\u00e9thodologie pour la cr\u00e9ation d\u2019un dictionnaire distributionnel dans une perspective d\u2019\u00e9tiquetage lexical semi-automatique","abstract":"Des groupes de recherche de plus en plus nombreux s'int\u00e9ressent \u00e0 l\u2019\u00e9tiquetage lexical ou la d\u00e9sambigu\u00efsation du sens. La tendance actuelle est \u00e0 l\u2019exploitation de tr\u00e8s grands corpus de textes qui, gr\u00e2ce \u00e0 l'utilisation d\u2019outils lexicographiques appropri\u00e9s, peuvent fournir un ensemble de donn\u00e9es initiales aux syst\u00e8mes. A leur tour ces syst\u00e8mes peuvent \u00eatre utilis\u00e9s pour extraire plus d'informations des corpus, qui peuvent ensuite \u00eatre r\u00e9inject\u00e9es dans les syst\u00e8mes, dans un processus r\u00e9cursif. Dans cet article, nous pr\u00e9sentons une m\u00e9thodologie qui aborde la r\u00e9solution de l\u2019ambigu\u00eft\u00e9 lexicale comme le r\u00e9sultat de l\u2019interaction de divers indices rep\u00e9rables de mani\u00e8re semi-automatique au niveau syntaxique (valence), s\u00e9mantique (collocations, classes d\u2019objets) avec la mise en oeuvre de tests manuels.","translation":["","More and more research groups are involved in sense tagging or sense disambiguation. The current trend is to use very large text corpora which, with the help of appropriate lexicographical tools, can provide initial data to the disambiguation systems. In turn, these systems can be used to extract more data from corpora, which can be fed again to the systems, in a bootstrapping process. In this paper, we tackle lexical disambiguation through the interaction of various cues which can be detected semi-automatically at the syntactic and semantic levels (valency, collocations, object classes), along with manual tests.","WSD, dictionary, distributional properties, collocations, classes of objects"],"keyphrases":["dictionnaire","collocations","classes d\u2019objets","D\u00e9sambigu\u00efsation lexicale","propri\u00e9t\u00e9s distributionnelles"],"prmu":["P","P","P","R","M"]} {"id":"recital-2002-long-002","title":"Etude des crit\u00e8res de d\u00e9sambigu\u00efsation s\u00e9mantique automatique : pr\u00e9sentation et premiers r\u00e9sultats sur les cooccurrences","abstract":"Nous pr\u00e9sentons dans cet article les d\u00e9buts d\u2019un travail visant \u00e0 rechercher et \u00e0 \u00e9tudier syst\u00e9matiquement les crit\u00e8res de d\u00e9sambigu\u00efsation s\u00e9mantique automatique. Cette \u00e9tude utilise un corpus fran\u00e7ais \u00e9tiquet\u00e9 s\u00e9mantiquement dans le cadre du projet SyntSem. Le crit\u00e8re ici \u00e9tudi\u00e9 est celui des cooccurrences. Nous pr\u00e9sentons une s\u00e9rie de r\u00e9sultats sur le pouvoir d\u00e9sambigu\u00efsateur des cooccurrences en fonction de leur cat\u00e9gorie grammaticale et de leur \u00e9loignement du mot \u00e0 d\u00e9sambigu\u00efser.","translation":["","This paper describes the beginning of a study which aims at researching and systematically analysing criteria for automatic word sense disambiguation. This study uses a French sense tagged corpus developed in the SyntSem project. We analyse here the cooccurrence criterion and report a series of results on the disambiguative power of cooccurrences with respect to their grammatical category and distance from the word to be disambiguated.","Word sense disambiguation, sense tagged corpora, cooccurrences"],"keyphrases":["D\u00e9sambigu\u00efsation s\u00e9mantique","cooccurrences","corpus s\u00e9mantiquement \u00e9tiquet\u00e9"],"prmu":["P","P","R"]} {"id":"recital-2002-long-003","title":"LIZARD, un assistant pour le d\u00e9veloppement de ressources linguistiques \u00e0 base de cascades de transducteurs","abstract":"Nous pr\u00e9sentons un outil visant \u00e0 assister les d\u00e9veloppeurs de ressources linguistiques en automatisant la fouille de corpus. Cet outil, est guid\u00e9 par les principes de l\u2019analyse distributionnelle sur corpus sp\u00e9cialis\u00e9s, \u00e9tendue gr\u00e2ce \u00e0 des ressources lexicales g\u00e9n\u00e9riques. Nous pr\u00e9sentons une \u00e9valuation du gain de performances d\u00fb \u00e0 l\u2019int\u00e9gration de notre outil \u00e0 une application de filtrage d\u2019information et nous \u00e9largissons le champ d\u2019application de l\u2019assistant aux \u00e9tudes sur corpus men\u00e9es \u00e0 l\u2019aide de cascades de transducteurs \u00e0 \u00e9tats finis.","translation":["","We present a tool providing linguistic resources developers with automated corpus analysis features. Our tool implements specialized corpora distributional analysis principles, extended by the integration of external generic lexical resources. We present an evaluation of the gain in performance attributable to our tool, for a text filtering task. We also widen our tool\u2019s scope of applications to transducer cascades-based corpus processing activities.","NLP, linguistic wizard, linguistic resources, autonomous agents, corpus-based studies"],"keyphrases":["ressources linguistiques","\u00e9tudes sur corpus","TALN","assistant linguistique","agents autonomes"],"prmu":["P","P","U","R","U"]} {"id":"recital-2002-long-004","title":"Conceptualisation d\u2019un syst\u00e8me d\u2019informations lexicales, une interface param\u00e9trable pour le T.A.L","abstract":"La n\u00e9cessit\u00e9 de ressources lexicales normalis\u00e9es et publiques est av\u00e9r\u00e9e dans le domaine du TAL. Cet article vise \u00e0 montrer comment, sur la base d\u2019une partie du lexique MULTEXT disponible sur le serveur ABU, il serait possible de construire une architecture permettant tout \u00e0 la fois l\u2019acc\u00e8s aux ressources avec des attentes diff\u00e9rentes (lemmatiseur, parseur, extraction d\u2019informations, pr\u00e9diction, etc.) et la mise \u00e0 jour par un groupe restreint de ces ressources. Cette mise \u00e0 jour consistant en l\u2019int\u00e9gration et la modification, automatique ou manuelle, de donn\u00e9es existantes. Pour ce faire, nous cherchons \u00e0 prendre en compte \u00e0 la fois les besoins et les donn\u00e9es accessibles. Ce mod\u00e8le est \u00e9valu\u00e9 conceptuellement dans un premier temps en fonction des syst\u00e8mes utilis\u00e9s dans notre \u00e9quipe : un analyseur TAG, un constructeur de grammaires TAGs, un extracteur d\u2019information.","translation":["","Lexical ressources which would be normalized and freely accessible is a major issue in the NLP research area. This article aims to show how to built an information system which allow (1) a freely access for distinct NLP systems (tagging, parsing, information extraction, etc.) and (2) an easy update of data by a restricted team of researchers, this update being manual or computed. Starting with a a subset of the MULTEXT lexicon which is accessible from the server ABU, we aim to take into account the various needs and the variability of accessible lexical data. Our modelisation is evaluated with three existing systems of our team : EGAL (parsing), a builder of Tag grammars and VULCAIN (information extraction).","Data Bases, Lexical Ressources"],"keyphrases":["ressources lexicales","Bases de donn\u00e9es"],"prmu":["P","R"]} {"id":"recital-2002-long-005","title":"Probl\u00e8mes pos\u00e9s par la reconnaissance de gestes en Langue des Signes","abstract":"Le but de cet article est d\u2019expliciter certains des probl\u00e8mes rencontr\u00e9s lorsque l\u2019on cherche \u00e0 concevoir un syst\u00e8me de reconnaissance de gestes de la Langue des Signes et de proposer des solutions adapt\u00e9es. Les trois aspects trait\u00e9s ici concernent la simultan\u00e9\u00eft\u00e9 d\u2019informations v\u00e9hicul\u00e9es par les gestes des mains, la synchronisation \u00e9ventuelle entre les deux mains et le fait que diff\u00e9rentes classes de signes peuvent se rencontrer dans une phrase en Langue des Signes.","translation":["","The aim of this paper is to specify some of the problems raised when one wants to design a gesture recognition system dedicated to Sign Language, and to propose suited solutions. The three topics considered here concern the simultaneity of information conveyed by hand gestures, the possible synchronicity between the two hands, and the different classes of signs that may be encountered in a Sign Language sentence.","Gesture recognition, Sign Language"],"keyphrases":["Reconnaissance de gestes","Langue des Signes"],"prmu":["P","P"]} {"id":"recital-2002-long-006","title":"Annotation des descriptions d\u00e9finies : le cas des reprises par les r\u00f4les th\u00e9matiques","abstract":"Nous pr\u00e9sentons dans cet article un cas particulier de description d\u00e9finie o\u00f9 la description reprend le r\u00f4le th\u00e9matique d\u2019un argument (implicite ou explicite) d\u2019un \u00e9v\u00e9nement mentionn\u00e9 dans le contexte linguistique. Nous commen\u00e7ons par montrer que les sch\u00e9mas d\u2019annotation propos\u00e9s (MATE) et utilis\u00e9s (Poesio et Vieira 2000) ne permettent pas une caract\u00e9risation uniforme ni, partant, un rep\u00e9rage facile de ces reprises. Nous proposons une extension du sch\u00e9ma MATE qui pallie cette difficult\u00e9.","translation":["","We present in this paper a particular kind of definite description which mentions the thematic role of an (implicit or explicit) argument of an event mentioned in the context. We show that the annotation schemes which are either proposed (MATE) or used (Poesio and Vieira 2000) permit neither a uniform characterisation of the phenomenon nor an easy identification of these anaphors. We propose an extension of the MATE schemes which remedy this difficulty.","Natural language generation, annotation, coreference, thematic role"],"keyphrases":["annotation","r\u00f4les th\u00e9matiques","G\u00e9n\u00e9ration automatique de textes","cor\u00e9f\u00e9rence"],"prmu":["P","P","M","U"]} {"id":"recital-2002-long-007","title":"Etude des r\u00e9p\u00e9titions en fran\u00e7ais parl\u00e9 spontan\u00e9 pour les technologies de la parole","abstract":"Cet article rapporte les r\u00e9sultats d\u2019une \u00e9tude quantitative des r\u00e9p\u00e9titions men\u00e9e \u00e0 partir d\u2019un corpus de fran\u00e7ais parl\u00e9 spontan\u00e9 d\u2019un million de mots, \u00e9tude r\u00e9alis\u00e9e dans le cadre de notre premi\u00e8re ann\u00e9e de th\u00e8se. L\u2019\u00e9tude linguistique pourra aider \u00e0 l\u2019am\u00e9lioration des syst\u00e8mes de reconnaissance de la parole et de l'\u00e9tiquetage grammatical automatique de corpus oraux. Ces technologies impliquent la prise en compte et l\u2019\u00e9tude des r\u00e9p\u00e9titions de performance (en opposition aux r\u00e9p\u00e9titions de comp\u00e9tence, telles que nous nous sujet + compl\u00e9ment) afin de pouvoir, par la suite, les \u00ab gommer \u00bb avant des traitements ult\u00e9rieurs. Nos r\u00e9sultats montrent que les r\u00e9p\u00e9titions de performance concernent principalement les mots-outils et apparaissent \u00e0 des fronti\u00e8res syntaxiques majeures.","translation":["","This article is a report of a quantitative study of repetitions based on a corpus of a onemillion- word spontaneous spoken French, conducted during the first year of our PhD thesis. This linguistic study can contribute to the improvement of speech recognition and spoken French part-of-speech tagging. Improvement of these technologies requires taking into account and studying performance repetitions (such as complement + complement nous nous) in order to be able to \"erase\" them before further processing. Our results show that repetitions mainly involve function words and take place at major syntactic boundaries.","Repetitions, spontaneous French speech, disfluencies, performance phenomena, quantitative study, speech recognition, part-of-speech tagging"],"keyphrases":["R\u00e9p\u00e9titions","fran\u00e7ais parl\u00e9 spontan\u00e9","\u00e9tude quantitative","reconnaissance de la parole","\u00ab disfluences \u00bb","ph\u00e9nom\u00e8nes de performance","\u00e9tiquetage morpho-syntaxique"],"prmu":["P","P","P","P","M","M","M"]} {"id":"recital-2002-long-008","title":"Normalisation de documents par analyse du contenu \u00e0 l\u2019aide d\u2019un mod\u00e8le s\u00e9mantique et d\u2019un g\u00e9n\u00e9rateur","abstract":"La probl\u00e9matique de la normalisation de documents est introduite et illustr\u00e9e par des exemples issus de notices pharmaceutiques. Un paradigme pour l\u2019analyse du contenu des documents est propos\u00e9. Ce paradigme se base sur la sp\u00e9cification formelle de la s\u00e9mantique des documents et utilise une notion de similarit\u00e9 floue entre les pr\u00e9dictions textuelles d\u2019un g\u00e9n\u00e9rateur de texte et le texte du document \u00e0 analyser. Une impl\u00e9mentation initiale du paradigme est pr\u00e9sent\u00e9e.","translation":["","This paper discusses document normalization and gives examples based on a class of pharmaceutical documents. The discussion is based on a paradigm for document content analysis. This paradigm focusses on a formal specification of document semantics and uses a fuzzy matching measure between the textual predictions of a natural language generator and the input document. An initial implementation is presented.","content analysis, generation, document authoring, document normalization"],"keyphrases":["normalisation de document","g\u00e9n\u00e9ration","analyse de contenu","cr\u00e9ation assist\u00e9e de documents"],"prmu":["P","P","R","M"]} {"id":"recital-2002-poster-001","title":"Un Mod\u00e8le Distribu\u00e9 d\u2019Interpr\u00e9tation de Requ\u00eates fond\u00e9 sur la notion d\u2019Observateur","abstract":"Nous proposons un mod\u00e8le de conception d\u2019agent conversationnel pour l\u2019assistance d\u2019interface. Notre but est d\u2019obtenir un syst\u00e8me d\u2019interpr\u00e9tation de requ\u00eates en contexte, g\u00e9n\u00e9rique pour l\u2019ind\u00e9pendance vis-\u00e0-vis de la t\u00e2che, extensible pour sa capacit\u00e9 \u00e0 int\u00e9grer des connaissances sur un nouveau domaine sans remettre en cause les connaissances ant\u00e9rieures et unifi\u00e9 dans le sens o\u00f9 tous les aspects du traitement de la langue naturelle, syntaxe, s\u00e9mantique, ou pragmatique doivent s\u2019exprimer dans un m\u00eame formalisme. L\u2019originalit\u00e9 de notre syst\u00e8me est de permettre de repr\u00e9senter des connaissances d\u2019interpr\u00e9tation de niveaux de granularit\u00e9 divers sous une m\u00eame forme, r\u00e9duisant la probl\u00e9matique de communication entre sources de connaissances qui existe dans les syst\u00e8mes modulaires. Nous adoptons l\u2019approche des micro-syst\u00e8mes suivant laquelle l\u2019interpr\u00e9tation de la langue se fait selon un processus non stratifi\u00e9, et o\u00f9 absolument tous les niveaux peuvent interagir entre eux. Pour cela, nous introduisons et d\u00e9finissons un type d\u2019entit\u00e9 que nous avons nomm\u00e9 observateur.","translation":["","This paper describes a conversationnal agent design model for interface assistance. The model is meant to be generic, i.e. task independant extensible for the ability of integrating knowledge about a new task without revising previous knowledge, and unified because every level of Natural Language, from syntax, semantics, pragmatics and dialogue to production should be described within the same formalism. The main originality of the proposed system is its ability to represent in the same way various granularity levels of interpretation knowledge sources. This avoids communication problems between heterogeneous knowledge sources, as they occur in modular systems. Thus we adopt a micro-systemics approach, stating that the Natural Language Interpretation, rather than being made of multi-layered processes, a process where all the components levels can interact with each others. This is achieved by introducing the notion of observer.","Conversationnal Agents, Distributed Analysis, Micro-Systems, Procedural Semantics"],"keyphrases":["Agents Conversationnels","Micro-Syst\u00e8mes","Analyse Distribu\u00e9e","S\u00e9mantique Proc\u00e9durale"],"prmu":["P","P","M","M"]} {"id":"recital-2002-poster-002","title":"Extraction et classification automatique de mat\u00e9riaux textuels pour la cr\u00e9ation de tests de langue","abstract":"Nous pr\u00e9sentons l\u2019\u00e9tat de d\u00e9veloppement d\u2019un outil d\u2019extraction et de classification automatique de phrases pour la cr\u00e9ation de tests de langue. Cet outil de TAL est con\u00e7u pour, dans un premier temps, localiser et extraire de larges corpus en ligne du mat\u00e9riel textuel (phrases) poss\u00e9dant des propri\u00e9t\u00e9s linguistiques bien sp\u00e9cifiques. Il permet, dans un deuxi\u00e8me temps, de classifier automatiquement ces phrases-candidates d\u2019apr\u00e8s le type d\u2019erreurs qu\u2019elles sont en mesure de contenir. Le d\u00e9veloppement de cet outil s\u2019inscrit dans un contexte d\u2019optimalisation du processus de production d\u2019items pour les tests d\u2019\u00e9valuation. Pour r\u00e9pondre aux exigences croissantes de production, les industries de d\u00e9veloppement de tests de comp\u00e9tences doivent \u00eatre capable de d\u00e9velopper rapidement de grandes quantit\u00e9s de tests. De plus, pour des raisons de s\u00e9curit\u00e9, les items doivent \u00eatre continuellement remplac\u00e9s, ce qui cr\u00e9e un besoin d\u2019approvisionnement constant. Ces exigences de production et r\u00e9vision sont, pour ces organisations, co\u00fbteuses en temps et en personnel. Les b\u00e9n\u00e9fices \u00e0 retirer du d\u00e9veloppement et de l\u2019implantation d\u2019un outil capable d\u2019automatiser la majeure partie du processus de production de ces items sont par cons\u00e9quents consid\u00e9rables.","translation":["","We present here the state of development of an automatic sentence extractor and classificator for use in the creation of language tests. This NLP tool has been designed to, in a first instance, automatically locate and extract from designated on-line databases candidate source sentences meeting specific linguistic criteria and, in a second instance, to classify those sentences according to the specific types of errors they are capable of supporting. The development of this NLP tool is couched in the context and goals of automated item models instantiating for educational assessment. To meet increasing testing demands, assessment industries must be able to quickly produce large number of tests and regularly replace the items to prevent lapses in test security. The high number of items that must be continuously \u2018retired\u2019 and replaced creates a great need for continuous item supply. Those high production and revision demands, apart from being timeconsuming, are also costly. The development and implementation of a NLP tool capable of automating the bulk of the processing involved in instantiating the test item models is thus of considerable benefit to educational testing organisations.","Finite-state automaton, corpus analysis, automatic sentence extraction, automatic sentence classification, INTEX"],"keyphrases":["classification automatique de phrases","Automates \u00e0 \u00e9tats finis","analyse de corpus","extraction automatique de phrases","INTEX"],"prmu":["P","M","M","R","U"]} {"id":"recital-2002-poster-003","title":"MemLabor, un environnement de cr\u00e9ation, de gestion et de manipulation de corpus de textes","abstract":"Nous pr\u00e9sentons dans cet article un logiciel d\u2019\u00e9tude permettant la cr\u00e9ation, la gestion et la manipulation de corpus de textes. Ce logiciel appel\u00e9 MemLabor se veut un outil ouvert et open-source adaptable \u00e0 toutes les op\u00e9rations possibles que l\u2019on peut effectuer sur ce type de mat\u00e9riau. Dans une premi\u00e8re partie, nous pr\u00e9senterons les principes g\u00e9n\u00e9raux de l\u2019outil. Dans une seconde, nous en proposerons une utilisation dans le cadre d\u2019une acquisition supervis\u00e9e de classes s\u00e9mantiques.","translation":["","In this article, we present a study software that allows creation, management and handling of corpora. This software called MemLabor is an open-source program, adaptable to all operations that we can carry out on this type of material. In the first part of this article, we will present the main principles of this tool. In the second part, we will suggest one of it use within the framework of a semantic classes supervised acquisition.","corpus analysis, supervised terminology acquisition, lexical semantics"],"keyphrases":["analyse de corpus","acquisition supervis\u00e9e de terminologie","s\u00e9mantique lexicale"],"prmu":["M","M","M"]} {"id":"recital-2002-poster-004","title":"Classification Automatique de messages : une approche hybride","abstract":"Les syst\u00e8mes actuels de filtrage de l\u2019information sont bas\u00e9s d\u2019une fa\u00e7on directe ou indirecte sur les techniques traditionnelles de recherche d\u2019information (Malone, Kenneth, 1987), (Kilander, Takkinen, 1996). Notre approche consiste \u00e0 s\u00e9parer le processus de classification du filtrage proprement dit. Il s\u2019agit d\u2019effectuer un traitement reposant sur une compr\u00e9hension primitive du message permettant d\u2019effectuer des op\u00e9rations de classement. Cet article d\u00e9crit une solution pour classer des messages en se basant sur les propri\u00e9t\u00e9s linguistiques v\u00e9hicul\u00e9es par ces messages. Les propri\u00e9t\u00e9s linguistiques sont mod\u00e9lis\u00e9es par un r\u00e9seau de neurone. A l'aide d'un module d'apprentissage, le r\u00e9seau est am\u00e9lior\u00e9 progressivement au fur et \u00e0 mesure de son utilisation. Nous pr\u00e9sentons \u00e0 la fin les r\u00e9sultats d\u2019une exp\u00e9rience d\u2019\u00e9valuation.","translation":["","The current approaches in information filtering are based directly or indirectly on the traditional methods of information retrieval (Malone, Kenneth, 1987), (Kilander, Takkinen, 1996). Our approach to email filtering is to separate classification from filtering. Once the classification process is complete, the filtering takes place. This paper presents an approach to classify e-mail, based on linguistic features model. The main feature of the model is its representation by a neural network and its learning capability. At the end, to measure the approach performances, we illustrate and discuss the results obtained by experimental evaluations.","Information filtering, e-mail, information classification, linguistic proprieties, neural network, Filters, e-mail filtering"],"keyphrases":["propri\u00e9t\u00e9s linguistiques","r\u00e9seaux de neurones","Filtrage d\u2019information","e-mail","classification de messages","filtrage d\u2019email"],"prmu":["P","P","R","U","R","M"]} {"id":"recital-2015-long-001","title":"fr2sql : Interrogation de bases de donn\u00e9es en fran\u00e7ais","abstract":"Les bases de donn\u00e9es sont de plus en plus courantes et prennent de plus en plus d'ampleur au sein des applications et sites Web actuels. Elles sont souvent amen\u00e9es \u00e0 \u00eatre utilis\u00e9es par des personnes n'ayant pas une grande comp\u00e9tence en la mati\u00e8re et ne connaissant pas rigoureusement leur structure. C'est pour cette raison que des traducteurs du langage naturel aux requ\u00eates SQL sont d\u00e9velopp\u00e9s. Malheureusement, la plupart de ces traducteurs se cantonnent \u00e0 une seule base du fait de la sp\u00e9ci\ufb01cit\u00e9 de l'architecture de celle-ci. Dans cet article, nous proposons une m\u00e9thode visant \u00e0 pouvoir interroger n'importe quelle base de donn\u00e9es \u00e0 partir de questions en fran\u00e7ais. Nous \u00e9valuons notre application sur deux bases \u00e0 la structure diff\u00e9rente et nous montrons \u00e9galement qu'elle supporte plus d'op\u00e9rations que la plupart des autres traducteurs.","translation":["fr2sql : database query in French","Databases are increasingly common and are becoming increasingly important in actual applications and Web sites. They often used by people who do not have great competence in this domain and who do not know exactly their structure. This is why translators from natural language to SQL queries are developed. Unfortunately, most of these translators is con\ufb01ned to a single database due to the speci\ufb01city of the base architecture. In this paper, we propose a method to query any database from french. We evaluate our application on two different databases and we also show that it supports more operations than most other translators.","Databases (DB), Structured Query Language (SQL), French to SQL translator, Natural language interfaces to databases (NLIDB)"],"keyphrases":["Requ\u00eates SQL","Base de donn\u00e9es (BdD)","Traducteur fran\u00e7ais SQL","Interface Homme-BdD"],"prmu":["P","M","R","U"]} {"id":"recital-2015-long-002","title":"D\u00e9sambigu\u00efsation lexicale \u00e0 base de connaissances par s\u00e9lection distributionnelle et traits s\u00e9mantiques","abstract":"La d\u00e9sambigu\u00efsation lexicale permet d'am\u00e9liorer de nombreuses applications en traitement automatique des langues (TAL) comme la recherche d'information, l'extraction d'information, la traduction automatique, ou la simplification lexicale de textes. Sch\u00e9matiquement, il s'agit de choisir quel est le sens le plus appropri\u00e9 pour chaque mot d'un texte. Une des approches classiques consiste \u00e0 estimer la similarit\u00e9 s\u00e9mantique qui existe entre les sens de deux mots puis de l'\u00e9tendre \u00e0 l'ensemble des mots du texte. La m\u00e9thode la plus directe donne un score de similarit\u00e9 \u00e0 toutes les paires de sens de mots puis choisit la cha\u00eene de sens qui retourne le meilleur score (on imagine la complexit\u00e9 exponentielle li\u00e9e \u00e0 cette approche exhaustive). Dans cet article, nous proposons d'utiliser une m\u00e9ta-heuristique d'optimisation combinatoire qui consiste \u00e0 choisir les voisins les plus proches par s\u00e9lection distributionnelle autour du mot \u00e0 d\u00e9sambigu\u00efser. Le test et l'\u00e9valuation de notre m\u00e9thode portent sur un corpus \u00e9crit en langue fran\u00e7aise en se servant du r\u00e9seau s\u00e9mantique BabelNet. Le taux d'exactitude obtenu est de 78% sur l'ensemble des noms et des verbes choisis pour l'\u00e9valuation.","translation":["A Knowledge-Based Approach to Word Sense Disambiguation by distributional selection and semantic features","Word sense disambiguation improves many Natural Language Processing (NLP) applications such as Information Retrieval, Information Extraction, Machine Translation, or Lexical Simplification. Roughly speaking, the aim is to choose for each word in a text its best sense. One of the most popular method estimates local semantic similarity relatedness between two word senses and then extends it to all words from text. The most direct method computes a rough score for every pair of word senses and chooses the lexical chain that has the best score (we can imagine the exponential complexity that returns this comprehensive approach). In this paper, we propose to use a combinatorial optimization metaheuristic for choosing the nearest neighbors obtained by distributional selection around the word to disambiguate. The test and the evaluation of our method concern a corpus written in French by means of the semantic network BabelNet. The obtained accuracy rate is 78 % on all names and verbs chosen for the evaluation.","unsupervised word sense disambiguation, distributional similarity measure, semantic similarity measures"],"keyphrases":["d\u00e9sambigu\u00efsation lexicale non supervis\u00e9e","mesure de similarit\u00e9 distributionnelle","mesures de similarit\u00e9 s\u00e9mantique"],"prmu":["M","M","M"]} {"id":"recital-2015-long-003","title":"Vers un mod\u00e8le de d\u00e9tection des affects, appr\u00e9ciations et jugements dans le cadre d'interactions humain-agent","abstract":"Cet article aborde la question de la d\u00e9tection des expressions d'attitude \u2013 i.e affect, d'appr\u00e9ciation et de jugement (Martin & White, 2005) \u2013 dans le contenu verbal de l'utilisateur au cours d'interactions en face-\u00e0-face avec un agent conversationnel anim\u00e9. Il propose un positionnement en termes de mod\u00e8les et de m\u00e9thodes pour le d\u00e9veloppement d'un syst\u00e8me de d\u00e9tection adapt\u00e9 aux buts communicationnels de l'agent et \u00e0 une parole conversationnelle. Apr\u00e8s une description du mod\u00e8le th\u00e9orique de r\u00e9f\u00e9rence choisi, l'article propose un mod\u00e8le d'annotation des attitudes d\u00e9di\u00e9 l'exploration de ce ph\u00e9nom\u00e8ne dans un corpus d'interaction humain-agent. Il pr\u00e9sente ensuite une premi\u00e8re version de notre syst\u00e8me. Cette premi\u00e8re version se concentre sur la d\u00e9tection des expressions d'attitudes pouvant r\u00e9f\u00e9rer \u00e0 ce qu'aime ou n'aime pas l'utilisateur. Le syst\u00e8me est con\u00e7u selon une approche symbolique fond\u00e9e sur un ensemble de r\u00e8gles s\u00e9mantiques et de repr\u00e9sentations logico-s\u00e9mantiques des \u00e9nonc\u00e9s.","translation":["Toward a detection model of affects, appreciations, jugements within human-agent interactions","This article concerns the detection of attitudes \u2013 i.e affects, appreciations and jugements (Martin & White, 2005) \u2013 in the user's verbal content during a face-to-face interaction with an embodied conversational agent. It tackles the issue of the adaptation to the ECA's communicational goals and to the conversational speech. After a description of our theoretical model, it introduces an annotation model dedicated to the study of attitudes in a human-agent interaction corpus. Then, it describes a \ufb01rst version of our detection system, focusing on the attitude which can refer to a user's like or dislike. The system is rule-based and embeds logic and semantic representations of the sentences.","Sentiment analysis, human-agent interaction, embodied conversational agents, dialogue homme-machine"],"keyphrases":["interaction humain-agent","agents conversationnels anim\u00e9s","Analyse de sentiments","dialogue homme-machine"],"prmu":["P","P","M","U"]} {"id":"recital-2015-long-004","title":"R\u00e9sum\u00e9 Automatique Multi-Document Dynamique : \u00c9tat de l'Art","abstract":"Les travaux men\u00e9s dans le cadre du r\u00e9sum\u00e9 automatique de texte ont montr\u00e9 des r\u00e9sultats \u00e0 la fois tr\u00e8s encourageants mais qui sont toujours \u00e0 am\u00e9liorer. La probl\u00e9matique du r\u00e9sum\u00e9 automatique ne cesse d'\u00e9voluer avec les nouveaux champs d'application qui s'imposent, ce qui augmente les contraintes li\u00e9es \u00e0 cette t\u00e2che. Nous nous int\u00e9- ressons au r\u00e9sum\u00e9 extractif multi-document dynamique. Pour cela, nous examinons les diff\u00e9rentes approches existantes en mettant l'accent sur les travaux les plus r\u00e9cents. Nous montrons ensuite que la performance des syst\u00e8mes de r\u00e9sum\u00e9 multi-document et dynamique est encore modeste. Trois contraintes suppl\u00e9mentaires sont ajout\u00e9es : la redondance inter-document, la redondance \u00e0 travers le temps et la grande taille des donn\u00e9es \u00e0 traiter. Nous essayons de d\u00e9celer les insuf\ufb01sances des syst\u00e8mes existants a\ufb01n de bien d\u00e9\ufb01nir notre probl\u00e9matique et guider ainsi nos prochains travaux.","translation":["Automatic multi-document update summarization : State of the Art","The \ufb01eld of automatic text summarization is characterized both by some interesting achievements and a lot of issues to address, especially with the introduction of new tasks brought by applications. In this article, we focus more particularly on the multi-document update summarization task and review the existing work about it with a special emphasis on recent work. We show that the results for this task are still low because of the necessity to take into account three important constraints : information redundancy through documents and time and the size of data. We analyze the strengths and weaknesses of existing systems according to these constraints to propose subsequently new solutions.","Multi-document summarization, update summarization, redundancy, evaluation"],"keyphrases":["R\u00e9sum\u00e9 multi-document","redondance","r\u00e9sum\u00e9 dynamique","\u00e9valuation"],"prmu":["P","P","R","U"]} {"id":"recital-2015-long-005","title":"Alignement multimodal de ressources \u00e9ducatives et scienti\ufb01ques","abstract":"Cet article pr\u00e9sente certaines questions de recherche li\u00e9es au projet COC O 1 . L'ambition de ce projet est de valoriser les ressources \u00e9ducatives et acad\u00e9miques en exploitant au mieux les diff\u00e9rents m\u00e9dias disponibles (vid\u00e9os de cours ou de pr\u00e9sentations d'articles, manuels \u00e9ducatifs, articles scienti\ufb01ques, pr\u00e9sentations, etc). Dans un premier temps, nous d\u00e9crirons le probl\u00e8me d'utilisation jointe de ressources multim\u00e9dias \u00e9ducatives ou scienti\ufb01ques pour ensuite introduire l'\u00e9tat de l'art dans les domaines concern\u00e9s. Cela nous permettra de pr\u00e9senter quelques questions de recherche sur lesquelles porteront des \u00e9tudes ult\u00e9rieures. En\ufb01n nous \ufb01nirons en introduisant trois prototypes d\u00e9velopp\u00e9s pour analyser ces questions.","translation":["Multimodal Alignment of Educative and Scienti\ufb01c Resources","This article presents some questions linked to the COC O 1 project. The ambition of this project is to better exploit educa- tive and academic resources by leveraging the different available supports (courses and conference talks videos, scienti\ufb01c articles, textbooks, slides, etc). We will \ufb01rst describe the problem of joint educative or scienti\ufb01c multimedia resources use. We will then give an overview of the related state of the art that will allow us to introduce a few research questions that will be the subject of further studies. Finally we will introduce three research prototypes that are helpful to start to investigate those research questions.","alignment, e-research, e-learning, multimodality"],"keyphrases":["alignement","multimodalit\u00e9","e-research","e-learning"],"prmu":["P","P","U","U"]} {"id":"recital-2015-long-006","title":"\u00c9tat de l'art : analyse des conversations \u00e9crites en ligne porteuses de demandes d'assistance en termes d'actes de dialogue","abstract":"Le d\u00e9veloppement du Web 2.0 et le processus de cr\u00e9ation et de consommation massive de contenus g\u00e9n\u00e9r\u00e9s par les utilisateurs qu'elle a enclench\u00e9 a permis le d\u00e9veloppement de nouveaux types d'interactions chez les internautes. En particulier, nous nous int\u00e9ressons au d\u00e9veloppement du support en ligne et des plate-formes d'entraide. En effet, les archives de conversations en ligne porteuses de demandes d'assistance repr\u00e9sentent une ressource inestimable, mais peu exploit\u00e9e. L'exploitation de cette ressource permettrait non seulement d'am\u00e9liorer les syst\u00e8mes li\u00e9s \u00e0 la r\u00e9solution collaborative des probl\u00e8mes, mais \u00e9galement de perfectionner les canaux de support propos\u00e9s par les entreprises op\u00e9rant sur le web. Pour ce faire, il est cependant n\u00e9cessaire de d\u00e9\ufb01nir un cadre formel pour l'analyse discursive de ce type de conversations. Cet article a pour objectif de pr\u00e9senter l'\u00e9tat de la recherche en analyse des conversations \u00e9crites en ligne, sous diff\u00e9rents m\u00e9diums, et de montrer dans quelle mesure les diff\u00e9rentes m\u00e9thodes expos\u00e9es dans la litt\u00e9rature peuvent \u00eatre appliqu\u00e9es \u00e0 des conversations fonctionnelles inscrites dans le cadre de la r\u00e9solution collaborative des probl\u00e8mes utilisateurs.","translation":["State of the Art : analysis of problem-oriented online written conversations in terms of dialog acts","The advent of Web 2.0 and the massive creation and consumption of user generated content it triggered allowed for new kinds of interactions among web users. Indeed, freely available archives of problem-oriented online conversations represent an invaluable resource, however it remains largely unexploited. Exploiting this resource would not only allow for the improvement of systems related to collaborative problem resolution, but also to re\ufb01ne the customer support channels that web-based companies put at their users' disposal. However, in order to achieve this, it is \ufb01rst necessary to de\ufb01ne a formal framework for the \ufb01ne-grained analysis of online written conversations bearing requests for assistance. This paper presents an overview of the state of the art for discourse analysis in online written conversations, and discusses the applicability of the different methods for the analysis of conversations set within the scope of collaborative problem-solving.","Discourse analysis, Conversation, Problem solving, Annotation scheme, Dialog act"],"keyphrases":["Conversation","Acte de dialogue","Analyse discursive","R\u00e9solution de probl\u00e8mes","Sch\u00e9ma d'annotation"],"prmu":["P","P","P","R","M"]} {"id":"recital-2012-long-001","title":"Segmentation non supervis\u00e9e : le cas du mandarin","abstract":"Dans cet article, nous pr\u00e9sentons un syst\u00e8me de segmentation non supervis\u00e9e que nous \u00e9valuons sur des donn\u00e9es en mandarin. Notre travail s\u2019inspire de l\u2019hypoth\u00e8se de Harris (1955) et suit Kempe (1999) et Tanaka-Ishii (2005) en se basant sur la reformulation de l\u2019hypoth\u00e8se en termes de variation de l\u2019entropie de branchement. Celle-ci se r\u00e9v\u00e8le \u00eatre un bon indicateur des fronti\u00e8res des unit\u00e9s linguistiques. Nous am\u00e9liorons le syst\u00e8me de (Jin et Tanaka-Ishii, 2006) en ajoutant une \u00e9tape de normalisation qui nous permet de reformuler la fa\u00e7on dont sont prises les d\u00e9cisions de segmentation en ayant recours \u00e0 la programmation dynamique. Ceci nous permet de supprimer la plupart des seuils de leur mod\u00e8le tout en obtenant de meilleurs r\u00e9sultats, qui se placent au niveau de l\u2019\u00e9tat de l\u2019art (Wang et al., 2011) avec un syst\u00e8me plus simple que ces derniers. Nous pr\u00e9sentons une \u00e9valuation des r\u00e9sultats sur plusieurs corpus diffus\u00e9s pour le Chinese Word Segmentation bake-off II (Emerson, 2005) et d\u00e9taillons la borne sup\u00e9rieure que l\u2019on peut esp\u00e9rer atteindre avec une m\u00e9thode non-supervis\u00e9e. Pour cela nous utilisons ZPAR en apprentissage crois\u00e9 (Zhang et Clark, 2010) comme sugg\u00e9r\u00e9 dans (Huang et Zhao, 2007; Zhao et Kit, 2008)","translation":["Unsupervized Word Segmentation","In this paper, we present an unsupervised segmentation system tested on Mandarine Chinese. Following Harris\u2019s Hypothesis in Kempe (1999) and Tanaka-Ishii (2005) reformulation, we base our work on the Variation of Branching Entropy. We improve on (Jin et Tanaka-Ishii, 2006) by adding normalization and Viterbi-decoding. This enables us to remove most of the thresholds and parameters from their model and to reach near state-of-the-art results (Wang et al., 2011) with a simpler system. We provide evaluation on different corpora available from the Segmentation bake-off II (Emerson, 2005) and define a more precise topline for the task using cross-trained supervised system available off-the-shelf (Zhang et Clark, 2010; Zhao et Kit, 2008; Huang et Zhao, 2007)","Unsupervized machine learning, segmentation, Mandarin Chinese"],"keyphrases":["segmentation","mandarin","Apprentissage non-supervis\u00e9","chinois"],"prmu":["P","P","R","U"]} {"id":"recital-2012-long-002","title":"Incr\u00e9mentation lexicale dans les textes : une auto-organisation","abstract":"Nous proposons une \u00e9tude dynamique du lexique, en d\u00e9crivant la mani\u00e8re dont il s\u2019organise progressivement du d\u00e9but \u00e0 la fin d\u2019un texte. Pour ce faire, nous nous focalisons sur la co-occurrence g\u00e9n\u00e9ralis\u00e9e, en formant un graphe qui repr\u00e9sente tous les lemmes du texte et synth\u00e9tise leurs relations mutuelles de co-occurrence. L\u2019\u00e9tude d\u2019un corpus de 40 textes montre que ces relations \u00e9voluent d\u2019une mani\u00e8re auto-organis\u00e9e : la forme - et l\u2019identit\u00e9 - du graphe de co-occurrence restent stables apr\u00e8s une phase d\u2019organisation termin\u00e9e avant la 1\u00e8re moiti\u00e9 du texte. Ensuite, il n\u2019\u00e9volue plus : les nouveaux mots et les nouvelles relations de co-occurrence s\u2019inscrivent peu \u00e0 peu dans le r\u00e9seau, sans modifier la forme d\u2019ensemble de la structure. La relation de co-occurrence g\u00e9n\u00e9ralis\u00e9e dans un texte appara\u00eet donc comme la construction rapide d\u2019un syst\u00e8me, qui est ensuite assez souple pour canaliser un flux d\u2019information sans changer d\u2019identit\u00e9.","translation":["Lexical Incrementation within Texts: a Self-Organization","We propose here a dynamic study of lexicon: we describe how it is organized progressively from the beginning to the end of a given text. We focus on the \u201cgeneralized co-occurrence\u201d, forming a graph that represents all the lemmas of the text and their mutual co-occurrence relations. The study of a corpus of 40 texts shows that these relations have a self-organized evolution: the shape and the identity of the graph of cooccurrence become stable after a period of organization finished before the first half of the text. Then they no longer change: new words and new co-occurrence relations gradually take place in the network without changing its overall shape. We show that the evolution of the \u201cgeneralized co-occurrence\u201d is the quick construction of a system, which is then flexible enough to channel the flow of information without changing its identity.","Text, lexicon, generalized co-occurrence, self-organization"],"keyphrases":["Texte","auto-organisation","lexique","co-occurrence g\u00e9n\u00e9ralis\u00e9e"],"prmu":["P","P","P","P"]} {"id":"recital-2012-long-003","title":"Etude des mesures de similarit\u00e9 h\u00e9t\u00e9rog\u00e8nes pour l\u2019extraction de relations s\u00e9mantiques","abstract":"L\u2019article \u00e9value un \u00e9ventail de mesures de similarit\u00e9 qui ont pour but de pr\u00e9dire les scores de similarit\u00e9 s\u00e9mantique et les relations s\u00e9mantiques qui s\u2019\u00e9tablissent entre deux termes, et \u00e9tudie les moyens de combiner ces mesures. Nous pr\u00e9sentons une analyse comparative \u00e0 grande \u00e9chelle de 34 mesures bas\u00e9es sur des r\u00e9seaux s\u00e9mantiques, le Web, des corpus, ainsi que des d\u00e9finitions. L\u2019article met en \u00e9vidence les forces et les faiblesses de chaque approche en contexte de l\u2019extraction de relations. Enfin, deux techniques de combinaison de mesures sont d\u00e9crites et test\u00e9es. Les r\u00e9sultats montrent que les mesures combin\u00e9es sont plus performantes que toutes les mesures simples et aboutissent \u00e0 une corr\u00e9lation de 0,887 et une Precision(20) de 0,979.","translation":["A Study of Heterogeneous Similarity Measures for Semantic Relation Extraction","This paper evaluates a wide range of heterogeneous semantic similarity measures on the task of predicting semantic similarity scores and the task of predicting semantic relations that hold between two terms, and investigates ways to combine these measures. We present a large-scale benchmarking of 34 knowledge-, web-, corpus-, and definition-based similarity measures. The strengths and weaknesses of each approach regarding relation extraction are discussed. Finally, we describe and test two techniques for measure combination. These combined measures outperform all single measures, achieving a correlation of 0.887 and Precision(20) of 0.979.","Semantic Similarity, Semantic Relations, Distributional Similarity"],"keyphrases":["Relations s\u00e9mantiques","Similarit\u00e9 s\u00e9mantique","Similarit\u00e9 distributionnelle"],"prmu":["P","P","M"]} {"id":"recital-2012-long-004","title":"Int\u00e9gration de param\u00e8tres lexicaux, syntaxiques et issus du syst\u00e8me de traduction automatique pour am\u00e9liorer l\u2019estimation des mesures de confiance au niveau des mots","abstract":"L\u2019estimation des mesures de confiance (MC) au niveau des mots consiste \u00e0 pr\u00e9dire leur exactitude dans la phrase cible g\u00e9n\u00e9r\u00e9e par un syst\u00e8me de traduction automatique. Ceci permet d\u2019estimer la fiabilit\u00e9 d'une sortie de traduction et de filtrer les segments trop mal traduits pour une post-\u00e9dition. Nous \u00e9tudions l\u2019impact sur le calcul des MC de diff\u00e9rents param\u00e8tres : lexicaux, syntaxiques et issus du syst\u00e8me de traduction. Nous pr\u00e9sentons la m\u00e9thode permettant de labelliser automatiquement nos corpus (mot correct ou incorrect), puis le classifieur \u00e0 base de champs al\u00e9atoires conditionnels utilis\u00e9 pour int\u00e9grer les diff\u00e9rents param\u00e8tres et proposer une classification appropri\u00e9e des mots. Nous avons effectu\u00e9 des exp\u00e9riences pr\u00e9liminaires, avec l\u2019ensemble des param\u00e8tres, o\u00f9 nous mesurons la pr\u00e9cision, le rappel et la F-mesure. Finalement nous comparons les r\u00e9sultats avec notre syst\u00e8me de r\u00e9f\u00e9rence. Nous obtenons de bons r\u00e9sultats pour la classification des mots consid\u00e9r\u00e9s comme corrects (F-mesure : 86.7%), et encourageants pour ceux estim\u00e9s comme mal traduits (F-mesure : 36,8%).","translation":["Integrating Lexical, Syntactic and System-based Features to Improve Word Confidence Estimation in SMT","Confidence Estimation at word level is the task of predicting the correct and incorrect words in the target sentence generated by a MT system. It helps to conclude the reliability of a given translation as well as to filter out sentences that are not good enough for post-editing. This paper investigates various types of features to circumvent this issue, including lexical, syntactic and system-based features. A method to set training label for each word in the hypothesis is also presented. A classifier based on conditional random fields (CRF) is employed to integrate features and determine the word\u2019s appropriate label. We conducted our preliminary experiment with all features, tracked precision, recall and F-score and we compared with our baseline system. Experimental results of the full combination of all features yield the very encouraging precision, recall and F-score for Good label (F-score: 86.7%), and acceptable scores for Bad label (F-score: 36.8%).","Machine translation, confidence measure, confidence estimation, conditional random fields"],"keyphrases":["Syst\u00e8me de traduction automatique","mesure de confiance","champs al\u00e9atoires conditionnels","estimation de la confiance"],"prmu":["P","P","P","R"]} {"id":"recital-2012-long-005","title":"Application d\u2019un algorithme de traduction statistique \u00e0 la normalisation de textos","abstract":"Ce travail porte sur l\u2019application d\u2019une technique de traduction statistique au probl\u00e8me de la normalisation de textos. La m\u00e9thode est bas\u00e9e sur l\u2019algorithme de recherche vorace d\u00e9crit dans (Langlais et al., 2007). Une premi\u00e8re normalisation est g\u00e9n\u00e9r\u00e9e, puis nous appliquons it\u00e9rativement une fonction qui g\u00e9n\u00e8re des nouvelles hypoth\u00e8ses \u00e0 partir de la normalisation courante, et maximisons une fonction de score. Cette m\u00e9thode fournit une r\u00e9duction du taux d\u2019erreurs moyen par phrase de 33 % sur le corpus de test, et une augmentation du score BLEU de plus de 30 %. Nous mettons l\u2019accent sur les fonctions qui g\u00e9n\u00e8rent la normalisation initiale et sur les op\u00e9rations permettant de g\u00e9n\u00e9rer des nouvelles hypoth\u00e8ses.","translation":["Applying a Statistical Machine Translation Algorithm to SMS Text Message Normalization","We report on the application of a statistical machine translation algorithm to the problem of SMS text message normalization. The technique is based on a greedy search algorithm described in (Langlais et al., 2007). A first normalization is generated, then a function that generates new hypotheses is applied iteratively to a current best guess, while maximizing a scoring function. This method leads to a drop in word error rate of 33% on a held-out test set, and a BLEU score gain of over 30%. We focus on the methods of generating the initial normalization and the operations that allow us to generate new hypotheses.","Machine translation, SMS, text message, normalization, greedy search algorithm, language model"],"keyphrases":["Traduction statistique","normalisation de textos","algorithme de recherche vorace","mod\u00e8le de langue"],"prmu":["P","P","P","M"]} {"id":"recital-2012-long-006","title":"Vers la correction automatique de textes bruit\u00e9s: Architecture g\u00e9n\u00e9rale et d\u00e9termination de la langue d\u2019un mot inconnu","abstract":"Dans ce papier, nous introduisons le probl\u00e8me que pose la correction orthographique sur des corpus de qualit\u00e9 tr\u00e8s d\u00e9grad\u00e9e tels que les messages publi\u00e9s sur les forums, les sites d\u2019avis ou les r\u00e9seaux sociaux. Nous proposons une premi\u00e8re architecture de correction qui a pour objectif d\u2019\u00e9viter au maximum la sur-correction. Nous pr\u00e9sentons, par ailleurs l\u2019impl\u00e9mentation et les r\u00e9sultats d\u2019un des modules de ce syst\u00e8me qui a pour but de d\u00e9tecter si un mot inconnu, dans une phrase de langue connue, est un mot qui appartient \u00e0 cette langue ou non.","translation":["Towards Automatic Spell-Checking of Noisy Texts : General Architecture and Language Identification for Unknown Words","This paper deals with the problem of spell checking on degraded-quality corpora such as blogs, review sites and social networks. We propose a first architecture of correction which aims at reducing overcorrection, and we describe its implementation. We also report and discuss the results obtained thanks to the module that detects whether an unknown word from a sentence in a known language belongs to this language or not.","Spelling correction, language identification, User-Generated Content"],"keyphrases":["Correction automatique","d\u00e9tection de langue","donn\u00e9es produite par l\u2019utilisateur"],"prmu":["P","R","M"]} {"id":"recital-2012-long-007","title":"Une plate-forme g\u00e9n\u00e9rique et ouverte pour l\u2019acquisition des expressions polylexicales","abstract":"Cet article pr\u00e9sente et \u00e9value une plate-forme ouverte et flexible pour l\u2019acquisition automatique d\u2019expressions polylexicales (EPL) \u00e0 partir des corpus monolingues. Nous commen\u00e7ons par une motivation pratique suivie d\u2019une discussion th\u00e9orique sur le comportement et les d\u00e9fis pos\u00e9s par les EPL dans les applications de TAL. Ensuite, nous d\u00e9crivons les modules de notre plate-forme, leur encha\u00eenement et les choix d\u2019impl\u00e9mentation. L\u2019\u00e9valuation de la plate-forme a \u00e9t\u00e9 effectu\u00e9e \u00e0 travers une applications : la lexicographie assist\u00e9e par ordinateur. Cette derni\u00e8re peut b\u00e9n\u00e9ficier de l\u2019acquisition d\u2019EPL puisque les expressions acquises automatiquement \u00e0 partir des corpus peuvent \u00e0 la fois acc\u00e9l\u00e9rer la cr\u00e9ation et am\u00e9liorer la qualit\u00e9 et la couverture des ressources lexicales. Les r\u00e9sultats prometteurs encouragent une recherche plus approfondie sur la mani\u00e8re optimale d\u2019int\u00e9grer le traitement des EPL dans de nombreuses applications de TAL, notamment dans les syst\u00e8mes traduction automatique.","translation":["An Open and Generic Framework for the Acquisition of Multiword Expressions","In this paper, we present and evaluate an open and flexible methodological framework for the automatic acquisition of multiword expressions (MWEs) from monolingual textual corpora. We start with a pratical motivation followed by a theoretical discussion of the behaviour and of the challenges that MWEs pose for NLP applications. Afterwards, we describe the modules of our framework, the overall pipeline and the design choices of the tool implementing the framework. The evaluation of the framework was performed extrinsically based on an application : computerassisted lexicography. This application can benefit from MWE acquisition because the expressions acquired automatically from corpora can both speed up the creation and improve the quality and the coverage of the lexical resources. The promising results of previous and ongoing experiments encourage further investigation about the optimal way to integrate MWE treatment into NLP applications, and particularly into machine translation systems.","Multiword expression, lexical extraction, lexicon, association measures, corpus, lexicography"],"keyphrases":["Expressions polylexicales","corpus","lexicographie","extraction lexicale","lexique","mesures d\u2019association"],"prmu":["P","P","P","M","U","M"]} {"id":"recital-2012-long-008","title":"Syst\u00e8me de pr\u00e9diction de n\u00e9ologismes formels : le cas des N suffix\u00e9s par -IER d\u00e9notant des artefacts","abstract":"Nous pr\u00e9sentons ici un syst\u00e8me de pr\u00e9diction de n\u00e9ologismes formels avec pour exemple la g\u00e9n\u00e9ration automatique de n\u00e9ologismes nominaux suffix\u00e9s par -IER d\u00e9notant des artefacts (saladier, brassi\u00e8re, thonier). L\u2019objectif de cet article est double. Il s\u2019agira (i) de mettre en \u00e9vidence les contraintes de la suffixation par -IER afin de les impl\u00e9menter dans un syst\u00e8me de g\u00e9n\u00e9ration morphologique puis (ii) de montrer qu\u2019il est possible de pr\u00e9dire les n\u00e9ologismes formels. Ce syst\u00e8me de pr\u00e9diction permettrait ainsi de compl\u00e9ter automatiquement les lexiques pour le Traitement Automatique des Langues (TAL).","translation":["Prediction Device of Formal Neologisms : the Case of -IER Suffixed Nouns Denoting Artifacts","We\u2019ll introduce here a device that can predict neologisms using an example the automatical generation of nominal neologisms suffixed by -IER denoting artifacts (saladier, brassi\u00e8re, thonier). The aim of this article is double. We will first address the - IER suffixation constraints in order to take them into account on the implementation of our morphological generator. Second, we will describe our method to predict formal neologisms. Such a method will permit to automatically enrich NLP lexicons.","constructional morphology, neology, morphological generation, lexical incompleteness"],"keyphrases":["n\u00e9ologie","g\u00e9n\u00e9ration morphologique","morphologie constructionnelle","incompl\u00e9tude lexicale"],"prmu":["P","P","M","U"]} {"id":"recital-2012-long-009","title":"Pr\u00e9mices d\u2019une analyse syntaxique par transition pour des structures de d\u00e9pendance non-projectives","abstract":"L\u2019article pr\u00e9sente une extension de l\u2019analyseur traditionnel en d\u00e9pendances par transitions adapt\u00e9 aux d\u00e9pendances discontinues et les premiers r\u00e9sultats de son entra\u00eenement sur un corpus de structures de d\u00e9pendances de phrases en fran\u00e7ais. Les r\u00e9sultats des premi\u00e8res exp\u00e9rimentations vont servir de base pour le choix des traits des configurations de calcul bien adapt\u00e9s aux d\u00e9pendances discontinues pour am\u00e9liorer l\u2019apprentissage des d\u00e9pendances t\u00eate.","translation":["Beginnings of a Transition-Based Parsing for Non-Projectives Dependency Structures","This paper presents an extension of the traditional transition-based dependency parser adapted to discontinuous dependencies and the first results of its training on a dependency tree corpus of French. The first experimental results will be useful for the choice of parsing configuration features well adapted to discontinuous dependencies in order to ameliorate learning of head dependencies.","transition-based parsing, non-projective dependency structure, dependency categorial grammar"],"keyphrases":["analyse syntaxique par transitions","structure de d\u00e9pendance non-projective","grammaire cat\u00e9gorielle de d\u00e9pendance"],"prmu":["P","P","M"]} {"id":"recital-2012-long-010","title":"Cr\u00e9ation d\u2019un multi-arbre \u00e0 partir d\u2019un texte balis\u00e9 : l\u2019exemple de l\u2019annotation d\u2019un corpus d\u2019oral spontan\u00e9","abstract":"Dans cette \u00e9tude, nous nous int\u00e9ressons au probl\u00e8me de l\u2019analyse d\u2019un corpus annot\u00e9 de l\u2019oral. Le syst\u00e8me d\u2019annotation consid\u00e9r\u00e9 est celui introduit par l\u2019\u00e9quipe des syntacticiens du projet Rhapsodie. La principale probl\u00e9matique qui sous-tend un tel projet est que la base \u00e9crite sur laquelle on travaille est en r\u00e9alit\u00e9 une transcription de l\u2019oral, balis\u00e9e par les annotateurs de mani\u00e8re \u00e0 d\u00e9limiter un ensemble de structures arborescentes. Un tel syst\u00e8me introduit plusieurs structures, en particulier macro et micro-syntaxiques. Du fait de leur \u00e9troite imbrication, il s\u2019est av\u00e9r\u00e9 difficile de les analyser de fa\u00e7on ind\u00e9pendante et donc de travailler sur l\u2019aspect macro-syntaxique ind\u00e9pendamment de l\u2019aspect micro-syntaxique. Cependant, peu d\u2019\u00e9tudes jusqu\u2019\u00e0 pr\u00e9sent consid\u00e8rent ces probl\u00e8mes conjointement et de mani\u00e8re automatis\u00e9e. Dans ce travail, nous pr\u00e9sentons nos efforts en vue de produire un outil de parsing capable de rendre compte \u00e0 la fois de l\u2019information micro et macro-syntaxique du texte annot\u00e9. Pour ce faire, nous proposons une repr\u00e9sentation partant de la notion de multi-arbre et nous montrons comment une telle structure peut \u00eatre g\u00e9n\u00e9r\u00e9e \u00e0 partir de l\u2019annotation et utilis\u00e9e \u00e0 des fins d\u2019analyse.","translation":["Creating a Multi-Tree from a Tagged Text : Annotating Spoken French","This study focuses on automatic analysis of annotated transcribed speech. The annotation system considered has been recently introduced to address the several limitations of classical syntactic annotations when faced to natural speech transcriptions. It introduces many different components such as embedding, piles, kernels, pre-kernels, discursive markers etc.. All those components are tightly coupled in a complex tree structure and can hardly be considered separately because of their close intrication. Hence, a joint analysis is required but no analysis tool to handle them all together was available yet. In this study, we introduce such an automatic parser of annotated transcriptions of speech and present the corresponding framework based on multi-trees. This framework permits to jointly handle separate aspects of speech such as macro and micro syntactic levels, which are traditionnaly considered separately. Several applications are proposed, including analysis of the transcribed speech by classical parsers designed for written language.","Syntactic trees, illocutionary unit, microsyntax, macrosyntax, piles"],"keyphrases":["micro-syntaxe","Arbres syntaxiques","unit\u00e9 illocutoire","unit\u00e9s rectionnelles","macrosyntaxe","entassement"],"prmu":["P","U","U","U","U","U"]} {"id":"recital-2012-long-011","title":"Construction automatique d\u2019un lexique de modifieurs de polarit\u00e9","abstract":"La recherche pr\u00e9sent\u00e9e 1 s\u2019inscrit dans le domaine de la fouille d\u2019opinion, domaine qui consiste principalement \u00e0 d\u00e9terminer la polarit\u00e9 d\u2019un texte ou d\u2019une phrase. Dans cette optique, le contexte autour d\u2019un mot polaris\u00e9 joue un r\u00f4le essentiel, car il peut modifier la polarit\u00e9 initiale de ce terme. Nous avons choisi d\u2019approfondir cette question et de d\u00e9tecter pr\u00e9cis\u00e9ment ces modifieurs de polarit\u00e9. Une \u00e9tude exploratoire, d\u00e9crite dans des travaux ant\u00e9rieurs, nous a permis d\u2019extraire automatiquement des adverbes qui jouent un r\u00f4le sur la polarit\u00e9 des adjectifs auxquels ils sont associ\u00e9s et de pr\u00e9ciser leur impact. Nous avons ensuite am\u00e9lior\u00e9 le syst\u00e8me d\u2019extraction afin de construire automatiquement un lexique de structures lexico-syntaxiques modifiantes associ\u00e9es au type d\u2019impact qu\u2019elles ont sur un terme polaris\u00e9. Nous pr\u00e9sentons ici le fonctionnement du syst\u00e8me actuel ainsi que l\u2019\u00e9valuation du lexique obtenu.","translation":["Automatic Construction of a Contextual Valence Shifters Lexicon","The research presented in this paper takes place in the field of Opinion Mining, which is mainly devoted to assigning a positive or negative label to a text or a sentence. The context of a highly polarized word plays an essential role, as it can modify its original polarity. The present work addresses this issue and focuses on the detection of polarity shifters. In a previous study, we have automatically extracted adverbs impacting the polarity of the adjectives they are associated to and qualified their influence. The extraction system has then been improved to automatically build a lexicon of contextual valence shifters. This lexicon contains lexico-syntactic patterns combined with the type of influence they have on the valence of the polarized item. The purpose of this paper is to show how the current system works and to present the evaluation of the created lexicon.","opinion mining, contextual valence shifters"],"keyphrases":["modifieurs de polarit\u00e9","fouille d\u2019opinion","modifieurs de valence affective"],"prmu":["P","P","M"]} {"id":"recital-2012-long-012","title":"Apport de la diacritisation dans l\u2019analyse morphosyntaxique de l\u2019arabe","abstract":"Ce travail s\u2019inscrit dans le cadre de l\u2019analyse morphologique et syntaxique automatique de la langue arabe. Nous nous int\u00e9ressons au traitement de la diacritisation et \u00e0 son apport pour l\u2019analyse morphologique. En effet, la plupart des analyseurs morphologiques et des \u00e9tiqueteurs morphosyntaxiques existants ignorent les diacritiques pr\u00e9sents dans le texte \u00e0 analyser et commettent des erreurs qui pourraient \u00eatre \u00e9vit\u00e9es. Dans cet article, nous proposons une m\u00e9thode qui prend en consid\u00e9ration les diacritiques lors de l\u2019analyse, et nous montrons que cette prise en compte permet de diminuer consid\u00e9rablement le taux d\u2019erreur de l\u2019analyse morphologique selon le taux de diacritiques du texte trait\u00e9.","translation":["Apport of Diacritization in Arabic Morpho-Syntactic Analysis","This work is concerned with the automatic morphological and syntactical analysis of the Arabic language. It focuses on diacritization and on its contribution to morphological analysis. Most of existing morphological analyzers and syntactical taggers do not take diacritics into account; as a consequence, they make mistakes that could have been avoided. In this paper, we propose a method which process diacritics. We show that doing so reduces considerably the morphological error rate, depending on the diacritics rate in the input text.","diacritization, computer processing, morpho-syntaxic analysis, Arabic language"],"keyphrases":["diacritisation","analyse morphosyntaxique","langue arabe","traitement automatique"],"prmu":["P","P","P","R"]} {"id":"recital-2012-long-013","title":"Extraction d\u2019indicateurs de construction collective de connaissances dans la formation en ligne","abstract":"Dans le cadre d\u2019apprentissages humains assist\u00e9s par des environnements informatiques, les techniques de TAL ne sont que rarement employ\u00e9es ou restreintes \u00e0 des t\u00e2ches ou des domaines sp\u00e9cifiques comme l\u2019ALAO (Apprentissage de la Langue Assist\u00e9 par Ordinateur) o\u00f9 elles sont omnipr\u00e9sentes mais ne concernent que certaines dimensions du TAL. Nous cherchons \u00e0 explorer les possibilit\u00e9s ou les performances des techniques voire des m\u00e9thodes de TAL pour des syst\u00e8mes moins sp\u00e9cifiques d\u00e8s lors qu\u2019une dimension de r\u00e9seau et de collectivit\u00e9 est pr\u00e9sente. Plus particuli\u00e8rement, notre objectif est d\u2019obtenir des indicateurs sur la construction collective de connaissances, et ses modalit\u00e9s. Ce papier pr\u00e9sente la probl\u00e9matique de notre th\u00e8se, son contexte, nos motivations ainsi que nos premi\u00e8res r\u00e9flexions.","translation":["Collaborative Knowledge Building Indicators Extraction in Distance Learning","Natural Language Processing techniques are still not very much used within the field of Technology Enhanced Learning. They are restricted to specific tasks or domains such as CALL (standing for Computer Assisted Language Learning) in which they are ubiquitous but do not match every linguistic aspect they could process. We are seeking to explore possibilities or performances of thoses techniques for less specific systems including a network or community aspect. More precisely, our goal is to get indicators about collective knowledge building and its modalities. This paper presents the problem and the background of our thesis problem, as well as our motivation and our first reflections.","NLP, TEL, distance learning, socio-constructivism, knowledge aquisition, collaboration, CSCL"],"keyphrases":["formation en ligne","TAL","EIAH","socio-constructivisme","acquisition des connaissances","apprentissage collaboratif en ligne"],"prmu":["P","P","U","U","M","M"]} {"id":"recital-2012-long-014","title":"\u00c9tat de l\u2019art : mesures de similarit\u00e9 s\u00e9mantique locales et algorithmes globaux pour la d\u00e9sambigu\u00efsation lexicale \u00e0 base de connaissances","abstract":"Dans cet article, nous pr\u00e9sentons les principales m\u00e9thodes non supervis\u00e9es \u00e0 base de connaissances pour la d\u00e9sambigu\u00efsation lexicale. Elles sont compos\u00e9es d\u2019une part de mesures de similarit\u00e9 s\u00e9mantique locales qui donnent une valeur de proximit\u00e9 entre deux sens de mots et, d\u2019autre part, d\u2019algorithmes globaux qui utilisent les mesures de similarit\u00e9 s\u00e9mantique locales pour trouver les sens appropri\u00e9s des mots selon le contexte \u00e0 l\u2019\u00e9chelle de la phrase ou du texte.","translation":["State of the art : Local Semantic Similarity Measures and Global Algorithmes for Knowledge-based Word Sense Disambiguation","We present the main methods for unsupervised knowledge-based word sense disambiguation. On the one hand, at the local level, we present semantic similarity measures, which attempt to quantify the semantic proximity between two word senses. On the other hand, at the global level, we present algorithms which use local semantic similarity measures to assign the appropriate senses to words depending on their context, at the scale of a text or of a corpus.","unsupervised word sense disambiguation, knowledge-based semantic similarity measures, global algorithms for the propagation of local measures"],"keyphrases":["d\u00e9sambigu\u00efsation lexicale non-supervis\u00e9e","mesures de similarit\u00e9 s\u00e9mantique \u00e0 base de connaissances","algorithmes globaux de propagation de mesures locales"],"prmu":["M","R","M"]} {"id":"recital-2012-long-015","title":"Compression textuelle sur la base de r\u00e8gles issues d'un corpus de sms","abstract":"La pr\u00e9sente recherche cherche \u00e0 r\u00e9duire la taille de messages textuels sur la base de techniques de compression observ\u00e9es, pour la plupart, dans un corpus de sms. Ce papier explique la m\u00e9thodologie suivie pour \u00e9tablir des r\u00e8gles de contraction. Il pr\u00e9sente ensuite les 33 r\u00e8gles retenues, et illustre les quatre niveaux de compression propos\u00e9s par deux exemples concrets, produits automatiquement par un premier prototype. Le but de cette recherche n'est donc pas de produire de \"l'\u00e9crit-sms\", mais d'\u00e9laborer un proc\u00e9d\u00e9 de compression capable de produire des textes courts et compr\u00e9hensibles \u00e0 partir de n'importe quelle source textuelle en fran\u00e7ais. Le terme \"d'essentialisation\" est propos\u00e9 pour d\u00e9signer cette approche de r\u00e9duction textuelle.","translation":["Textual Compression Based on Rules Arising from a Corpus of Text Messages","The present research seeks to reduce the size of text messages on the basis of compression techniques observed mostly in a corpus of sms. This paper explains the methodology followed to establish compression rules. It then presents the 33 considered rules, and illustrates the four suggested levels of compression with two practical examples, automatically generated by a first prototype. This research\u2019s main purpose is not to produce \"sms-language\", but consists in designing a textual compression process able to generate short and understandable texts from any textual source in French. The term of \"essentialization\" is proposed to describe this approach of textual reduction.","summarization, text compression, text messaging, readability, essentialization"],"keyphrases":["sms","essentialisation","r\u00e9sum\u00e9 automatique","compression de texte","lisibilit\u00e9"],"prmu":["P","P","M","R","U"]} {"id":"recital-2012-long-016","title":"Pour un \u00e9tiquetage automatique des s\u00e9quences verbales fig\u00e9es : \u00e9tat de l\u2019art et approche transformationnelle","abstract":"Cet article pr\u00e9sente une approche permettant de reconnaitre automatiquement dans un texte des s\u00e9quences verbales fig\u00e9es (casser sa pipe, briser la glace, prendre en compte) \u00e0 partir d\u2019une ressource. Cette ressource d\u00e9crit chaque s\u00e9quence en termes de possibilit\u00e9s et de restrictions transformationnelles. En effet, les s\u00e9quences fig\u00e9es ne le sont pas compl\u00e8tement et n\u00e9cessitent une description exhaustive afin de ne pas extraire seulement les formes canoniques. Dans un premier temps nous aborderons les approches traditionnelles permettant d\u2019extraire des s\u00e9quences phras\u00e9ologiques. Par la suite, nous expliquerons comment est constitu\u00e9e notre ressource et comment celle-ci est utilis\u00e9e pour un traitement automatique.","translation":["For an Automatic Fixed Verbal Sequence Tagging: State of the Art and Transformational Approach","This article presents a resource-based method aiming at automatically recognizing fixed verbal sequences in French (i.e casser sa pipe, briser la glace, prendre en compte) inside a text. This resource describes each sequence from the view-point of transformational possibilities and restrictions. Fixed sequences are not totally fixed and an exhaustive description is necessary to not only extract canonical forms. We will first describe some transformational approaches that are able to extract phraseological sequences. The building of the resource will be then addressed followed by our approach to automatically recognize fixed sequences in corpora.","fixed verbal sequences, automatic recognition, tagging, linguistical transformations, electronic resources"],"keyphrases":["\u00e9tiquetage","s\u00e9quences verbales fig\u00e9es","reconnaissance automatique","transformations linguistiques","ressources \u00e9lectroniques"],"prmu":["P","P","M","U","M"]} {"id":"recital-2012-long-017","title":"L\u2019analyse de l\u2019\u00e9motion dans les forums de sant\u00e9","abstract":"Les travaux sur l\u2019\u00e9motion dans les forums sont nombreux en Linguistique et Psychologie. L\u2019objectif de cette contribution est de proposer une analyse de l\u2019\u00e9motion dans les forums de sant\u00e9 selon l\u2019angle des Sciences de l\u2019Information et de la Communication mais \u00e9galement selon une approche interdisciplinaire. Il s\u2019agira ici, d\u2019\u00e9tudier l\u2019\u00e9motion comme un crit\u00e8re de pertinence lorsque des personnes malades effectuent des recherches dans les forums. Ce papier introduit la m\u00e9thodologie utilis\u00e9e en traitement automatique de la langue afin de r\u00e9pondre \u00e0 cette interrogation. Ainsi, le travail pr\u00e9sent\u00e9 abordera l\u2019exploitation d\u2019un corpus de messages de forums, la cat\u00e9gorisation semi-supervis\u00e9e et l\u2019utilisation du logiciel NooJ pour traiter de mani\u00e8re automatique les donn\u00e9es.","translation":["Analysis of Emotion in Health Fora","Studies about emotion in fora are numerous in Linguistics and Psychology. This contribution approaches this subject from an Information and Communication Sciences point of view, and studies emotion as a criteron of pertinence for patients in a health forum. This paper introduces the empirical step of automatic language processing in order to answer this question, and uses data processing on the corpus of forum messages, semi-supervised categorisation of messages and use of software NooJ for Natural Language Processing.","emotion, health forum, automatic language processing, lexical disambiguation"],"keyphrases":["\u00e9motion","forum de sant\u00e9","traitement automatique de la langue","d\u00e9sambigu\u00efsation lexicale"],"prmu":["P","P","P","U"]} {"id":"recital-2012-long-018","title":"Peuplement d\u2019une ontologie mod\u00e9lisant le comportement d\u2019un environnement intelligent guid\u00e9 par l\u2019extraction d\u2019instances de relations","abstract":"Nous pr\u00e9sentons une approche de peuplement d\u2019ontologie dont le but est de mod\u00e9liser le comportement de composants logiciels afin de faciliter le passage de descriptions d\u2019exigences en langue naturelle \u00e0 des sp\u00e9cifications formelles. L\u2019ontologie que nous cherchons \u00e0 peupler a \u00e9t\u00e9 con\u00e7ue \u00e0 partir des connaissances du domaine de la domotique et est initialis\u00e9e \u00e0 partir d\u2019une description de la configuration physique d\u2019un environnement intelligent. Notre m\u00e9thode est guid\u00e9e par l\u2019extraction d\u2019instances de relations permettant par l\u00e0-m\u00eame d\u2019extraire les instances de concepts li\u00e9s par ces relations. Nous construisons des r\u00e8gles d\u2019extraction \u00e0 partir d\u2019\u00e9l\u00e9ments issus de l\u2019analyse syntaxique de descriptions de besoins utilisateurs et de ressources terminologiques associ\u00e9es aux concepts et relations de l\u2019ontologie. Notre approche de peuplement se distingue par sa finalit\u00e9 qui n\u2019est pas d\u2019extraire toutes les instances d\u00e9crivant un domaine mais d\u2019extraire des instances pouvant participer sans conflit \u00e0 un des multiples fonctionnements d\u00e9crit par des utilisateurs.","translation":["Population of an Ontology Modeling the Behavior of an Intelligent Environment Guided by Instance Relation Extractions","We present an approach for ontology population, which aims at modeling the behavior of software components, for enabling a transition from natural language requirements to formal specifications. The ontology was designed based on the knowledge of the domotic domain and is initialized from a description of a physical configuration of an intelligent environment. Our method focuses on extracting relation instances which allows the extraction of concept instances linked by these relations. We built extraction rules using elements coming from syntactic analysis of user need descriptions, semantic and terminological resources linked to the knowledge contained in the ontology. Our approach for ontology population, distinguishes itself by its purpose, which is not to extract all instances describing a domain but to extract instances that can participate without any conflict to one of the mutiple operation decribed by users.","relation extraction, ontology population, knowledge representation"],"keyphrases":["peuplement d\u2019ontologie","extraction de relations","repr\u00e9sentation des connaissances"],"prmu":["P","R","M"]} {"id":"recital-2012-long-019","title":"De l'utilisation du dialogue naturel pour masquer les QCM au sein des jeux s\u00e9rieux","abstract":"Une des principales faiblesses des jeux s\u00e9rieux \u00e0 l'heure actuelle est qu'ils incorporent tr\u00e8s souvent des questionnaires \u00e0 choix multiple (QCM). Or, aucune \u00e9tude n'a d\u00e9montr\u00e9 que les QCM sont capables d'\u00e9valuer pr\u00e9cis\u00e9ment le niveau de compr\u00e9hension des apprenants. Au contraire, certaines \u00e9tudes ont montr\u00e9 exp\u00e9rimentalement que permettre \u00e0 l'apprenant d'entrer une phrase libre dans le programme au lieu de simplement cocher une r\u00e9ponse dans un QCM rend possible une \u00e9valuation beaucoup plus fine des comp\u00e9tences de l'apprenant. Nous proposons donc de concevoir un agent conversationnel capable de comprendre des \u00e9nonc\u00e9s en langage naturel dans un cadre s\u00e9mantique restreint, cadre correspondant au domaine de comp\u00e9tence test\u00e9 chez l'apprenant. Cette fonctionnalit\u00e9 est destin\u00e9e \u00e0 permettre un dialogue naturel avec l'apprenant, en particulier dans le cadre des jeux s\u00e9rieux. Une telle interaction en langage naturel a pour but de masquer les QCM sous-jacents. Cet article pr\u00e9sente notre approche.","translation":["Of the Use of Natural Dialogue to Hide MCQs in Serious Games","A major weakness of serious games at the moment is that they often incorporate multiple choice questionnaires (MCQs). However, no study has demonstrated that MCQs can accurately assess the level of understanding of a learner. On the contrary, some studies have experimentally shown that allowing the learner to input a free-text answer in the program instead of just selecting one answer in an MCQ allows a much finer evaluation of the learner's skills. We therefore propose to design a conversational agent that can understand statements in natural language within a narrow semantic context corresponding to the area of competence on which we assess the learner. This feature is intended to allow a natural dialogue with the learner, especially in the context of serious games. Such interaction in natural language aims to hide the underlying MCQs. This paper presents our approach.","Educational conversational agent, artificial intelligence, serious game, multiple-choice questionnaire, automatic assessment of free-text answer"],"keyphrases":["questionnaire \u00e0 choix multiple","Agent conversationnel \u00e9ducatif","intelligence artificielle","jeu s\u00e9rieux","syst\u00e8me d'\u00e9valuation de r\u00e9ponses libres"],"prmu":["P","M","U","M","M"]} {"id":"recital-2012-long-020","title":"ResTS : Syst\u00e8me de R\u00e9sum\u00e9 Automatique des Textes d\u2019Opinions bas\u00e9 sur Twitter et SentiWordNet","abstract":"Comme le E-commerce est devenu de plus en plus populaire, le nombre de commentaires des internautes est en croissance constante. Les opinions sur le Web affectent nos choix et nos d\u00e9cisions. Il s\u2019av\u00e8re alors indispensable de traiter une quantit\u00e9 importante de critiques des clients afin de pr\u00e9senter \u00e0 l\u2019utilisateur l\u2019information dont il a besoin dans la forme la plus appropri\u00e9e. Dans cet article, nous pr\u00e9sentons ResTS, un nouveau syst\u00e8me de r\u00e9sum\u00e9 automatique de textes d\u2019opinions bas\u00e9 sur les caract\u00e9ristiques des produits. Notre approche vise \u00e0 transformer les critiques des utilisateurs en des scores qui mesurent le degr\u00e9 de satisfaction des clients pour un produit donn\u00e9 et pour chacune de ses caract\u00e9ristiques. Ces scores sont compris entre 0 et 1 et peuvent \u00eatre utilis\u00e9s pour la prise de d\u00e9cision. Nous avons \u00e9tudi\u00e9 les opinions v\u00e9hicul\u00e9es par les noms, les adjectifs, les verbes et les adverbes, contrairement aux recherches pr\u00e9c\u00e9dentes qui utilisent essentiellement les adjectifs. Les r\u00e9sultats exp\u00e9rimentaux pr\u00e9liminaires montrent que notre m\u00e9thode est comparable aux m\u00e9thodes classiques de r\u00e9sum\u00e9 automatique bas\u00e9es sur les caract\u00e9ristiques des produits.","translation":["System of Customer Review Summarization using Twitter and SentiWordNet","As E-commerce is becoming more and more popular, the number of customer reviews raises rapidly. Opinions on the Web affect our choices and decisions. Thus, it is more efficient to automatically process a mixture of reviews and prepare to the customer the required information in an appropriate form. In this paper, we present ResTS, a new system of feature-based opinion summarization. Our approach aims to turn the customer reviews into scores that measure the customer satisfaction for a given product and its features. These scores are between 0 and 1 and can be used for decision making and then help users in their choices. We investigated opinions extracted from nouns, adjectives, verbs and adverbs contrary to previous research which use only adjectives. Experimental results show that our method performs comparably to classic feature-based summarization methods.","Opinion mining, Sentiment Classification, Opinion Strength, Feature-based Opinion Summarization, Feature Buzz Summary"],"keyphrases":["Fouille d\u2019opinion","Classification","Intensit\u00e9 de l\u2019Opinion","R\u00e9sum\u00e9 de texte d\u2019opinion","Popularit\u00e9"],"prmu":["M","U","M","M","U"]} {"id":"recital-2012-long-021","title":"Typologie des questions \u00e0 r\u00e9ponses multiples pour un syst\u00e8me de question-r\u00e9ponse","abstract":"L\u2019\u00e9valuation des syst\u00e8mes de question-r\u00e9ponse lors des campagnes repose g\u00e9n\u00e9ralement sur la validit\u00e9 d\u2019une r\u00e9ponse individuelle support\u00e9e par un passage (question factuelle) ou d\u2019un groupe de r\u00e9ponses toutes contenues dans un m\u00eame passage (questions listes). Ce cadre \u00e9valuatif emp\u00eache donc de fournir un ensemble de plusieurs r\u00e9ponses individuelles et ne permet \u00e9galement pas de fournir des r\u00e9ponses provenant de documents diff\u00e9rents. Ce recoupement inter-documents peut \u00eatre necessaire pour construire une r\u00e9ponse compos\u00e9e de plusieurs \u00e9l\u00e9ments afin d\u2019\u00eatre le plus complet possible. De plus une grande majorit\u00e9 de questions formul\u00e9es au singulier et semblant n\u2019attendre qu\u2019une seule r\u00e9ponse se trouve \u00eatre des questions poss\u00e9dant plusieurs r\u00e9ponses correctes. Nous pr\u00e9sentons ici une typologie des questions \u00e0 r\u00e9ponses multiples ainsi qu\u2019un aper\u00e7u sur les probl\u00e8mes pos\u00e9s \u00e0 un syst\u00e8me de question-r\u00e9ponse par ce type de question.","translation":["Typology of Multiple Answer Questions for a Question-answering System","The evaluation campaigns of question-answering systems are generally based on the validity of an individual answer supported by a passage (for a factual question) or a group of answers coming all from a same supporting passage (for a list question). This framework does not allow the possibily to answer with a set of answers, nor with answers gathered from several documents. This cross-checking can be needed for building an answer composed of several elements in order to be as accurate as possible. Besides a large majority of questions with a singular form seems to be answered with a single answer whereas they can be satisfied with many. We present here a typology of questions with multiple answers and an overview of problems encountered by a question-answering system with this kind of questions.","question-answering, multiple answer questions, list question"],"keyphrases":["questions \u00e0 r\u00e9ponses multiples","question-r\u00e9ponse","question liste"],"prmu":["P","P","P"]} {"id":"recital-2012-long-022","title":"Adaptation d\u2019un syst\u00e8me de reconnaissance d\u2019entit\u00e9s nomm\u00e9es pour le fran\u00e7ais \u00e0 l\u2019anglais \u00e0 moindre co\u00fbt","abstract":"La portabilit\u00e9 entre les langues des syst\u00e8mes de reconnaissance d\u2019entit\u00e9s nomm\u00e9es est co\u00fbteuse en termes de temps et de connaissances linguistiques requises. L\u2019adaptation des syst\u00e8mes symboliques souffrent du co\u00fbt de d\u00e9veloppement de nouveaux lexiques et de la mise \u00e0 jour des r\u00e8gles contextuelles. D\u2019un autre c\u00f4t\u00e9, l\u2019adaptation des syst\u00e8mes statistiques se heurtent au probl\u00e8me du co\u00fbt de pr\u00e9paration d\u2019un nouveau corpus d\u2019apprentissage. Cet article \u00e9tudie l\u2019int\u00e9r\u00eat et le co\u00fbt associ\u00e9 pour porter un syst\u00e8me existant de reconnaissance d\u2019entit\u00e9s nomm\u00e9es pour du texte bien form\u00e9 vers une autre langue. Nous pr\u00e9sentons une m\u00e9thode peu co\u00fbteuse pour porter un syst\u00e8me symbolique d\u00e9di\u00e9 au fran\u00e7ais vers l\u2019anglais. Pour ce faire, nous avons d\u2019une part traduit automatiquement l\u2019ensemble des lexiques de mots d\u00e9clencheurs au moyen d\u2019un dictionnaire bilingue. D\u2019autre part, nous avons manuellement modifi\u00e9 quelques r\u00e8gles de mani\u00e8re \u00e0 respecter la syntaxe de la langue anglaise. Les r\u00e9sultats exp\u00e9rimentaux sont compar\u00e9s \u00e0 ceux obtenus avec un syst\u00e8me de r\u00e9f\u00e9rence d\u00e9velopp\u00e9 pour l\u2019anglais.","translation":["Adapting a French Named Entity Recognition System to English with Minimal Costs","Cross-language portability of Named Entity Recognition systems requires linguistic expertise and needs human effort. Adapting symbolic systems suffers from the cost of developing new lexicons and updating grammar rules. Porting statistical systems on the other hand faces the problem of the high cost of annotation of new training corpus. This paper examines the cost of adapting a rule-based Named Entity Recognition system designed for well-formed text to another language. We present a low-cost method to adapt a French rule-based Named Entity Recognition system to English. We first solve the problem of lexicon adaptation to English by simply translating the French lexical resources. We then get to the task of grammar adaptation by slightly modifying the grammar rules. Experimental results are compared to a state-of-the-art English system.","Named entity recognition, symbolic approache, cross-language portability"],"keyphrases":["Reconnaissance d\u2019entit\u00e9s nomm\u00e9es","portabilit\u00e9 entre les langues","approche symbolique"],"prmu":["P","P","M"]} {"id":"recital-2012-long-023","title":"Analyse automatique de discours en langue des signes : Repr\u00e9sentation et traitement de l\u2019espace de signation","abstract":"En langue des signes, l\u2019espace est utilis\u00e9 pour localiser et faire r\u00e9f\u00e9rence \u00e0 certaines entit\u00e9s dont l\u2019emplacement est important pour la compr\u00e9hension du sens. Dans cet article, nous proposons une repr\u00e9sentation informatique de l\u2019espace de signation et les fonctions de cr\u00e9ation et d\u2019acc\u00e8s associ\u00e9es, afin d\u2019analyser les gestes manuels et non manuels qui contribuent \u00e0 la localisation et au r\u00e9f\u00e9rencement des signes et de mat\u00e9rialiser leur effet. Nous proposons une approche bi-directionnelle qui se base sur l\u2019analyse de donn\u00e9es de capture de mouvement de discours en langue des signes dans le but de caract\u00e9riser les \u00e9v\u00e9nements de localisation et de r\u00e9f\u00e9rencement.","translation":["Automatic Analysis of Discourse in Sign Language : Signing Space Representation and Processing","In sign language, signing space is used to locate and refer to entities whose locations are important for understanding the meaning. In this paper, we propose a computer-based representation of the signing space and their associated functions. It aims to analyze manual and non-manual gestures, that contribute to locating and referencing signs, and to make real their effect. For that, we propose an approach based on the analysis of motion capture data of entities\u2019 assignment and activation events in the signing space.","Sign language, Signing space, pointing gestures, motion capture, gaze tracker"],"keyphrases":["Langue des signes","Espace de signation","capture de mouvement","gestes de pointage","suivi du regard"],"prmu":["P","P","P","M","M"]} {"id":"recital-2012-long-024","title":"\u00c9tat de l\u2019art : l\u2019influence du domaine sur la classification de l\u2019opinion, Dis-moi de quoi tu parles, je te dirai ce que tu penses","abstract":"L\u2019int\u00e9r\u00eat pour la fouille d\u2019opinion s\u2019est d\u00e9velopp\u00e9 en m\u00eame temps que se sont r\u00e9pandus les blogs, forums et autres plate-formes o\u00f9 les internautes peuvent librement exprimer leur opinion. La tr\u00e8s grande quantit\u00e9 de donn\u00e9es disponibles oblige \u00e0 avoir recours \u00e0 des traitements automatiques de fouille d\u2019opinion. Cependant, la mani\u00e8re dont les gens expriment leur avis change selon ce dont ils parlent. Les distributions des mots utilis\u00e9s sont diff\u00e9rentes d\u2019un domaine \u00e0 l\u2019autre. Aussi, il est tr\u00e8s difficile d\u2019obtenir un classifieur d\u2019opinion fonctionnant sur tous les domaines. De plus, on ne peut appliquer sans adaptation sur un domaine cible un classifieur entra\u00een\u00e9 sur un domaine source diff\u00e9rent. L\u2019objet de cet article est de recenser les moyens de r\u00e9soudre ce probl\u00e8me difficile.","translation":["State of the Art : Influence of Domain on Opinion Classification","The interest in opinion mining has grown concurrently with blogs, forums, and others platforms where the internauts can freely write about their opinion on every topic. As the amounts of available data are increasingly huge, the use of automatic methods for opinion mining becomes imperative. However, sentiment is expressed differently in different domains : words distributions can indeed differ significantly. An effective global opinion classifier is therefore hard to develop. Moreover, a classifier trained on a source domain can\u2019t be used without adaptation on a target domain. This article aims to describe the state-of-the-art methods used to solve this difficult task.","State of the art, Opinion mining, Multi-domain, Cross-domain"],"keyphrases":["\u00c9tat de l\u2019art","Fouille d\u2019opinion","Multi-domaines","Cross-domaines"],"prmu":["P","P","U","U"]} {"id":"recital-2012-long-025","title":"\u00c9tat de l\u2019art sur l\u2019acquisition de relations s\u00e9mantiques entre termes : contextualisation des relations de synonymie","abstract":"L\u2019acc\u00e8s au contenu des textes de sp\u00e9cialit\u00e9 est une t\u00e2che difficile \u00e0 r\u00e9aliser. Cela n\u00e9cessite la d\u00e9finition de m\u00e9thodes automatiques ou semi-automatiques pour identifier des relations s\u00e9mantiques entre les termes que contiennent ces textes. Nous distinguons les approches de TAL permettant d\u2019acqu\u00e9rir ces relations suivant deux types d\u2019information : la structure interne des termes ou le contexte de ces termes en corpus. Afin d\u2019am\u00e9liorer la qualit\u00e9 des relations acquises et faciliter leur r\u00e9utilisation en corpus, nous nous int\u00e9ressons \u00e0 la prise en compte du contexte dans une m\u00e9thode d\u2019acquisition de relations de synonymie bas\u00e9e sur l\u2019utilisation de la structure interne des termes. Nous pr\u00e9sentons les r\u00e9sultats d\u2019une exp\u00e9rience pr\u00e9liminaire tenant compte de l\u2019usage des termes dans un corpus biom\u00e9dical en anglais. Nous donnons quelques pistes de travail pour d\u00e9finir des contraintes s\u00e9mantiques sur les relations de synonymie acquises.","translation":["State of the Art on the Acquisition of Semantic Relations between Terms : Contextualisation of the Synonymy Relations","Accessing to the context of specialised texts is a crucial but difficult task. It requires automatic or semi-automatic methods dedicated to the identification of semantic relations between terms appearing in the texts. NLP approaches for acquiring semantic relations between terms can be distinguished according to the type of information : the internal structure of the terms and the term context. In order to improve the quality of the acquired synonymy relations and their reusability in other corpora, we aim at taking into account the context into an approach based on the internal structure of the terms. We present the results of a preliminary experiment taking into account the use of the terms in a English biomedical corpora. This experiment will be helpful to add semantic constraints to the already acquired synonymy relations.","Relation Acquisition, Synonymy, Semantic Relations, Terminology, Biomedical Domain, Specialised corpora"],"keyphrases":["Acquisition de relations","Relations s\u00e9mantiques","Synonymie","Terminologie","Domaine Biom\u00e9dical","Corpus de sp\u00e9cialit\u00e9"],"prmu":["P","P","P","U","M","R"]} {"id":"recital-2012-long-026","title":"Extraction de PCFG et analyse de phrases pr\u00e9-typ\u00e9es","abstract":"Cet article explique la cha\u00eene de traitement suivie pour extraire une grammaire PCFG \u00e0 partir du corpus de Paris VII. Dans un premier temps cela n\u00e9cessite de transformer les arbres syntaxiques du corpus en arbres de d\u00e9rivation d\u2019une grammaire AB, ce que nous effectuons en utilisant un transducteur d\u2019arbres g\u00e9n\u00e9ralis\u00e9 ; il faut ensuite extraire de ces arbres une PCFG. Le transducteur d\u2019arbres g\u00e9n\u00e9ralis\u00e9 est une variation des transducteurs d\u2019arbres classiques et c\u2019est l\u2019extraction de la grammaire \u00e0 partir des arbres de d\u00e9rivation qui donnera l\u2019aspect probabiliste \u00e0 la grammaire. La PCFG extraite est utilis\u00e9e via l\u2019algorithme CYK pour l\u2019analyse de phrases.","translation":["PCFG Extraction and Pre-typed Sentences Analysis","This article explains the way we extract a PCFG from the Paris VII treebank. Firslty, we need to transform the syntactic trees of the corpus into derivation trees. The transformation is done with a generalized tree transducer, a variation of the usual top-down tree transducers, and gives as result some derivation trees for an AB grammar. Secondely, we have to extract a PCFG from the derivation trees. For this, we assume that the derivation trees are representative of the grammar. The extracted grammar is used, via the CYK algorithm, for sentence analysis.","Grammar Extraction, Lambek grammar, PCFG, tree transducer, CYK Algorithm"],"keyphrases":["PCFG","transducteur d\u2019arbre","algorithme CYK","Extraction de grammaire","grammaire de Lambek"],"prmu":["P","P","P","R","M"]} {"id":"recital-2013-long-001","title":"Acquisition de lexique bilingue d\u2019expressions polylexicales: Une application \u00e0 la traduction automatique statistique","abstract":"Cet article d\u00e9crit une m\u00e9thode permettant d\u2019acqu\u00e9rir un lexique bilingue d\u2019expressions polylexicales (EPLS) \u00e0 partir d\u2019un corpus parall\u00e8le fran\u00e7ais-anglais. Nous identifions dans un premier temps les EPLS dans chaque partie du corpus parall\u00e8le. Ensuite, nous proposons un algorithme d\u2019alignement assurant la mise en correspondance bilingue d\u2019EPLS. Pour mesurer l\u2019apport du lexique construit, une \u00e9valuation bas\u00e9e sur la t\u00e2che de Traduction Automatique Statistique (TAS) est men\u00e9e. Nous \u00e9tudions les performances de trois strat\u00e9gies dynamiques et d\u2019une strat\u00e9gie statique pour int\u00e9grer le lexique bilingue d\u2019expressions polylexicales dans un syst\u00e8me de TAS. Les exp\u00e9riences men\u00e9es dans ce cadre montrent que ces unit\u00e9s am\u00e9liorent significativement la qualit\u00e9 de traduction.","translation":["Mining a Bilingual Lexicon of MultiWord Expressions : A Statistical Machine Translation Evaluation Perspective","This paper describes a method aiming to construct a bilingual lexicon of MultiWord Expressions (MWES) from a French-English parallel corpus. We first extract monolingual MWES from each part of the parallel corpus. The second step consists in acquiring bilingual correspondences of MWEs. In order to assess the quality of the mined lexicon, a Statistical Machine Translation (SMT) task-based evaluation is conducted. We investigate the performance of three dynamic strategies and of one static strategy to integrate the mined bilingual MWES lexicon in a SMT system. Experimental results show that such a lexicon significantly improves the quality of translation.","MultiWord expression, bilingual alignment, statistical machine translation"],"keyphrases":["Expression polylexicale","traduction automatique statistique","alignement bilingue"],"prmu":["P","P","R"]} {"id":"recital-2013-long-002","title":"Quelques variations sur les mesures de comparabilit\u00e9 quantitatives et \u00e9valuations sur des corpus comparables Fran\u00e7ais-Anglais synth\u00e9tiques","abstract":"Dans la suite des travaux de (Li et Gaussier, 2010) nous abordons dans cet article l'analyse d'une famille de mesures quantitatives de comparabilit\u00e9 pour la construction ou l'\u00e9valuation des corpus comparables. Apr\u00e8s avoir rappel\u00e9 la d\u00e9finition de la mesure de comparabilit\u00e9 propos\u00e9e par (Li et Gaussier, 2010), nous d\u00e9veloppons quelques variantes de cette mesure bas\u00e9es principalement sur la prise en compte des fr\u00e9quences d'occurrences des entr\u00e9es lexicales et du nombre de leurs traductions. Nous comparons leurs avantages et inconv\u00e9nients respectifs dans le cadre d'exp\u00e9rimentations bas\u00e9es sur la d\u00e9gradation progressive du corpus parall\u00e8le Europarl par remplacement de blocs selon la m\u00e9thodologie suivie par (Li et Gaussier, 2010). L'impact sur ces mesures des taux de couverture des dictionnaires bilingues vis-\u00e0-vis des blocs consid\u00e9r\u00e9s est \u00e9galement examin\u00e9.","translation":["Some variations on quantitative comparability measures and evaluations on synthetic French-English comparable corpora","Following the pioneering work by (Li et Gaussier, 2010) we address in this paper the analysis of a family of quantitative measures of comparability dedicated to the construction or evaluation of comparable corpora. After recalling the definition of the comparability measure proposed by (Li et Gaussier, 2010), we develop some variants of this measure based primarily on the consideration of the occurrence frequency of lexical entries and the number of their translations. We compare the respective advantages and disadvantages of these variants in the context of an experiments based on the progressive degradation of the Europarl parallel corpus, by replacing blocks according to the methodology followed by (Li et Gaussier, 2010). The impact of the coverage of bilingual dictionaries on these measures is also discussed.","Comparable corpora, Comparability measures, Evaluation"],"keyphrases":["Mesures de comparabilit\u00e9","\u00c9valuation","Corpus comparables"],"prmu":["P","P","P"]} {"id":"recital-2013-long-003","title":"Inf\u00e9rence grammaticale guid\u00e9e par clustering","abstract":"Dans cet article, nous nous focalisons sur la mani\u00e8re d\u2019utiliser du clustering hi\u00e9rarchique pour apprendre une grammaire AB \u00e0 partir d\u2019arbres de d\u00e9rivation partiels. Nous d\u00e9crirons bri\u00e8vement les grammaires AB ainsi que les arbres de d\u00e9rivation dont nous nous servons comme entr\u00e9e pour l\u2019algorithme, puis la mani\u00e8re dont nous extrayons les informations des corpus arbor\u00e9s pour l\u2019\u00e9tape de clustering. L\u2019algorithme d\u2019unification, dont le pivot est le cluster, sera d\u00e9crit et les r\u00e9sultats analys\u00e9s en d\u00e9tails.","translation":["Clustering for categorial grammar induction","In this article, we describe the way we use hierarchical clustering to learn an AB grammar from partial derivation trees. We describe AB grammars and the derivation trees we use as input for the clustering, then the way we extract information from Treebanks for the clustering. The unification algorithm, based on the information extracted from our cluster, will be explained and the results discussed.","categorial grammars, hierarchical clustering, grammatical inference"],"keyphrases":["inf\u00e9rence grammaticale","clustering hi\u00e9rarchique","grammaires cat\u00e9gorielles"],"prmu":["P","P","M"]} {"id":"recital-2013-long-004","title":"Am\u00e9liorer l\u2019extraction et la description d\u2019expressions polylexicales gr\u00e2ce aux r\u00e8gles transformationnelles","abstract":"Cet article pr\u00e9sente une m\u00e9thodologie permettant d\u2019extraire et de d\u00e9crire des locutions verbales vis-\u00e0-vis de leur comportement transformationnel. Plusieurs objectifs sont cibl\u00e9s : 1) extraire automatiquement les expressions phras\u00e9ologiques et en particulier les expressions fig\u00e9es, 2) d\u00e9crire linguistiquement le comportement des phras\u00e9ologismes 3) comparer les m\u00e9thodes statistiques et notre approche et enfin 4) montrer l\u2019importance de ces expressions dans un outil de classification de textes.","translation":["Enhance Multiword Expressions Extraction and Description with Transformational Rules","This paper presents a methodology to extract and describe verbal multiword expressions using their transformational behavior. Several objectives are targeted: 1) automatically extracting MWE and especially frozen expression, 2) describing linguistically their MWE behavior, 3) comparing statistical methods and our approach, and finally 4) showing the importance of MWE in a text classification tool.","multiword expression, verbal phrase, extraction, transformation, text classification"],"keyphrases":["extraction","expressions polylexicales","locution verbale","expressions fig\u00e9es","classification de textes","transformation"],"prmu":["P","P","P","P","P","U"]} {"id":"recital-2013-long-005","title":"Construction de corpus multilingues : \u00e9tat de l\u2019art","abstract":"Les corpus multilingues sont extensivement exploit\u00e9s dans plusieurs branches du traitement automatique des langues. Cet article pr\u00e9sente une vue d\u2019ensemble des travaux en construction automatique de ces corpus. Nous traitons ce sujet en donnant premi\u00e8rement un aper\u00e7u de diff\u00e9rentes perceptions de la comparabilit\u00e9. Nous examinons ensuite les principales approches de calcul de similarit\u00e9, de construction et d\u2019\u00e9valuation d\u00e9velopp\u00e9es dans le domaine. Nous observons que Le calcul de la similarit\u00e9 textuelle se fait g\u00e9n\u00e9ralement sur la base de statistiques de corpus, de la structure de ressources ontologiques ou de la combinaison de ces deux approches. Dans un cadre multilingue avec l\u2019utilisation d\u2019un dictionnaire multilingue ou d\u2019un traducteur automatique, de nombreux probl\u00e8mes apparaissent. L\u2019exploitation d\u2019une ressource ontologique multilingue semble \u00eatre une solution. En classification, la probl\u00e9matique de l\u2019ajout de documents \u00e0 la base initiale sans affecter la qualit\u00e9 des clusters demeure ouverte.","translation":["Multilingual document clustering : state of the art","Multilingual corpora are extensively exploited in several branches of natural language processing. This paper presents an overview of works in the automatic construction of such corpora. We address this topic by first providing an overview of different perceptions of comparability. We then examine the main approaches to similarity computation, construction and evaluation developed in the field. We notice that the measurement of the textual similarity is usually based on corpus statistics or the structure of ontological resources or on a combination of these two approaches. In a multilingual framework, with the use of a multilingual dictionary or a machine translator, many problems arise. The exploitation of a multilingual ontological ressource seems to be a worthy option. In clustering, the problem of adding documents to the initial base without affecting the quality of clusters remains open.","multilingual corpora, comparability, crosslingual textual similarity, classification"],"keyphrases":["corpus multilingues","comparabilit\u00e9","classification","similarit\u00e9 textuelle translingue"],"prmu":["P","P","P","M"]} {"id":"recital-2013-long-006","title":"D\u00e9veloppement de ressources pour l\u2019entrainement et l\u2019utilisation de l\u2019\u00e9tiqueteur morphosyntaxique TreeTagger sur l\u2019arabe","abstract":"Dans cet article, nous pr\u00e9sentons les \u00e9tapes du d\u00e9veloppement de ressources pour l\u2019entra\u00eenement et l\u2019utilisation d\u2019un nouvel outil de l\u2019\u00e9tiquetage morphosyntaxique de la langue arabe. Nous avons mis en oeuvre un syst\u00e8me bas\u00e9 sur l'\u00e9tiqueteur stochastique TreeTagger, r\u00e9put\u00e9 pour son efficacit\u00e9 et la g\u00e9n\u00e9ricit\u00e9 de son architecture. Pour ce faire, nous avons commenc\u00e9 par la constitution de notre corpus de travail. Celui-ci nous a d'abord servi \u00e0 r\u00e9aliser l'\u00e9tape de segmentation lexicale. Dans un second temps, ce corpus a permis d'effectuer l'entrainement de TreeTagger, gr\u00e2ce \u00e0 un premier \u00e9tiquetage r\u00e9alis\u00e9 avec l'\u00e9tiqueteur ASVM 1.0, suivi d'une phase de correction manuelle. Nous d\u00e9taillons ainsi les pr\u00e9traitements requis, et les diff\u00e9rentes \u00e9tapes de la phase d'apprentissage avec cet outil. Nous terminons par une \u00e9valuation sommaire des r\u00e9sultats, \u00e0 la fois qualitative et quantitative. Cette \u00e9valuation, bien que r\u00e9alis\u00e9e sur un corpus de test de taille modeste, montre que nos premiers r\u00e9sultats sont encourageants.","translation":["Development of resources for training and the use of the tagger TreeTagger on Arabic","In this paper, we present the steps of the development of resources for training and the use of a new tool for the part-of-speech tagging of Arabic. We implemented a tagging system based on TreeTagger, a generic stochastic tagging tool, very popular for its efficiency. First of all, we began by gathering a working corpus, large enough to ensure a general linguistic coverage. This corpus has been used to implement the tokenization process, as well as to train TreeTagger. We first present our method of tokenization, then we describe all the steps of the preprocessing and training process, using ASVM 1.0 to yield a raw POS tagging that was subsequently manually corrected. Finally, we implemented a straightforward evaluation of the outputs, both in a quantitative and qualitative way, on a small test corpus. Though restricted, this evaluation showed really encouraging results.","NLP, Arabic language, training corpus, POS tagging, tokenization, decision tree, lexicon, tagsets, TreeTagger, ASVM 1.0"],"keyphrases":["TreeTagger","\u00e9tiquetage morphosyntaxique","langue arabe","ASVM 1.0","TALN","corpus d'apprentissage","segmentation de l'arabe","arbre de d\u00e9cision","lexique","jeux d\u2019\u00e9tiquette"],"prmu":["P","P","P","P","U","R","R","M","U","M"]} {"id":"recital-2013-long-007","title":"D\u00e9tection de polarit\u00e9 d\u2019opinions dans les forums en langue arabe par fusion de plusieurs SVM","abstract":"Cet article d\u00e9crit notre contribution sur la d\u00e9tection de polarit\u00e9 d\u2019opinions en langue arabe par apprentissage supervis\u00e9. En effet le syst\u00e8me propos\u00e9 comprend trois phases: le pr\u00e9traitement du corpus, l\u2019extraction des caract\u00e9ristiques et la classification. Pour la deuxi\u00e8me phase, nous utilisons vingt caract\u00e9ristiques dont les principales sont l\u2019\u00e9motivit\u00e9, la r\u00e9flexivit\u00e9, l\u2019adressage et la polarit\u00e9. La phase de classification repr\u00e9sente dans notre travail la combinaison des plusieurs classifieurs SVMs (Machine \u00e0 Vecteur de Support) pour r\u00e9soudre le probl\u00e8me multi classes. Nous avons donc analys\u00e9s les deux strat\u00e9gies de SVM multi classes qui sont : \u00ab un contre tous \u00bb et \u00ab un contre un \u00bb afin de comparer les r\u00e9sultats et am\u00e9liorer la performance du syst\u00e8me global.","translation":["Polarity Opinion Detection in Arabic Forums by Fusing Multiple SVMs","This article describes our contribution on the polarity\u2019s detection of opinions in Arabian language by supervised training. Indeed the proposed system consists of three phases: the pretreatment of the corpus, the extraction of the features and the classification. For the second phase, we use twenty features of which the main are emotionalism, the reflexivity, the adressage and the polarity. The phase of classification represents in our work the combination of the several SVMs (Support Vector Machine),to solve the multi class problem. We analyzed the two strategies of the SVMs multi class that are: \"one against all\" and \"one against one\" in order to compare the results and to improve the performance of the global system.","Opinion Mining, supervised training, Support Vector Machine (SVM), classifiers combination"],"keyphrases":["apprentissage supervis\u00e9","Fouille d\u2019opinions","Machine \u00e0 Vecteur de Support (SVM)","combinaison des classifieurs"],"prmu":["P","M","R","R"]} {"id":"recital-2013-long-008","title":"\u00c9tat de l\u2019art des m\u00e9thodes d\u2019extraction automatique de termes-cl\u00e9s","abstract":"Cet article pr\u00e9sente les principales m\u00e9thodes d\u2019extraction automatique de termes-cl\u00e9s. La t\u00e2che d\u2019extraction automatique de termes-cl\u00e9s consiste \u00e0 analyser un document pour en extraire les expressions (phras\u00e8mes) les plus repr\u00e9sentatives de celui-ci. Les m\u00e9thodes d\u2019extraction automatique de termes-cl\u00e9s sont r\u00e9parties en deux cat\u00e9gories : les m\u00e9thodes supervis\u00e9es et les m\u00e9thodes non supervis\u00e9es. Les m\u00e9thodes supervis\u00e9es r\u00e9duisent la t\u00e2che d\u2019extraction de termes-cl\u00e9s \u00e0 une t\u00e2che de classification binaire (tous les phras\u00e8mes sont class\u00e9s parmi les termescl\u00e9s ou les non termes-cl\u00e9s). Cette classification est possible gr\u00e2ce \u00e0 une phase pr\u00e9liminaire d\u2019apprentissage, phase qui n\u2019est pas requise par les m\u00e9thodes non-supervis\u00e9es. Ces derni\u00e8res utilisent des caract\u00e9ristiques (traits) extraites du document analys\u00e9 (et parfois d\u2019une collection de documents de r\u00e9f\u00e9rences) pour v\u00e9rifier des propri\u00e9t\u00e9s permettant d\u2019identifier ses termes-cl\u00e9s.","translation":["State of the Art of Automatic Keyphrase Extraction Methods","This article presents the state of the art of the automatic keyphrase extraction methods. The aim of the automatic keyphrase extraction task is to extract the most representative terms of a document. Automatic keyphrase extraction methods can be divided into two categories : supervised methods and unsupervised methods. For supervised methods, the task is reduced to a binary classification where terms are classified as keyphrases or non keyphrases. This classification requires a learning step which is not required by unsupervised methods. The unsupervised methods use features extracted from the analysed document (sometimes a document collection) to check properties which allow keyphrase identification.","keyphrase extraction, supervised methods, unsupervised methods, state of the art"],"keyphrases":["\u00e9tat de l\u2019art","m\u00e9thodes supervis\u00e9es","extraction de termes-cl\u00e9s","m\u00e9thodes non-supervis\u00e9es"],"prmu":["P","P","P","P"]} {"id":"recital-2013-long-009","title":"Influence de l\u2019\u00e9tiquetage syntaxique des t\u00eates sur l\u2019analyse en d\u00e9pendances discontinues du fran\u00e7ais","abstract":"Dans cet article nous souhaitons mettre en \u00e9vidence l\u2019utilit\u00e9 d\u2019un \u00e9tiquetage syntaxique appliqu\u00e9 en amont d\u2019une analyse syntaxique en d\u00e9pendances. Les r\u00e8gles de la grammaire cat\u00e9gorielle de d\u00e9pendances du fran\u00e7ais utilis\u00e9es pour l\u2019analyse g\u00e8rent les d\u00e9pendances discontinues et les relations syntaxiques \u00e0 longue distance. Une telle m\u00e9thode d\u2019analyse g\u00e9n\u00e8re un nombre cons\u00e9quent de structures de d\u00e9pendances et emploie un temps d\u2019analyse trop important. Nous voulons alors montrer qu\u2019une m\u00e9thode locale d\u2019\u00e9tiquetage peut diminuer l\u2019ampleur de ces difficult\u00e9s et par la suite aider \u00e0 r\u00e9soudre le probl\u00e8me global de d\u00e9sambigu\u00efsation d\u2019analyse en d\u00e9pendances. Nous adaptons alors une m\u00e9thode d\u2019\u00e9tiquetage aux cat\u00e9gories de la grammaire cat\u00e9gorielle de d\u00e9pendance. Nous obtenons ainsi une pr\u00e9-s\u00e9lection des t\u00eates des d\u00e9pendances permettant de r\u00e9duire l\u2019ambigu\u00eft\u00e9 de l\u2019analyse et de voir que les r\u00e9sultats locaux d\u2019une telle m\u00e9thode permettent de trouver des relations distantes de d\u00e9pendances.","translation":["On the Effect of Head Tagging on Parsing Discontinuous Dependencies in French","In this paper we want to show the strong impact of syntactic tagging on syntactic dependency parsing. The rules of categorial dependency grammar used to parse French deal with discontinuous dependencies and long distance syntactic relations. Such parsing method produces a substantial number of dependency structures and takes too much parsing time. We want to show that a local tagging method can reduce these problems and help to solve the global problem of dependency parsing disambiguation. Then we adapt a tagging method to types of the categorial dependency grammar. We obtain a dependency-head pre-selection allowing to reduce parsing ambiguity and to see that we can find distant relation of dependencies through local results of such method.","Discontinuous Dependency Parsing, Syntactic Tagging"],"keyphrases":["\u00c9tiquetage syntaxique","Analyse syntaxique en d\u00e9pendances discontinues"],"prmu":["P","R"]} {"id":"recital-2013-long-010","title":"Une approche linguistique pour l'extraction des connaissances dans un texte arabe","abstract":"Nous pr\u00e9sentons dans cet article un syst\u00e8me d'extraction de connaissances en arabe, fond\u00e9 sur une analyse morphosyntaxique profonde. Ce syst\u00e8me reconna\u00eet les mots simples, les expressions idiomatiques, les mots compos\u00e9s et les entit\u00e9s nomm\u00e9es. L'analyse identifie aussi les relations syntaxiques de d\u00e9pendance et traite les formes passives et actives. L\u2019extraction des connaissances est propre \u00e0 l\u2019application et utilise des r\u00e8gles d\u2019extraction s\u00e9mantiques qui s'appuient sur le r\u00e9sultat de l'analyse morphosyntaxique. A ce niveau, le type de certaines entit\u00e9s nomm\u00e9es peut \u00eatre r\u00e9vis\u00e9. L'extraction se base, dans nos exp\u00e9rimentations, sur une ontologie dans le domaine de la s\u00e9curit\u00e9. Le RDF (Resource Description Framework) produit est ensuite trait\u00e9 pour regrouper les informations qui concernent un m\u00eame \u00e9v\u00e9nement ou une m\u00eame entit\u00e9 nomm\u00e9e. Les informations ainsi extraites peuvent alors aider \u00e0 appr\u00e9hender les informations contenues dans un ensemble de textes, alimenter une base de connaissances, ou bien servir \u00e0 des outils de veille.","translation":["A linguistic approach for knowledge extraction from an Arabic text","We present in this paper a knowledge extraction system for Arabic. The information extraction is based on a deep morphosyntactic analysis. It also recognizes single words, idiomatic expressions, compounds and named entities. The analysis also identifies dependency relations, verb tenses and passive\/active forms. Information extraction is application-independent and uses extraction rules that rely on the result of the morphosyntactic analysis. At this level, some named entity categories can be reconsidered. This extraction is based in our experimentations on the security ontology. The Resource Description Framework (RDF) obtained is then processed to gather information concerning a single event or named entity. The information extracted can help to understand the information contained in a set of texts, to infer knowledge into a knowledge base, or be used for monitoring tools.","Linguistic analysis, Text Mining, Arabic, named entities, information extraction, extraction rules, ontology"],"keyphrases":["arabe","entit\u00e9s nomm\u00e9es","r\u00e8gles d\u2019extraction","ontologie","Analyse linguistique","fouille de textes","extraction d\u2019informations"],"prmu":["P","P","P","P","R","M","R"]} {"id":"recital-2013-long-011","title":"Extraction des mots simples du lexique scientifique transdisciplinaire dans les \u00e9crits de sciences humaines : une premi\u00e8re exp\u00e9rimentation","abstract":"Nous pr\u00e9sentons dans cet article les premiers r\u00e9sultats de nos travaux sur l'extraction de mots simples appartenant au lexique scientifique transdisciplinaire sur un corpus analys\u00e9 morpho-syntaxiquement compos\u00e9 d'articles de recherche en sciences humaines et sociales. La ressource g\u00e9n\u00e9r\u00e9e sera utilis\u00e9e lors de l'indexation automatique de textes comme filtre d'exclusion afin d'isoler ce lexique de la terminologie. Nous comparons plusieurs m\u00e9thodes d'extraction et montrons qu'un premier lexique de mots simples peut \u00eatre d\u00e9gag\u00e9 et que la prise en compte des unit\u00e9s polylexicales ainsi que de la distribution seront n\u00e9cessaires par la suite afin d'extraire l'ensemble de la phras\u00e9ologie transdisciplinaire.","translation":["Extraction of academic lexicon's simple words in humanities writings","This paper presents a first extraction of academic lexicon's simple words in french academic writings in the fields of humanities and social sciences through a corpus study of research articles using morpho-syntactic analysis. This academic lexicon resource will be used for automatic indexing as a stoplist in order to exclude this lexicon from the terminology. We try various extraction methods and show that a first simple words lexicon can be generated but that multiwords expressions and words distribution should be taken into consideration to extract academic phraseology.","corpus, scientific writings, lexicon, phraseology"],"keyphrases":["lexique","corpus","phras\u00e9ologie","\u00e9crits scientifiques"],"prmu":["P","P","P","R"]} {"id":"recital-2013-long-012","title":"Vers une identification automatique du chiasme de mots","abstract":"Cette recherche porte sur le chiasme de mots : figure de style jouant sur la r\u00e9version (ex. \u00ab Bonnet blanc, blanc bonnet \u00bb). Elle place le chiasme dans la probl\u00e9matique de sa reconnaissance automatique : qu\u2019est-ce qui le d\u00e9finit et comment un ordinateur peut le trouver ? Nous apportons une description formelle du ph\u00e9nom\u00e8ne. Puis nous proc\u00e9dons \u00e0 la constitution d\u2019une liste d\u2019exemples contextualis\u00e9s qui nous sert au test des hypoth\u00e8ses. Nous montrons ainsi que l\u2019ajout de contraintes formelles (contr\u00f4le de la ponctuation et omission des mots vides) p\u00e9nalise tr\u00e8s peu le rappel et augmente significativement la pr\u00e9cision de la d\u00e9tection. Nous montrons aussi que la lemmatisation occasionne peu d\u2019erreurs pour le travail d\u2019extraction mais qu\u2019il n\u2019en est pas de m\u00eame pour la racinisation. Enfin nous mettons en \u00e9vidence que l\u2019utilisation d\u2019un th\u00e9saurus apporte quelques r\u00e9sultats pertinents.","translation":["Towards an automatic identification of chiasmus of words","This article summarises the study of the rhetorical figure \u201cchiasmus\u201d (e.g : \u201cQuitters never win and winners never quit.\u201d). We address the problem of its computational identification. How can a computer identify this automatically ? For this purpose this article will provide a formal description of the phenomenon. First, we put together an annotated text for testing our hypothesis. At the end we demonstrate that the use of stopword lists and the identification of the punctuation improve the precision of the results with very little impact on the recall. We discover also that using lemmatization improves the results but stemming doesn\u2019t. Finally we see that a French thesaurus provided us with good results on the most elaborate form of chiasmus.","chiasmus, rhetoric, antimetabole, stylistic device"],"keyphrases":["chiasme","figure de style","rh\u00e9torique","antim\u00e9tabole"],"prmu":["P","P","U","U"]} {"id":"recital-2013-long-013","title":"Repr\u00e9sentation des connaissances du DEC: Concepts fondamentaux du formalisme des Graphes d\u2019Unit\u00e9s","abstract":"Dans cet article nous nous int\u00e9ressons au choix d\u2019un formalisme de repr\u00e9sentation des connaissances qui nous permette de repr\u00e9senter, manipuler, interroger et raisonner sur des connaissances linguistiques du Dictionnaire Explicatif et Combinatoire (DEC) de la Th\u00e9orie Sens-Texte. Nous montrons que ni les formalismes du web s\u00e9mantique ni le formalisme des Graphes conceptuels n\u2019est adapt\u00e9 pour cela, et justifions l\u2019introduction d\u2019un nouveau formalisme dit des Graphes d\u2019Unit\u00e9s. Nous introduisons la hi\u00e9rarchie des Types d\u2019Unit\u00e9s au coeur du formalisme, et pr\u00e9sentons les Graphes d\u2019Unit\u00e9s ainsi que la mani\u00e8re dont on peut les utiliser pour repr\u00e9senter certains aspects du DEC.","translation":["ECD Knowledge Representation : Fundamental Concepts of the Unit Graphs Framework","In this paper we are interested in the choice of a knowledge representation formalism that enables the representation, manipulation, query, and reasoning over linguistic knowledge of the Explanatory and Combinatorial Dictionary (ECD) of the Meaning-Text Theory. We show that neither the semantic web formalisms nor the Conceptual Graphs Formalism suit our needs, and justify the introduction of a new formalism denoted Unit Graphs. We introduce the core of this formalism which is the Unit Types hierarchy, and present Unit Graphs and how one may use them to represent aspects of the ECD.","Linguistic Knowledge Representation, Meaning-Text Theory, Unit Graphs, Explanatory and Combinatorial Dictionary"],"keyphrases":["Graphes d\u2019Unit\u00e9s","Dictionnaire Explicatif et Combinatoire","Th\u00e9orie Sens-Texte","Repr\u00e9sentation de Connaissances Linguistiques"],"prmu":["P","P","P","R"]} {"id":"recital-2013-long-014","title":"Vers un syst\u00e8me g\u00e9n\u00e9rique de r\u00e9\u00e9criture de graphes pour l\u2019enrichissement de structures syntaxiques","abstract":"Ce travail pr\u00e9sente une nouvelle approche pour injecter des d\u00e9pendances profondes (sujet des verbes \u00e0 contr\u00f4le, partage du sujet en cas d\u2019ellipses, ...) dans un corpus arbor\u00e9 pr\u00e9sentant un sch\u00e9ma d\u2019annotation surfacique et projectif. Nous nous appuyons sur un syst\u00e8me de r\u00e9\u00e9criture de graphes utilisant des techniques de programmation par contraintes pour produire des r\u00e8gles g\u00e9n\u00e9riques qui s\u2019appliquent aux phrases du corpus. Par ailleurs, nous testons la g\u00e9n\u00e9ricit\u00e9 des r\u00e8gles en utilisant des sorties de trois analyseurs syntaxiques diff\u00e9rents, afin d\u2019\u00e9valuer la d\u00e9gradation exacte de l\u2019application des r\u00e8gles sur des analyses syntaxiques pr\u00e9dites.","translation":["Towards a generic graph rewriting system to enrich syntactic structures","This work aims to present a new approach for injecting deep dependencies (subject of control verbs, subject sharing in case of ellipsis, ...) into a surfacic and projective treebank. We use a graph rewriting system with constraint programming techniques for producing generic rules which can be easily applied to a treebank. Moreover, we are testing the genericity of our rules by using output of three different parsers to evaluate how the rules behave on predicted parse trees.","graph rewriting system, annotation schemes evaluation, deep syntax parsing"],"keyphrases":["r\u00e9\u00e9criture de graphes","\u00e9valuation de sh\u00e9ma d\u2019annotations","parsing","analyse en syntaxe profonde"],"prmu":["P","M","U","R"]} {"id":"recital-2013-long-015","title":"\u00c9tat de l'art de l'induction de sens: une voie vers la d\u00e9sambigu\u00efsation lexicale pour les langues peu dot\u00e9es","abstract":"La d\u00e9sambigu\u00efsation lexicale, le processus qui consiste \u00e0 automatiquement identifier le ou les sens possible d'un mot polys\u00e9mique dans un contexte donn\u00e9, est une t\u00e2che fondamentale pour le Traitement Automatique des Langues (TAL). Le d\u00e9veloppement et l'am\u00e9lioration des techniques de d\u00e9sambigu\u00efsation lexicale ouvrent de nombreuses perspectives prometteuses pour le TAL. En effet, cela pourrait conduire \u00e0 un changement paradigmatique en permettant de r\u00e9aliser un premier pas vers la compr\u00e9hension des langues naturelles. En raison du manque de ressources langagi\u00e8res, il est parfois difficile d'appliquer des techniques de d\u00e9sambigu\u00efsation \u00e0 des langues peu dot\u00e9es. C'est pourquoi, nous nous int\u00e9ressons ici, \u00e0 enqu\u00eater sur comment avoir un d\u00e9but de recherche sur la d\u00e9sambigu\u00efsation lexicale pour les langues peu dot\u00e9es, en particulier en exploitant des techniques d'induction des sens de mots, ainsi que quelques suggestions de pistes int\u00e9ressantes \u00e0 explorer.","translation":["A State of the Art of Word Sense Induction: A Way Towards Word Sense Disambiguation for Under-Resourced Languages","Word Sense Disambiguation (WSD), the process of automatically identifying the meaning of a polysemous word in a sentence, is a fundamental task in Natural Language Processing (NLP). Progress in this approach to WSD opens up many promising developments in the field of NLP and its applications. Indeed, improvement over current performance levels could allow us to take a first step towards natural language understanding. Due to the lack of lexical resources it is sometimes difficult to perform WSD for under-resourced languages. This paper is an investigation on how to initiate research in WSD for under-resourced languages by applying Word Sense Induction (WSI) and suggests some interesting topics to focus on.","Word Sense Disambiguation, Word Sense Induction, under-resourced languages, lexical resources"],"keyphrases":["induction de sens","d\u00e9sambigu\u00efsation lexicale","langues peu dot\u00e9es","ressources langagi\u00e8res"],"prmu":["P","P","P","P"]} {"id":"recital-2013-long-016","title":"G\u00e9n\u00e9ration des corpus en dialecte tunisien pour la mod\u00e9lisation de langage d'un syst\u00e8me de reconnaissance","abstract":"Ces derniers temps, vu la situation pr\u00e9occupante du monde arabe, les dialectes arabes et notamment le dialecte tunisien est devenu de plus en plus utilis\u00e9 dans les interviews, les journaux t\u00e9l\u00e9vis\u00e9s et les \u00e9missions de d\u00e9bats. Cependant, cette situation pr\u00e9sente des cons\u00e9quences n\u00e9gatives importantes pour le Traitement Automatique du Langage Naturel (TALN): depuis que les dialectes parl\u00e9s ne sont pas officiellement \u00e9crits et n\u2019ont pas d\u2019orthographe standard, il est tr\u00e8s co\u00fbteux d'obtenir des corpus ad\u00e9quats \u00e0 utiliser pour des outils de TALN. Par cons\u00e9quent, il n\u2019existe pas des corpus parall\u00e8les entre l\u2019Arabe Standard Moderne(ASM) et le Dialecte Tunisien (DT). Dans ce travail, nous proposons une m\u00e9thode pour la cr\u00e9ation d\u2019un lexique bilingue ASM\u2013DT et un processus pour la g\u00e9n\u00e9ration automatique de corpus dialectaux. Ces ressources vont servir \u00e0 la construction d\u2019un mod\u00e8le de langage pour les journaux t\u00e9l\u00e9vis\u00e9s tunisiens, afin de l\u2019int\u00e9grer dans un Syst\u00e8me de Reconnaissance Automatique de Parole (SRAP).","translation":["Generation of tunisian dialect corpora for adapting language models","Lately, given the serious situation in the Arab world, the Arab dialects such as Tunisian dialect became increasingly used and represented in the interviews, news and debate programs. However, this situation presents negative consequences for Natural Language Processing (NLP): Since dialects are not officially written and have no orthographic standard, it is very costly to obtain adequate corpora to train NLP tools. Therefore, it does not even exist parallel corpora between Standard Arabic (MSA) and Tunisian Dialect(TD). In this work, we propose a method for the creation of a bilingual lexicon MSA-TD and an automatic process for generating dialectal corpora. These resources will be used to build a language model for Tunisian news, in order to integrate it into an Automatic Speech Recognition (ASR).","Tunisian Dialect, MSA-TD lexicon, TDT: Tunisian Dialect Translator"],"keyphrases":["Dialecte Tunisien","lexique ASM-DT","TDT: Tunisian Dialect Translator"],"prmu":["P","M","M"]} {"id":"recital-2013-long-017","title":"D\u00e9tection automatique des sessions de recherche par similarit\u00e9 des r\u00e9sultats provenant d\u2019une collection de documents externe","abstract":"Les utilisateurs d\u2019un syst\u00e8me de recherche d\u2019information mettent en oeuvre des comportements de recherche complexes tels que la reformulation de requ\u00eate et la recherche multit\u00e2che afin de satisfaire leurs besoins d\u2019information. Ces comportements de recherche peuvent \u00eatre observ\u00e9s \u00e0 travers des journaux de requ\u00eates, et constituent des indices permettant une meilleure compr\u00e9hension des besoins des utilisateurs. Dans cette perspective, il est n\u00e9cessaire de regrouper au sein d\u2019une m\u00eame session de recherche les requ\u00eates reli\u00e9es \u00e0 un m\u00eame besoin d\u2019information. Nous proposons une m\u00e9thode de d\u00e9tection automatique des sessions exploitant la collection de documents WIKIP\u00c9DIA, bas\u00e9e sur la similarit\u00e9 des r\u00e9sultats renvoy\u00e9s par l\u2019interrogation de cette collection afin d\u2019\u00e9valuer la similarit\u00e9 entre les requ\u00eates. Cette m\u00e9thode obtient de meilleures performances que les approches temporelle et lexicale traditionnellement employ\u00e9es pour la d\u00e9tection de sessions s\u00e9quentielles, et peut \u00eatre appliqu\u00e9e \u00e0 la d\u00e9tection de sessions imbriqu\u00e9es. Ces exp\u00e9rimentations ont \u00e9t\u00e9 r\u00e9alis\u00e9es sur des donn\u00e9es provenant du portail OpenEdition.","translation":["Automatic search session detection exploiting results similarity from an external document collection","Search engines users apply complex search behaviours such as query reformulation and multitasking search to satisfy their information needs. These search behaviours may be observed through query logs, and constitute clues allowing a better understanding of users\u2019 needs. In this perspective, it is decisive to group queries related to the same information need into a unique search session. We propose an automatic session detection method exploiting the WIKIPEDIA documents collection, based on the similarity between the results returned for each query pair to estimate the similarity between queries. This method shows better performance than both temporal and lexical approaches traditionally used for successive session detection, and can be applied as well to multitasking search session detection. These experiments were conducted on a dataset originating from the OpenEdition Web portal.","Information retrieval, automatic search session detection, query log analysis"],"keyphrases":["d\u00e9tection automatique de sessions de recherche","Recherche d\u2019information","analyse de journal de requ\u00eates"],"prmu":["P","P","M"]} {"id":"recital-2013-long-018","title":"Une approche mixte morpho-syntaxique et statistique pour la reconnaissance d'entit\u00e9s nomm\u00e9es en langue chinoise","abstract":"Cet article pr\u00e9sente une approche mixte, morpho-syntaxique et statistique, pour la reconnaissance d'entit\u00e9s nomm\u00e9es en langue chinoise dans un syst\u00e8me d'extraction automatique d'information. Le processus se divise principalement en trois \u00e9tapes : la premi\u00e8re g\u00e9n\u00e8re des noms propres potentiels \u00e0 l'aide de r\u00e8gles morphologiques ; la deuxi\u00e8me utilise un mod\u00e8le de langue afin de s\u00e9lectionner le meilleur r\u00e9sultat ; la troisi\u00e8me effectue la reconnaissance d'entit\u00e9s nomm\u00e9es gr\u00e2ce \u00e0 une analyse syntaxique locale. Cette derni\u00e8re permet une reconnaissance automatique d'entit\u00e9s nomm\u00e9es plus pertinente et plus compl\u00e8te.","translation":["A Mixed Morpho-Syntactic and Statistical Approach to Chinese Named Entity Recognition","This paper presents a morpho-syntactic and statistical approach for Chinese named entity recognition which is a part of an automatic system for information extraction. The process is divided into three steps : first, the generation of possible proper nouns is based on morphological rules; second a language model is used to select the best result, and last, a local syntactic parsing performs the named entity recognition. Syntactic parsing makes named entity recognition more relevant and more complete.","Proper noun recogition, Named entity recognition (NER), Chinese Natural Language Processing, Information extraction, Syntactic parsing"],"keyphrases":["Reconnaissance d'entit\u00e9s nomm\u00e9es","Analyse syntaxique","Reconnaissance de noms propres","Traitement automatique du chinois","Extraction d'information"],"prmu":["P","P","R","M","R"]} {"id":"recital-2014-long-001","title":"Mod\u00e9lisation probabiliste de l\u2019interface syntaxe s\u00e9mantique \u00e0 l\u2019aide de grammaires hors contexte probabilistes Exp\u00e9riences avec FrameNet","abstract":"Cet article pr\u00e9sente une m\u00e9thode g\u00e9n\u00e9rative de pr\u00e9diction de la structure s\u00e9mantique en cadres d\u2019une phrase \u00e0 partir de sa structure syntaxique et d\u00e9crit les grammaires utilis\u00e9es ainsi que leurs performances. Ce syst\u00e8me permet de pr\u00e9dire, pour un mot dans le contexte syntaxique d\u2019une phrase, le cadre le plus probable. Le syst\u00e8me g\u00e9n\u00e9ratif permet d\u2019attribuer \u00e0 ce mot un cadre et \u00e0 l\u2019ensemble de chemins des r\u00f4les s\u00e9mantiques. Bien que les r\u00e9sultats ne soient pas encore satisfaisants, cet analyseur permet de regrouper les t\u00e2ches d\u2019analyse s\u00e9mantique (s\u00e9lection du cadre, s\u00e9lection des actants, attribution des r\u00f4les), contrairement aux travaux pr\u00e9c\u00e9demment publi\u00e9s. De plus, il offre une nouvelle approche de l\u2019analyse s\u00e9mantique en cadres, dans la mesure o\u00f9 elle repose plus sur la structure syntaxique que sur les mots de la phrase.","translation":["Probabilistic modeling of the syntax semantic interface using probabilistic context free grammars, Experiments with FrameNet","This paper presents a generative method for predicting the frame semantic structure of a sentence from its syntactic structure and describes the grammars used with their performances. This system allows to predict, for a word in the syntactic context of a sentence, the most probable frame. The generative system allows to give a frame to a word and semantic roles to a set of pathes. Although results are not yet satisfying, this parser allows to group semantic parsing tasks (frame selection, role fillers selection, role assignment) unlike previously published works. In addition, it offers a new approach to parse semantic frames insofar as it is based more on syntactic structure rather than words of the sentence.","Automatic Semantic Parsing, syntax semantic parsing, FrameNet"],"keyphrases":["interface syntaxe s\u00e9mantique","FrameNet","Analyse s\u00e9mantique automatique"],"prmu":["P","P","M"]} {"id":"recital-2014-long-002","title":"Traitement FrameNet des constructions \u00e0 attribut de l\u2019objet","abstract":"Dans le cadre du projet ASFALDA, qui comporte une phase d\u2019annotation s\u00e9mantique d\u2019un FrameNet fran\u00e7ais, nous cherchons \u00e0 fournir un traitement linguistiquement motiv\u00e9 des constructions \u00e0 attribut de l\u2019objet, un exemple typique de divergence syntaxe-s\u00e9mantique. Pour ce faire, nous commen\u00e7ons par dresser un panorama des propri\u00e9t\u00e9s syntaxiques et s\u00e9mantiques des constructions \u00e0 attribut de l\u2019objet. Nous \u00e9tudions ensuite le traitement FrameNet des verbes anglais typiques de cette construction, avant de nous positionner pour un traitement homog\u00e9n\u00e9is\u00e9 dans le cas du FrameNet fran\u00e7ais.","translation":["Addressing object predicative complements in a French FrameNet","Within the ASFALDA project, which includes the production of a French FrameNet, we try to provide a linguistically motivated treatment for a typical example of syntax-semantics mismatch : object complement construction. In order to do so, we first give an overview of syntactic and semantic properties of object complement constructions. Next, we study the way FrameNet deals with English verbs taking part in those constructions, and finally take a stance for a homogenized treatment of the construction within the French FrameNet.","FrameNet, French, object complement construction, syntax-semantics mismatch"],"keyphrases":["FrameNet","construction \u00e0 attribut de l\u2019objet","fran\u00e7ais","divergence syntaxe-s\u00e9mantique"],"prmu":["P","P","P","P"]} {"id":"recital-2014-long-003","title":"Expressions diff\u00e9renci\u00e9es des besoins informationnels en Langue Naturelle : construction de profils utilisateurs en fonction des t\u00e2ches de recherche d\u2019informations","abstract":"Devant des collections massives et h\u00e9t\u00e9rog\u00e8nes de donn\u00e9es, les syst\u00e8mes de RI doivent d\u00e9sormais pouvoir appr\u00e9hender des comportements d\u2019utilisateurs aussi vari\u00e9s qu\u2019impr\u00e9visibles. L\u2019objectif de notre approche est d\u2019\u00e9valuer la fa\u00e7on dont un utilisateur verbalise un besoin informationnel \u00e0 travers un \u00e9nonc\u00e9 de type \u00ab expression libre \u00bb ; appel\u00e9 langage naturel (LN). Pour cela, nous nous situons dans un contexte applicatif, \u00e0 savoir des demandes de remboursement des utilisateurs d\u2019un moteur de recherche d\u00e9di\u00e9 \u00e0 des \u00e9tudes \u00e9conomiques en fran\u00e7ais. Nous avons recueilli via ce moteur, les demandes en LN sur 5 ann\u00e9es cons\u00e9cutives totalisant un corpus de 1398 demandes. Nous avons alors compar\u00e9 l\u2019expression en tant que tel du besoin informationnel en fonction de la t\u00e2che de recherche d\u2019informations (RI) de l\u2019utilisateur.","translation":["Distinctions in the Formulation of Information Needs in Natural Language; Construction of a Task-Based User Profile Database","With the massive and heterogeneous web document collections, IR system must analyze the behaviors of users which are unpredictable and varied. The approach described in this paper provides a description of the verbalizations of the information need in natural language. For this, we used data collected (i.e. users\u2019 complaints in natural language) through a search engine dedicated to economic reports in French over 5 consecutive years totaling a corpus of 1398 natural language requests. Then, we compared the expression as such of the information need according to the IR task.","Information Retrieval, Information Need, Query formulation and Query Expression, Query Formulation, Natural Language, User Behavior, IR task"],"keyphrases":["Besoin informationnel","t\u00e2ches de recherche d\u2019informations","Langage naturel","Recherche informations","Expression et interpr\u00e9tation des besoins","Formulation question","comportement utilisateur"],"prmu":["P","P","P","R","M","U","R"]} {"id":"recital-2014-long-004","title":"Les mod\u00e8les de description du verbe dans les travaux de Linguistique, Terminologie et TAL","abstract":"Dans le cadre de notre projet de recherche, qui a pour but l\u2019impl\u00e9mentation d\u2019un outil de simplification des emplois sp\u00e9cialis\u00e9s de verbes dans des corpus m\u00e9dicaux \u00e0 partir de l\u2019analyse syntaxico-s\u00e9mantique de ces verbes en contexte, nous proposons une analyse de quelques approches et travaux qui ont pour objet principal la description du verbe dans les trois domaines de recherche \u00e0 l\u2019interface desquels se situe notre projet : linguistique, TAL et terminologie. Nous d\u00e9crivons plus particuli\u00e8rement les travaux qui peuvent avoir une incidence sur notre \u00e9tude. Cet \u00e9tat de l\u2019art nous permet de mieux conna\u00eetre le cadre th\u00e9orique dans lequel s\u2019int\u00e8gre notre projet de recherche et d\u2019avoir les rep\u00e8res et r\u00e9f\u00e9rences susceptibles de contribuer \u00e0 sa r\u00e9alisation.","translation":["The descriptive approaches of the verb in Linguistics, Terminology and NLP","As part of our research project, which aims to implement a text simplification tool for the specialized usages of verbs in medical corpora using the syntactic and semantic analysis of these verbs in context, we propose an overview of some approaches and work whose main research object is the description of verbs, within the three research areas which interface our study is : linguistics, terminology and NLP. We pay a particular attention to studies that can have an impact on our work. This state of the art allows us to better understand the theoretical framework related to our research project. Moreover, it allows us to have benchmarks and references that might be usefull for the realization of our project.","Specialized verb, Frame Semantics, lexical semantics, argumental structure, Semantic Role Labeling"],"keyphrases":["Verbe terminologique ou sp\u00e9cialis\u00e9","s\u00e9mantique des cadres","s\u00e9mantique lexicale","structure argumentale","\u00e9tiquetage en r\u00f4les s\u00e9mantiques"],"prmu":["M","M","U","U","M"]} {"id":"recital-2014-long-005","title":"R\u00e9seau de neurones profond pour l\u2019\u00e9tiquetage morpho-syntaxique","abstract":"L\u2019analyse syntaxique et s\u00e9mantique de langages non-canoniques est principalement limit\u00e9e par le manque de corpus annot\u00e9s. Il est donc primordial de mettre au point des syst\u00e8mes robustes capables d\u2019allier r\u00e9f\u00e9rences canoniques et non-canoniques. Les m\u00e9thodes exploitant la th\u00e9orie des r\u00e9seaux de neurones profonds ont prouv\u00e9 leur efficacit\u00e9 dans des domaines tels que l\u2019imagerie ou les traitements acoustiques. Nous proposons une architecture de r\u00e9seau de neurones appliqu\u00e9e au traitement automatique des langages naturels, et plus particuli\u00e8rement \u00e0 l\u2019\u00e9tiquetage morpho-syntaxique. De plus, plut\u00f4t que d\u2019extraire des repr\u00e9sentations empiriques d\u2019une phrase pour les injecter dans un algorithme de classification, nous nous inspirons de r\u00e9cents travaux portant sur l\u2019extraction automatique de repr\u00e9sentations vectorielles des mots \u00e0 partir de corpus non-annot\u00e9s. Nous souhaitons ainsi tirer profit des propri\u00e9t\u00e9s de lin\u00e9arit\u00e9 et de compositionnalit\u00e9 de tels plongements afin d\u2019am\u00e9liorer les performances de notre syst\u00e8me.","translation":["Deep Neural Network applied to Part-of-Speech Tagging","Syntactic and semantic parsing of non-canonical languages is mainly restricted by the lack of labelled data sets. It is thus essential to develop strong systems capable of combining canonical and non-canonical text corpora. Deep Learning methods proved their efficiency in domains such as imaging or acoustic process.We propose neural network architecture applied to natural languages processing. Furthermore, instead of extracting from the sentence a rich set of hand-crafted features wich are the fed to a standard classification algorithm, we drew our inspiration from recent papers about the automatic extraction of word embeddings from large unlabelled data sets. On such embeddings, we expect to benefit from linearity and compositionality properties to improve our system performances.","NLP, Part-of-Speech Tagging, Machine Learning, Deep Neural Network, Embeddings"],"keyphrases":["R\u00e9seau de Neurones Profond","\u00c9tiquetage morpho-syntaxique","Plongements","TALN","Apprentissage Automatique"],"prmu":["P","P","P","U","M"]} {"id":"recital-2014-long-006","title":"Extraction terminologique : vers la minimisation de ressources","abstract":"Cet article pr\u00e9sente une m\u00e9thode ayant pour objectif de minimiser l\u2019apport ext\u00e9rieur n\u00e9cessaire \u00e0 la t\u00e2che d\u2019extraction terminologique (ET) et de rendre cette t\u00e2che moins d\u00e9pendante de la langue. Pour cela, la m\u00e9thode pr\u00e9voit des ressources morphologiques et morphosyntaxiques simplifi\u00e9es construites directement \u00e0 partir d\u2019un corpus lemmatis\u00e9. Ces ressources endog\u00e8nes servent \u00e0 la cr\u00e9ation d\u2019un syst\u00e8me de filtres qui affinent les calculs statistiques et \u00e0 la g\u00e9n\u00e9ration de patrons pour l\u2019identification de candidats termes polylexicaux. La m\u00e9thode a \u00e9t\u00e9 test\u00e9e sur deux corpus comparables en chimie et en t\u00e9l\u00e9communication, en fran\u00e7ais et en anglais. La pr\u00e9cision observ\u00e9e sur les 100 premiers candidats termes monolexicaux fluctue entre 71% et 87% pour le fran\u00e7ais et entre 44 % et 69 % en anglais ; celle des candidats termes polylexicaux s\u2019\u00e9l\u00e8ve \u00e0 69-78 % en fran\u00e7ais et 69-85 % en anglais en fonction du domaine.","translation":["Terminology Extraction: Towards Resource Minimization","The article presents the method which aims to minimize the use of external resources for the terminology extraction task and to make this task less langage dependent. For that purpose, the method builds simplified morphological and morphosyntactic resources directly from a lemmatized corpus. These endogenous resources are used both in filters, which refine the statistical calculations, and in patterns for polylexical terms identification. The method was tested on two comparable corpora in chemistry and in telecommunication in French and in English. The precision observed on the first 100 monolexical terms fluctuates between 71% and 87% for French and between 44% and 69% in English ; for polylexical terms the precision was 69-78% in French and 69-85% in English depending on the domain.","terminology extraction, endogenous resources, machine learning"],"keyphrases":["extraction terminologique","ressources endog\u00e8nes","apprentissage automatique"],"prmu":["P","P","U"]} {"id":"recital-2014-long-007","title":"Une description des structures de la dur\u00e9e en Langue des Signes Fran\u00e7aise \u00e0 partir d\u2019une grammaire formelle","abstract":"Dans cet article, nous abordons la probl\u00e9matique du fonctionnement de la temporalit\u00e9 en langue des signes fran\u00e7aise (LSF). Nous allons \u00e9tudier plus particuli\u00e8rement quelques structures portant sur la dur\u00e9e. Nous pr\u00e9senterons dans un premier temps les descriptions existantes du syst\u00e8me aspecto-temporel de la LSF et les difficult\u00e9s que nous trouvons pour mod\u00e9liser ces travaux. Le but de cet article est de proposer une grammaire formelle qui prenne en compte le fonctionnement de la LSF et qui puisse faire l\u2019objet d\u2019un traitement de mod\u00e9lisation. Notre d\u00e9marche consiste \u00e0 \u00e9tudier un corpus LSF pour \u00e9tablir des liens de fonction \u00e0 forme afin d\u2019obtenir des r\u00e8gles de grammaire qu\u2019on peut g\u00e9n\u00e9rer dans un projet de synth\u00e8se \u00e0 l\u2019aide d\u2019un signeur avatar.","translation":["Description of structures of time (in French sign \nlanguage) based on a formal grammar","Temporality constitutes a major issue in filed of modeling french signed language (LSF). In fact, it is very difficult to model actual discriptions of the aspect-temporal systems of LSF. In this paper we present the bases of a novel formal grammar that permits the modeling of the LSF. This paper presents a study to construct this grammar. We analysed a French SL corpus to create formel rool between the signed gesture and its signification. Our objective is to obtain rules of grammar that can generate a synthesis project using a signer avatar.","grammar, LSF, temporality, modeling LSF"],"keyphrases":["grammaire","temporalit\u00e9","LSF","mod\u00e9lisation LSF"],"prmu":["P","P","P","R"]} {"id":"recital-2014-long-008","title":"Interaction homme-machine en domaine large \u00e0 l\u2019aide du langage naturel : une amorce par mise en correspondance","abstract":"Cet article pr\u00e9sente le probl\u00e8me de l\u2019association entre \u00e9nonc\u00e9s en langage naturel exprimant des instructions op\u00e9rationnelles et leurs expressions \u00e9quivalentes et langage formel. Nous l\u2019appliquons au cas du fran\u00e7ais et du langage R. D\u00e9velopper un assistant op\u00e9rationnel apprenant, qui constitue notre objectif \u00e0 long terme, requiert des moyens pour l\u2019entra\u00eener et l\u2019\u00e9valuer, c\u2019est-\u00e0-dire un syst\u00e8me initial capable d\u2019interagir avec l\u2019utilisateur. Apr\u00e8s avoir introduit la ligne directrice de ce travail, nous proposons un mod\u00e8le pour repr\u00e9senter le probl\u00e8me et discutons de l\u2019ad\u00e9quation des m\u00e9thodes par mise en correspondance, ou mapping, \u00e0 notre t\u00e2che. Pour finir, nous montrons que, malgr\u00e9 des scores modestes, une approche simple semble suffisante pour amorcer un tel syst\u00e8me interactif apprenant.","translation":["Natural Human-Machine Interaction for Manipulating Formal Language: Bootstrapping with Mapping","We consider the problem of mapping natural language written utterances expressing operational instructions to formal language expressions, applied to French and the R programming language. Designing a learning operational assistant, which is our long term goal, requires the means to train and evaluate it, that is, a baseline system able to interact with the user. After presenting the guidelines of our work, we propose a model to represent the problem and discuss the fit of direct mapping methods to our task. Finally, we show that, while not resulting in excellent scores, a simple approach seems to be sufficient to bootstrap an interactive learning system.","interactive assistants, machine learning, question answering systems"],"keyphrases":["assistants interactifs","apprentissage artificiel","syst\u00e8mes de question-r\u00e9ponse"],"prmu":["R","U","M"]} {"id":"recital-2014-long-009","title":"Regroupement de structures de d\u00e9rivations lexicales par raisonnement analogique","abstract":"Cet article propose une m\u00e9thode de regroupement de structures de d\u00e9rivations lexicales par raisonnement analogique. Nous pr\u00e9sentons les caract\u00e9ristiques g\u00e9n\u00e9rales d\u2019un graphe lexical issu du R\u00e9seau Lexical du Fran\u00e7ais, dont nous exploitons par la suite les composantes faiblement connexes. Ces composantes sont regroup\u00e9es en trois \u00e9tapes : par isomorphisme, par similarit\u00e9 de relations, puis par similarit\u00e9 d\u2019attributs. Les r\u00e9sultats du dernier regroupement sont analys\u00e9s en d\u00e9tail.","translation":["Merging structures of lexical derivations by analogical reasoning","This paper presents a method for merging structures of lexical derivations by analogical reasoning. Following the presentation of general features of a lexical graph from the French Lexical Network, we focus on the weak connected components of this graph. This components are grouped together in three steps : by isomorphism, by relational similarity and finally by attributional similarity. The results of the last merging are analyzed in detail.","lexical graph, analogy, connected components, analogical reasoning, lexical derivation"],"keyphrases":["d\u00e9rivation lexicale","raisonnement analogique","analogie","graphe lexical","composantes connexes"],"prmu":["P","P","P","P","R"]} {"id":"recital-2014-long-010","title":"M\u00e9thodes par extraction pour le r\u00e9sum\u00e9 automatique de conversations parl\u00e9es provenant de centres d\u2019appels","abstract":"Dans ce papier nous traitons des r\u00e9sum\u00e9s automatiques de conversations parl\u00e9es spontan\u00e9es. Pour cela nous utilisons des conversations provenant de cas r\u00e9els d\u2019appels t\u00e9l\u00e9phoniques de centre d\u2019appels issues du corpus DECODA. Nous testons des m\u00e9thodes extractives classiques utilis\u00e9es en r\u00e9sum\u00e9 de texte (MMR) ainsi que des m\u00e9thodes bas\u00e9es sur des heuristiques du dialogue dans le cadre des centres d\u2019appels. Il s\u2019agit de la s\u00e9lection du tour de parole le plus long dans le premier quart de la conversation, dans l\u2019ensemble de la conversation et dans le dernier quart de la conversation. L\u2019ensemble est \u00e9valu\u00e9 avec la m\u00e9trique ROUGE. Les r\u00e9sultats obtenus soulignent les limites de ces approches \u00ab classiques \u00bb et confirment la n\u00e9cessit\u00e9 d\u2019envisager des m\u00e9thodes abstractives int\u00e9grant des informations de structures sur les conversations. En effet, ces premiers r\u00e9sultats montrent que les m\u00e9thodes heuristiques bas\u00e9es sur la structure produisent des r\u00e9sultats comparables, voir meilleurs que des m\u00e9thodes telles que MMR.","translation":["Extraction methods for automatic summarization of spoken conversations from call centers","In this paper we speak about automatic spoken conversation summaries. We use conversation from some real cases call from a call center extracted from the DECODA corpus. We test some extractive summary methods used in text summary (MMR) and some dialogue heuristics methods. It\u2019s mainly to select the longest speaker turn in different part of the dialogue, the first quarter, the whole dialogue, and the last quarter of the dialogue. All the results are evaluated thanks the ROUGE software. The results show the limits of these classical approaches and suggest that we need some abstractive methods including some structural features of the conversation. In fact, these results show that the structural heuristics based methods are even or better than the classic method like MMR.","spoken conversation summarization, extractive summary, ROUGE, DECODA corpus, MMR"],"keyphrases":["corpus DECODA","MMR","ROUGE","R\u00e9sum\u00e9 de conversations parl\u00e9es","r\u00e9sum\u00e9 par extraction"],"prmu":["P","P","P","R","R"]} {"id":"recital-2014-long-011","title":"Identification de Contextes Riches en Connaissances en corpus comparable","abstract":"Dans les \u00e9tudes s\u2019int\u00e9ressant \u00e0 la traduction assist\u00e9e par ordinateur (TAO), l\u2019un des objectifs consiste \u00e0 rep\u00e9rer les passages qui focalisent l\u2019attention des traducteurs humains. Ces passages sont consid\u00e9r\u00e9s comme \u00e9tant des contextes \u00ab riches en connaissances \u00bb, car ils aident \u00e0 la traduction. Certains contextes textuels ne donnent qu\u2019une simple attestation d\u2019un terme recherch\u00e9, m\u00eame s\u2019ils le renferment. Ils ne fournissent pas d\u2019informations qui permettent de saisir sa signification. D\u2019autres, en revanche, contiennent des fragments de d\u00e9finitions, mentionnent une variante terminologique ou utilisent d\u2019autres notions facilitant la compr\u00e9hension du terme. Ce travail s\u2019int\u00e9resse aux \u00ab contextes d\u00e9finitoires \u00bb qui sont utiles \u00e0 l\u2019acquisition de connaissances \u00e0 partir de textes, en particulier dans la perspective de traduction terminologique assist\u00e9e par ordinateur \u00e0 partir de corpus comparables. En effet, l\u2019association d\u2019un exemple \u00e0 un terme permet d\u2019en appr\u00e9hender le sens exact. Nous proposons, tout d\u2019abord, trois hypoth\u00e8ses d\u00e9finissant la notion d\u2019exemple d\u00e9finitoire. Ensuite nous \u00e9valuons sa validit\u00e9 gr\u00e2ce une m\u00e9thode s\u2019appuyant sur les Contextes Riches en Connaissances (CRC) ainsi que les relations hi\u00e9rarchiques reliant les termes entre eux.","translation":["Knowledge-Rich Contexts Extraction from Comparable Corpora","Some contexts provide only a simple explanation of a given term even if they contain it. However, others contain fragments of definitions, mention a terminological variant or use other concepts to make it easy the term understanding. In this work we focus on \u00ab definitory contexts \u00bb that would be valuable to a human for knowledge acquisition from texts, mainly in order to assist in terminological translation from comparable corpora. Indeed, provide the term with an example, makes it possible to understand its exact meaning. First, we specify three hypothesis defining the concept of a defnitory example. Then we evaluate its validity through a method based on the knowledge-Rich Contexts (KRCs) and hierarchical relationships between terms.","Knowledge-Rich Contexts, KRCs, mining definitions, minging examples, terminology, terminological translation"],"keyphrases":["Contextes Riches en Connaissances","terminologie","traduction terminologique","CRC","identification de d\u00e9finitions","identification d\u2019exemples","\u00e9nonc\u00e9 d\u00e9finitoire"],"prmu":["P","P","P","P","R","R","M"]} {"id":"recital-2014-long-012","title":"Induction d\u2019une grammaire de propri\u00e9t\u00e9s \u00e0 granularit\u00e9 variable \u00e0 partir du treebank arabe ATB","abstract":"Dans cet article, nous pr\u00e9sentons une d\u00e9marche pour l\u2019induction d\u2019une grammaire de propri\u00e9t\u00e9s (GP) arabe en utilisant le treebank ATB. Cette d\u00e9marche se base sur deux principales \u00e9tapes : (1) l\u2019induction d\u2019une grammaire hors contexte et (2) l\u2019induction d\u2019une GP par la g\u00e9n\u00e9ration automatique des relations qui peuvent exister entre les unit\u00e9s grammaticales d\u00e9crites dans la CFG. Le produit obtenu constitue une ressource ouvrant de nouvelles perspectives pour la description et le traitement de la langue arabe.","translation":["Induction of a variable granularity property grammar from the Arabic Treebank ATB","This paper presents an approach for building an Arabic property grammar using the treebank ATB. This approach consists in two main steps: (1) inducing a context-free grammar from a treebank and (2) inducing a property grammar. So, we acquire first a context-free grammar (CFG) from the source treebank and then, we induce the property grammar by generating automatically existing relations between grammatical units described in the CFG. The result is a new resource for Arabic, opening the way to new tools and descriptions.","Treebanks, Arabic language, context-free grammar, property grammars"],"keyphrases":["grammaires de propri\u00e9t\u00e9s","Treebanks","langue arabe","grammaire hors-contexte"],"prmu":["P","P","P","M"]} {"id":"recital-2007-long-001","title":"Utilisation des ontologies pour la mod\u00e9lisation logique d\u2019une commande en langue naturel","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 l\u2019interpr\u00e9tation de commandes en langue naturelle pour un agent artificiel. Notre architecture repose sur une mod\u00e9lisation logique de la commande pour l\u2019interpr\u00e9tation s\u00e9mantique, qui permet de capturer la \u00ab structure fonctionnelle \u00bb de la phrase, c\u2019est-\u00e0-dire les r\u00f4les des termes les uns par rapport aux autres. Cet article d\u00e9crit une m\u00e9thode d\u2019analyse structurelle de surface qui s\u2019appuie sur l\u2019ontologie de l\u2019agent pour construire cette mod\u00e9lisation logique. Nous d\u00e9finissons tout d\u2019abord un algorithme d\u2019ancrage des termes de la commande dans l\u2019ontologie de l\u2019agent puis nous montrons comment s\u2019en servir pour l\u2019analyse de surface. Enfin, nous expliquons bri\u00e8vement comment notre mod\u00e9lisation peut \u00eatre utilis\u00e9e au moment de l\u2019interpr\u00e9tation s\u00e9mantique des commandes.","translation":["","In this paper, we focus on natural language interaction for artificial agents. Our architecture relies on a command logical model to enhance the semantic interpretation. It allows us to catch the \u00ab functional structure \u00bb of the user sentence, i.e. each terms compared to each others. This paper describes a partial structural approach which relies on the agent ontology to build a logical form of the sentence. We first define an algorithm to anchor a word from the command in the ontology and we use it to make our partial analysis. Lastly, we explain briefly how to use our model for the semantic interpretation of the user command.","natural language command, partial structural analysis, logical form, ontologies"],"keyphrases":["ontologies","mod\u00e9lisation logique","commande en langue naturelle","analyse structurelle de surface"],"prmu":["P","P","P","P"]} {"id":"recital-2007-long-002","title":"L\u2019analyse morphologique des r\u00e9ponses d\u2019apprenants","abstract":"Nous pr\u00e9sentons une approche empirique de l\u2019\u00e9valuation automatique des r\u00e9ponses d\u2019apprenants au sein d\u2019un syst\u00e8me d\u2019Apprentissage des Langues Assist\u00e9 par Ordinateur (ALAO). Nous proposons la mise en place d\u2019un module d\u2019analyse d\u2019erreurs attest\u00e9es sur corpus qui s\u2019appuie sur des techniques robustes de Traitement Automatique des Langues (TAL). Cet article montre la r\u00e9alisation d\u2019un module d\u2019analyse de morphologie flexionnelle, en situation hors-contexte, \u00e0 partir d\u2019un mod\u00e8le linguistique existant.","translation":["","We present an empirical approach to the automated evaluation of learner's answers in a CALL system (Computer Assisted Language Learning). We suggest the realization of an error parsing module using NLP techniques (Natural Language Processing). The errors stem from a language learners corpus. This article describes the implementation, from an existing linguistic model, of an inflectional context-free morphology parser.","NLP, CALL, errors detection, inflectional morphology, feedback"],"keyphrases":["ALAO","TAL","morphologie flexionnelle","d\u00e9tection d\u2019erreurs","r\u00e9troaction(s)"],"prmu":["P","P","P","M","M"]} {"id":"recital-2007-long-003","title":"Rep\u00e9rage automatique de g\u00e9n\u00e9riques dans les d\u00e9finitions terminographiques","abstract":"Cet article pr\u00e9sente une proc\u00e9dure de rep\u00e9rage et de balisage de l\u2019\u00e9l\u00e9ment g\u00e9n\u00e9rique de la d\u00e9finition terminographique exploitant les caract\u00e9ristiques formelles du sous-langage d\u00e9finitoire. La proc\u00e9dure, qui comporte quatre \u00e9tapes, constitue l\u2019une des sous-t\u00e2ches d\u2019un analyseur (semi-)automatique de la structure conceptuelle des d\u00e9finitions terminographiques, destin\u00e9 \u00e0 faciliter l\u2019annotation d\u2019un corpus en vue de l\u2019\u00e9tude de r\u00e9gularit\u00e9s dans cette structure. La t\u00e2che d\u00e9crite consiste \u00e0 mettre au point un syst\u00e8me d\u2019annotation automatique bas\u00e9 sur le rep\u00e9rage d\u2019indices morphosyntaxiques, sans recourir \u00e0 d\u2019autres ressources linguistiques informatis\u00e9es.","translation":["","This article presents a procedure to locate and tag the generic elements of terminographic definitions, taking advantage of the formal characteristics of the definition sublanguage. This four step procedure is part of a larger (semi-)automatic parser of the conceptual structure of terminographic definitions, intended to ease the tagging of a corpus for studying conceptual regularities in definition structure. The method involves the development of an automatic tagging system, based on the identification of morphosyntactic boundary markers, which does not require the use of additional linguistic resources.","terminographic definition, automatic tagging, boundary location, morphosyntactic markers, sublanguage"],"keyphrases":["d\u00e9finition terminographique","sous-langage","annotation automatique","indices morphosyntaxiques","rep\u00e9rage de fronti\u00e8re"],"prmu":["P","P","P","P","M"]} {"id":"recital-2007-long-004","title":"Extraction de paraphrases d\u00e9sambigu\u00efs\u00e9es \u00e0 partir d\u2019un corpus d\u2019articles encyclop\u00e9diques align\u00e9s automatiquement","abstract":"Nous d\u00e9crivons ici comment enrichir automatiquement WordNet en y important des articles encyclop\u00e9diques. Ce processus permet de cr\u00e9er des nouvelles entr\u00e9es, en les rattachant au bon hyperonyme. Par ailleurs, les entr\u00e9es pr\u00e9existantes de WordNet peuvent \u00eatre enrichies de descriptions compl\u00e9mentaires. La r\u00e9p\u00e9tition de ce processus sur plusieurs encyclop\u00e9dies permet de constituer un corpus d\u2019articles comparables. On peut ensuite extraire automatiquement des paraphrases \u00e0 partir des couples d\u2019articles ainsi cr\u00e9\u00e9s. Gr\u00e2ce \u00e0 l\u2019application d\u2019une mesure de similarit\u00e9, utilisant la hi\u00e9rarchie de verbes de WordNet, les constituants de ces paraphrases peuvent \u00eatre d\u00e9sambigu\u00efs\u00e9s.","translation":["","We describe here how to automatically import encyclopedic articles into WordNet. This process makes it possible to create new entries, attached to their appropriate hypernym. In addition, the preexisting entries of WordNet can get enriched with complementary descriptions. Reiterating this process on several encyclopedias makes it possible to constitute a corpus of comparable articles; we can then automatically extract paraphrases from the couples of articles that have been created. The paraphrases components can finally be disambiguated, by means of a similarity measure (using the verbs WordNet hierarchy).","paraphrases extraction, articles merging, similarity measure, semantic distance, hypernym identification, WordNet, Wikipedia, named entities, syntactic analysis, word sense disambiguation, syntactic frames, unsupervised learning"],"keyphrases":["extraction de paraphrases","WordNet","mesure de similarit\u00e9","fusion d\u2019articles","distance s\u00e9mantique","identification d\u2019hyperonyme","Wikipedia","entit\u00e9s nomm\u00e9es","analyse syntaxique","d\u00e9sambigu\u00efsation lexicale","cadres de sous-cat\u00e9gorisation","apprentissage"],"prmu":["P","P","P","M","U","M","U","U","U","M","M","U"]} {"id":"recital-2007-long-005","title":"Extension de l'encodage formel des fonctions lexicales dans le cadre de la Lexicologie Explicative et Combinatoire","abstract":"Dans les ressources dictionnairiques d\u00e9velopp\u00e9es \u00e0 partir du cadre th\u00e9orique de la Lexicologie Explicative et Combinatoire telles que le DiCo, les relations s\u00e9manticolexicales sont mod\u00e9lis\u00e9es au moyen de fonctions lexicales. Cependant, seulement la majorit\u00e9 d'entre elles (dites standard) r\u00e9pondent v\u00e9ritablement \u00e0 un encodage formel. Les autres (dites non standard), repr\u00e9sentant des relations plus sp\u00e9cifiques \u00e0 certaines unit\u00e9s lexicales, sont \u00e9crites sous la forme d'un encodage h\u00e9t\u00e9rog\u00e8ne et tr\u00e8s peu formalis\u00e9. Par cons\u00e9quent, certaines relations ne peuvent entrer en ligne de compte dans les traitements automatiques. Nous proposons dans cet article une m\u00e9thodologie pour la normalisation des fonctions lexicales non standard afin de les rendre exploitables dans des applications telles que l'analyse et la g\u00e9n\u00e9ration de texte. Pour ce faire, nous discutons certains principes th\u00e9oriques associ\u00e9s \u00e0 ce formalisme de description et esquissons des propositions pour un traitement global et homog\u00e8ne de l'ensemble des relations d\u00e9crites dans le DiCo.","translation":["","In the lexicographical products developped within the framework of the Explicative and Combinatorial Lexicology such as the DiCo, the lexico-semantic links are modeled by means of lexical functions. However, only a part of them (called standard) happen to appear as a real formal encoding. The others (called non-standard), which represent links more specific to some lexical units, are written in a heterogeneous and barely formalized way. Therefore, some relations can't be taken into account in automatic processings. We propose, in this paper, a methodology for the normalization of non standard lexical functions in order to make them machine readable in applications such as text-analysis and generation. To complete this work, we discuss some theoretical assumptions drawn upon this formalism and sketch some propositions for a global and homogeneous processing of all the lexical links described in the DiCo.","(non standard) Lexical Function, modelling of lexico-semantic links, DiCo"],"keyphrases":["DiCo","Fonctions lexicales (non standard)","mod\u00e9lisation des relations s\u00e9manticolexicales"],"prmu":["P","R","R"]} {"id":"recital-2007-long-006","title":"Traitement de d\u00e9signations orales dans un contexte visuel","abstract":"Nous nous int\u00e9ressons aux syst\u00e8mes multimodaux qui utilisent les modes et modalit\u00e9s suivantes : l\u2019oral (et le langage naturel) en entr\u00e9e et en sortie, le geste en entr\u00e9e et le visuel en sortie par affichage sur \u00e9cran. L\u2019usager \u00e9change avec le syst\u00e8me par un geste et\/ou un \u00e9nonc\u00e9 oral en langue naturelle. Dans cet \u00e9change, encod\u00e9 sur les diff\u00e9rentes modalit\u00e9s, se trouvent l\u2019expression du but de l\u2019usager et la d\u00e9signation des objets (r\u00e9f\u00e9rents) n\u00e9cessaires \u00e0 la r\u00e9alisation de ce but. Le syst\u00e8me doit identifier de mani\u00e8re pr\u00e9cise et non ambigu\u00eb les objets d\u00e9sign\u00e9s par l\u2019usager. Nous traitons plus sp\u00e9cialement dans cet article les d\u00e9signations orales, sans geste, des objets dans le contexte visuel. En effet, l\u2019ensemble du contexte multimodal, dont le mode visuel, influe sur la production de l\u2019entr\u00e9e de l\u2019usager. Afin d\u2019identifier une d\u00e9signation produite en s\u2019appuyant sur le contexte visuel, nous proposons un algorithme qui utilise des connaissances \u00ab classiques \u00bb linguistiques, des connaissances sur les objets manipul\u00e9s, et des connaissances sur les aspects perceptifs (degr\u00e9 de saillance) associ\u00e9s \u00e0 ces objets.","translation":["","We are interested about multimodal systems that use the following modes and modalities : speech (and natural language) as input as well as output, gesture as input and visual as output through displaying on the screen. The user exchanges with the system by a gesture and\/or an oral statement in natural language. This exchange, encoded on the different modalities, contains the goal of the user and also the designation of objects (referents) necessary to the realization of this goal. The system must identify in a precise and non-ambiguous way the objects designated by the user. In this paper, our main concern is the oral designations, without gesture, of objects in the visual context. Indeed, the whole of the multimodale context including visual mode, influences the production of the user input. In order to identify a designation based on the visual context, we propose an algorithm which uses \u00ab traditional \u00bb linguistic knowledge, knowledge about manipulated objects and perceptive aspects (degree of salience) associated to these objects.","multimodal human computer communication, reference, salience"],"keyphrases":["r\u00e9f\u00e9rence","saillance","communication homme machine multimodale"],"prmu":["P","P","M"]} {"id":"recital-2007-long-007","title":"Combinaison de ressources linguistiques pour l\u2019aide \u00e0 l\u2019acc\u00e8s lexical : \u00e9tude de faisabilit\u00e9","abstract":"Cet article propose une \u00e9valuation combin\u00e9e et comparative de 5 ressources (descriptive, paradigmatique et syntagmatiques) pour l\u2019aide \u00e0 l\u2019acc\u00e8s lexical en situation de \"mot sur le bout de la langue\", en vue de la cr\u00e9ation d\u2019un outil utilisant la combinaison de ces ressources. En situation de \"mot sur le bout de la langue\", l\u2019utilisateur n\u2019acc\u00e8de plus au mot qu\u2019il veut dire ou \u00e9crire mais est capable d\u2019en produire d\u2019autres s\u00e9mantiquement associ\u00e9s. L\u2019\u00e9valuation se base sur un corpus de 20 mots \"sur le bout de la langue\" pour lesquels on dispose de 50 groupes de 5 associations s\u00e9mantiques effectu\u00e9es par des utilisateurs. Les r\u00e9sultats montrent que les ressources sont compl\u00e9mentaires et peu redondantes. De plus au moins une association propos\u00e9e parmi les 5 permettrait de retrouver le mot \"sur le bout de la langue\" dans 79% des cas, \u00e0 condition de le s\u00e9lectionner parmi les 2500 mot potentiels. Enfin, les r\u00e9sultats montrent des disparit\u00e9s entre les utilisateurs, ce qui permettrait de d\u00e9finir des profils d\u2019utilisateur pour une am\u00e9lioration des performances.","translation":["","This paper describes a joint and comparative evaluation of 5 lexical resources (descriptive, paradigmatic and syntagmatic) from a lexical access angle, with the further perspective of constructing a tool based on a combination of these resources to avoid the \"tip of the tongue\" (TOT) phenomenon. This phenomenon characterises a person who has difficulty in saying or writing an intended word but one who is able to produce semantically associated words. The evaluation corpus is composed of 20 TOT examples each linked to 50 users\u2019 association sets of 5 semantically associated words. The results highlight that all the tested resources are complementary. Moreover, 79% of proposed association sets contain at least one association leading to the TOT through its relative words in at least one resource (in the worse case the TOT has to be found among 2500 words). Finally the results show variations between users which could increase performance thanks to user profiles.","semantic networks, lexical access, user profiling"],"keyphrases":["acc\u00e8s lexical","profil d\u2019utilisateur","r\u00e9seaux s\u00e9mantiques"],"prmu":["P","P","M"]} {"id":"recital-2007-poster-001","title":"Vers une nouvelle structuration de l\u2019information extraite automatiquement","abstract":"Les syst\u00e8mes d\u2019Extraction d\u2019Information se contentent, le plus souvent, d\u2019enrichir des bases de donn\u00e9es plates avec les informations qu\u2019ils extraient. Nous d\u00e9crivons dans cet article un travail en cours sur l\u2019utilisation de donn\u00e9es extraites automatiquement pour la construction d\u2019une structure de repr\u00e9sentation plus complexe. Cette structure mod\u00e9lise un r\u00e9seau social compos\u00e9 de relations entre les entit\u00e9s d\u2019un corpus de biographies.","translation":["","Information Extraction systems are widely used to create flat databases of templates filled with the data they extract from text. In this article we describe an ongoing research project that focuses on the use of automatically extracted data to create a more complex representation structure. This structure is a model of the social network underlying the relations that can be established between the entities of a corpus of biographies.","information extraction, social network analysis, named entities, biographies, knowledge representation"],"keyphrases":["extraction d\u2019information","biographies","analyse de r\u00e9seaux sociaux","entit\u00e9s nomm\u00e9es","repr\u00e9sentation de connaissances"],"prmu":["P","P","M","M","M"]} {"id":"recital-2007-poster-002","title":"Vers une ressource pr\u00e9dicative pour l\u2019extraction d\u2019information","abstract":"Cet article pr\u00e9sente une m\u00e9thode pour construire, \u00e0 partir d\u2019une ressource lexicale pr\u00e9dicative existante, une ressource enrichie pouvant servir \u00e0 une t\u00e2che d\u2019extraction. Nous montrons les points forts et les lacunes de deux ressources existantes pour le Fran\u00e7ais : les Tables du LADL et Volem. Apr\u00e8s avoir montr\u00e9 pourquoi nous avons s\u00e9lectionn\u00e9 Volem, nous listons les donn\u00e9es n\u00e9cessaires \u00e0 la t\u00e2che d\u2019extraction d\u2019information. Nous pr\u00e9sentons le processus d\u2019enrichissement de la ressource initiale et une \u00e9valuation, \u00e0 travers une t\u00e2che d\u2019extraction d\u2019information concernant des textes de rachats d\u2019entreprise.","translation":["","In this article, we present a method aiming at building a resource for an information extraction task, from an already existing French predicative lexical resource. We point out the weaknesses and strengthnesses of two predicative resources we worked with : Les tables du LADL and Volem. We present why we select Volem as the most interesting resource for the task. Thereafter, we make a list of the needs an information extraction task implies, and how we include missing information in the resource we selected. We evaluate the resource completed by those missing informations, using it in an information extraction task.","predicative resource, information extraction, lexico-syntactic patterns"],"keyphrases":["ressource pr\u00e9dicative","extraction d\u2019information","patrons lexico-syntaxiques"],"prmu":["P","P","U"]} {"id":"recital-2007-poster-003","title":"Caract\u00e9risation d\u2019un corpus de requ\u00eates d\u2019assistance","abstract":"Afin de concevoir un agent conversationnel logiciel capable d\u2019assister des utilisateurs novices d\u2019applications informatiques, nous avons \u00e9t\u00e9 amen\u00e9s \u00e0 constituer un corpus sp\u00e9cifique de requ\u00eates d\u2019assistance en fran\u00e7ais, et \u00e0 \u00e9tudier ses caract\u00e9ristiques. Nous montrons ici que les requ\u00eates d\u2019assistance se distinguent nettement de requ\u00eates issues d\u2019autres corpus disponibles dans des domaines proches. Nous mettons \u00e9galement en \u00e9vidence le fait que ce corpus n\u2019est pas homog\u00e8ne, mais contient au contraire plusieurs activit\u00e9s conversationnelles distinctes, dont l\u2019assistance elle-m\u00eame. Ces observations nous permettent de discuter de l\u2019opportunit\u00e9 de consid\u00e9rer l\u2019assistance comme un registre particulier de la langue g\u00e9n\u00e9rale.","translation":["","In order to conceive a conversational agent able to assist ordinary people using softwares, we have built up a specific corpus of assistance requests in french, and studied its characteristics. We show here that assistance requests can be clearly distinguished from the ones from other available corpora in related domains. We also show that this corpus isn\u2019t homogenous, but on the contrary reflects various conversational activities, among which the assistance itself. Those observations allow us to discuss about the opportunity to consider assistance as a general language particular registre.","corpus of assistance requests, conversational agent, conversational activity, speech acts"],"keyphrases":["corpus de requ\u00eates d\u2019assistance","agent conversationnel","activit\u00e9 conversationnelle","actes de dialogue"],"prmu":["P","P","P","M"]} {"id":"recital-2007-poster-004","title":"Extraction endog\u00e8ne d\u2019une structure de document pour un alignement multilingue","abstract":"Pour des raisons vari\u00e9es, diverses communaut\u00e9s se sont int\u00e9ress\u00e9es aux corpus multilingues. Parmi ces corpus, les textes parall\u00e8les sont utilis\u00e9s aussi bien en terminologie, lexicographie ou comme source d\u2019informations pour les syst\u00e8mes de traduction par l\u2019exemple. L\u2019Union Europ\u00e9enne, qui a entra\u00een\u00e9 la production de document l\u00e9gislatif dans vingtaine de langues, est une des sources de ces textes parall\u00e8les. Aussi, avec le Web comme vecteur principal de diffusion de ces textes parall\u00e8les, cet objet d\u2019\u00e9tude est pass\u00e9 \u00e0 un nouveau statut : celui de document. Cet article d\u00e9crit un syst\u00e8me d\u2019alignement prenant en compte un grand nombre de langues simultan\u00e9ment (> 2) et les caract\u00e9ristiques structurelles des documents analys\u00e9s.","translation":["","For many reasons, the multilingual corporas have interested various communities. Among these corporas, the parallel texts are used as well in terminology, lexicography or as a source of informations for example-based translations. The European Union, which involved the production of legislative documents, generates these parrallel texts in more than twenty languages. Also, with the Web as a vector of diffusion, we can wonder if these parallel texts can be treated as documents. This article describes a alignment system taking account a great number of languages (> 2) and the structural characteristics of the analyzed documents.","multilingual alignment, parallel corpora, multitexts, multidocuments, extraction of structures, endogenous alignment"],"keyphrases":["alignement multilingue","corpus parrall\u00e8les","multitextes","multidocuments","extraction de structures","alignement endog\u00e8ne"],"prmu":["P","M","U","U","R","R"]} {"id":"recital-2007-poster-005","title":"\u00c9valuation transparente de syst\u00e8mes de questions-r\u00e9ponses : application au focus","abstract":"Les campagnes d\u2019\u00e9valuation ne tiennent compte que des r\u00e9sultats finaux obtenus par les syst\u00e8mes de recherche d\u2019informations (RI). Nous nous situons dans une perspective d\u2019\u00e9valuation transparente d\u2019un syst\u00e8me de questions-r\u00e9ponses, o\u00f9 le traitement d\u2019une question se fait gr\u00e2ce \u00e0 plusieurs composants s\u00e9quentiels. Dans cet article, nous nous int\u00e9ressons \u00e0 l\u2019\u00e9tude de l\u2019\u00e9l\u00e9ment de la question qui porte l\u2019information qui se trouvera dans la phrase r\u00e9ponse \u00e0 proximit\u00e9 de la r\u00e9ponse elle-m\u00eame : le focus. Nous d\u00e9finissons ce concept, l\u2019appliquons au syst\u00e8me de questions-r\u00e9ponses QALC, et d\u00e9montrons l\u2019utilit\u00e9 d\u2019\u00e9valuations des composants afin d\u2019augmenter la performance globale du syst\u00e8me.","translation":["","Evaluation campaigns take into account only the final results obtained by information retrieval systems. Our perspective is that of the glass box evaluation of a question-answering system. The processing of a question is accomplished by a series of components. The purpose of this article is to study the element in the sentence which holds the key information. This element is to be found again in the sentence containing the answer next to the answer itself, and is called the focus. We will begin by defining this concept. We will then applied it to the QALC question answering system. Finally we will demonstrate the pertinence of using glass box evaluations to enhance the global performance such systems.","question answering system, information retrieval, evaluation, focus"],"keyphrases":["\u00e9valuation","syst\u00e8me de questions-r\u00e9ponses","focus","recherche d\u2019information"],"prmu":["P","P","P","P"]} {"id":"recital-2007-poster-006","title":"La segmentation th\u00e9matique TextTiling comme indice pour le rep\u00e9rage de segments d'information \u00e9volutive dans un corpus de textes encyclop\u00e9diques","abstract":"Nous faisons l'hypoth\u00e8se que les bornes d\u00e9limit\u00e9es par la m\u00e9thode statistique TextTiling peuvent servir d'indices qui, cumul\u00e9es \u00e0 des indices de nature linguistique, permettront de rep\u00e9rer automatiquement des segments d'informations \u00e9volutives. Ce travail est d\u00e9velopp\u00e9 dans le cadre d'un projet industriel plus g\u00e9n\u00e9ral dont le but est le rep\u00e9rage automatique de zones textuelles contenant de l'information potentiellement \u00e9volutive.","translation":["","Our hypothesis is that the TextTiling's boundaries can be considered as clues we can use with other linguistic features to automatically detect evolving information segments. This work is developed as part of an industrial project aiming to automatically detect textual zones containing potentially evolving information.","evolving information, segmentation, TextTiling algorithm"],"keyphrases":["segmentation","segments d'information \u00e9volutive","algorithme TextTiling"],"prmu":["P","P","M"]} {"id":"recital-2007-poster-007","title":"Annotation des disfluences dans les corpus oraux","abstract":"Les disfluences (r\u00e9p\u00e9titions, amorces, autocorrections, constructions inachev\u00e9es, etc.) inh\u00e9rentes \u00e0 toute production orale spontan\u00e9e constituent une r\u00e9elle difficult\u00e9 en termes d\u2019annotation. En effet, l\u2019annotation de ces ph\u00e9nom\u00e8nes se r\u00e9v\u00e8le difficilement automatisable dans la mesure o\u00f9 leur \u00e9tude r\u00e9clame un jugement \u00e9minemment interpr\u00e9tatif. Dans cet article, nous pr\u00e9sentons une m\u00e9thodologie applicable \u00e0 l\u2019annotation des disfluences (ou \u00ab ph\u00e9nom\u00e8nes de production \u00bb) que l\u2019on rencontre fr\u00e9quemment dans les corpus oraux. Le fait de constituer un tel corpus de donn\u00e9es annot\u00e9es, permet non seulement de repr\u00e9senter certains aspects pertinents de l\u2019oral (de mani\u00e8re \u00e0 servir de base aux observations et aux comparaisons avec d\u2019autres donn\u00e9es) mais aussi d\u2019am\u00e9liorer in fine le traitement automatique de l\u2019oral (notamment l\u2019analyse syntaxique automatique).","translation":["","Disfluencies (repeats, word-fragments, self-repairs, aborted constructs, etc.) inherent in any spontaneous speech production constitute a real difficulty in terms of annotation. Indeed, the annotation of these phenomena seems not easily automatizable, because their study needs an interpretative judgement. In this paper, we present a methodology for the annotation of disfluencies (also named \u201cproduction phenomena\u201d) which frequently occur in speech corpora. Constituting such data allows not only to represent some relevant aspects of speech productions (so as to be a basis for observations and comparisons with other data), but also to improve automatic speech processing (particularly for parsing).","speech corpora, annotation, disfluencies, prosody, XML"],"keyphrases":["annotation","disfluences","corpus oraux","prosodie","XML"],"prmu":["P","P","P","U","U"]} {"id":"recital-2007-poster-008","title":"Architecture modulaire portable pour la g\u00e9n\u00e9ration du langage naturel en dialogue homme-machine","abstract":"La g\u00e9n\u00e9ration du langage naturel pour le dialogue oral homme-machine pose des contraintes sp\u00e9cifiques, telles que la spontan\u00e9it\u00e9 et le caract\u00e8re fragment\u00e9 des \u00e9nonc\u00e9s, les types des locuteurs ou les contraintes de temps de r\u00e9ponse de la part du syst\u00e8me. Dans ce contexte, le probl\u00e8me d\u2019une architecture rigoureusement sp\u00e9cifi\u00e9e se pose, autant au niveau des \u00e9tapes de traitement et des modules impliqu\u00e9s, qu\u2019au niveau des interfaces entre ces modules. Afin de permettre une libert\u00e9 quasi-totale \u00e0 l\u2019\u00e9gard des d\u00e9marches th\u00e9oriques, une telle architecture doit \u00eatre \u00e0 la fois modulaire (c\u2019est-\u00e0-dire, permettre l\u2019ind\u00e9pendance des niveaux de traitement les uns des autres) et portable (c\u2019est-\u00e0-dire, permettre l\u2019interop\u00e9rabilit\u00e9 avec des modules con\u00e7us selon des architectures standard en g\u00e9n\u00e9ration du langage naturel, telles que le mod\u00e8le RAGS - \u00ab Reference Architecture for Generation Systems \u00bb). Ainsi, dans cet article on pr\u00e9sente de mani\u00e8re concise l\u2019architecture propos\u00e9e, la comparant ensuite au mod\u00e8le RAGS, pour argumenter les choix op\u00e9r\u00e9s en conception. Dans un second temps, la portabilit\u00e9 de l\u2019architecture sera d\u00e9crite \u00e0 travers un exemple \u00e9tendu, dont la g\u00e9n\u00e9ralit\u00e9 r\u00e9side dans l\u2019obtention d\u2019un ensemble de r\u00e8gles permettant de plonger automatiquement les repr\u00e9sentations des informations de notre architecture vers le format du mod\u00e8le RAGS et inversement. Finalement, un ensemble de conclusions et perspectives cl\u00f4turera l\u2019article.","translation":["","Natural language generation for human-computer dialogue imposes specific constraints, such as the spontaneous and fragmented character of the utterances, speaker types or constraints related to the system\u2019s time of response. In this context, the issue of a thouroughly specified architecture stems naturally, with respect to the processing stages in the modules involved and to the interfaces between these modules as well. In order to allow for a quasi-total freedom concerning the theoretical principles driving the processing stages, such an architecture must be modular (i.e., allowing the independence of the modules of each other) and portable (i.e., allowing a certain interoperability between modules designed following this architecture and existing modules, designed following standard, reference architectures, such as the RAGS model). Thus, in this paper firstly the proposed architecture will be presented in a concise manner, comparing it then to the RAGS model and arguing for the design choices being made. Afterwards, the portability of the architecture will be described, via an extended example whose general character resides in the fact that a set of rules are obtained, that allow automatic translations between representation formats in our architecture and in the RAGS model, in both ways. Finally, a set of conclusions and pointers to further work end up the paper.","generation, dialogue, modular architecture, portability, XML"],"keyphrases":["architecture modulaire","portabilit\u00e9","g\u00e9n\u00e9ration","dialogue","XML"],"prmu":["P","P","P","P","U"]} {"id":"recital-2007-poster-009","title":"R\u00e9solution anaphorique int\u00e9gr\u00e9e \u00e0 une analyse automatique de discours d\u2019un corpus oral retranscrit","abstract":"Nous pr\u00e9sentons une r\u00e9solution anaphorique int\u00e9gr\u00e9e \u00e0 une analyse automatique de discours. Cette \u00e9tude traite des anaphores pronominales et des anaphores z\u00e9ro. Notre analyse est bas\u00e9e sur trois approches : une analyse bas\u00e9e sur les contraintes, une analyse fonctionnelle et une analyse dynamique. Pour \u00e9valuer la faisabilit\u00e9 et la fiabilit\u00e9 de notre approche, nous l\u2019avons exp\u00e9riment\u00e9e sur un corpus de 97 histoires produites \u00e0 l\u2019oral par des enfants. Nous pr\u00e9sentons le r\u00e9sultat de cette \u00e9valuation.","translation":["","We present an anaphora resolution integrated in a discourse analysis. This study deals with pronoun anaphora and zero anaphora. Our analysis is based on three approaches. A constraint based rule analysis, a functional approach and a dynamic analysis. In order to evaluate the feasibility of our approach and its reliability we have experimented with a corpus of 97 speech stories produced by children. We present here the results of our evaluation experiment.","discourse analysis, anaphora resolution, pronoun anaphora, zero anaphora, property grammars, functional grammar, dynamic analysis, speech discourse"],"keyphrases":["r\u00e9solution anaphorique","anaphore pronominales","anaphores z\u00e9ro","analyse dynamique","analyse de discours","grammaires de propri\u00e9t\u00e9s","grammaire fonctionnelle","discours oral"],"prmu":["P","P","P","P","R","M","M","R"]} {"id":"recital-2009-long-001","title":"Apprentissage automatique et Co-training","abstract":"Dans le domaine de la classification supervis\u00e9e et semi-supervis\u00e9e, cet article pr\u00e9sente un contexte favorable \u00e0 l\u2019application de m\u00e9thodes statistiques de classification. Il montre l\u2019application d\u2019une strat\u00e9gie alternative dans le cas o\u00f9 les donn\u00e9es d\u2019apprentissage sont insuffisantes, mais o\u00f9 de nombreuses donn\u00e9es non \u00e9tiquet\u00e9es sont \u00e0 notre disposition : le cotraining multi-classifieurs. Les deux vues ind\u00e9pendantes habituelles du co-training sont remplac\u00e9es par deux classifieurs bas\u00e9s sur des techniques de classification diff\u00e9rentes : icsiboost sur le boosting et LIBLINEAR sur de la r\u00e9gression logistique.","translation":["","In the domain of supervised and semi-supervised classification, this paper describes an experimental context suitable with statistical classification. It shows an alternative method usable when learning data is unsufficient but when many unlabeled data is avaliable : the multi-classifier co-training. Two classifiers based on different classification methods replace the two independent views of the original co-training algorithm : icsiboost based on boosting and LIBLINEAR which is a logistic regression classifier.","Machine learning, classification, co-training"],"keyphrases":["Apprentissage automatique","co-training","classification"],"prmu":["P","P","P"]} {"id":"recital-2009-long-003","title":"D\u00e9tection de la coh\u00e9sion lexicale par voisinage distributionnel : application \u00e0 la segmentation th\u00e9matique","abstract":"Cette \u00e9tude s\u2019ins\u00e8re dans le projet VOILADIS (VOIsinage Lexical pour l\u2019Analyse du DIScours), qui a pour objectif d\u2019exploiter des marques de coh\u00e9sion lexicale pour mettre au jour des ph\u00e9nom\u00e8nes discursifs. Notre propos est de montrer la pertinence d\u2019une ressource, construite par l\u2019analyse distributionnelle automatique d\u2019un corpus, pour rep\u00e9rer les liens lexicaux dans les textes. Nous d\u00e9signons par voisins les mots rapproch\u00e9s par l\u2019analyse distributionnelle sur la base des contextes syntaxiques qu\u2019ils partagent au sein du corpus. Pour \u00e9valuer la pertinence de la ressource ainsi cr\u00e9\u00e9e, nous abordons le probl\u00e8me du rep\u00e9rage des liens lexicaux \u00e0 travers une application de TAL, la segmentation th\u00e9matique. Nous discutons l\u2019importance, pour cette t\u00e2che, de la ressource lexicale mobilixs\u00e9e ; puis nous pr\u00e9sentons la base de voisins distributionnels que nous utilisons ; enfin, nous montrons qu\u2019elle permet, dans un syst\u00e8me de segmentation th\u00e9matique inspir\u00e9 de (Hearst, 1997), des performances sup\u00e9rieures \u00e0 celles obtenues avec une ressource traditionnelle.","translation":["","The present work takes place within the Voiladis project (Lexical neighborhood for discourse analysis), whose purpose is to exploit lexical cohesion markers in the study of various discursive phenomena. We want to show the relevance of a distribution-based lexical resource to locate interesting relations between lexical items in a text.We call neighbors lexical items that share a significant number of syntactic contexts in a given corpus. In order to evaluate the usefulness of such a resource, we address the task of topical segmentation of text, which generally makes use of some kind of lexical relations. We discuss here the importance of the particular resource used for the task of text segmentation. Using a system inspired by (Hearst, 1997), we show that lexical neighbors provide better results than a classical resource.","Lexical cohesion, lexical resources, distributional analysis, text segmentation"],"keyphrases":["Coh\u00e9sion lexicale","segmentation th\u00e9matique","analyse distributionnelle","ressources lexicales"],"prmu":["P","P","P","P"]} {"id":"recital-2009-long-004","title":"Extraction de lexique dans un corpus sp\u00e9cialis\u00e9 en chinois contemporain","abstract":"La constitution de ressources lexicales est une t\u00e2che cruciale pour l\u2019am\u00e9lioration des performances des syst\u00e8mes de recherche d\u2019information. Cet article pr\u00e9sente une m\u00e9thode d\u2019extraction d\u2019unit\u00e9s lexicales en chinois contemporain dans un corpus sp\u00e9cialis\u00e9 non-annot\u00e9 et non-segment\u00e9. Cette m\u00e9thode se base sur une construction incr\u00e9mentale de l\u2019unit\u00e9 lexicale orient\u00e9e par une mesure d\u2019association. Elle se distingue des travaux pr\u00e9c\u00e9dents par une approche linguistique non-supervis\u00e9e assist\u00e9e par les statistiques. Les r\u00e9sultats de l\u2019extraction, \u00e9valu\u00e9s sur un \u00e9chantillon al\u00e9atoire du corpus de travail, sont honorables avec des scores de pr\u00e9cision et de rappel respectivement de 52,6 % et 53,7 %.","translation":["","Building lexical resources is a vital task in improving the efficiency of information retrieval systems. This article introduces a Chinese lexical unit extraction method for untagged specialized corpora. This method is based on an incremental process driven by an association score. This work features an unsupervised statistically aided linguistic approach. The extraction results \u2014 evaluated on a random sample of the working corpus \u2014 show decent precision and recall which amount respectively to 52.6% and 53.7%.","specialized corpus, lexical unit, lexicon extraction, Chinese"],"keyphrases":["extraction de lexique","corpus sp\u00e9cialis\u00e9","chinois","unit\u00e9 lexicale","lexie"],"prmu":["P","P","P","P","U"]} {"id":"recital-2009-long-005","title":"Induction de sens de mots \u00e0 partir de multiples espaces s\u00e9mantiques","abstract":"Les mots sont souvent porteurs de plusieurs sens. Pour traiter l\u2019information correctement, un ordinateur doit \u00eatre capable de d\u00e9cider quel sens d\u2019un mot est employ\u00e9 \u00e0 chacune de ses occurrences. Ce probl\u00e8me non parfaitement r\u00e9solu a g\u00e9n\u00e9r\u00e9 beaucoup de travaux sur la d\u00e9sambigu\u00efsation du sens des mots (Word Sense Disambiguation) et dans la g\u00e9n\u00e9ration d\u2019espaces s\u00e9mantiques dont un des buts est de distinguer ces diff\u00e9rents sens. Nous nous inspirons ici de deux m\u00e9thodes existantes de d\u00e9tection automatique des diff\u00e9rents usages et\/ou sens des mots, pour les appliquer \u00e0 des espaces s\u00e9mantiques issus d\u2019une analyse syntaxique effectu\u00e9e sur un tr\u00e8s grand nombre de pages web. Les adaptations et r\u00e9sultats pr\u00e9sent\u00e9s dans cet article se distinguent par le fait d\u2019utiliser non plus une seule repr\u00e9sentation mais une combinaison de multiples espaces de forte dimensionnalit\u00e9. Ces multiples repr\u00e9sentations \u00e9tant en comp\u00e9tition entre elles, elles participent chacune par vote \u00e0 l\u2019induction des sens lors de la phase de clustering.","translation":["","Words can have many senses. In order to process information correctly, a computer should be able to decide which sense of a word is used in a given context. This unsolved problem has generated much research in word sense disambiguation and in the generation of semantic spaces in order to separate possible meanings. Here, we adapt two existing methods to automatically distinguish words uses and senses.We apply them to multiple semantic spaces produced by a syntactic analysis of a very large number of web pages. These adaptations and the results presented in this article differ from the original methods in that they use a combination of several high dimensional spaces instead of one single representation. Each of these competing semantic spaces takes part in a clustering phase in which they vote on sense induction.","semantic space, dimensionality reduction, Locality Sensitive Hashing, Word Sense Induction, words clustering, multi-represented data"],"keyphrases":["induction de sens","espace s\u00e9mantique","r\u00e9duction de dimensions","Locality Sensitive Hashing","clustering de mots","objets multi-repr\u00e9sent\u00e9s"],"prmu":["P","P","M","U","R","U"]} {"id":"recital-2009-long-006","title":"M\u00e9ta-moteur de traduction automatique : proposition d\u2019une m\u00e9trique pour le classement de traductions","abstract":"Compte tenu de l\u2019essor du Web et du d\u00e9veloppement des documents multilingues, le besoin de traductions \"\u00e0 la vol\u00e9e\" est devenu une \u00e9vidence. Cet article pr\u00e9sente un syst\u00e8me qui propose, pour une phrase donn\u00e9e, non pas une unique traduction, mais une liste de N hypoth\u00e8ses de traductions en faisant appel \u00e0 plusieurs moteurs de traduction pr\u00e9-existants. Neufs moteurs de traduction automatique gratuits et disponibles sur leWeb ont \u00e9t\u00e9 s\u00e9lectionn\u00e9s pour soumettre un texte \u00e0 traduire et r\u00e9ceptionner sa traduction. Les traductions obtenues sont class\u00e9es selon une m\u00e9trique reposant sur l\u2019utilisation d\u2019un mod\u00e8le de langage. Les exp\u00e9riences conduites ont montr\u00e9 que ce m\u00e9ta-moteur de traduction se r\u00e9v\u00e8le plus pertinent que l\u2019utilisation d\u2019un seul syst\u00e8me de traduction.","translation":["","Considering the Web and multilingual documents development expansion, the need of fast translation has become an evidence. This paper presents a system that proposes, for a given sentence, a list of N translation hypotheses instead of a single translation, using several machine translation systems already existing. Nine free and available (on the Internet) automatic translation engines have been chosen to submit a text to be translated and to receive its translation. The translations obtained are evaluated individually with a language model adapted and a metric elaborated by us, and in this way classified by relevance order. The experiment have pointed out that this meta-translation engine is more useful than the use of one system for translation.","automatic translation, web, language model, meta-translator"],"keyphrases":["m\u00e9ta-moteur de traduction","traduction automatique","web","mod\u00e8le de langage"],"prmu":["P","P","P","P"]} {"id":"recital-2009-long-007","title":"Mod\u00e8les statistiques pour l\u2019estimation automatique de la difficult\u00e9 de textes de FLE","abstract":"La lecture constitue l\u2019une des t\u00e2ches essentielles dans l\u2019apprentissage d\u2019une langue \u00e9trang\u00e8re. Toutefois, la d\u00e9couverte d\u2019un texte portant sur un sujet pr\u00e9cis et qui soit adapt\u00e9 au niveau de chaque apprenant est consommatrice de temps et pourrait \u00eatre automatis\u00e9e. Des exp\u00e9riences montrent que, pour l\u2019anglais, l\u2019utilisation de classifieurs statistiques permet d\u2019estimer automatiquement la difficult\u00e9 d\u2019un texte. Dans cet article, nous proposons une m\u00e9thodologie originale comparant, pour le fran\u00e7ais langue \u00e9trang\u00e8re (FLE), diverses techniques de classification (la r\u00e9gression logistique, le bagging et le boosting) sur deux corpus d\u2019entra\u00eenement. Il ressort de cette analyse comparative une l\u00e9g\u00e8re sup\u00e9riorit\u00e9 de la r\u00e9gression logistique multinomiale.","translation":["","Reading is known to be an essential task in language learning, but finding the appropriate text for every learner is far from easy. In this context, automatic procedures can support the teacher\u2019s work. Some works on English reveal that it is possible to assess the readability of texts using statistical classifiers. In this paper, we present an original approach comparing various classification techniques, namely logistic regression, bagging and boosting on two training corpora. The results show a slight superiority for multinomial logistic regression over bagging or boosting.","readability, logistic regression, bagging, boosting, language model"],"keyphrases":["r\u00e9gression logistique","bagging","boosting","lisibilit\u00e9","mod\u00e8le de langue"],"prmu":["P","P","P","U","R"]} {"id":"recital-2009-long-009","title":"Normalisation des entit\u00e9s nomm\u00e9es : pour une approche mixte et orient\u00e9e utilisateurs","abstract":"La normalisation intervient dans de nombreux champs du traitement de l'information. Elle permet d'optimiser les performances des applications, telles que la recherche ou l'extraction d'information, et de rendre plus fiable la constitution de ressources langagi\u00e8res. La normalisation consiste \u00e0 ramener toutes les variantes d'un m\u00eame terme ou d'une entit\u00e9 nomm\u00e9e \u00e0 une forme standard, et permet de limiter l'impact de la variation linguistique. Notre travail porte sur la normalisation des entit\u00e9s nomm\u00e9es, pour laquelle nous avons mis en place un syst\u00e8me complexe m\u00ealant plusieurs approches. Nous en pr\u00e9sentons ici une des composantes : une m\u00e9thode endog\u00e8ne de d\u00e9limitation et de validation de l\u2019entit\u00e9 nomm\u00e9e norm\u00e9e, adapt\u00e9e \u00e0 des donn\u00e9es multilingues. De plus, nous pla\u00e7ons l'utilisateur au centre du processus de normalisation, dans l'objectif d'obtenir des donn\u00e9es parfaitement fiables et adapt\u00e9es \u00e0 ses besoins.","translation":["","Normalization is involved in many fields of information processing. It improves performances for several applications, such as information retrieval or information extraction, and makes linguistic resources constitution more reliable. Normalization consists in standardizing each variant of a term or named entity into a unique form, and this way restricts the impact of term variation. Our work applies to named entity normalization, for which we implemented a complex system that mixes several approaches. We present here one of its components: an endogenous method to mark out and validate the normalized named entities. Moreover, we place the user in the center of our normalization process, in order to obtain fully reliable data that fit his needs.","normalization, named entities, information processing, corpus analysis, endogenous methods, complex system"],"keyphrases":["normalisation","entit\u00e9s nomm\u00e9es","traitement de l'information","syst\u00e8me complexe","m\u00e9thodes endog\u00e8nes","analyse de corpus"],"prmu":["P","P","P","P","P","M"]} {"id":"recital-2009-long-010","title":"Combinaison de contenus encyclop\u00e9diques multilingues pour une reconnaissance d\u2019entit\u00e9s nomm\u00e9es en contexte","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thode de transformation de Wikip\u00e9dia en ressource d\u2019information externe pour d\u00e9tecter et d\u00e9sambigu\u00efser des entit\u00e9s nomm\u00e9es, en milieu ouvert et sans apprentissage sp\u00e9cifique. Nous expliquons comment nous construisons notre syst\u00e8me, puis nous utilisons cinq \u00e9ditions linguistiques de Wikip\u00e9dia afin d\u2019enrichir son lexique. Pour finir nous r\u00e9alisons une \u00e9valuation et comparons les performances du syst\u00e8me avec et sans compl\u00e9ments lexicaux issus des informations inter-linguistiques, sur une t\u00e2che d\u2019extraction d\u2019entit\u00e9s nomm\u00e9es appliqu\u00e9e \u00e0 un corpus d\u2019articles journalistiques.","translation":["","In this paper, we present a way to use of Wikipedia as an external resource to disambiguate and detect named entities, without learning step. We explain how we build our system and why we used five linguistic editions of the Wikipedia corpus to increase the volume of potentially matching candidates. We finally experiment our system on a news corpus.","Named entity labeling, semantic resources"],"keyphrases":["Etiquetage d\u2019entit\u00e9s nomm\u00e9es","ressources s\u00e9mantiques"],"prmu":["M","M"]} {"id":"recital-2009-long-011","title":"La distance intertextuelle pour la classification de textes en langue arabe","abstract":"Nos travaux de recherche s\u2019int\u00e9ressent \u00e0 l\u2019application de la th\u00e9orie de la distance intertextuelle sur la langue arabe en tant qu\u2019outil pour la classification de textes. Cette th\u00e9orie traite de la classification de textes selon des crit\u00e8res de statistique lexicale, se basant sur la notion de connexion lexicale. Notre objectif est d\u2019int\u00e9grer cette th\u00e9orie en tant qu\u2019outil de classification de textes en langue arabe. Ceci n\u00e9cessite l\u2019int\u00e9gration d\u2019une m\u00e9trique pour la classification de textes au niveau d\u2019une base de corpus lemmatis\u00e9s \u00e9tiquet\u00e9s et identifi\u00e9s comme \u00e9tant des r\u00e9f\u00e9rences d\u2019\u00e9poques, de genre, de th\u00e8mes litt\u00e9raires et d\u2019auteurs et ceci afin de permettre la classification de textes anonymes.","translation":["","Our researche works are interested in the application of the intertextual distance theory on the Arabic language as a tool for the classification of texts. This theory handles the classification of texts according to criteria of lexical statistics, and it is based on the lexical connection approach. Our objective is to integrate this theory as a tool of classification of texts in Arabic language. It requires the integration of a metrics for the classification of texts using a database of lemmatized and identified corpus which can be considered as a literature reference for times, genres, literary themes and authors and this in order to permit the classification of anonymous texts.","Intertextual distance, Arabic, classification, lemmatization, corpus, lexical statistics"],"keyphrases":["Distance intertextuelle","classification","arabe","statistique lexicale","corpus","lemmatisation"],"prmu":["P","P","P","P","P","P"]} {"id":"recital-2009-long-012","title":"Techniques argumentatives pour aider \u00e0 g\u00e9n\u00e9rer des descriptions orient\u00e9es d\u2019un \u00e9v\u00e9nement","abstract":"Les moyens et les formes strat\u00e9giques permettant la g\u00e9n\u00e9ration de descriptions textuelles argument\u00e9es d\u2019une m\u00eame r\u00e9alit\u00e9 effective sont nombreux. La plupart des d\u00e9finitions propos\u00e9es de l\u2019argumentation partagent l\u2019id\u00e9e qu\u2019argumenter c\u2019est fournir les \u00e9l\u00e9ments en faveur d\u2019une conclusion donn\u00e9e. Or dans notre t\u00e2che qui consiste \u00e0 g\u00e9n\u00e9rer des descriptions argument\u00e9es pour des accidents de la route, nous ne disposons pas uniquement d\u2019\u00e9l\u00e9ments en faveur de la conclusion souhait\u00e9e mais aussi d\u2019\u00e9l\u00e9ments qui vont \u00e0 l\u2019encontre de cette derni\u00e8re et dont la pr\u00e9sence est parfois obligatoire pour la compr\u00e9hension de ces descriptions. Afin de rem\u00e9dier \u00e0 ce probl\u00e8me, nous proposons des techniques de g\u00e9n\u00e9ration de descriptions argument\u00e9es qui pr\u00e9sentent au mieux les \u00e9l\u00e9ments ind\u00e9sirables \u00e0 l\u2019aide de strat\u00e9gies argumentatives.","translation":["","Strategic means and forms for the generation of textual descriptions of a same reality are numerous. Most definitions of the argumentation given in the literature share the idea that to argument we must provide elements in favor of a given conclusion. Unfortunately, in our task consisting in generating biased descriptions of a road crash, we do not have only elements in favor of the desired conclusion, but also elements that are against it and must nevertheless be present in the description unless we cannot be able to understand how the accident happened. To remedy this problem, we proposed a module in our system for generating biased descriptions that handles the task of presenting better the undesirable elements using argumentative techniques.","Argumentation, Insinuation, Customary norms, Justification"],"keyphrases":["Argumentation","Insinuation","Norme coutumi\u00e8res","Justification"],"prmu":["P","U","U","U"]} {"id":"recital-2008-long-001","title":"M\u00e9thode de r\u00e9ordonnancement de r\u00e9ponses par transformation d\u2019arbres : pr\u00e9sentation et analyse des r\u00e9sultats","abstract":"Dans cet article nous pr\u00e9sentons une \u00e9valuation et une analyse des r\u00e9sultats d\u2019une m\u00e9thode de r\u00e9ordonnancement de r\u00e9ponses pour un syst\u00e8me de questions-r\u00e9ponses. Cette m\u00e9thode propose une s\u00e9lection des r\u00e9ponses candidates \u00e0 une question en calculant un co\u00fbt par transformation d\u2019arbres. Nous pr\u00e9sentons une analyse des r\u00e9sultats obtenus sur le corpus Clef 2004-2005 et nos conclusions sur les voies d\u2019am\u00e9lioration possibles pour notre syst\u00e8me.","translation":["","This paper describes an evaluation and an analysis of the results of an answers reranking method for a question-answering system. Candidate answers to a question are reordered by computing a tree transform cost. We discuss the results of our evaluation on the Clef 2004-2005 corpus and describe possible improvements to the system.","Information Retrieval, Natural Language Processing, Question-Answering systems"],"keyphrases":["syst\u00e8mes de questions-r\u00e9ponses","Recherche d\u2019information","Traitement Automatique des Langues"],"prmu":["P","M","M"]} {"id":"recital-2008-long-002","title":"Annotation des informations temporelles dans des textes en fran\u00e7ais","abstract":"Le traitement des informations temporelles est crucial pour la compr\u00e9hension de textes en langue naturelle. Le langage de sp\u00e9cification TimeML a \u00e9t\u00e9 con\u00e7u afin de permettre le rep\u00e9rage et la normalisation des expressions temporelles et des \u00e9v\u00e9nements dans des textes \u00e9crits en anglais. L\u2019objectif des divers projets TimeML a \u00e9t\u00e9 de formuler un sch\u00e9ma d\u2019annotation pouvant s\u2019appliquer \u00e0 du texte libre, comme ce que l\u2019on trouve sur le Web, par exemple. Des efforts ont \u00e9t\u00e9 faits pour l\u2019application de TimeML \u00e0 d\u2019autres langues que l\u2019anglais, notamment le chinois, le cor\u00e9en, l\u2019italien, l\u2019espagnol et l\u2019allemand. Pour le fran\u00e7ais, il y a eu des efforts allant dans ce sens, mais ils sont encore un peu \u00e9parpill\u00e9s. Dans cet article, nous d\u00e9taillons nos travaux actuels qui visent \u00e0 \u00e9laborer des ressources compl\u00e8tes pour l\u2019annotation de textes en fran\u00e7ais selon TimeML - notamment un guide d\u2019annotation, un corpus de r\u00e9f\u00e9rence (Gold Standard) et des modules d\u2019annotation automatique.","translation":["","The processing of temporal information is crucial for the understanding of natural language texts. The specification language TimeML was developed to facilitate the identification and normalization of temporal expressions and events in texts written in English. The aim of the various TimeML projects was to formulate an annotation scheme able to be applied to free text, such as that which is found on the Web, for example. Recently, efforts have been made to apply TimeML to languages other than English, namely Chinese, Korean, Italian, Spanish and German. Some efforts have been made in this direction with respect to French, but they remain somewhat scattered. In this paper, we detail our ongoing work, which aims to establish comprehensive resources for the annotation of French texts according to TimeML - an annotation guide, a Gold Standard corpus and modules for automatic annotation.","Temporal annotation, event recognition, TimeML"],"keyphrases":["TimeML","Annotation temporelle","rep\u00e9rage des \u00e9v\u00e9nements"],"prmu":["P","R","R"]} {"id":"recital-2008-long-003","title":"Morphosyntaxe de l'interrogation pour le syst\u00e8me de question-r\u00e9ponse RITEL","abstract":"Nous proposons d'\u00e9tudier le cas de l'interrogation en Dialogue Homme-Machine au sein d'un syst\u00e8me de Question-R\u00e9ponse \u00e0 travers le prisme de la Grammaire Interactive. Celle-ci \u00e9tablit un rapport direct entre question et r\u00e9ponse et pr\u00e9suppose que la morphosyntaxe d'une interrogation d\u00e9pend d'une \u00ab r\u00e9ponse escompt\u00e9e \u00bb; l'interlocuteur humain ou machine ayant la possibilit\u00e9 de produire une r\u00e9ponse effective divergente. Nous proposons d\u2019observer la pr\u00e9sence des diff\u00e9rentes formes de questions dans un corpus issu de l\u2019utilisation du syst\u00e8me RITEL. Et nous pr\u00e9sentons une exp\u00e9rience men\u00e9e sur des locuteurs natifs qui nous a permis de mettre en valeur la diff\u00e9rence entre r\u00e9ponses effectives produites par nos sujets et r\u00e9ponses pr\u00e9suppos\u00e9es par le contenu intentionnel des questions. Les formalismes ainsi d\u00e9gag\u00e9s ont pour but de donner aux syst\u00e8mes de DHM des fonctionnalit\u00e9s nouvelles comme la capacit\u00e9 \u00e0 interpr\u00e9ter et \u00e0 g\u00e9n\u00e9rer de la variabilit\u00e9 dans les \u00e9nonc\u00e9s produits.","translation":["","In this paper we study the interrogation in Human-Computer Dialogue in order to integrate interpretative and dynamic functionnalities in a Question-Answering system using Interactive Grammar. It constitues a direct link between question and answer and assumes that the morphosyntax of interrogation depends on an anticipated answer. We propose an observation of question-answering corpora coming from the RITEL system showing the distribution of different morphosyntatic kinds of questions. Then we present an experimentation based on this observation in which French native speakers answer to those different kinds of questions. Our objective is to observe the difference between the anticipated answer and the effective one.","Interactive Grammar, dynamic models, human-computer dialogue, question-answering system, morphosyntax, user experimentation, answer formulation"],"keyphrases":["morphosyntaxe","syst\u00e8me de question-r\u00e9ponse","dialogue homme-machine","Grammaire Interactive","mod\u00e8les dynamiques","exp\u00e9rimentation utilisateur","formulation de r\u00e9ponse"],"prmu":["P","P","P","P","U","M","M"]} {"id":"recital-2008-long-004","title":"Un syst\u00e8me d'annotation des entit\u00e9s nomm\u00e9es du type personne pour la r\u00e9solution de la r\u00e9f\u00e9rence","abstract":"Dans cet article nous pr\u00e9sentons notre d\u00e9marche pour l\u2019annotation des expressions r\u00e9f\u00e9rentielles d\u00e9signant les personnes et son utilisation pour la r\u00e9solution partielle de la r\u00e9f\u00e9rence. Les choix effectu\u00e9s dans notre impl\u00e9mentation s'inspirent des travaux r\u00e9cents dans le domaine de l'extraction d'information et plus particuli\u00e8rement de la reconnaissance des entit\u00e9s nomm\u00e9es. Nous utilisons les grammaires locales dans le but d'annoter les entit\u00e9s nomm\u00e9es du type Personne et pour construire, \u00e0 partir des annotations produites, une base de connaissances extra-linguistiques. Les informations acquises par ce proc\u00e9d\u00e9 sont ensuite utilis\u00e9es pour impl\u00e9menter une m\u00e9thode de la r\u00e9solution de la r\u00e9f\u00e9rence pour les syntagmes nominaux cor\u00e9f\u00e9rentiels.","translation":["","The aim of this paper is to describe our approach for annotating of the referential mentions that refer to the entities which are the instances of Person. Our method is inspired by the recent work in information extraction and particularly the named entities recognition and classification task. Local grammars are used to identify this category of named entities and to generate an extra-linguistic knowledge base which is further used for the process of reference resolution.","named entities, entity recongnition, local grammars, Nooj, knowledge base"],"keyphrases":["annotation","entit\u00e9s nomm\u00e9es","grammaires locales","base de connaissances","Nooj"],"prmu":["P","P","P","P","U"]} {"id":"recital-2008-long-005","title":"Description de la structure de la phrase japonaise en vue d'une analyse syntaxique","abstract":"Nous d\u00e9crivons la fa\u00e7on dont est form\u00e9e la phrase japonaise, avec son contenu minimal, la structure des composants d'une phrase simple et l'ordre des mots dans ses composants, les diff\u00e9rentes phrases complexes et les possibilit\u00e9s de changements modaux. Le but de cette description est de permettre l'analyse de la phrase japonaise selon des principes universels tout en restant fid\u00e8les aux particularit\u00e9s de la langue. L'analyseur syntaxique multilingue FIPS est en cours d'adaptation pour le japonais selon les r\u00e8gles de grammaire qui ont \u00e9t\u00e9 d\u00e9finies. Bien qu'il fonctionnait alors uniquement pour des langues occidentales, les premiers r\u00e9sultats sont tr\u00e8s positifs pour l'analyse des phrases simples, ce qui montre la capacit\u00e9 de Fips \u00e0 s'adapter \u00e0 des langues tr\u00e8s diff\u00e9rentes.","translation":["","We describe here the way the Japanese sentence is structured, with its minimal content, the structure of its components, the different kinds of complex sentences and the possible modal effects. The aim of this description is to analyse the Japanese sentence in a universal way while respecting the language properties. The syntactic parser FIPS is now being developed to analyse Japanese sentences following grammar rules coming from this syntactic description. Even though the parser used to be used for Western languages only, the first results of simple Japanese sentence analysis are very positive. This shows how FIPS can adapt easily to very different languages.","Syntactic Parser, Japanese language, Grammar"],"keyphrases":["Japonais","Analyse Syntaxique","Grammaire"],"prmu":["P","P","P"]} {"id":"recital-2008-long-006","title":"Adaptation d\u2019un syst\u00e8me de compr\u00e9hension pour un robot compagnon","abstract":"Le projet EmotiRob, financ\u00e9 par l\u2019ANR, a pour but de r\u00e9aliser un robot compagnon pour des enfants fragilis\u00e9s. Le projet se d\u00e9compose en deux sous parties que sont le module de compr\u00e9hension pour comprendre ce que dit l\u2019enfant et un module d\u2019interaction \u00e9motionnelle pour apporter une r\u00e9ponse en simulant des \u00e9motions par les mouvements du corps, les traits du visage et par l'\u00e9mission de petits sons simples. Le module de compr\u00e9hension dont il est question ici r\u00e9utilise les travaux du syst\u00e8me Logus. La principale difficult\u00e9 est de faire \u00e9voluer le syst\u00e8me existant d\u2019un dialogue homme-machine finalis\u00e9 vers un domaine plus large et de d\u00e9tecter l\u2019\u00e9tat \u00e9motionnel de l\u2019enfant. Dans un premier temps, nous pr\u00e9sentons le projet EmotiRob et ses sp\u00e9cificit\u00e9s. Ensuite, le syst\u00e8me de compr\u00e9hension de la parole Logus, sur lequel se base ce travail, est pr\u00e9sent\u00e9 en d\u00e9tail. Enfin, nous pr\u00e9sentons les adaptations du syst\u00e8me \u00e0 la nouvelle t\u00e2che EmotiRob.","translation":["","The EmotiRob project, financed by ANR, aims at realizing a robot companion for weakened children. The project decomposes into two under parts that which are the module of understanding to include what says the child and a module of emotional interaction to bring an answer by feigning feelings by the movements of the body, lines of the face and by emission of small simple sounds. The module of understanding reuses the works of the system Logus. The main difficulty is to develop the existing system of a human-machine dialogue finalized towards a wider domain and to detect the emotional state of the child. At first, we present the EmotiRob project and its specificities. Then, the system of understanding Logus, on which bases itself this work is presented. Finally, we present the adaptations of the system to his new task EmotiRob.","spoken language understanding, spontaneous language"],"keyphrases":["Compr\u00e9hension du langage","langue parl\u00e9e spontan\u00e9e"],"prmu":["M","U"]} {"id":"recital-2008-long-007","title":"Identification automatique de marques d'opinion dans des textes","abstract":"Nous pr\u00e9sentons un mod\u00e8le conceptuel pour la repr\u00e9sentation d'opinions, en analysant les \u00e9l\u00e9ments qui les composent et quelques propri\u00e9t\u00e9s. Ce mod\u00e8le conceptuel est impl\u00e9ment\u00e9 et nous en d\u00e9crivons le jeu d\u2019annotations. Le processus automatique d\u2019annotation de textes en espagnol est effectu\u00e9 par application de r\u00e8gles contextuelles. Un premier sous-ensemble de r\u00e8gles a \u00e9t\u00e9 \u00e9crit pour l'identification de quelques \u00e9l\u00e9ments du mod\u00e8le. Nous analysons les premiers r\u00e9sultats de leur application.","translation":["","We present a model for the representation of opinions, by analyzing the elements which compose them and some properties. The model has an operating counterpart, implemented in the form of a set of tags. For the automatic application of these tags on Spanish texts, we work on the writing of contextual rules. A primary subset of rules was written for the identification of some elements of the model. We analyze the first results of their application.","Opinions Identification, Text Mining, Natural Language Processing"],"keyphrases":["Identification d'opinions","Fouille de textes","Traitement automatique du langage naturel"],"prmu":["R","M","M"]} {"id":"recital-2008-long-008","title":"Transducteurs \u00e0 fen\u00eatre glissante pour l\u2019induction lexicale","abstract":"Nous appliquons diff\u00e9rents mod\u00e8les de similarit\u00e9 graphique \u00e0 la t\u00e2che de l\u2019induction de lexiques bilingues entre un dialecte de Suisse allemande et l\u2019allemand standard. Nous comparons des transducteurs stochastiques utilisant des fen\u00eatres glissantes de 1 \u00e0 3 caract\u00e8res, entra\u00een\u00e9s \u00e0 l\u2019aide de l\u2019algorithme de maximisation de l\u2019esp\u00e9rance avec des corpus d\u2019entra\u00eenement de tailles diff\u00e9rentes. Si les transducteurs \u00e0 unigrammes donnent des r\u00e9sultats satisfaisants avec des corpus tr\u00e8s petits, nous montrons que les transducteurs \u00e0 bigrammes les d\u00e9passent \u00e0 partir de 750 paires de mots d\u2019entra\u00eenement. En g\u00e9n\u00e9ral, les mod\u00e8les entra\u00een\u00e9s nous ont permis d\u2019am\u00e9liorer la F-mesure de 7% \u00e0 15% par rapport \u00e0 la distance de Levenshtein.","translation":["","We apply different models of graphemic similarity to the task of bilingual lexicon induction between a Swiss German dialect and Standard German. We compare stochastic transducers using sliding windows from 1 to 3 letters, trained with the Expectation-Maximisation algorithm on training corpora of different sizes. While the unigram transducers provide good results with very small corpora, we show that bigram transducers outperform them with corpora of 750 word pairs or more. Overall, the trained models show between 7% and 15% F-measure improvement over Levenshtein distance.","Lexicon induction, stochastic transducers, cognate languages"],"keyphrases":["Induction lexicale","transducteurs stochastiques","langues apparent\u00e9es"],"prmu":["P","P","U"]} {"id":"recital-2008-long-009","title":"G\u00e9n\u00e9ration int\u00e9gr\u00e9e localis\u00e9e pour la production de documents","abstract":"Dans cet article, nous proposons une approche int\u00e9gr\u00e9e localis\u00e9e pour la g\u00e9n\u00e9ration. Dans cette approche, le traitement int\u00e9gr\u00e9 des d\u00e9cisions linguistiques est limit\u00e9 \u00e0 la production des propositions dont les d\u00e9cisions qui concernent leurs g\u00e9n\u00e9rations sont d\u00e9pendantes. La g\u00e9n\u00e9ration se fait par groupes de propositions de tailles limit\u00e9es avec traitement int\u00e9gr\u00e9 des d\u00e9cisions linguistiques qui concernent la production des propositions qui appartiennent au m\u00eame groupe. Notre approche apporte une solution pour le probl\u00e8me de complexit\u00e9 computationnelle de la g\u00e9n\u00e9ration int\u00e9gr\u00e9e classique. Elle fournit ainsi une alternative \u00e0 la g\u00e9n\u00e9ration s\u00e9par\u00e9e (s\u00e9quentielle ou interactive) qui pr\u00e9sente plusieurs d\u00e9fauts mais qui est impl\u00e9ment\u00e9e de mani\u00e8re r\u00e9pandue dans les syst\u00e8mes de g\u00e9n\u00e9rations existants.","translation":["","In this paper, we propose a localized integrated approach for generation. In this approach, the integrated handling of linguistic decisions is limited to the production of propositions whose decisions concerning their generation are dependant. The generation is performed by groups of propositions of limited size with an integrated handling of linguistic decisions that concern the production of the propositions that belong to the same group. Our approach provides a solution for the computational complexity problem of classical integrated generation. Therefore, it provides an alternative to separated generation (sequential and interactive) that has many drawbacks but is widely implemented in today\u2019s generation systems.","localized integrated generation, generation architectures, SDRT, discourse segmentation"],"keyphrases":["g\u00e9n\u00e9ration int\u00e9gr\u00e9e localis\u00e9e","architectures de g\u00e9n\u00e9ration","SDRT","segmentation du discours"],"prmu":["P","M","U","U"]} {"id":"recital-2008-long-010","title":"Un syst\u00e8me de g\u00e9n\u00e9ration et \u00e9tiquetage automatique de dictionnaires linguistiques de l'arabe","abstract":"L'objectif de cet article est la pr\u00e9sentation d'un syst\u00e8me de g\u00e9n\u00e9ration automatique de dictionnaires \u00e9lectroniques de la langue arabe classique, d\u00e9velopp\u00e9 au sein de laboratoire UTIC (unit\u00e9 de Monastir). Dans cet article, nous pr\u00e9senterons, les diff\u00e9rentes \u00e9tapes de r\u00e9alisation, et notamment la g\u00e9n\u00e9ration automatique de ces dictionnaires se basant sur une th\u00e9orie originale : les Conditions de Structures Morphomatiques (CSM), et les matrices lexicales. Ce syst\u00e8me rentre dans le cadre des deux projets MIRTO et OREILLODULE r\u00e9alis\u00e9s dans les deux laboratoires LIDILEM de Grenoble et UTIC Monastir de Tunisie","translation":["","The objective of this article is the presentation of an automatic system of generation of dictionaries electronics of Arabic basing itself on the conditions of morphemic structure and the matrices lexical. This work returns within the framework of two projects MIRTO and OREILLODULE under development to laboratories LIDILEM of Grenoble and UTIC of Tunisia.","automatic system of generation, conditions of morphemic structure, matrices lexical"],"keyphrases":["dictionnaire","g\u00e9n\u00e9ration automatique","conditions de structure morph\u00e9matique"],"prmu":["P","P","M"]} {"id":"recital-2008-long-011","title":"Analyse quantitative et qualitative de citations extraites d\u2019un corpus journalistique","abstract":"Dans le contexte de la d\u00e9tection de plagiats, le rep\u00e9rage de citations et de ses constituants est primordial puisqu\u2019il peut aider \u00e0 \u00e9valuer le caract\u00e8re licite ou illicite d\u2019une reprise (source cit\u00e9e ou non). Nous proposons ici une \u00e9tude quantitative et qualitative des citations extraites d\u2019un corpus que nous avons auparavant construit. Cette \u00e9tude a pour but de tracer des axes de recherche vers une m\u00e9thode de rep\u00e9rage automatique des citations.","translation":["","In the plagiarism detection context, finding citations and their components is essential as it may help estimating legal value of a copy (with or without original source specified). We propose here a quantitative and qualitative study of citations we extracted from a corpus we previously built. This study aims at orienting our research towards an efficient automatic citations extraction method.","citations, corpus creation and analysis, journalistic genre"],"keyphrases":["citations","contruction et \u00e9tude de corpus","genre journalistique"],"prmu":["P","M","M"]} {"id":"recital-2008-long-012","title":"Une structure pour les questions enchain\u00e9es","abstract":"Nous pr\u00e9sentons des travaux r\u00e9alis\u00e9s dans le domaine des syst\u00e8mes de questions r\u00e9ponses (SQR) utilisant des questions enchain\u00e9es. La recherche des documents dans un SQR est perturb\u00e9e par l\u2019absence d\u2019informations sur la valeur \u00e0 accorder aux \u00e9l\u00e9ments de texte \u00e9ventuellement utiles \u00e0 la recherche d\u2019informations qui figurent dans les questions li\u00e9es. Les r\u00e9centes campagnes d\u2019\u00e9valuation montrent que ce probl\u00e8me est sous-estim\u00e9, et n\u2019a pas fait l\u2019oeuvre de technique d\u00e9di\u00e9e. Afin d\u2019am\u00e9liorer la recherche des documents dans un SQR nous \u00e9tudions une nouvelle m\u00e9thode pour organiser les informations li\u00e9es aux interactions entre questions. Celle-ci se base sur l\u2019exploitation d\u2019une structure de donn\u00e9es adapt\u00e9e \u00e0 la transmission des informations des questions li\u00e9es jusqu\u2019au moteur d\u2019interrogation.","translation":["","We present works realized in the field of questions answering systems(SQR) using chained questions. The search for documents in a SQR is disrupted by the absence of information on the value to be granted to the possibly useful elements of text in search of information which appear in bound questions. The recent campaigns of evaluation show that this problem is under estimated, and did not make the work of dedicated technique. To improve the search for documents in a SQR we study a new method to organize the information bound to the interactions between questions. This one is based on the operation of a structure of data adapted to the transmission of the information of bound questions up to the search engine.","chained question answering"],"keyphrases":["Question r\u00e9ponse enchain\u00e9e"],"prmu":["R"]} {"id":"recital-2008-long-013","title":"Vers une nouvelle approche de la correction grammaticale automatique","abstract":"La correction grammaticale automatique du fran\u00e7ais est une fonctionnalit\u00e9 qui fait cruellement d\u00e9faut \u00e0 la communaut\u00e9 des utilisateurs de logiciels libres. Dans le but de combler cette lacune, nous avons travaill\u00e9 \u00e0 l\u2019adaptation au fran\u00e7ais d\u2019un outil initialement d\u00e9velopp\u00e9 pour une langue \u00e9trang\u00e8re. Ce travail nous a permis de montrer que les approches classiques du traitement automatique des langues utilis\u00e9es dans le domaine ne sont pas appropri\u00e9es. Pour y rem\u00e9dier, nous proposons de faire \u00e9voluer les formalismes des correcteurs en int\u00e9grant les principes linguistiques de la segmentation en chunks et de l\u2019unification. Bien qu\u2019efficace, cette \u00e9volution n\u2019est pas suffisante pour obtenir un bon correcteur grammatical du fran\u00e7ais. Nous envisageons alors une nouvelle approche de la probl\u00e9matique.","translation":["","Free software users community is sorely lacking French grammar checking. With the aim of filling this gap, we have worked on the adaptation to French of a tool originally developped for a foreign language. Thanks to this work, we could show that classic natural language processing approaches used in grammar checking are not suitable. To remedy it, we suggest an evolution of grammar checkers that includes linguistic principles such as chunking and unification. Despite its efficiency, this evolution is not sufficient to get a good French grammr checker. We are then thinking of a new approach of the problem.","grammar checking, chunk, unification"],"keyphrases":["correction grammaticale","unification","syntagme"],"prmu":["P","P","U"]} {"id":"recital-2008-long-014","title":"Informations spatio-temporelles et objets touristiques dans des pages Web : rep\u00e9rage et annotation","abstract":"Cet article pr\u00e9sente un projet de rep\u00e9rage, d'extraction et d'annotation d'informations temporelles, d'informations spatiales et d'objets touristiques dans des pages Web afin d'alimenter la base de connaissance d'un portail touristique. Nous portons une attention particuli\u00e8re aux diff\u00e9rences qui distinguent le rep\u00e9rage d'information dans des pages Web du rep\u00e9rage d\u2019informations dans des documents structur\u00e9s. Apr\u00e8s avoir introduit et classifi\u00e9 les diff\u00e9rentes informations \u00e0 extraire, nous nous int\u00e9ressons \u00e0 la fa\u00e7on de lier ces informations entre elles (par exemple apparier une information d\u2019ouverture et un restaurant) et de les annoter. Nous pr\u00e9sentons \u00e9galement le logiciel que nous avons r\u00e9alis\u00e9 afin d'effectuer cette op\u00e9ration d'annotation ainsi que les premiers r\u00e9sultats obtenus. Enfin, nous nous int\u00e9ressons aux autres types de marques que l'on trouve dans les pages Web, les marques s\u00e9miotiques en particulier, dont l'analyse peut \u00eatre utile \u00e0 l\u2019interpr\u00e9tation des pages.","translation":["","This paper presents a project for the detection, extraction and annotation of temporal and spatial information and of tourism objects in order to fill the knowledge base of a tourism Web portal. We focus on the differences that exist between extraction from structured documents and extraction from Web pages. First, the different types of information to extract are presented. We then discuss methods for linking these pieces of information together \u2013 for example relating the name of a restaurant to its opening hours \u2013 and how to annotate the extracted data. The program we have developed to perform the extraction and annotation, as well as an evaluation of this program, are presented here. Finally, we focus on the semiotic marks which appear on the Web and show they also prove useful in interpreting Web pages.","information extraction, annotation, spatial & temporal information, tourism, Web pages"],"keyphrases":["informations spatio-temporelles","pages Web","annotation","extraction d'information","tourisme"],"prmu":["P","P","P","R","U"]} {"id":"recital-2001-long-001","title":"LoX : outil polyvalent pour l'exploration de corpus annot\u00e9s","abstract":"Cet article pr\u00e9sente une application permettant d'\u00e9crire des requ\u00eates complexes sur des corpus \u00e9tiquet\u00e9s et de formater librement les r\u00e9sultats de ces requ\u00eates. Le formalisme des requ\u00eates est bas\u00e9 sur le principe des expressions r\u00e9guli\u00e8res bien connu de la plupart des linguistes travaillant sur des corpus \u00e9crits. Contrairement \u00e0 certains logiciels, qui ne permettent que l\u2019extraction de concordances au format relativement fig\u00e9, le formatage libre du r\u00e9sultat des requ\u00eates permet leur r\u00e9utilisation par des programmes ult\u00e9rieurs et autorise une grande diversit\u00e9 d'applications, s'\u00e9cartant largement du cadre des simples concordanciers.","translation":["","This paper describes a tool that enables complex queries on tagged corpora, and free formatting of the results. The formalism used is based on regular expressions, which are wellknown from most corpus linguists. As opposed to other software, the free formatting of the results enables re-use of the query results by additional tools, and proves useful for a wide range of applications well beyond that of simple concordance programs.","Corpora, Concordancer, NLP, Parser, Regular expression"],"keyphrases":["Corpus","Expression r\u00e9guli\u00e8re","Concordancier","TAL","Parser"],"prmu":["P","P","P","U","U"]} {"id":"recital-2001-long-002","title":"Filtrage d'information par analyse partielle Grammaires locales, dictionnaires \u00e9lectroniques et lexique- grammaire pour la recherche d'information","abstract":"Nous pr\u00e9sentons une approche de filtrage d'information par analyse partielle, reprenant les r\u00e9sultats de recherches issues aussi bien de la recherche documentaire que du traitement automatique des langues. Nous pr\u00e9cisons les contraintes li\u00e9es au domaine du filtrage d'information qui militent, \u00e0 nos yeux, pour une approche linguistique permettant d'obtenir des performances importantes, ainsi qu'une transparence de fonctionnement. Nous pr\u00e9sentons quelques r\u00e9sultats concrets pour illustrer le potentiel de l'approche d\u00e9crite.","translation":["","We present a partial analysis approach to the problem of information filtering, based on the results of different areas of research, ranging from information retrieval to natural language processing. We lay the emphasis on the particular constraints of the information filtering activity compatible with a linguistic and user-friendly treatment (partial analysis). We also present some results measured on an actual corpus in order to illustrate the potential of the described approach.","information filtering, NLP, partial analysis, local grammars, lexicon-grammar"],"keyphrases":["filtrage d'information","analyse partielle","grammaires locales","TALN","lexique-grammaire"],"prmu":["P","P","P","U","U"]} {"id":"recital-2001-long-003","title":"Biblioth\u00e8ques d\u2019automates finis et grammaires context-free : de nouveaux traitements informatiques","abstract":"La quantit\u00e9 de documents disponibles via Internet explose. Cette situation nous incite \u00e0 rechercher de nouveaux outils de localisation d\u2019information dans des documents et, en particulier, \u00e0 nous pencher sur l\u2019algorithmique des grammaires context-free appliqu\u00e9e \u00e0 des familles de graphes d\u2019automates finis (strictement finis ou \u00e0 cycles). Nous envisageons une nouvelle repr\u00e9sentation et de nouveaux traitements informatiques sur ces grammaires, afin d\u2019assurer un acc\u00e8s rapide aux donn\u00e9es et un stockage peu co\u00fbteux en m\u00e9moire.","translation":["","The amount of documents available over the Internet is exploding. This phenomenon requires the development of new electronic representations and tools to search information into these documents. This article deals with context-free algorithms applied to finite state graphs (strictly finite or with cycles). It shows new methods and representations to combine efficiently complexities in terms of memory space and processing time.","Context-Free Grammars, Finite State Automata, Graphs, Greibach Normal Form"],"keyphrases":["Automates finis","grammaires context-free","graphes","forme normale de Greibach"],"prmu":["P","P","P","M"]} {"id":"recital-2001-long-004","title":"Identification et cat\u00e9gorisation automatiques des anthroponymes du Fran\u00e7ais","abstract":"Cet article pr\u00e9ente un syst\u00e8me de reconnaissance des noms propres pour le Fran\u00e7ais. Les sp\u00e9cifications de ce syst\u00e8me ont \u00e9t\u00e9 r\u00e9alis\u00e9es \u00e0 la suite d\u2019une \u00e9tude en corpus et s\u2019appuient sur des crit\u00e8res graphiques et r\u00e9f\u00e9rentiels. Les crit\u00e8res graphiques permettent de concevoir les traitements \u00e0 mettre en place pour la d\u00e9limitation des noms propres et la cat\u00e9gorisation repose sur les crit\u00e8res r\u00e9f\u00e9rentiels. Le syst\u00e8me se base sur des r\u00e8gles de grammaire, exploite des lexiques sp\u00e9cialis\u00e9s et comporte un module d\u2019apprentissage. Les performances atteintes par le syst\u00e8me, sur les anthroponymes, sont de 89,4% pour le rappel et 94,6% pour la pr\u00e9cision.","translation":["","This paper presents a French proper name recognizer. The specifications of this system have been elaborated through corpus investigation upon graphical and semantic criteria. The graphical criteria allow to presuppose some processes to identify proper names boundaries and the semantic classification is used to categorize them. The system is grammar-rule based, uses specialized lexicons, and includes a learning processing. The system performance evaluated on the categories composing anthroponym class achieves 94.6% of precision and 89.4% of recall.","Name entities, automatic recognition, incremental process"],"keyphrases":["Entit\u00e9s nomm\u00e9es","reconnaissance automatique","proc\u00e9dure incr\u00e9mentielle"],"prmu":["U","R","U"]} {"id":"recital-2001-long-005","title":"Pour un autre traitement de la temporalit\u00e9 narrative","abstract":"Tous les m\u00e9dias continus (parole, texte, musique, cin\u00e9ma) ont, par d\u00e9finition, une structure lin\u00e9aire, \u00e0 partir de laquelle un processus cognitif est capable de reconstituer une organisation temporelle diff\u00e9rente. Mais jusqu'\u00e0 quel point faut-il comprendre un texte pour le segmenter en situations et les articuler entre elles ? Autrement dit : jusqu'\u00e0 quel point faut-il conna\u00eetre la musique pour diff\u00e9rencier couplet et refrain ? Dans un grand nombre de cas, il est possible d'effectuer une telle segmentation automatiquement, et cela uniquement \u00e0 partir d'indices morpho-syntaxiques. Notre prototype de programme identifie des situations r\u00e9f\u00e9rentielles et analyse la fa\u00e7on dont elles sont articul\u00e9es pour reconstruire la structure temporelle d'un r\u00e9cit. L'objectif de cette communication n'est pas la description de ce programme, mais plut\u00f4t le point de vue du linguiste : comment d\u00e9tecter les discontinuit\u00e9s, c'est-\u00e0-dire comment d\u00e9cider s'il y a compl\u00e9tion ou rupture.","translation":["","Continuous media \u2013 stories, movies, songs \u2013 all have a basic linear structure from which cognitive processes are able to retrieve some temporal organization. How much semantic computation is necessarily involved for a proper framing of events and their transition to one another ? Can this computation be approximated with the help of simple formal clues from a shallow parsing of the story stream, and how far can it go ? Our experiments with a prototype application implement a method for segmenting written stories and splicing together \"referential situations\" that should belong to the same time-frame. This paper does not aim to describe the implementation but rather discusses the linguistic approach to detecting discontinuity in narrative texts, based on the principles of closure and rupture in temporal consistency.","semantics, discourse representation, temporality, narratives"],"keyphrases":["temporalit\u00e9","narration","s\u00e9mantique","repr\u00e9sentation du discours"],"prmu":["P","P","U","M"]} {"id":"recital-2001-long-006","title":"Analyse s\u00e9mantique dans un syst\u00e8me de question-r\u00e9ponse","abstract":"Dans cet article, nous pr\u00e9sentons le syst\u00e8me QALC (Question Answering Langage Cognition) qui a particip\u00e9 \u00e0 la t\u00e2che Question R\u00e9ponse de la conf\u00e9rence d\u2019\u00e9valuation TREC. Ce syst\u00e8me a pour but d\u2019extraire la r\u00e9ponse \u00e0 une question d\u2019une grande masse de documents. Afin d\u2019am\u00e9liorer les r\u00e9sultats de notre syst\u00e8me, nous avons r\u00e9fl\u00e9chi \u00e0 la n\u00e9cessit\u00e9 de d\u00e9velopper, dans le module d\u2019analyse, le typage des questions mais aussi d\u2019introduire des connaissances syntaxico-s\u00e9mantiques pour une meilleure recherche de la r\u00e9ponse.","translation":["","In this paper, we present the QALC system that participated to the Question Answering track of the TREC evaluation conference. This system extracts the answer to the question from a large amount of documents. In order to improve the result of our system, it is necessary to develop, in the question analysis module, the search of question type and to introduce a semantic knowledge.","Semantic analysis, question\u2013answering system"],"keyphrases":["Analyse syntaxico-s\u00e9mantique","syst\u00e8me question\u2013r\u00e9ponse"],"prmu":["R","M"]} {"id":"recital-2001-long-007","title":"La recherche documentaire : une activit\u00e9 langagi\u00e8re","abstract":"Un nombre important de requ\u00eates soumises aux moteurs de recherche du W3 ne satisfont pas pleinement les attentes des utilisateurs. La liste de documents propos\u00e9e en retour est souvent trop longue : son exploration repr\u00e9sente un travail exag\u00e9r\u00e9ment laborieux pour l\u2019auteur de la requ\u00eate. Nous proposons d\u2019apporter une valeur ajout\u00e9e aux syst\u00e8mes de recherche documentaire (RD) existants en y ajoutant un filtrage n\u2019utilisant que des donn\u00e9es fournies par l\u2019utilisateur. L\u2019objectif de notre \u00e9tude est de confronter un mod\u00e8le dynamique de la m\u00e9moire s\u00e9mantique des individus (ou des agents) d\u00e9velopp\u00e9 par notre \u00e9quipe \u00e0 une t\u00e2che n\u00e9cessitant une comp\u00e9tence interpr\u00e9tative de la part des machines. Nous souhaitons d\u00e9passer la s\u00e9mantique lexicale couramment utilis\u00e9e dans ce champ d\u2019application pour aboutir \u00e0 l\u2019utilisation d\u2019une s\u00e9mantique des textes et accro\u00eetre par ce biais, \u00e0 la fois la qualit\u00e9 des r\u00e9sultats et la qualit\u00e9 de leur pr\u00e9sentation aux usagers.","translation":["","Lot of the searches submitted to the main search engines on the www do not bring about satisfactory results for users. The list of documents proposed in return is often too long: its handling constitutes an exceedingly strenuous task for the user. We propose to improve existing document retrieval systems by adding a filter made from criteria determined by the user. The objective of our study is to contrast a dynamic model of individual\u2019s (or agent\u2019s) semantic memory created by our team with a task requiring an interpretative competence from the machines. By this means, we hope to go beyond the lexical semantics commonly used in this field of application and achieve the use of textual semantics.","document retrieval, anthropocentred system, document filtering, differential and decomponential semantics, isotopy"],"keyphrases":["recherche documentaire","syst\u00e8me anthropocentr\u00e9","filtrage documentaire","s\u00e9mantique diff\u00e9rentielle et componentielle","isotopie"],"prmu":["P","M","R","M","U"]} {"id":"recital-2001-long-008","title":"Dictionnaires distributionnels et \u00e9tiquetage lexical de corpus","abstract":"Ce papier pr\u00e9sente la premi\u00e8re partie d\u2019un travail de th\u00e8se qui vise \u00e0 construire un \u00ab dictionnaire distributionnel \u00bb \u00e0 partir d\u2019un corpus de r\u00e9f\u00e9rence. Le dictionnaire propos\u00e9 est bas\u00e9 sur un ensemble de crit\u00e8res diff\u00e9rentiels stricts qui constituent des indices exploitables par des machines pour discriminer le sens des mots en contexte. Pour l\u2019instant, le travail a port\u00e9 sur 50 000 occurrences qui ont \u00e9t\u00e9 \u00e9tiquet\u00e9es de fa\u00e7on manuelle. Ce sous-corpus pourra servir de corpus d\u2019amor\u00e7age pour la constitution d'un corpus \u00e9tiquet\u00e9 plus grand, qui pourrait servir \u00e0 diff\u00e9rents tests et travaux sur la d\u00e9sambigu\u00efsation automatique.","translation":["","This paper presents the first part of a Ph. D. aimed at the construction of a \u201cdistributional dictionary\u201d from a reference corpus. The dictionary proposed is based on a set of strict differential criteria that can be used as clues for the discrimination of word senses in context. So far, we have worked on 50,000 occurrences that have been manually tagged. This subcorpus can be used as a bootstrap corpus for the construction of a larger tagged corpus that could be used in various tests and studies on automatic disambiguation.","Corpora, dictionaries, lexical tagging, distributional information"],"keyphrases":["dictionnaire","\u00e9tiquetage lexical","Corpus","information distributionnelle"],"prmu":["P","P","P","M"]} {"id":"recital-2001-poster-001","title":"Du texte vers le sens en analyse par contraintes","abstract":"Les progr\u00e8s r\u00e9alis\u00e9s ces derni\u00e8res ann\u00e9es dans le domaine du traitement automatique des langues naturelles (TALN) ouvrent la voie \u00e0 des traitements encore plus sophistiqu\u00e9s dans lesquels la s\u00e9mantique devrait tenir une place centrale. Notre objectif, \u00e0 long terme, est de r\u00e9aliser un analyseur texte vers sens s'appuyant sur la th\u00e9orie Sens-Texte d'Igor Mel'cuk. Cette analyse viserait une compr\u00e9hension plus approfondie du texte, permettant donc d'atteindre une repr\u00e9sentation de niveau s\u00e9mantique, et une grande robustesse face \u00e0 des entr\u00e9es plus ou moins bien form\u00e9es telles que celles issues de dialogues oraux. Mais renverser la th\u00e9orie Sens-Texte passe par la d\u00e9finition et la mise en oeuvre de structures de donn\u00e9es et d'algorithmes sp\u00e9cifiques pour la repr\u00e9sentation et la manipulation automatique des informations linguistiques, notamment des entr\u00e9es lexicales. Pour cela, nous proposons l'utilisation du paradigme de programmation par contraintes qui offre un moyen efficace d'atteindre nos objectifs.","translation":["","Recent advances in the field of natural language processing allow more sophisticated treatments in which semantics should play a key role. Our long-term goal is to produce a text towards meaning analyzer base on Igor Mel'cuk's Meaning-Text Theory (MTT). Such an analyzer should aim at a deep understanding of the input, producing a semantic representation. It should, also, be able to handled ill-formed inputs such as the ones produced by a speech recognizer. To reverse the Meaning-Text Theory we have to define and use specific data structures and algorithms to represent and handle the linguistic information, in particular the lexical entries. We investigate the use of the constraint-programming paradigm, which provides an efficient mean to reach our goals.","constraint parsing, Meaning-Text theory"],"keyphrases":["Analyse par contraintes","th\u00e9orie Sens-Texte"],"prmu":["P","P"]} {"id":"recital-2001-poster-002","title":"Outils d\u2019assistance \u00e0 la construction de Webs personnels : Utilisation des traitements des langues naturelles dans l\u2019aide \u00e0 la reformulation de requ\u00eates","abstract":"Nous pr\u00e9sentons dans cet article le projet au sein duquel nous d\u00e9veloppons un logiciel permettant d\u2019assister l\u2019utilisateur lors de la formulation de sa requ\u00eate de recherche sur le Web et de personnaliser des sous-ensembles du Web selon ses besoins informationnels. L\u2019architecture du logiciel est bas\u00e9e sur l\u2019int\u00e9gration de plusieurs outils num\u00e9riques et linguistiques de traitements des langues naturelles (TALN). Le logiciel utilise une strat\u00e9gie semi-automatique o\u00f9 la contribution de l\u2019utilisateur assure la concordance entre ses attentes et les r\u00e9sultats obtenus. Ces r\u00e9sultats sont stock\u00e9s dans diverses bases de donn\u00e9es permettant de conserver diff\u00e9rents types d\u2019informations (classes de sites\/pages Web similaires, profils de l\u2019usager, lexiques, etc.) constituant une projection locale et personnalis\u00e9e du Web.","translation":["","We here present a new research project in which we are developing a software that can help the user to formulate his web search query and customize (a subsets of) the WWW to her individual and subjective information needs. The software\u2019s architecture is based on several natural language processing tools, some of them numeric and some others linguistic. The software involves a semi-automatic processing strategy in which the user\u2019s contribution ensures that the results are useful and meaningful to her. These results are saved in various databases that capture several types of information (e.g. classes of related Web sites\/pages, user profile, lexicons, etc.) that will constitute a local and personalized subset of the Web and support the user\u2019 s information retrieval tasks.","Web customization, query reformulation, information retrieval, information extraction"],"keyphrases":["Reformulation des requ\u00eates","personnalisation","recherche et extraction d'information"],"prmu":["P","P","M"]} {"id":"recital-2001-poster-003","title":"Extraction d\u2019information de documents textuels associ\u00e9s \u00e0 des contenus audiovisuels","abstract":"L\u2019indexation audiovisuelle, indispensable pour l\u2019archivage et l\u2019exploitation des documents, se r\u00e9v\u00e8le \u00eatre un processus d\u00e9licat, notamment \u00e0 cause de la multiplicit\u00e9 de significations qui peuvent \u00eatre attach\u00e9es aux images. Nous proposons dans cette communication une m\u00e9thode d\u2019instanciation de \u201dpatrons d\u2019indexation\u201d \u00e0 partir d\u2019un corpus d\u2019articles de journaux \u00e9crits. Cette m\u00e9thode repose sur un processus \u201dd\u2019amor\u00e7age hi\u00e9rachis\u00e9\u201d, qui permet de trouver de nouveaux termes \u00e0 partir de termes connus dans leur voisinage et de leurs relations taxinomiques sous forme d\u2019ontologie.","translation":["","Audiovisual indexation, essential for filing and using documents, is a difficult process notably because of the multiplicity of meanings which can be associated to the pictures. We propose a method of instanciation of \u201dindexation patterns\u201d from a corpus of articles from newspapers. This method is based on a \u201dhierarchical bootstrapping\u201d which can find new terms from known terms in their neighbourhood and from an ontology.","Bootstrapping, Indexation patterns, Information extraction, Ontology"],"keyphrases":["Extraction d\u2019information","Patron d\u2019indexation","Ontologie","Amorce"],"prmu":["P","P","P","U"]} {"id":"recital-2006-long-001","title":"Acquisition semi-automatique de collocations \u00e0 partir de corpus monolingues et multilingues comparables","abstract":"Cet article pr\u00e9sente une m\u00e9thode d\u2019acquisition semi-automatique de collocations. Notre extraction monolingue estime pour chaque co-occurrence sa capacit\u00e9 \u00e0 \u00eatre une collocation, d\u2019apr\u00e8s une mesure statistique mod\u00e9lisant une caract\u00e9ristique essentielle (le fait qu\u2019une collocation se produit plus souvent que par hasard), effectue ensuite un filtrage automatique (en utilisant les vecteurs conceptuels) pour ne retenir que des collocations d\u2019un certain type s\u00e9mantique, puis effectue enfin un nouveau filtrage \u00e0 partir de donn\u00e9es entr\u00e9es manuellement. Notre extraction bilingue est effectu\u00e9e \u00e0 partir de corpus comparables, et a pour but d\u2019extraire des collocations qui ne soient pas forc\u00e9ment traductions mot \u00e0 mot l\u2019une de l\u2019autre. Notre \u00e9valuation d\u00e9montre l\u2019int\u00e9r\u00eat de m\u00ealer extraction automatique et intervention manuelle pour acqu\u00e9rir des collocations et ainsi permettre de compl\u00e9ter les bases lexicales multilingues.","translation":["","This paper presents a method for the semi-automatic acquisition of collocations. Our monolingual extraction estimates the ability of each co-occurrence to be a collocation, using a statitical measure which represents an essential property (the fact that a collocation occurs more often than would be expected by chance), then makes an automatic filtering (using conceptual vectors) to keep only one semantic type of collocation, and finally makes a new filtering, using manually entered data. Our bilingual extraction uses comparable corpora, and is aiming to extract collocations which are not necessarily word-to-word translations. Our evaluation shows the interest of mixing automatic extraction and manual intervention to obtain collocations and, in this manner, to complete multilingual lexical databases.","collocations, semi-automatic acquisition, comparable corpora"],"keyphrases":["acquisition semi-automatique","collocations","corpus comparables"],"prmu":["P","P","P"]} {"id":"recital-2006-long-002","title":"Constance et variabilit\u00e9 de l\u2019incompl\u00e9tude lexicale","abstract":"Cet article propose, au travers des r\u00e9sultats de diff\u00e9rentes exp\u00e9riences sur la couverture des lexiques informatis\u00e9s, de montrer que l\u2019incompl\u00e9tude lexicale est un ph\u00e9nom\u00e8ne constant dans tous les lexiques de TAL, mais que les mots inconnus eux-m\u00eames varient grandement selon les outils. Nous montrons \u00e9galement que la constance de cette incompl\u00e9tude est \u00e9troitement li\u00e9e \u00e0 la cr\u00e9ativit\u00e9 lexicale de la langue.","translation":["","Through various experiments on computational lexica, we show that lexical incompleteness is a regular phenomenon across NLP lexica, but that the unknown words themselves vary strongly according to the individual lexicon. We also demonstrate that the regularity of incompleteness is closely related to lexical creativity within individual language.","computational lexicon, lexical incompleteness, unknown words, typology"],"keyphrases":["incompl\u00e9tude lexicale","lexique informatis\u00e9","mots inconnus","typologie"],"prmu":["P","P","P","U"]} {"id":"recital-2006-long-003","title":"Probl\u00e8mes de repr\u00e9sentation de la Langue des Signes Fran\u00e7aise en vue du traitement automatique","abstract":"Nous proposons dans cet article une description de la Langue des Signes Fran\u00e7aise dans le but de traduire des \u00e9nonc\u00e9s courts du fran\u00e7ais et de les faire signer par un personnage de synth\u00e8se. Cette description pose en pr\u00e9alable la question de la transcription des \u00e9l\u00e9ments d\u2019une langue dont le signal n\u2019est pas lin\u00e9aire. Il s\u2019agit ensuite de rep\u00e9rer les diff\u00e9rentes couches linguistiques et la forme de leurs unit\u00e9s constitutives en vue de la r\u00e9partition des t\u00e2ches informatiques : la synth\u00e8se de gestes n\u00e9cessite un traitement des \u00e9l\u00e9ments constitutifs du geste et la g\u00e9n\u00e9ration syntaxique doit pouvoir manipuler des morph\u00e8mes.","translation":["","In this article, we propose a description of the French Sign Language. The aim is to translate short sentences from French and to realize them with a virtual agent. The first question is how to transcribe the elements of a language which the signal is not linear. We propose to observe the different linguistic levels and the shape of their units in order to distinguish the processing levels : gesture synthesis needs to manipulate the constitutive elements of gestures and morpheme units are required in syntactic generation.","french Sign Language, description of gesture, morpheme, kineme, phoneme, chereme"],"keyphrases":["langue des Signes Fran\u00e7aise","morph\u00e8me","descritpion du geste","kin\u00e8me","phon\u00e8me","ch\u00e9r\u00e8me"],"prmu":["P","P","M","U","U","U"]} {"id":"recital-2006-long-004","title":"L\u2019information biographique : mod\u00e9lisation, extraction et organisation en base de connaissances","abstract":"L\u2019extraction et la valorisation de donn\u00e9es biographiques contenues dans les d\u00e9p\u00eaches de presse est un processus complexe. Pour l\u2019appr\u00e9hender correctement, une d\u00e9finition compl\u00e8te, pr\u00e9cise et fonctionnelle de cette information est n\u00e9cessaire. Or, la difficult\u00e9 que l\u2019on rencontre lors de l\u2019analyse pr\u00e9alable de la t\u00e2che d\u2019extraction r\u00e9side dans l\u2019absence d\u2019une telle d\u00e9finition. Nous proposons ici des conventions dans le but d\u2019en d\u00e9velopper une. Le principal concept utilis\u00e9 pour son expression est la structuration de l\u2019information sous forme de triplets {sujet, relation, objet}. Le d\u00e9but de d\u00e9finition ainsi construit est exploit\u00e9 lors de l\u2019\u00e9tape d\u2019extraction d\u2019informations par transducteurs \u00e0 \u00e9tats finis. Il permet \u00e9galement de sugg\u00e9rer une solution d\u2019impl\u00e9mentation pour l\u2019organisation des donn\u00e9es extraites en base de connaissances.","translation":["","Extraction and valorization of biographical information from news wires is a complex task. In order to handle it correctly, it is necessary to have a complete, accurate and functional definition. The preliminary analysis of the extraction task reveals the lack of such a definition. This article proposes some conventions to develop it. Information modelling as triples {subject, relation, object} is the main concept used at this level. This incomplete definition can be used during the information extraction step. It also allows to suggest some implementation solutions for data organisation as a knowledge base.","biographical information, modelling, information extraction, finite state transducers, named entities, relation, knowledge base"],"keyphrases":["information biographique","mod\u00e9lisation","base de connaissances","relation","extraction d\u2019information","transducteur \u00e0 \u00e9tats finis","entit\u00e9 nomm\u00e9e"],"prmu":["P","P","P","P","P","P","U"]} {"id":"recital-2006-long-005","title":"Rep\u00e9rage de segments d\u2019information \u00e9volutive dans des documents de type encyclop\u00e9dique","abstract":"Dans cet article, nous cherchons \u00e0 caract\u00e9riser linguistiquement des segments textuels d\u00e9finis pragmatiquement, relativement \u00e0 des besoins de r\u00e9\u00e9dition de documents et au sein desquels l\u2019information est susceptible d\u2019\u00e9voluer dans le temps. Sur la base d\u2019un corpus de textes encyclop\u00e9diques en fran\u00e7ais, nous analysons la distribution de marqueurs textuels et discursifs et leur pertinence en nous focalisant principalement sur un traitement s\u00e9mantique particulier de la temporalit\u00e9.","translation":["","In this paper, we present a method for the automatic identification of text segments carrying information likely to evolve in the course of time. In a corpus of extracts from French encyclopediae, we analyse relevant text and discourse markers focussing on a specific approach to temporal semantics.","automatic identification of evolving information, NLP, corpus of encyclopaedic texts, textual and discourse markers"],"keyphrases":["corpus de textes encyclop\u00e9diques","marqueurs textuels et discursifs","rep\u00e9rage automatique d\u2019informations \u00e9volutives","TAL"],"prmu":["P","P","M","U"]} {"id":"recital-2006-long-006","title":"Acquisition automatique de traductions de termes complexes par comparaison de \u00ab mondes lexicaux \u00bb sur le Web","abstract":"Nous pr\u00e9sentons une m\u00e9thode de traduction automatique de termes complexes pour la construction de ressources bilingues fran\u00e7ais\/anglais, bas\u00e9e principalement sur une comparaison entre \u00ab mondes lexicaux \u00bb (ensemble de co-occurrents), \u00e0 partir du Web. Nous construisons les mondes lexicaux des termes fran\u00e7ais sur le Web. Puis, nous g\u00e9n\u00e9rons leurs traductions candidates via un dictionnaire bilingue \u00e9lectronique et constituons les mondes lexicaux de toutes les traductions candidates. Nous comparons enfin les mondes lexicaux fran\u00e7ais et anglais afin de valider la traduction ad\u00e9quate par filtres statistiques. Notre \u00e9valuation sur 10 mots fran\u00e7ais tr\u00e8s polys\u00e9miques montre que l\u2019exploitation des mondes lexicaux des termes complexes sur le Web permet une acquisition automatique de traductions avec une excellente pr\u00e9cision.","translation":["","We present a method for automatic translation (French\/English) of complex terms using a comparison between French and English \u201clexical worlds\u201d (i.e. the set of cooccurring words) on the Web. We first generate the French lexical worlds. We then generate their potential translations by means of an electronic dictionary and extract the lexical worlds corresponding for English. Finally we compare the French and English lexical worlds in order to select the adequate translation. Our evaluation on 10 highly polysemous French words shows that a very high precision can be achieved using this technique.","complex terms, machine translation, lexical worlds, World Wide Web"],"keyphrases":["termes complexes","mondes lexicaux","traduction automatique","World Wide Web"],"prmu":["P","P","P","M"]} {"id":"recital-2006-long-008","title":"Une premi\u00e8re approche de l\u2019utilisation des cha\u00eenes cor\u00e9f\u00e9rentielles pour la d\u00e9tection des variantes anaphoriques de termes","abstract":"Cet article traite de l\u2019utilit\u00e9 \u00e0 d\u00e9tecter une cha\u00eene cor\u00e9f\u00e9rentielle de termes complexes afin d\u2019am\u00e9liorer la d\u00e9tection de variations de ce m\u00eame terme complexe. Nous impl\u00e9mentons pour cela un programme permettant de d\u00e9tecter le nombre de variantes anaphoriques d\u2019un terme complexe ainsi que le nombre de variantes anaphoriques de termes dans un texte scientifique. Ces deux fonctionnalit\u00e9s sont d\u00e9velopp\u00e9es avec une ancrage dans une cha\u00eene cor\u00e9f\u00e9rentielle et en dehors de toute cha\u00eene cor\u00e9f\u00e9rentielle, afin de pouvoir \u00e9valuer l\u2019efficacit\u00e9 de cette m\u00e9thode.","translation":["","This article discusses the usefulness to detect a coreferential chain of complex terms in order to improve detection of variations of this same complex term. We implement a program for this purpose, allowing the detection of the number of anaphoric variants of a complex term, as well as the number of anaphoric variants of terms in scientific texts. These two functions are developed either with ou without the anchoring in a coreferential chain.","coreferential chain, automatical detection, term variation, nominal anaphora"],"keyphrases":["cha\u00eene cor\u00e9f\u00e9rentielle","d\u00e9tection automatique","variante de terme","anaphore nominale"],"prmu":["P","M","R","M"]} {"id":"recital-2006-poster-001","title":"Construction automatique d\u2019une interface syntaxe \/ s\u00e9mantique utilisant des ressources de large couverture en langue anglaise","abstract":"Nous d\u00e9crivons ici une approche pour passer d\u2019une repr\u00e9sentation syntaxique (issue d\u2019une analyse grammaticale) \u00e0 une repr\u00e9sentation s\u00e9mantique (sous forme de pr\u00e9dicats). Nous montrons ensuite que la construction de cette interface est automatisable. Nous nous appuyons sur l\u2019interop\u00e9rabilit\u00e9 de plusieurs ressources couvrant des aspects d\u2019ordre syntaxique (Link Grammar Parser), lexical (WordNet) et syntaxico-s\u00e9mantique (VerbNet) de la langue anglaise. L\u2019utilisation conjointe de ces ressources de large couverture permet d\u2019obtenir une d\u00e9sambigu\u00efsation syntaxique et lexicale au moins partielle.","translation":["","We describe a way to transform a syntactic structure (generated by a syntactic parser for English) into a semantic form (in the form of predicates). We then show that the construction of such an interface can be automated. Our approach is based on the interoperability between several resources, covering syntactical (Link Grammar Parser), lexical (WordNet) and semantic (VerbNet) aspects of English. The joint use of these broad-coverage resources leads to a lexical and syntactical disambiguation (at least partially).","text understanding, parsing, disambiguation, syntax\/semantic interface, pattern recognition, predicate calculus, unification, thematic roles, selectional restrictions, VerbNet, WordNet, Link Grammar Parser"],"keyphrases":["Link Grammar Parser","WordNet","VerbNet","d\u00e9sambigu\u00efsation","compr\u00e9hension de texte","analyse syntaxique","interface syntaxe-s\u00e9mantique","reconnaissance de sch\u00e9mas","logique des pr\u00e9dicats","unification","r\u00f4les th\u00e9matiques","contraintes de s\u00e9lections"],"prmu":["P","P","P","P","M","R","M","M","M","U","U","M"]} {"id":"recital-2006-poster-002","title":"Une approche g\u00e9ometrique pour la mod\u00e9lisation des lexiques en langues sign\u00e9es","abstract":"Le contexte est celui d\u2019une plateforme de g\u00e9n\u00e9ration automatique d\u2019\u00e9nonc\u00e9s en langue sign\u00e9e, r\u00e9alis\u00e9s par un avatar 3D. Il existe quelques uns de ces syst\u00e8mes aujourd\u2019hui, par exemple le projet VisiCast (Hanke, 2002). Nous revenons ici sur les syst\u00e8mes de description utilis\u00e9s pour les unit\u00e9s gestuelles impliqu\u00e9es dans les \u00e9nonc\u00e9s, fond\u00e9s sur un langage peu flexible et gu\u00e8re adaptatif. Nous proposons ensuite une nouvelle approche, constructiviste et g\u00e9om\u00e9trique, avec l\u2019objectif de rendre la description des signes des lexiques sign\u00e9s plus ad\u00e9quate, et par l\u00e0 am\u00e9liorer leur int\u00e9gration dans les discours g\u00e9n\u00e9r\u00e9s.","translation":["","In the prospect of a system for automatic sign language generation by virtual characters, we first look at the present systems (e.g. the VisiCast project), focusing on the way they describe the gestural units involved in discourse building. We show the lack of flexibility in these models, and introduce a new constructivist approach, based on space geometry, so as to make lexeme description more appropriate and context-sensitive.","sign language, representation, lexicon, parameters, space geometry"],"keyphrases":["lexique","langue des signes","repr\u00e9sentation","param\u00e8tres","g\u00e9om\u00e9trie spatiale"],"prmu":["P","R","U","U","M"]} {"id":"recital-2006-poster-003","title":"Une proposition de repr\u00e9sentation normalis\u00e9e des lexiques HPSG","abstract":"L\u2019interop\u00e9rabilit\u00e9 entre les lexiques des grammaires d\u2019unification passe par l\u2019adoption d\u2019une repr\u00e9sentation normalis\u00e9e de ces ressources. Dans ce papier, nous proposons l\u2019utilisation de LMF pour \u00e9tablir la standardisation des ressources lexicales en HPSG. Nous pr\u00e9sentons LMF d\u2019une mani\u00e8re sommaire et nous d\u00e9taillons son utilisation pour coder les entr\u00e9es lexicales d\u2019un lexique HPSG.","translation":["","The interoperability between unification grammar lexica can be established by adopting a normalized representation for those resources. In this paper, we propose the use of the Lexical Markup Framework to establish the standardization of HPSG lexical resources. We present an overview of LMF and we detail its use to code the lexical entries of an HPSG lexicon.","syntactic lexicon, HPSG, Lexical Markup Framework, Lexical mapping"],"keyphrases":["HPSG","lexique syntaxique","Lexical Markup Framework","projection lexicale"],"prmu":["P","M","M","M"]} {"id":"recital-2006-poster-004","title":"Analyse lexicale et morphologique de l\u2019arabe standard utilisant la plateforme linguistique NooJ","abstract":"Cet article d\u00e9crit un syst\u00e8me de construction du lexique et d\u2019analyse morphologique pour l\u2019arabe standard. Ce syst\u00e8me profite des apports des mod\u00e8les \u00e0 \u00e9tats finis au sein de l\u2019environnement linguistique de d\u00e9veloppement NooJ pour traiter aussi bien les textes voyell\u00e9s que les textes partiellement ou non voyell\u00e9s. Il se base sur une analyse morphologique faisant appel \u00e0 des r\u00e8gles grammaticales \u00e0 large couverture.","translation":["","This article describes the construction of a lexicon and a morphological description for standard Arabic. This system uses finite state technology, within the linguistic developmental environment NooJ, to parse vowelled texts, as well as partially vowelled and unvowelled ones. It is based on large-coverage morphological grammars covering all grammatical rules.","NLP, NooJ, arabic language, lexical analysis, morphological analysis, morphological grammar, agglutination, vocalisation"],"keyphrases":["analyse lexicale","NooJ","analyse morphologique","voyellation","TALN","langue arabe","grammaire morphologique","agglutination"],"prmu":["P","P","P","P","U","M","M","U"]} {"id":"recital-2006-poster-005","title":"Contr\u00f4le dynamique multicrit\u00e8re des r\u00e9sultats d\u2019une cha\u00eene de TAL","abstract":"Le traitement linguistique d\u2019un \u00e9nonc\u00e9 \u00e9crit conduit le plus souvent \u00e0 la prise en compte d\u2019interpr\u00e9tations concurrentes, ainsi qu\u2019\u00e0 la cr\u00e9ation d\u2019ambigu\u00eft\u00e9s artificielles. Le contr\u00f4le de ces points d\u2019embarras est indispensable pour garantir une efficacit\u00e9 et une pr\u00e9cision convenable du processus d\u2019analyse. L\u2019approche d\u00e9crite dans ce document exploite le paradigme de l\u2019aide multicrit\u00e8re \u00e0 la d\u00e9cision dans un contexte de TALN. Elle consiste \u00e0 optimiser l\u2019apport des m\u00e9thodes sp\u00e9cifiques de contr\u00f4le dans une cha\u00eene de traitement.","translation":["","The linguistic processing of textual utterances often leads to several concurrent interpretations that can raise artificial ambiguities. Controlling these awkward points is essential in order to obtain acceptable efficiency and precision of analysis processes. The approach described in this document makes use of the multicriteria decision aid paradigm in a context of NLP. It relies on the optimisation of the use of specific control methods in a processing chain.","concurrent hypothesis, control architecture, multicriteria decision aid"],"keyphrases":["aide multicrit\u00e8re \u00e0 la d\u00e9cision","hypoth\u00e8ses concurrentes","architecture de contr\u00f4le"],"prmu":["P","M","M"]} {"id":"recital-2006-poster-006","title":"R\u00e9soudre la cor\u00e9f\u00e9rence \u00e0 l\u2019aide d\u2019un classifieur bay\u00e9sien na\u00eff","abstract":"Nous pr\u00e9sentons ici les bases d\u2019une m\u00e9thode de r\u00e9solution de la cor\u00e9f\u00e9rence entre les expressions nominales d\u00e9signant des entit\u00e9s nomm\u00e9es. Nous comptons appliquer cet algorithme sur un corpus de textes journalistiques ; certains aspects de ce que l\u2019on pourrait nommer les \u00ab facteurs de cor\u00e9f\u00e9rence \u00bb dans ces textes nous am\u00e8nent \u00e0 favoriser l\u2019utilisation de m\u00e9thodes statistiques pour accomplir cette t\u00e2che. Nous d\u00e9crivons l\u2019algorithme de r\u00e9solution de la cor\u00e9f\u00e9rence mis en oeuvre, constitu\u00e9 d\u2019un classifieur bay\u00e9sien na\u00eff.","translation":["","In this paper we describe a coreference resolution algorithm for nominal expressions denoting named entities. The corpus used consists of French newspaper texts. In these texts, some properties of what we call \u201ccoreference factors\u201d lead us to prefer a statistical approach for the task. We describe a coreference resolution algorithm consisting in the implementation of a naive Bayes classifier.","naive Bayes classifier, coreference, named entities"],"keyphrases":["cor\u00e9f\u00e9rence","classifieur bay\u00e9sien na\u00eff","entit\u00e9s nomm\u00e9es"],"prmu":["P","P","P"]} {"id":"recital-2006-poster-008","title":"Calcul du sens des mots arabes ambigus","abstract":"Nous pr\u00e9sentons dans cet article un analyseur s\u00e9mantique pour la langue arabe. Cet analyseur contribue \u00e0 la s\u00e9lection du sens ad\u00e9quat parmi l\u2019ensemble des sens possibles que peut recevoir un mot hors contexte. Pour atteindre cet objectif, nous proposons un mod\u00e8le vectoriel qui permet de lever les ambigu\u00eft\u00e9s locales au niveau de la phrase et celles relevant du domaine. Ce mod\u00e8le est inspir\u00e9 des mod\u00e8les vectoriels tr\u00e8s utilis\u00e9s dans le domaine de la recherche documentaire.","translation":["","This article describes a semantic analyzer for the Arabic language. This analyzer contributes to the selection of the adequate meaning among the set of possible meanings for a given word. To achieve this goal, we propose a vectorial model that allows lifting local ambiguities on the level of the sentence and those concerning semantic domains. This model is inspired from vector models commonly used in information retrieval.","semantic disambiguation, vector models, processing of Arabic speech, pertinent context, semantic influence"],"keyphrases":["mod\u00e8le vectoriel","d\u00e9sambigu\u00efsation s\u00e9mantique","traitement de la parole arabe","influence s\u00e9mantique"],"prmu":["P","M","M","M"]} {"id":"taln-2000-long-001","title":"Cor\u00e9f\u00e9rence \u00e9v\u00e9nementielle et relations de discours","abstract":"La cor\u00e9f\u00e9rence \u00e9v\u00e9nementielle est un ph\u00e9nom\u00e8ne largement ignor\u00e9 tant dans les travaux sur la cor\u00e9f\u00e9rence que dans ceux sur l'ordre temporel dans le discours. Pourtant, la cor\u00e9f\u00e9rence \u00e9v\u00e9nementielle est la clef de vo\u00fbte sur laquelle reposent au moins quatre types de discours. Les descriptions et analyses linguistiques de ces discours permettront de mettre en avant des ph\u00e9nom\u00e8nes linguistiques inhabituels (e.g. cor\u00e9f\u00e9rence entre \u00e9l\u00e9ments quantifi\u00e9s existentiellement). Les relations de discours qui sont en jeu seront ensuite examin\u00e9es. Cette \u00e9tude nous am\u00e8nera \u00e0 introduire et d\u00e9finir de nouvelles relations de discours qui seront discut\u00e9es dans le cadre de la SDRT.","translation":["","",""],"keyphrases":["cor\u00e9f\u00e9rence \u00e9v\u00e9nementielle","relation de discours","relation de cor\u00e9f\u00e9rence"],"prmu":["P","P","R"]} {"id":"taln-2000-long-006","title":"La grammaire s\u00e9mantique d'unification d'arbres: un formalisme pour l'analyse des dialogues oraux spontan\u00e9s","abstract":"Cet article porte sur la grammaire s\u00e9mantique d'unification d'arbres (STUO). 11 s'agit d'un formalisme que nous proposons comme une alternative aux approches simplificatrices men\u00e9es dans le contexte du traitement automatique de la parole ainsi qu'aux approches \u00e0 base de grammaires classiques qui sont g\u00e9n\u00e9ralement non adapt\u00e9es au traitement de l'oral. La motivation essentielle de ce formalisme est la combinaison de la robustesse et la simplicit\u00e9 des grammaires s\u00e9mantiques \u00e0 la profondeur des grammaires classiques. Les propri\u00e9t\u00e9s essentielles de ce formalisme sont : une interaction directe entre la syntaxe et la s\u00e9mantique, un syst\u00e8me de traits \u00e9conomique et une simplicit\u00e9 tant de la mise en oeuvre de la grammaire que pour sa modification. La STUG a \u00e9t\u00e9 impl\u00e9ment\u00e9e au sein du syst\u00e8me OASIS qui est un syst\u00e8me d'analyse partielle de la parole spontan\u00e9e. Les r\u00e9sultats de l'\u00e9valuation ont montr\u00e9 la bonne couverture de notre grammaire tant au niveau des arbres analys\u00e9s qu'au niveau lexical ainsi que l'efficacit\u00e9 de cette grammaire pour la desambigu\u00efsation et pour l'\u00e9vitement des erreurs dans l'entr\u00e9e.","translation":["","",""],"keyphrases":["grammaire","grammaire s\u00e9mantique","unification d'arbres","parole","parole spontan\u00e9e","ambigu\u00eft\u00e9 contextuelle"],"prmu":["P","P","P","P","P","U"]} {"id":"taln-2000-long-009","title":"Vers un apprentissage en TALN d\u00e9pendant du type de Texte","abstract":"Dans cet article, nous pr\u00e9sentons la probl\u00e9matique de l\u2019h\u00e9t\u00e9rog\u00e9n\u00e9it\u00e9 des donn\u00e9es textuelles et la possibilit\u00e9 d\u2019utiliser cette derni\u00e8re pour am\u00e9liorer les traitements automatiques du langage naturel. Cette hypoth\u00e8se a \u00e9t\u00e9 abord\u00e9e dans (Biber, 1993) et a donn\u00e9 lieu \u00e0 une premi\u00e8re v\u00e9rification empirique dans (Sekine, 1998). Cette v\u00e9rification a pour limite de ne s\u2019adapter qu\u2019\u00e0 des textes dont le type est explicitement marqu\u00e9. Dans le cadre de textes tout venant, nous proposons une m\u00e9thode pour induire des types de textes, apprendre des traitements sp\u00e9cifiques \u00e0 ces types puis, de fa\u00e7on it\u00e9rative, en am\u00e9liorer les performances.","translation":["","",""],"keyphrases":["apprentissage","type de texte","annotation morpho-syntaxique","linguistique de corpus","classification"],"prmu":["P","P","U","M","U"]} {"id":"taln-2000-long-010","title":"Compl\u00e9mentarit\u00e9 des approches supervis\u00e9es et non supervis\u00e9es pour l'acquisition de relations entre termes","abstract":"Cet article a pour objectif de pr\u00e9ciser la compl\u00e9mentarit\u00e9 des approches supervis\u00e9es et non supervis\u00e9es utilis\u00e9es en structuration terminologique pour extraire des relations entre termes. Cette \u00e9tude est r\u00e9alis\u00e9e sur un exemple concret o\u00f9 nous cherchons \u00e0 faire ressortir les avantages et les inconv\u00e9nients de chaque approche. Au terme de cette analyse, nous proposons un cadre pour les employer de fa\u00e7on synergique.","translation":["","",""],"keyphrases":["terminologie","analyse distributionnelle","relation conceptuelle entre termes","extraction","extraction de couple"],"prmu":["P","M","M","U","M"]} {"id":"taln-2000-long-011","title":"De l'acquisition de classes lexicales \u00e0 l'induction semi-automatique de grammaires locales","abstract":"Cette \u00e9tude vise \u00e0 automatiser partiellement l'acquisition de ressources pour un syst\u00e8me d'extraction fond\u00e9 sur la bo\u00eete \u00e0 outils INTEX. Les processus d'apprentissage mis en oeuvre sont symboliques, supervis\u00e9s et fortement interactifs afin de n'apprendre que ce qui est utile pour la t\u00e2che. Nous examinons d'abord la notion d'automate patron, permettant l'acquisition d'\u00e9l\u00e9ments apparaissant dans des contextes similaires, nous proposons ensuite plusieurs m\u00e9canismes de g\u00e9n\u00e9ralisation avant d'envisager l'induction semi-automatique de grammaires locales.","translation":["","",""],"keyphrases":["acquisition de classes","classes lexicales","automate","grammaire","grammaire locale","automate patron","corpus","induction de grammaire"],"prmu":["P","P","P","P","P","P","U","R"]} {"id":"taln-2000-long-014","title":"Propagation de traits conceptuels au moyen des m\u00e9tastructures Prolog","abstract":"Apr\u00e8s avoir effectu\u00e9 une description des m\u00e9tastructures Prolog, nous montrons leur utilit\u00e9 dans le domaine du Traitement Automatique du Langage Naturel, et plus pr\u00e9cis\u00e9ment dans la propagation de traits conceptuels complexes comme l'appartenance des individus \u00e0 des domaines pouvant faire intervenir des unions de produits cart\u00e9siens d'ensembles.","translation":["","",""],"keyphrases":["m\u00e9tastructure Prolog","langage","langage naturel","produit cart\u00e9sien","programmation","programmation par contrainte"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2000-long-015","title":"Recherche d'informations dans un environnement distribu\u00e9","abstract":"Le Web ou les biblioth\u00e8ques num\u00e9riques offrent la possibilit\u00e9 d'interroger de nombreux serveurs d'information (collections ou moteurs de recherche) soulevant l'\u00e9pineux probl\u00e8me de la s\u00e9lection des meilleures sources de documents et de la fusion des r\u00e9sultats provenant de diff\u00e9rents serveurs interrog\u00e9s. Dans cet article, nous pr\u00e9sentons un nouvelle approche pour la s\u00e9lection des collections bas\u00e9e sur les arbres de d\u00e9cision. De plus, nous avons \u00e9valu\u00e9 diff\u00e9rentes strat\u00e9gies de fusion et de s\u00e9lection permettant une meilleure vue d'ensemble des diff\u00e9rentes solutions.","translation":["","The Web and digital libraries offer the possibility to send natural language queries to various information servers (corpora or search engines) raising the difficult problem of selecting the best document sources and merging the results provided by different servers. In this paper, a new approach for collections selection based on decision trees is described. Moreover, different merging and selection procedures have been evaluated leading to an overview of the suggested approaches.",""],"keyphrases":["recherche d'information","moteur de recherche","arbre","arbre de d\u00e9cision","mod\u00e8le vectoriel","indexation"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2000-long-016","title":"Outils g\u00e9n\u00e9riques et transfert hybride pour la traduction automatique sur Internet","abstract":"Dans cet article, nous d\u00e9crivons un syst\u00e8me de traduction automatique pour l\u2019allemand, le fran\u00e7ais, l\u2019italien et l\u2019anglais. Nous utilisons la technique classique analyse-transfert-g\u00e9n\u00e9ration. Les phrases d\u2019entr\u00e9e sont analys\u00e9es par un analyseur g\u00e9n\u00e9rique multilingue bas\u00e9 sur la th\u00e9orie ((Principes & Param\u00e8tres)) de la grammaire g\u00e9n\u00e9rative chomskienne. Le m\u00e9canisme de transfert agit sur des repr\u00e9sentations hybrides qui combinent des \u00e9l\u00e9ments lexicaux avec de l\u2019information s\u00e9mantique abstraite. Enfin, un g\u00e9n\u00e9rateur inspir\u00e9 de la m\u00eame th\u00e9orie linguistique engendre des phrases de sortie correctes. Nous d\u00e9crivons \u00e9galement bri\u00e8vement les diff\u00e9rentes interfaces envisag\u00e9es sur Internet.","translation":["","",""],"keyphrases":["traduction","traduction automatique","\u00e9l\u00e9ments lexicaux","s\u00e9mantique","transfert lexico-structural"],"prmu":["P","P","P","P","M"]} {"id":"taln-2000-long-018","title":"Le paradigme monodimensionnel dans l'expression de l'espace et du d\u00e9placement","abstract":"La s\u00e9mantique de certains verbes (doubler, distancer, suivre) et de certaines pr\u00e9positions ou adverbes (devant, derri\u00e8re) peut poser probl\u00e8me d\u00e8s lors qu'elle est consid\u00e9r\u00e9e comme purement spatiale, c'est-\u00e0-dire en des termes \" classiques \" comme la topologie, le rep\u00e9rage ou la distance. Nous proposons dans cet article une description plus g\u00e9n\u00e9rale de ces items lexicaux bas\u00e9e sur la notion d'axe abstrait, rendant compte de leur sens dans diff\u00e9rents domaines, ainsi que les diff\u00e9rents m\u00e9canismes permettant de les plonger dans le domaine qui concerne notre recherche, le spatio-temporel. Ces m\u00e9canismes sont int\u00e9gr\u00e9s dans un mod\u00e8le informatique de g\u00e9n\u00e9ration automatique de pr\u00e9dicats verbaux afin d'\u00e9prouver leur pertinence.","translation":["","",""],"keyphrases":["paradigme monodimensionnel","s\u00e9mantique","pr\u00e9dicat","pr\u00e9dicat verbal","pr\u00e9dication monodimensionnelle"],"prmu":["P","P","P","P","M"]} {"id":"taln-2000-long-019","title":"Le r\u00f4le des contraintes dans les th\u00e9ories linguistiques et leur int\u00e9r\u00eat pour l'analyse automatique","abstract":"Tous les formalismes linguistiques font usage de la notion de contrainte qui, dans son sens le plus large, indique une propri\u00e9t\u00e9 devant \u00eatre satisfaite. Les contraintes sont extr\u00eamement utiles \u00e0 la fois pour repr\u00e9senter l\u2019information linguistique, mais \u00e9galement pour en contr\u00f4ler le processus d\u2019analyse. Cependant, l\u2019usage qui est fait des contraintes peut \u00eatre tr\u00e8s diff\u00e9rent d\u2019une approche \u00e0 l\u2019autre : dans certains cas, il s\u2019agit simplement d\u2019un m\u00e9canisme d\u2019appoint, dans d\u2019autres, les contraintes sont au coeur de la th\u00e9orie. Il existe cependant un certain nombre de restrictions \u00e0 leur utilisation, en particulier pour ce qui concerne leur implantation. Plus pr\u00e9cis\u00e9ment, s\u2019il semble naturel (au moins dans certains paradigmes) de consid\u00e9rer l\u2019analyse syntaxique comme un probl\u00e8me de satisfaction de contraintes, on constate cependant qu\u2019il est extr\u00eamement difficile de r\u00e9aliser concr\u00e8tement une telle implantation. Ce constat est en fait r\u00e9v\u00e9lateur d\u2019un probl\u00e8me d\u00e9passant le simple cadre de l\u2019impl\u00e9mentation : nous montrons dans cet article qu\u2019une approche totalement bas\u00e9e sur les contraintes (permettant donc de concevoir l\u2019analyse comme un probl\u00e8me de satisfaction) est incompatible avec une interpr\u00e9tation g\u00e9n\u00e9rative classique accordant un statut particulier \u00e0 la relation de dominance. Nous proposons ici un cadre permettant \u00e0 la fois de tirer parti des avantages des grammaires syntagmatiques tout en s\u2019affranchissant des probl\u00e8mes li\u00e9s aux approches g\u00e9n\u00e9ratives pour ce qui concerne l\u2019usage des contraintes en tant qu\u2019unique composant grammatical. Nous pr\u00e9sentons ici cette approche, les Grammaires de Propri\u00e9t\u00e9s, ainsi que leur impl\u00e9mentation.","translation":["","",""],"keyphrases":["grammaire","grammaire de propri\u00e9t\u00e9s","contrainte contextuelle","relation de d\u00e9pendance","grammaire de d\u00e9pendance"],"prmu":["P","P","M","M","M"]} {"id":"taln-2000-long-020","title":"Analyse Syntaxique Monotone par D\u00e9cisions Diff\u00e9r\u00e9es","abstract":"Dans cet article nous pr\u00e9sentons une approche \u00e0 l'analyse syntaxique automatique o\u00f9 la lev\u00e9e d'ambigu\u00eft\u00e9s est diff\u00e9r\u00e9e jusqu'\u00e0 l'apparition d'\u00e9l\u00e9ments de la cha\u00eene d'entr\u00e9e permettant de proc\u00e9der \u00e0 une analyse correcte, la d\u00e9sambiguisation \u00e9tant alors effectu\u00e9e en cascade. L'analyseur a pour caract\u00e9ristiques une croissance monotone de l'information syntaxique au fil de l'analyse, la garantie de ne pas \u00e9chouer sur des phrases grammaticales telles les phrases-labyrinthe, et une faible complexit\u00e9 computationnelle. Le syst\u00e8me pr\u00e9sent\u00e9 cumule ainsi les avantages d'une approche d\u00e9terministe (efficacit\u00e9 et optimisation des calculs) et ceux d'une approche non-d\u00e9terministe (ad\u00e9quation empirique).","translation":["","",""],"keyphrases":["analyse syntaxique","analyse syntaxique monotone","d\u00e9sambigu\u00efsation","d\u00e9sambigu\u00efsation syntaxique","lev\u00e9e d'ambigu\u00eft\u00e9 structurelle"],"prmu":["P","P","U","M","M"]} {"id":"taln-2000-long-021","title":"Des grammaires pour d\u00e9finir une correspondance: un point de vue math\u00e9matique et \u00e9pist\u00e9mologique","abstract":"Dans cet article nous introduisons la notion de grammaire transductive, c'est-\u00e0-dire une grammaire formelle d\u00e9finissant une correspondance entre deux familles de structures. L'accent sera mis sur le module syntaxique de la th\u00e9orie Sens-Texte et sur une famille \u00e9l\u00e9mentaire de grammaires de d\u00e9pendance transductives. Nous nous int\u00e9resserons \u00e0 la comparaison avec les grammaires g\u00e9n\u00e9ratives, ce qui nous am\u00e8nera \u00e0 discuter de l'interpr\u00e9tation des mod\u00e8les g\u00e9n\u00e9ratifs actuels.","translation":["","",""],"keyphrases":["grammaire","grammaire transductive","grammaire formelle","grammaire de d\u00e9pendance","grammaire g\u00e9n\u00e9rative","lexie"],"prmu":["P","P","P","P","P","U"]} {"id":"taln-2000-long-022","title":"Une \u00e9tude comparative de m\u00e9thodes de cat\u00e9gorisation s\u00e9mantique de termes techniques","abstract":"L'acquisition et la mise \u00e0 jour de ressources terminologiques sont des t\u00e2ches difficiles, en particulier lorsque ces ressources contiennent des informations d'ordre s\u00e9mantique. Cette article traite de la cat\u00e9gorisation s\u00e9mantique de termes techniques. Le but de ce processus est d'assigner des domaines s\u00e9mantiques \u00e0 de nouveaux termes. Nous proposons deux approches qui reposent sur des sources d'informations diff\u00e9rentes. L'approche exog\u00e8ne exploite des informations contextuelles extraites de corpus. L'approche endog\u00e8ne repose sur une analyse lexicale de termes d\u00e9j\u00e0 cat\u00e9goris\u00e9s. Nous d\u00e9crivons les deux approches mises en oeuvre ainsi que les exp\u00e9rimentations men\u00e9es sur des jeux de test significatifs. Les r\u00e9sultats obtenus montrent que la cat\u00e9gorisation de termes peut constituer une aide cons\u00e9quente dans les processus d'acquisition de ressources terminologiques.","translation":["","",""],"keyphrases":["terminologie","corpus","analyse lexicale","acquisition de termes techniques"],"prmu":["P","P","P","R"]} {"id":"taln-2000-long-023","title":"SVETLAN' ou Comment Classer les Mots en fonction de leur Contexte","abstract":"L\u2019utilisation de connaissances s\u00e9mantiques dans les applications de TAL am\u00e9liore leurs performances. Cependant, bien que des lexiques \u00e9tendus aient \u00e9t\u00e9 d\u00e9velopp\u00e9s, il y a peu de ressources non d\u00e9di\u00e9es \u00e0 des domaines sp\u00e9cialis\u00e9s et contenant des informations s\u00e9mantiques pour les mots. Dans le but de construire une telle base, nous avons con\u00e7u le syst\u00e8me SVETLAN\u2019, capable d\u2019apprendre des cat\u00e9gories de noms \u00e0 partir de textes, quel que soit leur domaine. Dans le but d\u2019\u00e9viter de cr\u00e9er des classes g\u00e9n\u00e9rales regroupant tous les sens des mots, les classes sont apprises en fonction de l\u2019usage des mots en contexte.","translation":["","",""],"keyphrases":["s\u00e9mantique","langue","langue g\u00e9n\u00e9rale","segment textuel","module d'apprentissage"],"prmu":["P","U","M","U","U"]} {"id":"taln-2000-long-024","title":"MULTITAG, une ressource linguistique produit du paradigme d'\u00e9valuation","abstract":"Dans cet article, nous montrons comment le paradigme d'\u00e9valuation peut servir pour produire de fa\u00e7on plus \u00e9conomique des ressources linguistiques valid\u00e9es de grande qualit\u00e9. Tous d'abord nous pr\u00e9sentons le paradigme d'\u00e9valuation et rappelons les points essentiels de son histoire pour le traitement automatique des langues, depuis les premi\u00e8res applications dans le cadre des campagnes d'\u00e9valuation am\u00e9ricaines organis\u00e9es par le NIST et le DARPA jusqu'aux derniers efforts europ\u00e9ens en la mati\u00e8re. Nous pr\u00e9sentons ensuite le principe qui permet de produire \u00e0 co\u00fbt r\u00e9duit des ressources linguistiques valid\u00e9es et de grande qualit\u00e9 \u00e0 partir des donn\u00e9es qui sont produites lorsque l'on applique le paradigme d'\u00e9valuation. Ce principe trouve ses origines dans les exp\u00e9riences (Recognizer Output Voting Error Recognition) qui ont \u00e9t\u00e9 effectu\u00e9es pendant les campagnes d'\u00e9valuation am\u00e9ricaine pour la reconnaissance automatique de la parole. Il consiste \u00e0 combiner les donn\u00e9es produites par les syst\u00e8mes \u00e0 l'aide d'une simple strat\u00e9gie de vote pour diminuer le nombre d'erreurs. Nous faisons alors un lien avec les strat\u00e9gies d'apprentissages automatiques fond\u00e9es sur la combinaison de syst\u00e8mes de m\u00eame nature. Notre propos est illustr\u00e9 par la description de la production du corpus MULTITAG (projet du programme Ing\u00e9nierie des Langues des d\u00e9partement SPI et SHS du CNRS) \u00e0 partir des donn\u00e9es qui avaient \u00e9t\u00e9 annot\u00e9es lors de la campagne d'\u00e9valuation GRACE, correspondant \u00e0 un corpus d'environ 1 million de mots annot\u00e9s avec un jeu d'\u00e9tiquettes morpho-syntaxiques de grain tr\u00e8s fin d\u00e9riv\u00e9 de celui qui a \u00e9t\u00e9 d\u00e9fini dans les projets EAGLES et MULTEXT. Nous pr\u00e9sentons le corpus MULTITAG et la proc\u00e9dure qui a \u00e9t\u00e9 suivie pour sa production et sa validation. Nous concluons en pr\u00e9sentant le gain obtenu par rapport \u00e0 une m\u00e9thode classique de validation de marquage morho-syntaxique.","translation":["","",""],"keyphrases":["paradigme d'\u00e9valuation","campagne d'\u00e9valuation","corpus","syst\u00e8me d'annotation"],"prmu":["P","P","P","R"]} {"id":"taln-2000-long-025","title":"Vers un syst\u00e8me d'analyse syntaxique robuste pour l'Arabe","abstract":"Le degr\u00e9 de profondeur et de finesse de l'analyse syntaxique d'un texte \u00e9crit d\u00e9pend \u00e9norm\u00e9ment de l'objectif de l'analyse (analyse globale, analyse partielle, analyse d\u00e9taill\u00e9e, etc.) ainsi que du type d'application n\u00e9cessitant cette analyse. Dans cet article, nous pr\u00e9sentons une approche originale d'analyse syntaxique robuste appliqu\u00e9e \u00e0 l'arabe et bas\u00e9e sur l'architecture multiagent. Comme premi\u00e8re application de notre approche, notre syst\u00e8me sera coupl\u00e9 avec un syst\u00e8me de reconnaissance de l'\u00e9criture arabe dans le but d'effectuer, d'une part, la validation linguistique des mots reconnus par l'OCR (Optical Character Recognition) et d'autre part la d\u00e9tection et la correction des erreurs d'ordre lexicales, morphologiques, syntaxiques (cas des erreurs d'accord) et qui sont dues \u00e0 la non ou au mal reconnaissance de certains mots par l'OCR. Le couplage de notre syst\u00e8me avec le syst\u00e8me de reconnaissance de l'\u00e9criture arabe entre dans le cadre d'un projet de coop\u00e9ration avec l'\u00e9quipe Perception, Syst\u00e8me et Information (PSI) de l'universit\u00e9 de Rouen.","translation":["","",""],"keyphrases":["analyse syntaxique","analyse syntaxique robuste","syst\u00e8me de reconnaissance","syst\u00e8me de reconnaissance de l'\u00e9criture arabe","langue","langue arabe","corpus"],"prmu":["P","P","P","P","U","M","U"]} {"id":"taln-2000-long-026","title":"Enrichissement automatique de lexique de noms propres \u00e0 partir de corpus","abstract":"Cet article pr\u00e9sente une m\u00e9thode d\u2019\u00e9tiquetage s\u00e9mantique de noms propres fond\u00e9 sur la technique des arbres de d\u00e9cision. Ces derniers permettent de mod\u00e9liser les \u00e9l\u00e9ments saillants dans les contextes d\u2019occurrence de noms propres d\u2019une classe donn\u00e9e. Les arbres de d\u00e9cision sont construits automatiquement sur un corpus d\u2019apprentissage \u00e9tiquet\u00e9, ils sont ensuite utilis\u00e9s pour \u00e9tiqueter des noms propres apparaissant dans un corpus de test. Les r\u00e9sultats de l\u2019\u00e9tiquetage du corpus de test est utilis\u00e9 pour enrichir un lexique de noms propres. Ce dernier peut \u00eatre utilis\u00e9 \u00e0 son tour pour r\u00e9estimer les param\u00e8tres d\u2019un \u00e9tiqueteur stochastique. Nous nous int\u00e9ressons en particulier au cas o\u00f9 le corpus de test a \u00e9t\u00e9 glan\u00e9 sur le Web.","translation":["","",""],"keyphrases":["corpus","\u00e9tiquetage","arbre","arbre de d\u00e9cision","corpus de test","expression r\u00e9guli\u00e8re","entr\u00e9e lexicale"],"prmu":["P","P","P","P","P","U","U"]} {"id":"taln-2000-long-028","title":"Extraction automatique de correspondances lexicales: \u00e9valuation d'indices et d'algorithmes","abstract":"Les bi-textes sont des corpus bilingues parall\u00e8les, g\u00e9n\u00e9ralement segment\u00e9s et align\u00e9s au niveau des phrases. Une des applications les plus directes de ces corpus consiste \u00e0 en extraire automatiquement des correspondances lexicales, fournissant une information utile aux traducteurs, aux lexicographes comme aux terminologues. Comme pour l\u2019alignement, des m\u00e9thodes statistiques ont donn\u00e9 de bons r\u00e9sultats dans ce domaine. Nous pensons qu\u2019une exploitation judicieuse d\u2019indices statistiques adapt\u00e9s et d\u2019algorithmes de conception simple permet d\u2019obtenir des correspondances fiables. Apr\u00e8s avoir pr\u00e9sent\u00e9 les indices classiques, auxquels nous essayons d\u2019apporter des am\u00e9liorations, nous proposons dans cette article une \u00e9tude empirique destin\u00e9e \u00e0 en montrer les potentialit\u00e9s.","translation":["","",""],"keyphrases":["extraction","extraction automatique de correspondances lexicales","alignement","lexicographie","alignement lexical","relation de traduction"],"prmu":["P","P","P","P","R","M"]} {"id":"taln-2000-long-030","title":"Fouille du Web pour la collecte d'Entit\u00e9s Nomm\u00e9es","abstract":"Cette \u00e9tude porte sur l\u2019acquisition des Entit\u00e9s Nomm\u00e9es (EN) \u00e0 partir du Web. L\u2019application pr\u00e9sent\u00e9e se compose d\u2019un moissonneur de pages et de trois analyseurs surfaciques d\u00e9di\u00e9s \u00e0 des structures sp\u00e9cifiques. Deux \u00e9valuations sont propos\u00e9es : une \u00e9valuation de la productivit\u00e9 des moteurs en fonction des types d\u2019EN et une mesure de la pr\u00e9cision.","translation":["","",""],"keyphrases":["entit\u00e9 nomm\u00e9e","expression r\u00e9guli\u00e8re","acquisition lexicale","marqueur","marqueur discursif","moteur de recherche"],"prmu":["P","U","M","U","U","M"]} {"id":"taln-2000-long-033","title":"Une approche int\u00e9gr\u00e9e pour la normalisation des extragrammaticalit\u00e9s de la parole spontan\u00e9e","abstract":"Dans cet article, nous pr\u00e9sentons une nouvelle approche pour la normalisation des extragrammaticalit\u00e9s de la parole. La particularit\u00e9 de c\u00e8ne approche est l'int\u00e9gration de diff\u00e9rentes sources de connaissances de haut niveau, en particulier le lexique, la syntaxe et la s\u00e9mantique. Ainsi, le traitement des extragrammaticalit\u00e9s se d\u00e9roule suivant deux \u00e9tapes : dans la premi\u00e8re, le syst\u00e8me normalise les Extragrammaticalit\u00e9s Lexicales (Eis) (h\u00e9sitations, amalgames, etc.) et dans la deuxi\u00e8me, le syst\u00e8me d\u00e9tecte et corrige les Extragrammaticalit\u00e9s Supra Lexicales (ESLs). Ce traitement est base sur des mod\u00e8les de ESLs (r\u00e8gles et pattems) qui consid\u00e8rent \u00e0 la fois les informations syntaxiques et les informations structurales dans la d\u00e9tection et la correction des extragrammaticalit\u00e9s. De m\u00eame, le syst\u00e8me a \u00e9t\u00e9 dot\u00e9 de patterns de contr\u00f4le ainsi que de grammaires s\u00e9mantiques afin de r\u00e9duire au maximum la surg\u00e9n\u00e9rativit\u00e9. Les r\u00e9sultats de l'\u00e9valuation ont montr\u00e9 l'efficacit\u00e9 de notre approche \u00e0 d\u00e9tecter et \u00e0 corriger les extragrammaticalit\u00e9s tout en \u00e9vitant les cas de surg\u00e9n\u00e9rativit\u00e9.","translation":["","",""],"keyphrases":["parole","parole spontan\u00e9e","extragrammaticalit\u00e9 lexicale","information","information structurale","corpus","corpus d'apprentissage"],"prmu":["P","P","P","P","P","U","U"]} {"id":"taln-2000-long-036","title":"Une analyse th\u00e9matique fond\u00e9e sur un principe d'amor\u00e7age","abstract":"L'analyse th\u00e9matique est une \u00e9tape importante pour de nombreuses applications en traitement automatique des langues, telles que le r\u00e9sum\u00e9 ou l'extraction d'information par exemple. Elle ne peut \u00eatre r\u00e9alis\u00e9e avec une bonne pr\u00e9cision qu'en exploitant une source de connaissances structur\u00e9es sur les th\u00e8mes, laquelle est difficile \u00e0 constituer \u00e0 une large \u00e9chelle. Dans cet article, nous proposons de r\u00e9soudre ce probl\u00e8me par un principe d'amor\u00e7age : une premi\u00e8re analyse th\u00e9matique, fond\u00e9e sur l'utilisation d'une source de connaissances faiblement structur\u00e9e mais relativement ais\u00e9e \u00e0 construire, un r\u00e9seau de collocations, permet d'apprendre des repr\u00e9sentations explicites de th\u00e8mes, appel\u00e9es signatures th\u00e9matiques. Ces derni\u00e8res sont ensuite utilis\u00e9es pour mettre en oeuvre une seconde analyse th\u00e9matique, plus pr\u00e9cise et plus fiable.","translation":["","",""],"keyphrases":["analyse th\u00e9matique","r\u00e9seau de collocations","coh\u00e9sion lexicale","focalisation"],"prmu":["P","P","U","U"]} {"id":"taln-2007-long-002","title":"\u00c9nergie textuelle de m\u00e9moires associatives","abstract":"Dans cet article, nous pr\u00e9sentons une approche de r\u00e9seaux de neurones inspir\u00e9e de la physique statistique de syst\u00e8mes magn\u00e9tiques pour \u00e9tudier des probl\u00e8mes fondamentaux du Traitement Automatique de la Langue Naturelle. L\u2019algorithme mod\u00e9lise un document comme un syst\u00e8me de neurones o\u00f9 l\u2019on d\u00e9duit l\u2019\u00e9nergie textuelle. Nous avons appliqu\u00e9 cette approche aux probl\u00e8mes de r\u00e9sum\u00e9 automatique et de d\u00e9tection de fronti\u00e8res th\u00e9matiques. Les r\u00e9sultats sont tr\u00e8s encourageants.","translation":["","In this paper we present a neural networks approach, inspired by statistical physics of magnetic systems, to study fundamental problems in Natural Language Processing. The algorithm models documents as neural network whose textual energy is studied. We obtained good results on the application of this method to automatic summarization and thematic borders detection.","neural networks, Hopfield network, summarization, thematic boundary"],"keyphrases":["r\u00e9seaux de neurones","r\u00e9sum\u00e9","fronti\u00e8re th\u00e9matiques","r\u00e9seaux de Hopfield"],"prmu":["P","P","P","M"]} {"id":"taln-2007-long-003","title":"Une exp\u00e9rience d\u2019extraction de relations s\u00e9mantiques \u00e0 partir de textes dans le domaine m\u00e9dical","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thode permettant d\u2019extraire \u00e0 partir de textes des relations s\u00e9mantiques dans le domaine m\u00e9dical en utilisant des patrons linguistiques. La premi\u00e8re partie de cette m\u00e9thode consiste \u00e0 identifier les entit\u00e9s entre lesquelles les relations vis\u00e9es interviennent, en l\u2019occurrence les maladies, les examens, les m\u00e9dicaments et les sympt\u00f4mes. La pr\u00e9sence d\u2019une des relations s\u00e9mantiques vis\u00e9es dans les phrases contenant un couple de ces entit\u00e9s est ensuite valid\u00e9e par l\u2019application de patrons linguistiques pr\u00e9alablement appris de mani\u00e8re automatique \u00e0 partir d\u2019un corpus annot\u00e9. Nous rendons compte de l\u2019\u00e9valuation de cette m\u00e9thode sur un corpus en Fran\u00e7ais pour quatre relations.","translation":["","In this article, we present a method to extract semantic relations automatically in the medical domain using linguistic patterns. This method consists first in identifying the entities that are part of the relations to extract, that is to say diseases, exams, treatments, drugs and symptoms. Thereafter, sentences that contain these entities are extracted and the presence of a semantic relation is validated by applying linguistic patterns that were automatically learnt from an annotated corpus. We report the results of an evaluation of our extraction method on a French corpus for four relations.","extraction of semantic relations, lexico-syntactic patterns, medical domain"],"keyphrases":["extraction de relations s\u00e9mantiques","domaine m\u00e9dical","patrons lexico-syntaxiques"],"prmu":["P","P","M"]} {"id":"taln-2007-long-004","title":"Identifier les pronoms anaphoriques et trouver leurs ant\u00e9c\u00e9dents : l\u2019int\u00e9r\u00eat de la classification bay\u00e9sienne","abstract":"On oppose souvent en TAL les syst\u00e8mes \u00e0 base de connaissances linguistiques et ceux qui reposent sur des indices de surface. Chaque approche a ses limites et ses avantages. Nous proposons dans cet article une nouvelle approche qui repose sur les r\u00e9seaux bay\u00e9siens et qui permet de combiner au sein d\u2019une m\u00eame repr\u00e9sentation ces deux types d\u2019informations h\u00e9t\u00e9rog\u00e8nes et compl\u00e9mentaires. Nous justifions l\u2019int\u00e9r\u00eat de notre approche en comparant les performances du r\u00e9seau bay\u00e9sien \u00e0 celles des syst\u00e8mes de l\u2019\u00e9tat de l\u2019art, sur un probl\u00e8me difficile du TAL, celui de la r\u00e9solution d\u2019anaphore.","translation":["","In NLP, a traditional distinction opposes linguistically-based systems and knowledge-poor ones, which mainly rely on surface clues. Each approach has its drawbacks and its advantages. In this paper, we propose a new approach based on Bayes Networks that allows to combine both types of information. As a case study, we focus on the anaphora resolution which is known as a difficult NLP problem. We show that our bayesain system performs better than a state-of-the art one for this task.","bayesian network, anaphora resolution, linguistic knowledge, surface clue"],"keyphrases":["connaissance linguistique","indice de surface","r\u00e9seaux bay\u00e9siens","r\u00e9solution des anaphores"],"prmu":["P","P","P","R"]} {"id":"taln-2007-long-005","title":"R\u00e9gler les r\u00e8gles d\u2019analyse morphologique","abstract":"Dans cet article, nous pr\u00e9sentons diff\u00e9rentes contraintes m\u00e9caniques et linguistiques applicables \u00e0 des r\u00e8gles d\u2019analyse des mots inconnus afin d\u2019am\u00e9liorer la performance d\u2019un analyseur morphologique de l\u2019italien. Pour mesurer l\u2019impact de ces contraintes, nous pr\u00e9sentons les r\u00e9sultats d\u2019une \u00e9valuation de chaque contrainte qui prend en compte les gains et les pertes qu\u2019elle engendre. Nous discutons ainsi de la n\u00e9cessaire \u00e9valuation de chaque r\u00e9glage apport\u00e9 aux r\u00e8gles afin d\u2019en d\u00e9terminer la pertinence.","translation":["","In this article, we present various constraints, mechanical and linguistic, that can be applied to analysing rules for unknown words in order to improve the performance of a morphological analyser for Italian. To measure the impact of these constraints, we present an evaluation for each constraint, taking into account the gains and losses which they generate. We then discuss the need to evaluate any fine-tuning of these kinds of rules in order to decide whether they are appropriate or not.","evaluation, morphological analysis, unknown words, constructional morphology"],"keyphrases":["analyse morphologique","mots inconnus","\u00e9valuation","morphologie constructionnelle"],"prmu":["P","P","P","M"]} {"id":"taln-2007-long-006","title":"Structures de traits typ\u00e9es et morphologie \u00e0 partitions","abstract":"Les structures de traits typ\u00e9es sont une fa\u00e7on abstraite et agr\u00e9able de repr\u00e9senter une information partielle. Dans cet article, nous montrons comment la combinaison de deux techniques relativement classiques permet de d\u00e9finir une variante de morphologie \u00e0 deux niveaux int\u00e9grant harmonieusement des structures de traits et se compilant en une machine finie. La premi\u00e8re de ces techniques est la compilation de structure de traits en expressions r\u00e9guli\u00e8res, la seconde est la morphologie \u00e0 partition. Nous illustrons au moyen de deux exemples l\u2019expressivit\u00e9 d\u2019un formalisme qui rapproche les grammaires \u00e0 deux niveaux des grammaires d\u2019unification.","translation":["","Feature Structures are an abstract and convenient way of representing partial information. In this paper, we show that the combination of two relatively classical techniques makes possible the definition of a variant of two-level morphology which integrates harmoniously feature structures and compiles into finite-state machines. The first technique is the compilation of feature structures into regular expressions, the second one is partition-based morphology. Two examples are given, which show that our formalism is close to unification grammars.","two-level morphology, finite-state transducers, feature structures"],"keyphrases":["structure de traits","morphologie \u00e0 deux niveaux","transducteurs finis \u00e0 \u00e9tats"],"prmu":["P","P","M"]} {"id":"taln-2007-long-007","title":"Analyse morphos\u00e9mantique des compos\u00e9s savants : transposition du fran\u00e7ais \u00e0 l\u2019anglais","abstract":"La plupart des vocabulaires sp\u00e9cialis\u00e9s comprennent une part importante de lex\u00e8mes morphologiquement complexes, construits \u00e0 partir de racines grecques et latines, qu\u2019on appelle \u00ab compos\u00e9s savants \u00bb. Une analyse morphos\u00e9mantique permet de d\u00e9composer et de donner des d\u00e9finitions \u00e0 ces lex\u00e8mes, et semble pouvoir \u00eatre appliqu\u00e9e de fa\u00e7on similaire aux compos\u00e9s de plusieurs langues. Cet article pr\u00e9sente l\u2019adaptation d\u2019un analyseur morphos\u00e9mantique, initialement d\u00e9di\u00e9 au fran\u00e7ais (D\u00e9riF), \u00e0 l\u2019analyse de compos\u00e9s savants m\u00e9dicaux anglais, illustrant ainsi la similarit\u00e9 de structure de ces compos\u00e9s dans des langues europ\u00e9ennes proches. Nous exposons les principes de cette transposition et ses performances. L\u2019analyseur a \u00e9t\u00e9 test\u00e9 sur un ensemble de 1299 lex\u00e8mes extraits de la terminologie m\u00e9dicale WHO-ART : 859 ont pu \u00eatre d\u00e9compos\u00e9s et d\u00e9finis, dont 675 avec succ\u00e8s. Outre une simple transposition d\u2019une langue \u00e0 l\u2019autre, la m\u00e9thode montre la potentialit\u00e9 d\u2019un syst\u00e8me multilingue.","translation":["","Medical language, as many technical languages, is rich with morphologically complex words, many of which take their roots in Greek and Latin \u2013 in which case they are called neoclassical compounds. Morphosemantic analysis can help generate decompositions and definitions of such words, and is likely to be similarly applicable to compounds from different languages. This paper reports work on the adaptation of a morphosemantic analyzer dedicated to French (D\u00e9riF) to analyze English medical neoclassical compounds, and shows the similarity in structure of compounds from related European languages. It presents the principles of this transposition and its current performance. The analyzer was tested on a set of 1,299 compounds extracted from theWHO-ART terminology: 859 could be decomposed and defined, 675 of which successfully. Aside from simple transposition from one language to another, the method also emphasizes the potentiality for a multilingual system.","morphosemantic analysis, neo-classical compounding,medical terminology"],"keyphrases":["analyse morphos\u00e9mantique","terminologie m\u00e9dicale","composition savante"],"prmu":["P","P","M"]} {"id":"taln-2007-long-009","title":"Enrichissement d\u2019un lexique bilingue par analogie","abstract":"La pr\u00e9sence de mots inconnus dans les applications langagi\u00e8res repr\u00e9sente un d\u00e9fi de taille bien connu auquel n\u2019\u00e9chappe pas la traduction automatique. Les syst\u00e8mes professionnels de traduction offrent \u00e0 cet effet \u00e0 leurs utilisateurs la possibilit\u00e9 d\u2019enrichir un lexique de base avec de nouvelles entr\u00e9es. R\u00e9cemment, Stroppa et Yvon (2005) d\u00e9montraient l\u2019int\u00e9r\u00eat du raisonnement par analogie pour l\u2019analyse morphologique d\u2019une langue. Dans cette \u00e9tude, nous montrons que le raisonnement par analogie offre \u00e9galement une r\u00e9ponse adapt\u00e9e au probl\u00e8me de la traduction d\u2019entr\u00e9es lexicales inconnues.","translation":["","Unknown words are a well-known hindrance to natural language applications. In particular, they drastically impact machine translation quality. An easy way out commercial translation systems usually offer their users is the possibility to add unknown words and their translations into a dedicated lexicon. Recently, Stroppa et Yvon (2005) shown how analogical learning alone deals nicely with morphology in different languages. In this study we show that analogical learning offers as well an elegant and efficient solution to the problem of identifying potential translations of unknown words.","formal analogy, bilingual lexicon projection, machine translation"],"keyphrases":["traduction automatique","analogie formelle","enrichissement de lexiques bilingues"],"prmu":["P","M","R"]} {"id":"taln-2007-long-010","title":"Inf\u00e9rence de r\u00e8gles de r\u00e9\u00e9criture pour la traduction de termes biom\u00e9dicaux","abstract":"Dans le domaine biom\u00e9dical, le caract\u00e8re multilingue de l\u2019acc\u00e8s \u00e0 l\u2019information est un probl\u00e8me d\u2019importance. Dans cet article nous pr\u00e9sentons une technique originale permettant de traduire des termes simples du domaine biom\u00e9dical de et vers de nombreuses langues. Cette technique enti\u00e8rement automatique repose sur l\u2019apprentissage de r\u00e8gles de r\u00e9\u00e9criture \u00e0 partir d\u2019exemples et l\u2019utilisation de mod\u00e8les de langues. Les \u00e9valuations pr\u00e9sent\u00e9es sont men\u00e9es sur diff\u00e9rentes paires de langues (fran\u00e7ais-anglais, espagnol-portugais, tch\u00e8que-anglais, russe-anglais...). Elles montrent que cette approche est tr\u00e8s efficace et offre des performances variables selon les langues mais tr\u00e8s bonnes dans l\u2019ensemble et nettement sup\u00e9rieures \u00e0 celles disponibles dans l\u2019\u00e9tat de l\u2019art. Les taux de pr\u00e9cision de traductions s\u2019\u00e9tagent ainsi de 57.5% pour la paire russe-anglais jusqu\u2019\u00e0 85% pour la paire espagnol-portugais et la paire fran\u00e7aisanglais.","translation":["","In the biomedical domain, offering a multilingual access to specialized information is a major issue. In this paper, we present an original approach to translate simple biomedical terms between several languages. This fully automatic approach is based on a machine learning technique inferring rewriting rules and on language models. The experiments that are presented are done onn several language pairs (French-English, Spanish-Portuguese, Czech-English, Russian-English...). They demonstrate the efficiency of our approach by yielding translation performances that vary according to the languages but are always very good and better than those of state-of-art techniques. Indeed, the translation precision rates go from 57.5% for translation from Russian to English up to 85% for Spanish-Portuguese and French-English language pairs.","machine translation, biomedical terminology, machine learning, language models"],"keyphrases":["mod\u00e8les de langue","traduction artificielle","terminologie biom\u00e9dicale","apprentissage artificiel"],"prmu":["P","M","M","M"]} {"id":"taln-2007-long-011","title":"TiLT correcteur de SMS : \u00e9valuation et bilan qualitatif","abstract":"Nous pr\u00e9sentons le logiciel TiLT pour la correction des SMS et \u00e9valuons ses performances sur le corpus de SMS du DELIC. L'\u00e9valuation utilise la distance de Jaccard et la mesure BLEU. La pr\u00e9sentation des r\u00e9sultats est suivie d'une analyse qualitative du syst\u00e8me et de ses limites.","translation":["","This paper presents TiLT system which allows us to correct spelling errors in SMS messages to standard French. We perform Jaccard and Bleu metrics for its evaluation using the DELIC SMS corpus as a reference. We discuss qualitative analyses of system and its limits.","SMS, SMS corpus, spelling correction, TiLT, evaluation"],"keyphrases":["TiLT","SMS","SMS corpus","correction orthographique","evaluation"],"prmu":["P","P","R","M","U"]} {"id":"taln-2007-long-012","title":"Vers un m\u00e9ta-EDL complet, puis un EDL universel pour la TAO","abstract":"Un \u201cm\u00e9ta-EDL\u201d (m\u00e9ta-Environnement de D\u00e9veloppement Linguiciel) pour la TAO permet de piloter \u00e0 distance un ou plusieurs EDL pour construire des syst\u00e8mes de TAO h\u00e9t\u00e9rog\u00e8nes. Partant de CASH, un m\u00e9ta-EDL d\u00e9di\u00e9 \u00e0 Ariane-G5, et de WICALE 1.0, un premier m\u00e9ta-EDL g\u00e9n\u00e9rique mais aux fonctionnalit\u00e9s minimales, nous d\u00e9gageons les probl\u00e8mes li\u00e9s \u00e0 l\u2019ajout de fonctionnalit\u00e9s riches comme l\u2019\u00e9dition et la navigation en local, et donnons une solution impl\u00e9ment\u00e9e dans WICALE 2.0. Nous y int\u00e9grons maintenant une base lexicale pour les syst\u00e8mes \u00e0 \u00ab pivot lexical \u00bb, comme UNL\/U++. Un but \u00e0 plus long terme est de passer d\u2019un tel m\u00e9ta-EDL g\u00e9n\u00e9rique multifonctionnel \u00e0 un EDL \u00ab universel \u00bb, ce qui suppose la r\u00e9ing\u00e9nierie des compilateurs et des moteurs des langages sp\u00e9cialis\u00e9s pour la programmation linguistique (LSPL) support\u00e9s par les divers EDL.","translation":["","A \u201cmeta-EDL\u201d (meta-Environment for Developing Lingware) for MT allows to pilot one or more distant EDL in order to build heterogeneous MT systems. Starting from CASH, a meta-EDL dedicated to Ariane-G5, and from WICALE 1.0, a first meta-EDL, generic but offering minimal functionalities, we study the problems arising when adding rich functionalities such as local editing and navigation, and give a solution implemented in WICALE 2.0. We are now integrating to it a lexical database for MT systems relying on a \u201clexical pivot\u201d, such as UNL\/U++. A longer-term goal is to evolve from such a multifunctional generic meta-EDL to a \u201cuniversal\u201d EDL, which would imply the reengineering of the compilers and engines of the specialized languages (SLLPs) supported by the various EDLs.","lingware engineering, specialized languages for linguistic programming, development environment, EDL, MT, heterogeneous distributed MT systems"],"keyphrases":["EDL","TAO","langages sp\u00e9cialis\u00e9s pour la programmation linguistique","LSPL","g\u00e9nie linguiciel","environnement de d\u00e9veloppement","syst\u00e8mes distribu\u00e9s h\u00e9t\u00e9rog\u00e8nes"],"prmu":["P","P","P","P","M","M","M"]} {"id":"taln-2007-long-013","title":"Aides \u00e0 la navigation dans un corpus de transcriptions d\u2019oral","abstract":"Dans cet article, nous \u00e9valuons les performances de fonctionnalit\u00e9s d\u2019aide \u00e0 la navigation dans un contexte de recherche dans un corpus audio. Nous montrons que les particularit\u00e9s de la transcription et, en particulier les erreurs, conduisent \u00e0 une d\u00e9gradation parfois importante des performances des outils d\u2019analyse. Si la navigation par concepts reste dans des niveaux d\u2019erreur acceptables, la reconnaissance des entit\u00e9s nomm\u00e9es, utilis\u00e9e pour l\u2019aide \u00e0 la lecture, voit ses performances fortement baisser. Notre remise en doute de la portabilit\u00e9 de ces fonctions \u00e0 un corpus oral est n\u00e9anmoins att\u00e9nu\u00e9e par la nature m\u00eame du corpus qui incite \u00e0 consid\u00e9rer que toute m\u00e9thodes permettant de r\u00e9duire le temps d\u2019acc\u00e8s \u00e0 l\u2019information est pertinente, m\u00eame si les outils utilis\u00e9s sont imparfaits.","translation":["","In this paper we evaluate the performances of navigation facilities within the context of information retrieval performed on an audio corpus. We show that the issues about transcription, especially the errors, lead to a sometimes important deterioration of the performances of the analysing tools. While the navigation by concepts remains within an acceptable error rate, the recognition of named entities used in fast reading undergo a performance drop. Our caution to the portability of these functions to a speech corpus is attenuated by the nature of the corpus: access time to a speech corpus can be very long, and therefore all methods that reduce access time are good to take.","evaluation, search engine, speech corpus"],"keyphrases":["corpus oral","\u00e9valuation","moteur de recherche"],"prmu":["P","U","M"]} {"id":"taln-2007-long-014","title":"Une grammaire du fran\u00e7ais pour une th\u00e9orie descriptive et formelle de la langue","abstract":"Dans cet article, nous pr\u00e9sentons une grammaire du fran\u00e7ais qui fait l\u2019objet d\u2019un mod\u00e8le bas\u00e9 sur des descriptions linguistiques de corpus (provenant notamment des travaux de l\u2019Approche Pronominale) et repr\u00e9sent\u00e9e selon le formalisme des Grammaires de Propri\u00e9t\u00e9s. Elle constitue une proposition nouvelle parmi les grammaires formelles du fran\u00e7ais, participant \u00e0 la mise en convergence de la vari\u00e9t\u00e9 des travaux de description linguistique, et de la diversit\u00e9 des possibilit\u00e9s de repr\u00e9sentation formelle. Cette grammaire est mise \u00e0 disposition publique sur le Centre de Ressources pour la Description de l\u2019Oral en tant que ressource pour la repr\u00e9sentation et l\u2019analyse.","translation":["","In this paper I present a grammar for French, which is the implementation of a linguistic model based on corpus descriptions (notably coming from Approche Pronominale) and represented into the Property Grammars formalism. It accounts for a new proposition among formal grammars, taking part into the works that aim to promote convergence between the various researchs of descriptive linguistics and the diversity of formal representation possibilities. It is freely available on the Spoken Data Resource Center (CRDO), as a representation and analysis resource.","grammar development, resource for NLP, French grammar, syntax, formal linguistics, descriptive linguistics, property grammars (PG)"],"keyphrases":["grammaire du fran\u00e7ais","d\u00e9veloppement de grammaire","ressource pour le TAL","syntaxe","linguistique formelle","linguistique descriptive","grammaires de propri\u00e9t\u00e9s (GP)"],"prmu":["P","M","M","U","R","R","M"]} {"id":"taln-2007-long-015","title":"Architecture compositionnelle pour les d\u00e9pendances crois\u00e9es","abstract":"L\u2019article pr\u00e9sente les principes g\u00e9n\u00e9raux sous-jacent aux grammaires cat\u00e9gorielles de d\u00e9pendances : une classe de grammaires de types r\u00e9cemment propos\u00e9e pour une description compositionnelle et uniforme des d\u00e9pendances continues et discontinues. Ces grammaires tr\u00e8s expressives et analys\u00e9es en temps polynomial, adoptent naturellement l\u2019architecture multimodale et expriment les d\u00e9pendances crois\u00e9es illimit\u00e9es.","translation":["","This article presents the general principles underlying the categorial dependency grammars : a class of type logical grammars recently introduced as a compositional and uniform definition of continuous and discontinuous dependences. These grammars are very expressive, are parsed in a reasonable polynomial time, naturally adopt the multimodal architecture and explain unlimited cross-serial dependencies.","categorial dependency grammars, multimodal grammars, syntactic parser"],"keyphrases":["grammaires cat\u00e9gorielles de d\u00e9pendances","grammaires multimodales","analyseur syntaxique"],"prmu":["P","R","U"]} {"id":"taln-2007-long-016","title":"SemTAG, une architecture pour le d\u00e9veloppement et l\u2019utilisation de grammaires d\u2019arbres adjoints \u00e0 port\u00e9e s\u00e9mantique","abstract":"Dans cet article, nous pr\u00e9sentons une architecture logicielle libre et ouverte pour le d\u00e9veloppement de grammaires d\u2019arbres adjoints \u00e0 port\u00e9e s\u00e9mantique. Cette architecture utilise un compilateur de m\u00e9tagrammaires afin de faciliter l\u2019extension et la maintenance de la grammaire, et int\u00e8gre un module de construction s\u00e9mantique permettant de v\u00e9rifier la couverture aussi bien syntaxique que s\u00e9mantique de la grammaire. Ce module utilise un analyseur syntaxique tabulaire g\u00e9n\u00e9r\u00e9 automatiquement \u00e0 partir de la grammaire par le syst\u00e8me DyALog. Nous pr\u00e9sentons \u00e9galement les r\u00e9sultats de l\u2019\u00e9valuation d\u2019une grammaire du fran\u00e7ais d\u00e9velopp\u00e9e au moyen de cette architecture.","translation":["","In this paper, we introduce a free and open software architecture for the development of Tree Adjoining Grammars equipped with semantic information. This architecture uses a metagrammar compiler to facilitate the grammar extension and maintnance, and includes a semantic construction module allowing to check both the syntactic and semantic coverage of the grammar. This module uses a tabular syntactic parser generated automatically from this grammar using the DyALog system. We also give the results of the evaluation of a real-size TAG for French developed using this architecture.","syntactic parser, tree adjoining grammars, semantic construction, software architecture"],"keyphrases":["grammaires d\u2019arbres adjoints","architecture logicielle","construction s\u00e9mantique","analyseur syntaxique"],"prmu":["P","P","P","P"]} {"id":"taln-2007-long-017","title":"Utiliser des classes de s\u00e9lection distributionnelle pour d\u00e9sambigu\u00efser les adjectifs","abstract":"La d\u00e9sambigu\u00efsation lexicale pr\u00e9sente un int\u00e9r\u00eat consid\u00e9rable pour un nombre important d\u2019applications, en traitement automatique des langues comme en recherche d'information. Nous proposons un mod\u00e8le d\u2019un genre nouveau, fond\u00e9 sur la th\u00e9orie de la construction dynamique du sens (Victorri et Fuchs, 1996). Ce mod\u00e8le donne une place centrale \u00e0 la polys\u00e9mie et propose une repr\u00e9sentation g\u00e9om\u00e9trique du sens. Nous pr\u00e9sentons ici une application de ce mod\u00e8le \u00e0 la d\u00e9sambigu\u00efsation automatique des adjectifs. La m\u00e9thode utilis\u00e9e s'appuie sur une pr\u00e9-d\u00e9sambigu\u00efsation du nom r\u00e9gissant l'adjectif, par le biais de classes de s\u00e9lection distributionnelle. Elle permet aussi de prendre en compte les positions relatives du nom et de l'adjectif (postpostion ou ant\u00e9position) dans le calcul du sens.","translation":["","Automatic word sense disambiguation represents an important issue for many applications, in Natural Language Processing as in Information Retrieval. We propose a new kind of model, within the framework of Dynamical Construction of Meaning (Victorri and Fuchs, 1996). This model gives a central place to polysemy and proposes a geometric representation of meaning. We present here an application of this model to adjective sense disambiguation. The method we used relies on a pre-disambiguation of the noun used with the adjective under study, using distributionnal classes. It can also take into account the changes in the meaning of the adjective, whether it is placed before or after the noun.","natural language processing, word sense disambiguation, semantics, adjectival polysemy, dynamical construction of meaning, synonymy, distributionnal classes, corpus, semantic space, distributional space"],"keyphrases":["d\u00e9sambigu\u00efsation","traitement automatique des langues","construction dynamique du sens","s\u00e9mantique","polys\u00e9mie adjectivale","synonymie","classes distributionnelles","corpus","espace s\u00e9mantique","espace distributionnel"],"prmu":["P","P","P","U","M","U","R","U","U","M"]} {"id":"taln-2007-long-019","title":"Rep\u00e9rage de sens et d\u00e9sambigu\u00efsation dans un contexte bilingue","abstract":"Les besoins de d\u00e9sambigu\u00efsation varient dans les diff\u00e9rentes applications du Traitement Automatique des Langues (TAL). Dans cet article, nous proposons une m\u00e9thode de d\u00e9sambigu\u00efsation lexicale op\u00e9ratoire dans un contexte bilingue et, par cons\u00e9quent, ad\u00e9quate pour la d\u00e9sambigu\u00efsation au sein d\u2019applications relatives \u00e0 la traduction. Il s\u2019agit d\u2019une m\u00e9thode contextuelle, qui combine des informations de cooccurrence avec des informations traductionnelles venant d\u2019un bitexte. L\u2019objectif est l\u2019\u00e9tablissement de correspondances de traduction au niveau s\u00e9mantique entre les mots de deux langues. Cette m\u00e9thode \u00e9tend les cons\u00e9quences de l\u2019hypoth\u00e8se contextuelle du sens dans un contexte bilingue, tout en admettant l\u2019existence d\u2019une relation de similarit\u00e9 s\u00e9mantique entre les mots de deux langues en relation de traduction. La mod\u00e9lisation de ces correspondances de granularit\u00e9 fine permet la d\u00e9sambigu\u00efsation lexicale de nouvelles occurrences des mots polys\u00e9miques de la langue source ainsi que la pr\u00e9diction de la traduction la plus ad\u00e9quate pour ces occurrences.","translation":["","Word Sense Disambiguation (WSD) needs vary greatly in different Natural Language Processing (NLP) applications. In this article, we propose a WSD method which operates in a bilingual context and is, thus, adequate for disambiguation in applications relative to translation. It is a contextual method which combines cooccurrence information with translation information found in a bitext. The goal is the establishment of translation correspondences at the sense level between the lexical items of two languages. This method extends the consequences of the contextual hypothesis in a bilingual framework assuming, at the same time, the existence of a semantic similarity relation between words of two languages being in a translation relation. The modelling of fine-grained correspondences allows for the disambiguation of new occurrences of the polysemous source language lexical items as well as for the prediction of the most adequate translation for those occurrences.","contextual disambiguation, semantic similarity, substitutability, translation"],"keyphrases":["traduction","similarit\u00e9 s\u00e9mantique","d\u00e9sambigu\u00efsation contextuelle","substituabilit\u00e9"],"prmu":["P","P","R","U"]} {"id":"taln-2007-long-020","title":"PrepLex : un lexique des pr\u00e9positions du fran\u00e7ais pour l\u2019analyse syntaxique","abstract":"PrepLex est un lexique des pr\u00e9positions du fran\u00e7ais. Il contient les informations utiles \u00e0 des syst\u00e8mes d\u2019analyse syntaxique. Il a \u00e9t\u00e9 construit en comparant puis fusionnant diff\u00e9rentes sources d\u2019informations lexicales disponibles. Ce lexique met \u00e9galement en \u00e9vidence les pr\u00e9positions ou classes de pr\u00e9positions qui apparaissent dans la d\u00e9finition des cadres de sous-cat\u00e9gorisation des ressources lexicales qui d\u00e9crivent la valence des verbes.","translation":["","PrepLex is a lexicon of French prepositions which provides all the information needed for parsing. It was built by comparing and merging several authoritative lexical sources. This lexicon also shows the prepositions or classes of prepositions that appear in verbs subcategorization frames.","prepositions, lexicon, parsing"],"keyphrases":["lexique","pr\u00e9positions","analyse syntaxique"],"prmu":["P","P","P"]} {"id":"taln-2007-long-021","title":"Comparaison du Lexique-Grammaire des verbes pleins et de DICOVALENCE : vers une int\u00e9gration dans le Lefff","abstract":"Cet article compare le Lexique-Grammaire des verbes pleins et DICOVALENCE, deux ressources lexicales syntaxiques pour le fran\u00e7ais d\u00e9velopp\u00e9es par des linguistes depuis de nombreuses ann\u00e9es. Nous \u00e9tudions en particulier les divergences et les empi\u00e8tements des mod\u00e8les lexicaux sous-jacents. Puis nous pr\u00e9sentons le Lefff , lexique syntaxique \u00e0 grande \u00e9chelle pour le TAL, et son propre mod\u00e8le lexical. Nous montrons que ce mod\u00e8le est \u00e0 m\u00eame d\u2019int\u00e9grer les informations lexicales pr\u00e9sentes dans le Lexique-Grammaire et dans DICOVALENCE. Nous pr\u00e9sentons les r\u00e9sultats des premiers travaux effectu\u00e9s en ce sens, avec pour objectif \u00e0 terme la constitution d\u2019un lexique syntaxique de r\u00e9f\u00e9rence pour le TAL.","translation":["","This paper compares the Lexicon-Grammar of full verbs and DICOVALENCE, two syntactic lexical resources for French developed by linguists for numerous years. We focus on differences and overlaps between both underlying lexical models. Then we introduce the Lefff , large-coverage syntactic lexicon for NLP, and its own lexical model. We show that this model is able to integrate lexical information present in the Lexicon-Grammar and in DICOVALENCE. We describe the results of the first work done in this direction, the long term goal being the consitution of a high-quality syntactic lexicon for NLP.","syntactic lexicon, Lexicon-Grammar, DICOVALENCE, Lefff"],"keyphrases":["Lexique-Grammaire","DICOVALENCE","Lefff","lexique syntaxique"],"prmu":["P","P","P","P"]} {"id":"taln-2007-long-022","title":"Dictionnaires \u00e9lectroniques et \u00e9tiquetage syntactico-s\u00e9mantique","abstract":"Nous pr\u00e9sentons dans cet article le prototype d\u2019un syst\u00e8me d\u2019\u00e9tiquetage syntactico-s\u00e9mantique des mots qui utilise comme principales ressources linguistiques diff\u00e9rents dictionnaires du laboratoire Lexiques, Dictionnaires, Informatique (LDI). Dans un premier temps, nous mentionnons des travaux sur le m\u00eame sujet. Dans un deuxi\u00e8me temps, nous faisons la pr\u00e9sentation g\u00e9n\u00e9rale du syst\u00e8me. Dans un troisi\u00e8me temps, nous exposons les principales caract\u00e9ristiques des dictionnaires syntactico-s\u00e9mantiques utilis\u00e9s. Dans un quatri\u00e8me temps, nous d\u00e9taillons un exemple de traitement.","translation":["","We present in this paper a syntactico-semantics tagger prototype which uses as first linguistic resources various dictionaries elaborated at LDI. First, we mention several related works. Second, we present the overall sketch of the system. Third, we expose the main characteristics of the syntactico-semantic dictionaries implied in the processes. Last, using an example, we explicit the main stages of the analysis.","word sense disambiguation (WSD), dictionnary, LMF, XML, XPATH"],"keyphrases":["dictionnaire","\u00e9tiqueteur s\u00e9mantique","LMF","XML","XPATH"],"prmu":["P","U","U","U","U"]} {"id":"taln-2007-long-023","title":"Un analyseur hybride pour la d\u00e9tection et la correction des erreurs cach\u00e9es s\u00e9mantiques en langue arabe","abstract":"Cet article s\u2019int\u00e9resse au probl\u00e8me de la d\u00e9tection et de la correction des erreurs cach\u00e9es s\u00e9mantiques dans les textes arabes. Ce sont des erreurs orthographiques produisant des mots lexicalement valides mais invalides s\u00e9mantiquement. Nous commen\u00e7ons par d\u00e9crire le type d\u2019erreur s\u00e9mantique auquel nous nous int\u00e9ressons. Nous exposons par la suite l\u2019approche adopt\u00e9e qui se base sur la combinaison de plusieurs m\u00e9thodes, tout en d\u00e9crivant chacune de ces m\u00e9thodes. Puis, nous \u00e9voquons le contexte du travail qui nous a men\u00e9 au choix de l\u2019architecture multi-agent pour l\u2019impl\u00e9mentation de notre syst\u00e8me. Nous pr\u00e9sentons et commentons vers la fin les r\u00e9sultats de l\u2019\u00e9valuation dudit syst\u00e8me.","translation":["","In this paper, we address the problem of detecting and correcting hidden semantic spelling errors in Arabic texts. Hidden semantic spelling errors are morphologically valid words causing invalid semantic irregularities. After the description of this type of errors, we propose and argue the combined method that we adopted in this work to realize a hybrid spell checker for detecting and correcting hidden spelling errors. Afterward, we present the context of this work and show the multi-agent architecture of our system. Finally, we expose and comment the obtained results.","hidden error, semantic error, detection, correction, multi-agent system, Arabic language"],"keyphrases":["d\u00e9tection","correction","erreur cach\u00e9e","langue arabe","erreur s\u00e9mantique","syst\u00e8me multi-agent"],"prmu":["P","P","P","P","P","R"]} {"id":"taln-2007-long-024","title":"R\u00e9solution de la r\u00e9f\u00e9rence dans des dialogues homme-machine : \u00e9valuation sur corpus de deux approches symbolique et probabiliste","abstract":"Cet article d\u00e9crit deux approches, l\u2019une num\u00e9rique, l\u2019autre symbolique, traitant le probl\u00e8me de la r\u00e9solution de la r\u00e9f\u00e9rence dans un cadre de dialogue homme-machine. L\u2019analyse des r\u00e9sultats obtenus sur le corpus MEDIA montre la compl\u00e9mentarit\u00e9 des deux syst\u00e8mes d\u00e9velopp\u00e9s : robustesse aux erreurs et hypoth\u00e8ses multiples pour l\u2019approche num\u00e9rique ; mod\u00e9lisation de ph\u00e9nom\u00e8nes complexes et interpr\u00e9tation compl\u00e8te pour l\u2019approche symbolique.","translation":["","This paper presents two approaches, one symbolic, the other one probabilistic, for processing reference resolution in the framework of human-machine spoken dialogues. The results obtained by both systems on the French MEDIA corpus points out the complementarity of the two approaches : robustness and multiple hypotheses generation for the probabilistic one ; global interpretation and modeling of complex phenomenon for the symbolic one.","human-machine dialogue, reference resolution, dialogue understanding, evaluation"],"keyphrases":["r\u00e9solution de la r\u00e9f\u00e9rence","dialogue homme-machine","\u00e9valuation","compr\u00e9hension dans le dialogue"],"prmu":["P","P","P","M"]} {"id":"taln-2007-long-025","title":"Annotation pr\u00e9cise du fran\u00e7ais en s\u00e9mantique de r\u00f4les par projection cross-linguistique","abstract":"Dans le paradigme FrameNet, cet article aborde le probl\u00e8me de l\u2019annotation pr\u00e9cise et automatique de r\u00f4les s\u00e9mantiques dans une langue sans lexique FrameNet existant. Nous \u00e9valuons la m\u00e9thode propos\u00e9e par Pad\u00f3 et Lapata (2005, 2006), fond\u00e9e sur la projection de r\u00f4les et appliqu\u00e9e initialement \u00e0 la paire anglais-allemand. Nous testons sa g\u00e9n\u00e9ralisabilit\u00e9 du point de vue (a) des langues, en l'appliquant \u00e0 la paire (anglais-fran\u00e7ais) et (b) de la qualit\u00e9 de la source, en utilisant une annotation automatique du c\u00f4t\u00e9 anglais. Les exp\u00e9riences montrent des r\u00e9sultats \u00e0 la hauteur de ceux obtenus pour l'allemand, nous permettant de conclure que cette approche pr\u00e9sente un grand potentiel pour r\u00e9duire la quantit\u00e9 de travail n\u00e9cessaire \u00e0 la cr\u00e9ation de telles ressources dans de nombreuses langues.","translation":["","This paper considers the task of the automatic induction of role-semantic annotations for new languages with high precision. To this end we test the generalisability of the language-independent, projection-based annotation framework introduced by Pad\u00f3 and Lapata (2005, 2006) by (a) applying it to a new, more distant, language pair (English-French), and (b), using automatic, and thus noisy, input annotation. We show that even under these conditions, high-quality role annotations for French can be obtained that rival existing results for German. We conclude that the framework has considerable potential in reducing the manual effort involved in creating role-semantic resources for a wider range of languages.","multilingual, FrameNet, automatic semantic annotation, lexical semantics, annotation projection, semantic roles"],"keyphrases":["FrameNet","r\u00f4les s\u00e9mantiques","multilingue","annotation s\u00e9mantique automatique","s\u00e9mantique lexicale","projection d\u2019annotation de r\u00f4les"],"prmu":["P","P","U","R","M","M"]} {"id":"taln-2007-long-026","title":"\u00c9laboration automatique d\u2019un dictionnaire de cooccurrences grand public","abstract":"Antidote RX, un logiciel d\u2019aide \u00e0 la r\u00e9daction grand public, comporte un nouveau dictionnaire de 800 000 cooccurrences, \u00e9labor\u00e9 essentiellement automatiquement. Nous l\u2019avons cr\u00e9\u00e9 par l\u2019analyse syntaxique d\u00e9taill\u00e9e d\u2019un vaste corpus et par la s\u00e9lection automatique des cooccurrences les plus pertinentes \u00e0 l\u2019aide d\u2019un test statistique, le rapport de vraisemblance. Chaque cooccurrence est illustr\u00e9e par des exemples de phrases \u00e9galement tir\u00e9s du corpus automatiquement. Les cooccurrences et les exemples extraits ont \u00e9t\u00e9 r\u00e9vis\u00e9s par des linguistes. Nous examinons les choix d\u2019interface que nous avons faits pour pr\u00e9senter ces donn\u00e9es complexes \u00e0 un public non sp\u00e9cialis\u00e9. Enfin, nous montrons comment nous avons int\u00e9gr\u00e9 les cooccurrences au correcteur d\u2019Antidote pour am\u00e9liorer ses performances.","translation":["","Antidote is a complete set of software reference tools for writing French that includes an advanced grammar checker. Antidote RX boasts a new dictionary of 800,000 cooccurrences created mostly automatically. The approach we chose is based on the syntactic parsing of a large corpus and the automatic selection of the most relevant co-occurrences using a statistical test, the log-likelihood ratio. Example sentences illustrating each cooccurrence in context are also automatically selected. The extracted co-occurrences and examples were revised by linguists. We examine the various choices that were made to present this complex data to a non-specialized public. We then show how we use the cooccurrence data to improve the performance of Antidote\u2019s grammar checker.","antidote, co-occurrences, collocations, corpus, parser, grammar checker"],"keyphrases":["cooccurrences","antidote","corpus","correcteur","collocations","analyseur"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2007-long-027","title":"Les vecteurs conceptuels, un outil compl\u00e9mentaire aux r\u00e9seaux lexicaux","abstract":"Fr\u00e9quemment utilis\u00e9s dans le Traitement Automatique des Langues Naturelles, les r\u00e9seaux lexicaux font aujourd\u2019hui l\u2019objet de nombreuses recherches. La plupart d\u2019entre eux, et en particulier le plus c\u00e9l\u00e8bre WordNet, souffrent du manque d\u2019informations syntagmatiques mais aussi d\u2019informations th\u00e9matiques (\u00ab probl\u00e8me du tennis \u00bb). Cet article pr\u00e9sente les vecteurs conceptuels qui permettent de repr\u00e9senter les id\u00e9es contenues dans un segment textuel quelconque et permettent d\u2019obtenir une vision continue des th\u00e9matiques utilis\u00e9es gr\u00e2ce aux distances calculables entre eux. Nous montrons leurs caract\u00e9ristiques et en quoi ils sont compl\u00e9mentaires des r\u00e9seaux lexico-s\u00e9mantiques. Nous illustrons ce propos par l\u2019enrichissement des donn\u00e9es de WordNet par des vecteurs conceptuels construits par \u00e9mergence.","translation":["","There is currently much research in natural language processing focusing on lexical networks. Most of them, in particular the most famous, WordNet, lack syntagmatic information and but also thematic information (\u00ab Tennis Problem \u00bb). This article describes conceptual vectors that allows the representation of ideas in any textual segment and offers a continuous vision of related thematics, based on the distances between these thematics. We show the characteristics of conceptual vectors and explain how they complement lexico-semantic networks. We illustrate this purpose by adding conceptual vectors to WordNet by emergence.","WordNet, conceptual vectors, lexical information, thematic information"],"keyphrases":["vecteurs conceptuels","WordNet","informations th\u00e9matiques","informations lexicales"],"prmu":["P","P","P","R"]} {"id":"taln-2007-long-028","title":"Alignements monolingues avec d\u00e9placements","abstract":"Ce travail pr\u00e9sente une application d\u2019alignement monolingue qui r\u00e9pond \u00e0 une probl\u00e9matique pos\u00e9e par la critique g\u00e9n\u00e9tique textuelle, une \u00e9cole d\u2019\u00e9tudes litt\u00e9raires qui s\u2019int\u00e9resse \u00e0 la gen\u00e8se textuelle en comparant les diff\u00e9rentes versions d\u2019une oeuvre. Ceci n\u00e9cessite l\u2019identification des d\u00e9placements, cependant, le probl\u00e8me devient ainsi NP-complet. Notre algorithme heuristique est bas\u00e9 sur la reconnaissance des homologies entre s\u00e9quences de caract\u00e8res. Nous pr\u00e9sentons une validation exp\u00e9rimentale et montrons que notre logiciel obtient de bons r\u00e9sultats ; il permet notamment l\u2019alignement de livres entiers.","translation":["","This paper presents a monolingual alignment application that addresses a problem which occurs in textual genetic criticism, a humanities discipline of literary studies which compares texts\u2019 versions to understand texts\u2019 genesis. It requires the move detection, but this characteristic makes the problem NP-complete. Our heuristic algorithm is based on pattern matching in character sequences. We present an experimental validation where we show that our application obtains good results ; in particular it enables whole book alignment.","monolingual alignment, edit distance with moves, textual genetic criticism"],"keyphrases":["alignement monolingue","critique g\u00e9n\u00e9tique textuelle","distance d\u2019\u00e9dition avec d\u00e9placements"],"prmu":["P","P","M"]} {"id":"taln-2007-long-029","title":"Confondre le coupable : corrections d\u2019un lexique sugg\u00e9r\u00e9es par une grammaire","abstract":"Le succ\u00e8s de l\u2019analyse syntaxique d\u2019une phrase d\u00e9pend de la qualit\u00e9 de la grammaire sous-jacente mais aussi de celle du lexique utilis\u00e9. Une premi\u00e8re \u00e9tape dans l\u2019am\u00e9lioration des lexiques consiste \u00e0 identifier les entr\u00e9es lexicales potentiellement erron\u00e9es, par exemple en utilisant des techniques de fouilles d\u2019erreurs sur corpus (Sagot & Villemonte de La Clergerie, 2006). Nous explorons ici l\u2019\u00e9tape suivante : la suggestion de corrections pour les entr\u00e9es identifi\u00e9es. Cet objectif est atteint au travers de r\u00e9analyses des phrases rejet\u00e9es \u00e0 l\u2019\u00e9tape pr\u00e9c\u00e9dente, apr\u00e8s modification des informations port\u00e9es par les entr\u00e9es suspect\u00e9es. Un calcul statistique sur les nouveaux r\u00e9sultats permet ensuite de mettre en valeur les corrections les plus pertinentes.","translation":["","Successful parsing depends on the quality of the underlying grammar but also on the quality of the lexicon. A first step towards the improvement of lexica consists in identifying potentially erroneous lexical entries, for instance by using error mining techniques on corpora (Sagot & Villemonte de La Clergerie, 2006). we explores the next step, namely the suggestion of corrections for those entries. This is achieved by parsing the sentences rejected at the previous step anew, after modifying the information carried by the suspected entries. Afterwards, a statistical computation on the parsing results exhibits the most relevant corrections.","parsing, lexicon, machine learning, correction"],"keyphrases":["correction","lexique","analyse syntaxique","apprentissage"],"prmu":["P","P","P","U"]} {"id":"taln-2007-long-030","title":"Ambigu\u00eft\u00e9 de port\u00e9e et approche fonctionnelle des grammaires d\u2019arbres adjoints","abstract":"En s\u2019appuyant sur la notion d\u2019arbre de d\u00e9rivation des Grammaires d\u2019Arbres Adjoints (TAG), cet article propose deux objectifs : d\u2019une part rendre l\u2019interface entre syntaxe et s\u00e9mantique ind\u00e9pendante du langage de repr\u00e9sentation s\u00e9mantique utilis\u00e9, et d\u2019autre part offrir un noyau qui permette le traitement s\u00e9mantique des ambigu\u00eft\u00e9s de port\u00e9e de quantificateurs sans utiliser de langage de repr\u00e9sentation sous-sp\u00e9cifi\u00e9e.","translation":["","Relying on the derivation tree of the Tree Adjoining Grammars (TAG), this paper has to goals : on the one hand, to make the syntax\/semantics interface independant from the semantic representation language, and on the other hand to propose an architecture that enables the modeling of scope ambguities without using underspecified representation formalisms.","syntax\/semantics interface, formal semantics, tree adjoining grammars, categorial grammars"],"keyphrases":["grammaires d\u2019arbres adjoints","interface syntaxe et s\u00e9mantique","s\u00e9mantique formelle","grammaires cat\u00e9gorielles"],"prmu":["P","R","M","M"]} {"id":"taln-2007-long-031","title":"\u00c9valuer SYNLEX","abstract":"SYNLEX est un lexique syntaxique extrait semi-automatiquement des tables du LADL. Comme les autres lexiques syntaxiques du fran\u00e7ais disponibles et utilisables pour le TAL (LEFFF, DICOVALENCE), il est incomplet et n\u2019a pas fait l\u2019objet d\u2019une \u00e9valuation permettant de d\u00e9terminer son rappel et sa pr\u00e9cision par rapport \u00e0 un lexique de r\u00e9f\u00e9rence. Nous pr\u00e9sentons une approche qui permet de combler au moins partiellement ces lacunes. L\u2019approche s\u2019appuie sur les m\u00e9thodes mises au point en acquisition automatique de lexique. Un lexique syntaxique distinct de SYNLEX est acquis \u00e0 partir d\u2019un corpus de 82 millions de mots puis utilis\u00e9 pour valider et compl\u00e9ter SYNLEX. Le rappel et la pr\u00e9cision de cette version am\u00e9lior\u00e9e de SYNLEX sont ensuite calcul\u00e9s par rapport \u00e0 un lexique de r\u00e9f\u00e9rence extrait de DICOVALENCE.","translation":["","SYNLEX is a syntactic lexicon extracted semi-automatically from the LADL tables. Like the other syntactic lexicons for French which are both available and usable for NLP (LEFFF, DICOVALENCE), it is incomplete and its recall and precision wrt a gold standard are unknown. We present an approach which goes some way towards adressing these shortcomings. The approach draws on methods used for the automatic acquisition of syntactic lexicons. First, a new syntactic lexicon is acquired from an 82 million words corpus. This lexicon is then used to validate and extend SYNLEX. Finally, the recall and precision of the extended version of SYNLEX is computed based on a gold standard extracted from DICOVALENCE.","syntactic lexicon, evaluation"],"keyphrases":["\u00e9valuation","lexique syntaxique"],"prmu":["P","P"]} {"id":"taln-2007-long-032","title":"Analyse automatique vs analyse interactive : un cercle vertueux pour la voyellation, l\u2019\u00e9tiquetage et la lemmatisation de l\u2019arabe","abstract":"Comment produire de fa\u00e7on massive des textes annot\u00e9s dans des conditions d\u2019efficacit\u00e9, de reproductibilit\u00e9 et de co\u00fbt optimales ? Plut\u00f4t que de corriger les sorties d\u2019analyse automatique moyennant des outils d\u2019\u00e9ditions \u00e9ventuellement d\u00e9di\u00e9s, ainsi qu\u2019il estcommun\u00e9ment pr\u00e9conis\u00e9, nous proposons de recourir \u00e0 des outils d\u2019analyse interactive o\u00f9 la correction manuelle est au fur et \u00e0 mesure prise en compte par l\u2019analyse automatique. Posant le probl\u00e8me de l\u2019\u00e9valuation de ces outils interactifs et du rendement de leur ergonomie linguistique, et proposant pour cela une m\u00e9trique fond\u00e9e sur le calcul du co\u00fbt qu\u2019exigent ces corrections exprim\u00e9 en nombre de manipulations (frappe au clavier, clic de souris, etc.), nous montrons, au travers d\u2019un protocole exp\u00e9rimental simple orient\u00e9 vers la voyellation, l\u2019\u00e9tiquetage et la lemmatisation de l\u2019arabe, que paradoxalement, les meilleures performances interactives d\u2019un syst\u00e8me ne sont pas toujours corr\u00e9l\u00e9es \u00e0 ses meilleures performances automatiques. Autrement dit, que le comportement linguistique automatique le plus performant n\u2019est pas toujours celui qui assure, d\u00e8s lors qu\u2019il y a contributions manuelles, le meilleur rendement interactif.","translation":["","How can we massively produce annotated texts, with optimal efficiency, reproducibility and cost? Rather than correcting the output of automatic analysis by means of possibly dedicated tools, as is currently suggested, we find it more advisable to use interactive tools for analysis, where manual editing is fed in real time into automatic analysis. We address the issue of evaluating these tools, along with their performance in terms of linguistic ergonomy, and propose a metric for calculating the cost of editing as a number of keystrokes and mouse clicks. We show, by way of a simple protocol addressing Arabic vowellation, tagging and lemmatization, that, surprisingly, the best interactive performance of a system is not always correlated to its best automatic performance. In other words, the most performing automatic linguistic behavior of a system is not always yielding the best interactive behavior, when manual editing is involved.","automatic versus interactive analysis of Arabic, proposal of metrics for evaluating the interactive analysis, design and implementation of software for interactive vowellation, lemmatisation and POS-tagging of Arabic, evaluation"],"keyphrases":["voyellation","lemmatisation","analyse automatique vs interactive","annotation s\u00e9quentielle","parall\u00e8le","\u00e9tiquetage de l\u2019arabe","m\u00e9trique pour l\u2019\u00e9valuation de l\u2019analyse interactive"],"prmu":["P","P","R","M","U","R","R"]} {"id":"taln-2007-long-033","title":"\u00c9valuation des stades de d\u00e9veloppement en fran\u00e7ais langue \u00e9trang\u00e8re","abstract":"Cet article d\u00e9crit un syst\u00e8me pour d\u00e9finir et \u00e9valuer les stades de d\u00e9veloppement en fran\u00e7ais langue \u00e9trang\u00e8re. L\u2019\u00e9valuation de tels stades correspond \u00e0 l\u2019identification de la fr\u00e9quence de certains ph\u00e9nom\u00e8nes lexicaux et grammaticaux dans la production des apprenants et comment ces fr\u00e9quences changent en fonction du temps. Les probl\u00e8mes \u00e0 r\u00e9soudre dans cette d\u00e9marche sont triples : identifier les attributs les plus r\u00e9v\u00e9lateurs, d\u00e9cider des points de s\u00e9paration entre les stades et \u00e9valuer le degr\u00e9 d\u2019efficacit\u00e9 des attributs et de la classification dans son ensemble. Le syst\u00e8me traite ces trois probl\u00e8mes. Il se compose d\u2019un analyseur morphosyntaxique, appel\u00e9 Direkt Profil, auquel nous avons reli\u00e9 un module d\u2019apprentissage automatique. Dans cet article, nous d\u00e9crivons les id\u00e9es qui ont conduit au d\u00e9veloppement du syst\u00e8me et son int\u00e9r\u00eat. Nous pr\u00e9sentons ensuite le corpus que nous avons utilis\u00e9 pour d\u00e9velopper notre analyseur morphosyntaxique. Enfin, nous pr\u00e9sentons les r\u00e9sultats sensiblement am\u00e9lior\u00e9s des classificateurs compar\u00e9 aux travaux pr\u00e9c\u00e9dents (Granfeldt et al., 2006). Nous pr\u00e9sentons \u00e9galement une m\u00e9thode de s\u00e9lection de param\u00e8tres afin d\u2019identifier les attributs grammaticaux les plus appropri\u00e9s.","translation":["","This paper describes a system to define and evaluate stages of development in second language French. The task of identifying such stages can be formulated as identifying the frequency of some lexical and grammatical features in the learners\u2019 production and how they vary over time. The problems in this procedure are threefold : identify the relevant features, decide on cutoff points for the stages, and evaluate the degree of efficiency of the attributes and of the overall classification. The system addresses these three problems. It consists of a morphosyntactic analyzer called Direkt Profil and a machine-learning module connected to it. We first describe the usefulness and rationale behind the development of the system. We then present the corpus we used to develop our morphosyntactic analyzer called Direkt Profil. Finally, we present new and substantially improved results on training machine-learning classifiers compared to previous experiments (Granfeldt et al., 2006). We also introduce a method of attribute selection in order to identify the most relevant grammatical features.","morphosyntactic parser, machine learning, language acquisition"],"keyphrases":["analyseur morphosyntaxique","apprentissage automatique","acquisition des langues"],"prmu":["P","P","M"]} {"id":"taln-2007-long-034","title":"Apprentissage non supervis\u00e9 de familles morphologiques par classification ascendante hi\u00e9rarchique","abstract":"Cet article pr\u00e9sente un syst\u00e8me d\u2019acquisition de familles morphologiques qui proc\u00e8de par apprentissage non supervis\u00e9 \u00e0 partir de listes de mots extraites de corpus de textes. L\u2019approche consiste \u00e0 former des familles par groupements successifs, similairement aux m\u00e9thodes de classification ascendante hi\u00e9rarchique. Les crit\u00e8res de regroupement reposent sur la similarit\u00e9 graphique des mots ainsi que sur des listes de pr\u00e9fixes et de paires de suffixes acquises automatiquement \u00e0 partir des corpus trait\u00e9s. Les r\u00e9sultats obtenus pour des corpus de textes de sp\u00e9cialit\u00e9 en fran\u00e7ais et en anglais sont \u00e9valu\u00e9s \u00e0 l\u2019aide de la base CELEX et de listes de r\u00e9f\u00e9rence construites manuellement. L\u2019\u00e9valuation d\u00e9montre les bonnes performances du syst\u00e8me, ind\u00e9pendamment de la langue, et ce malgr\u00e9 la technicit\u00e9 et la complexit\u00e9 morphologique du vocabulaire trait\u00e9.","translation":["","This article describes a method for the unsupervised acquisition of morphological families using lists of words extracted from text corpora. It proceeds by incrementally grouping words in families, similarly to agglomerative hierarchical clustering methods. Clustering criteria rely on graphical similarity as well as lists of prefixes and suffix pairs which are automatically acquired from the target corpus. Results obtained for specialised text corpora in French and English are evaluated using the CELEX database and manually built reference lists. The evaluation shows that the system perfoms well for both languages, despite the morphological complexity of the technical vocabulary used for the evaluation.","morphological families, clustering, unsupervised learning"],"keyphrases":["apprentissage non supervis\u00e9","familles morphologiques","classification"],"prmu":["P","P","P"]} {"id":"taln-2007-long-035","title":"Encha\u00eenements verbaux \u2013 \u00e9tude sur le temps et l'aspect utilisant des techniques d\u2019apprentissage non supervis\u00e9","abstract":"L\u2019apprentissage non supervis\u00e9 permet la d\u00e9couverte de cat\u00e9gories initialement inconnues. Les techniques actuelles permettent d'explorer des s\u00e9quences de ph\u00e9nom\u00e8nes alors qu'on a tendance \u00e0 se focaliser sur l'analyse de ph\u00e9nom\u00e8nes isol\u00e9s ou sur la relation entre deux ph\u00e9nom\u00e8nes. Elles offrent ainsi de pr\u00e9cieux outils pour l'analyse de donn\u00e9es organis\u00e9es en s\u00e9quences, et en particulier, pour la d\u00e9couverte de structures textuelles. Nous pr\u00e9sentons ici les r\u00e9sultats d\u2019une premi\u00e8re tentative de les utiliser pour inspecter les suites de verbes provenant de phrases de r\u00e9cits d\u2019accident de la route. Les verbes \u00e9taient encod\u00e9s comme paires (cat, temps), o\u00f9 cat repr\u00e9sente la cat\u00e9gorie aspectuelle d\u2019un verbe, et temps son temps grammatical. L\u2019analyse, bas\u00e9e sur une approche originale, a fourni une classification des encha\u00eenements de deux verbes successifs en quatre groupes permettant de segmenter les textes. Nous donnons ici une interpr\u00e9tation de ces groupes \u00e0 partir de statistiques sur des annotations s\u00e9mantiques ind\u00e9pendantes.","translation":["","Unsupervised learning allows the discovery of initially unknown categories. Current techniques make it possible to explore sequences of phenomena whereas one tends to focus on the analysis of isolated phenomena or on the relation between two phenomena. They offer thus invaluable tools for the analysis of sequential data, and in particular, for the discovery of textual structures. We report here the results of a first attempt at using them for inspecting sequences of verbs coming from sentences of French accounts of road accidents. Verbs were encoded as pairs (cat, tense) \u2013 where cat is the aspectual category of a verb, and tense its grammatical tense. The analysis, based on an original approach, provided a classification of the links between two successive verbs into four distinct groups (clusters) allowing texts segmentation. We give here an interpretation of these clusters by using statistics on semantic annotations independent of the training process.","time, tense, aspect, semantics, unsupervised learning, data mining"],"keyphrases":["temps","aspect","apprentissage non supervis\u00e9","s\u00e9mantique","fouille de donn\u00e9es"],"prmu":["P","P","P","P","M"]} {"id":"taln-2007-long-036","title":"D-STAG : un formalisme pour le discours bas\u00e9 sur les TAG synchrones","abstract":"Nous proposons D-STAG, un formalisme pour le discours qui utilise les TAG synchrones. Les analyses s\u00e9mantiques produites par D-STAG sont des structures de discours hi\u00e9rarchiques annot\u00e9es de relations de discours coordonnantes ou subordonnantes. Elles sont compatibles avec les structures de discours produites tant en RST qu\u2019en SDRT. Les relations de discours coordonnantes et subordonnantes sont mod\u00e9lis\u00e9es respectivement par les op\u00e9rations de substitution et d\u2019adjonction introduites en TAG.","translation":["","We propose D-STAG, a framework which uses Synchronous TAG for discourse. D-STAG semantic analyses are hierarchical discourse structures richly annotated with coordinating and subordinating discourse relations. They are compatible both with RST and SDRT discourse structures. Coordinating and subordinating relations are respectively modeled with the TAG substitution and adjunction operations.","discourse, (synchronous) tree adjoining grammars, syntax\/semantic interface"],"keyphrases":["discours","grammaires d\u2019arbres adjoints (synchrones)","interface syntaxe\/s\u00e9mantique"],"prmu":["P","M","M"]} {"id":"taln-2007-long-037","title":"Collocation translation based on sentence alignment and parsing","abstract":"Bien que de nombreux efforts aient \u00e9t\u00e9 d\u00e9ploy\u00e9s pour extraire des collocations \u00e0 partir de corpus de textes, seule une minorit\u00e9 de travaux se pr\u00e9occupent aussi de rendre le r\u00e9sultat de l\u2019extraction pr\u00eat \u00e0 \u00eatre utilis\u00e9 dans les applications TAL qui pourraient en b\u00e9n\u00e9ficier, telles que la traduction automatique. Cet article d\u00e9crit une m\u00e9thode pr\u00e9cise d\u2019identification de la traduction des collocations dans un corpus parall\u00e8le, qui pr\u00e9sente les avantages suivants : elle peut traiter des collocation flexibles (et pas seulement fig\u00e9es) ; elle a besoin de ressources limit\u00e9es et d\u2019un pouvoir de calcul raisonnable (pas d\u2019alignement complet, pas d\u2019entra\u00eenement) ; elle peut \u00eatre appliqu\u00e9e \u00e0 plusieurs paires des langues et fonctionne m\u00eame en l\u2019absence de dictionnaires bilingues. La m\u00e9thode est bas\u00e9e sur l\u2019information syntaxique provenant du parseur multilingue Fips. L\u2019\u00e9valuation effectu\u00e9e sur 4000 collocations de type verbe-objet correspondant \u00e0 plusieurs paires de langues a montr\u00e9 une pr\u00e9cision moyenne de 89.8% et une couverture satisfaisante (70.9%). Ces r\u00e9sultats sont sup\u00e9rieurs \u00e0 ceux enregistr\u00e9s dans l\u2019\u00e9valuation d\u2019autres m\u00e9thodes de traduction de collocations.","translation":["","To date, substantial efforts have been devoted to the extraction of collocations from text corpora. However, only a few works deal with the subsequent processing of results in order for these to be successfully integrated into the NLP applications that could benefit from them (e.g., machine translation). This paper presents an accurate method for identifying translation equivalents of collocations in parallel text, whose main strengths are that : it can handle flexible (not only rigid) collocations ; it only requires limited resources and computation (no full alignment, no training needed) ; it deals with several language pairs, and it can even work when no bilingual dictionary is available. The method relies heavily on syntactic information provided by the Fips multilingual parser. Evaluation performed on 4000 verb-object collocations for different language pairs showed an average accuracy of 89.8% and a reasonable coverage (70.9%). These figures are higher that those reported in the evaluation of related work in collocation translation.","collocation translation, collocation extraction, parsing, text alignment"],"keyphrases":["parsing","traduction de collocations","extraction de collocations","alignement de textes"],"prmu":["P","P","R","R"]} {"id":"taln-2007-long-038","title":"Utilisation d\u2019une approche bas\u00e9e sur la recherche cross-lingue d\u2019information pour l\u2019alignement de phrases \u00e0 partir de textes bilingues Arabe-Fran\u00e7ais","abstract":"L\u2019alignement de phrases \u00e0 partir de textes bilingues consiste \u00e0 reconna\u00eetre les phrases qui sont traductions les unes des autres. Cet article pr\u00e9sente une nouvelle approche pour aligner les phrases d\u2019un corpus parall\u00e8le. Cette approche est bas\u00e9e sur la recherche crosslingue d\u2019information et consiste \u00e0 construire une base de donn\u00e9es des phrases du texte cible et consid\u00e9rer chaque phrase du texte source comme une requ\u00eate \u00e0 cette base. La recherche crosslingue utilise un analyseur linguistique et un moteur de recherche. L\u2019analyseur linguistique traite aussi bien les documents \u00e0 indexer que les requ\u00eates et produit un ensemble de lemmes normalis\u00e9s, un ensemble d\u2019entit\u00e9s nomm\u00e9es et un ensemble de mots compos\u00e9s avec leurs \u00e9tiquettes morpho-syntaxiques. Le moteur de recherche construit les fichiers invers\u00e9s des documents en se basant sur leur analyse linguistique et retrouve les documents pertinents \u00e0 partir de leur indexes. L\u2019aligneur de phrases a \u00e9t\u00e9 \u00e9valu\u00e9 sur un corpus parall\u00e8le Arabe-Fran\u00e7ais et les r\u00e9sultats obtenus montrent que 97% des phrases ont \u00e9t\u00e9 correctement align\u00e9es.","translation":["","Sentence alignment consists in identifying correspondences between sentences in one language and sentences in the other language. This paper describes a new approach to aligning sentences from a parallel corpora. This approach is based on cross-language information retrieval and consists in building a database of sentences of the target text and considering each sentence of the source text as a query to that database. Cross-language information retrieval uses a linguistic analyzer and a search engine. The linguistic analyzer processes both documents to be indexed and queries to produce a set of normalized lemmas, a set of named entities and a set of nominal compounds with their morpho-syntactic tags. The search engine builds the inverted files of the documents on the basis of their linguistic analysis and retrieves the relevant documents from the indexes. An evaluation of the sentence aligner was performed based on a Arabic to French parallel corpus and results show that 97% of sentences were correctly aligned.","sentence alignment, parallel corpora, cross-lingual information retrieval"],"keyphrases":["recherche cross-lingue d\u2019information","alignement de phrases","corpus parall\u00e8le"],"prmu":["P","P","P"]} {"id":"taln-2007-poster-001","title":"D\u00e9sambigu\u00efsation lexicale automatique : s\u00e9lection automatique d\u2019indices","abstract":"Nous exposons dans cet article une exp\u00e9rience de s\u00e9lection automatique des indices du contexte pour la d\u00e9sambigu\u00efsation lexicale automatique. Notre point de vue est qu\u2019il est plus judicieux de privil\u00e9gier la pertinence des indices du contexte plut\u00f4t que la sophistication des algorithmes de d\u00e9sambigu\u00efsation utilis\u00e9s. La s\u00e9lection automatique des indices par le biais d\u2019un algorithme g\u00e9n\u00e9tique am\u00e9liore significativement les r\u00e9sultats obtenus dans nos exp\u00e9riences pr\u00e9c\u00e9dentes tout en confortant des observations que nous avions faites sur la nature et la r\u00e9partition des indices les plus pertinents.","translation":["","This article describes an experiment on automatic features selection for word sense disambiguation. Our point of view is that word sense disambiguation success is more dependent on the features used to represent the context in which an ambiguous word occurs than on the sophistication of the learning techniques used. Automatic features selection using a genetic algorithm improves significantly our last experiment bests results and is consistent with the observations we have made on the nature and space distribution of the most reliable features.","word sense disambiguation, sense tagged corpora, cooccurrences, features selection, genetic algorithms"],"keyphrases":["d\u00e9sambigu\u00efsation lexicale automatique","algorithmes g\u00e9n\u00e9tiques","corpus s\u00e9mantiquement \u00e9tiquet\u00e9","cooccurrences","s\u00e9lection d\u2019indices"],"prmu":["P","P","U","U","R"]} {"id":"taln-2007-poster-002","title":"Repr\u00e9senter la dynamique \u00e9nonciative et modale de textes","abstract":"Nous proposons d\u2019exposer ici une m\u00e9thodologie d\u2019analyse et de repr\u00e9sentation d\u2019une des composantes de la structuration des textes, celle li\u00e9e \u00e0 la notion de prise en charge \u00e9nonciative. Nous mettons l\u2019accent sur la structure hi\u00e9rarchis\u00e9e des segments textuels qui en r\u00e9sulte ; nous la repr\u00e9sentons d\u2019une part sous forme d\u2019arbre et d\u2019autre part sous forme de graphe. Ce dernier permet d\u2019appr\u00e9hender la dynamique \u00e9nonciative et modale de textes comme un cheminement qui s\u2019op\u00e8re entre diff\u00e9rents niveaux de discours dans un texte au fur et \u00e0 mesure de sa lecture syntagmatique.","translation":["","We propose a methodological framework for analyzing and representing the concept of commitment, which is one of the features characterizing textual structure. We emphasize the hierarchical structure of textual segments commitment conveys to. We represent it first as a tree and then as a graph. The latter enables us to access the modal and enunciative textual dynamics, as it shows the path followed through different discursive levels during the syntagmatic reading of a text.","textual linguistics, enunciation, semantical representation"],"keyphrases":["\u00e9nonciation","linguistique textuelle","repr\u00e9sentation s\u00e9mantique"],"prmu":["P","M","M"]} {"id":"taln-2007-poster-003","title":"Segmentation en super-chunks","abstract":"Depuis l\u2019analyseur d\u00e9velopp\u00e9 par Harris \u00e0 la fin des ann\u00e9es 50, les unit\u00e9s polylexicales ont peu \u00e0 peu \u00e9t\u00e9 int\u00e9gr\u00e9es aux analyseurs syntaxiques. Cependant, pour la plupart, elles sont encore restreintes aux mots compos\u00e9s qui sont plus stables et moins nombreux. Toutefois, la langue est remplie d\u2019expressions semi-fig\u00e9es qui forment \u00e9galement des unit\u00e9s s\u00e9mantiques : les expressions adverbiales et les collocations. De m\u00eame que pour les mots compos\u00e9s traditionnels, l\u2019identification de ces structures limite la complexit\u00e9 combinatoire induite par l\u2019ambigu\u00eft\u00e9 lexicale. Dans cet article, nous d\u00e9taillons une exp\u00e9rience qui int\u00e8gre ces notions dans un processus de segmentation en super-chunks, pr\u00e9alable \u00e0 l\u2019analyse syntaxique. Nous montrons que notre chunker, d\u00e9velopp\u00e9 pour le fran\u00e7ais, atteint une pr\u00e9cision et un rappel de 92,9 % et 98,7 %, respectivement. Par ailleurs, les unit\u00e9s polylexicales r\u00e9alisent 36,6 % des attachements internes aux constituants nominaux et pr\u00e9positionnels.","translation":["","Since Harris\u2019 parser in the late 50\u2019s, multiword units have been progressively integrated in parsers. Nevertheless, in the most part, they are still restricted to compound words, that are more stable and less numerous. Actually, language is full of semi-frozen expressions that also form basic semantic units : semi-frozen adverbial expressions (e.g. time), collocations. Like compounds, the identification of these structures limits the combinatorial complexity induced by lexical ambiguity. In this paper, we detail an experiment that largely integrates these notions in a procedure of segmentation into super-chunks, preliminary to a parser. We show that the chunker, developped for French, reaches 92.9% precision and 98.7% recall. Moreover, multiword units realize 36.6% of the attachments within nominal and prepositional phrases.","chunker, super-chunks, syntactic analysis, lexico-syntactic patterns"],"keyphrases":["super-chunks","chunker","analyse syntaxique","patrons lexico-syntaxiques"],"prmu":["P","P","P","U"]} {"id":"taln-2007-poster-004","title":"D\u00e9tection et pr\u00e9diction de la satisfaction des usagers dans les dialogues Personne-Machine","abstract":"Nous \u00e9tudions le r\u00f4le des entit\u00e9s nomm\u00e9es et marques discursives de r\u00e9troaction pour la t\u00e2che de classification et pr\u00e9diction de la satisfaction usager \u00e0 partir de dialogues. Les exp\u00e9riences men\u00e9es sur 1027 dialogues Personne-Machine dans le domaine des agences de voyage montrent que les entit\u00e9s nomm\u00e9es et les marques discursives n\u2019am\u00e9liorent pas de mani\u00e8re significative le taux de classification des dialogues. Par contre, elles permettent une meilleure pr\u00e9diction de la satisfaction usager \u00e0 partir des premiers tours de parole usager.","translation":["","We study the usefulness of named entities and acknowldgment words for user satisfaction classification and prediction from Human-Computer dialogs. We show that named entities and acknowledgment words do not enhance baseline classification performance. However, they allow a better prediction of user satisfaction in the beginning of the dialogue.","prediction of user satisfaction, Human-Computer dialog classification"],"keyphrases":["pr\u00e9diction de la satisfaction usager","classification des dialogues Personne-Machine"],"prmu":["P","R"]} {"id":"taln-2007-poster-005","title":"Les ellipses dans un syst\u00e8me de traduction automatique de la parole","abstract":"Dans tout dialogue, les phrases elliptiques sont tr\u00e8s nombreuses. Dans cet article, nous \u00e9valuons leur impact sur la reconnaissance et la traduction dans le syst\u00e8me de traduction automatique de la parole MedSLT. La r\u00e9solution des ellipses y est effectu\u00e9e par une m\u00e9thode robuste et portable, emprunt\u00e9e aux syst\u00e8mes de dialogue homme-machine. Cette derni\u00e8re exploite une repr\u00e9sentation s\u00e9mantique plate et combine des techniques linguistiques (pour construire la repr\u00e9sentation) et bas\u00e9es sur les exemples (pour apprendre sur la base d\u2019un corpus ce qu\u2019est une ellipse bien form\u00e9e dans un sous-domaine donn\u00e9 et comment la r\u00e9soudre).","translation":["","Elliptical phrases are frequent in all genres of dialogue. In this paper, we describe an evaluation of the speech understanding component of the MedSLT medical speech translation system, which focusses on the contrast between system performance on elliptical phrases and full utterances. Ellipsis resolution in the system is handled by a robust and portable method, adapted from similar methods commonly used in spoken dialogue systems, which exploits the flat representation structures used. The resolution module combines linguistic methods, used to construct the representations, with an example-based approach to defining the space of well-formed ellipsis resolutions in a subdomain.","speech recognition, speech translation, ellipsis, dialogue processing, grammar-based language modelling, evaluation"],"keyphrases":["ellipses","traduction automatique de la parole","reconnaissance de la parole","\u00e9valuation","traitement du dialogue","mod\u00e8le du language fond\u00e9 sur les grammaire"],"prmu":["P","P","R","U","M","M"]} {"id":"taln-2007-poster-006","title":"Analyse automatique de sondages t\u00e9l\u00e9phoniques d\u2019opinion","abstract":"Cette \u00e9tude pr\u00e9sente la probl\u00e9matique de l\u2019analyse automatique de sondages t\u00e9l\u00e9phoniques d\u2019opinion. Cette analyse se fait en deux \u00e9tapes : tout d\u2019abord extraire des messages oraux les expressions subjectives relatives aux opinions de utilisateurs sur une dimension particuli\u00e8re (efficacit\u00e9, accueil, etc.) ; puis s\u00e9lectionner les messages fiables, selon un ensemble de mesures de confiance, et estimer la distribution des diverses opinions sur le corpus de test. Le but est d\u2019estimer une distribution aussi proche que possible de la distribution de r\u00e9f\u00e9rence. Cette \u00e9tude est men\u00e9e sur un corpus de messages provenant de vrais utilisateurs fournis par France T\u00e9l\u00e9com R&D.","translation":["","This paper introduces the context of the automatic analysis of opinion telephone surveys. This analysis is done by means of two stages : firstly the subjective expressions, related to the expression of an opinion on a particular dimension (efficiency, courtesy, . . . ), are extracted from the audio messages ; secondly the reliable messages, according to a set of confidence measures, are selected and the distribution of the positive and negative opinions in these messages is estimated. The goal is to obtain a distribution as close as possible to the reference one. This study is carried on a telephone survey corpus, provided by France T\u00e9l\u00e9com R&D, obtained in real field conditions.","opinion extraction, automatic classification, automatic speech recognition, conditional random fields"],"keyphrases":["d\u00e9tection d\u2019opinions","classification automatique","reconnaissance automatique de la parole","champs conditionnels al\u00e9atoires"],"prmu":["M","M","M","U"]} {"id":"taln-2007-poster-007","title":"Une r\u00e9alisateur de surface bas\u00e9 sur une grammaire r\u00e9versible","abstract":"En g\u00e9n\u00e9ration, un r\u00e9alisateur de surface a pour fonction de produire, \u00e0 partir d\u2019une repr\u00e9sentation conceptuelle donn\u00e9e, une phrase grammaticale. Les r\u00e9alisateur existants soit utilisent une grammaire r\u00e9versible et des m\u00e9thodes statistiques pour d\u00e9terminer parmi l\u2019ensemble des sorties produites la plus plausible ; soit utilisent des grammaires sp\u00e9cialis\u00e9es pour la g\u00e9n\u00e9ration et des m\u00e9thodes symboliques pour d\u00e9terminer la paraphrase la plus appropri\u00e9e \u00e0 un contexte de g\u00e9n\u00e9ration donn\u00e9. Dans cet article, nous pr\u00e9sentons GENI, un r\u00e9alisateur de surface bas\u00e9 sur une grammaire d\u2019arbres adjoints pour le fran\u00e7ais qui r\u00e9concilie les deux approches en combinant une grammaire r\u00e9versible avec une s\u00e9lection symbolique des paraphrases.","translation":["","In generation, a surface realiser takes as input a conceptual representation and outputs a grammatical sentence. Existing realisers fall into two camps. Either they are based on a reversible grammar and use statistical filtering to determine among the several outputs the most plausible one. Or they combine a grammar tailored for generation and a symbolic means of choosing the paraphrase most appropriate to a given generation context. In this paper, we present GENI, a surface realiser based on a Tree Adjoining Grammar for French which reconciles both approaches in that (i) the grammar used is r\u00e9versible and (ii) paraphrase selection is based on symbolic means.","surface realisation, tree adjoining grammar, reversibility"],"keyphrases":["r\u00e9alisation de surface","grammaire d\u2019arbres adjoints","r\u00e9versibilit\u00e9"],"prmu":["P","P","U"]} {"id":"taln-2007-poster-008","title":"Analyse des \u00e9checs d\u2019une approche pour traiter les questions d\u00e9finitoires soumises \u00e0 un syst\u00e8me de questions\/r\u00e9ponses","abstract":"Cet article revient sur le type particulier des questions d\u00e9finitoires \u00e9tudi\u00e9es dans le cadre des campagnes d\u2019\u00e9valuation des syst\u00e8mes de Questions\/R\u00e9ponses. Nous pr\u00e9sentons l\u2019approche d\u00e9velopp\u00e9e suite \u00e0 notre participation \u00e0 la campagne EQueR et son \u00e9valuation lors de QA@CLEF 2006. La r\u00e9ponse propos\u00e9e est la plus repr\u00e9sentative des expressions pr\u00e9sentes en apposition avec l\u2019objet \u00e0 d\u00e9finir, sa s\u00e9lection est faite depuis des indices d\u00e9riv\u00e9s de ces appositions. Environ 80% de bonnes r\u00e9ponses sont trouv\u00e9es sur les questions d\u00e9finitoires des volets francophones de CLEF. Les cas d\u2019erreurs rencontr\u00e9s sont analys\u00e9s et discut\u00e9s en d\u00e9tail.","translation":["","This paper proposes an approach to deal with definitional question answering. Our system extracts answers to these questions from appositives appearing closed to the subject to define. Results are presented for CLEF campaigns. Next, failures are discussed.","question answering, definitional question answering"],"keyphrases":["questions d\u00e9finitoires","syst\u00e8me de questions\/r\u00e9ponses"],"prmu":["P","P"]} {"id":"taln-2007-poster-009","title":"Caract\u00e9risation des discours scientifiques et vulgaris\u00e9s en fran\u00e7ais, japonais et russe","abstract":"L\u2019objectif principal de notre travail consiste \u00e0 \u00e9tudier la notion de comparabilit\u00e9 des corpus, et nous abordons cette question dans un contexte monolingue en cherchant \u00e0 distinguer les documents scientifiques et vulgaris\u00e9s. Nous travaillons s\u00e9par\u00e9ment sur des corpus compos\u00e9s de documents du domaine m\u00e9dical dans trois langues \u00e0 forte distance linguistique (le fran\u00e7ais, le japonais et le russe). Dans notre approche, les documents sont caract\u00e9ris\u00e9s dans chaque langue selon leur th\u00e9matique et une typologie discursive qui se situe \u00e0 trois niveaux de l\u2019analyse des documents : structurel, modal et lexical. Le typage des documents est impl\u00e9ment\u00e9 avec deux algorithmes d\u2019apprentissage (SVMlight et C4.5). L\u2019\u00e9valuation des r\u00e9sultats montre que la typologie discursive propos\u00e9e est portable d\u2019une langue \u00e0 l\u2019autre car elle permet en effet de distinguer les deux discours. Nous constatons n\u00e9anmoins des performances tr\u00e8s vari\u00e9es selon les langues, les algorithmes et les types de caract\u00e9ristiques discursives.","translation":["","The main objective of our study consists to characterise the comparability of corpora, and we address this issue in the monolingual context through the disctinction of expert and non expert documents. We work separately with corpora composed of medical area documents in three languages, which show an important linguistic distance between them (French, Japanese and Russian). In our approach, documents are characterised in each language through their thematic topic and through a discursive typology positioned at three levels of document analysis : structural, modal and lexical. The document typology is implemented with two learning algorithms (SVMlight and C4.5). Evaluation of results shows that the proposed discursive typology can be transposed from one language to another, as it indeed allows to distinguish the two aimed discourses. However, we observe that performances vary a lot according to languages, algorithms and types of discursive characteristics.","corpus linguistics, comparable corpora, learning algorithms, stylistic analysis, degree of comparability"],"keyphrases":["algorithmes d\u2019apprentissage","linguistique des corpus","corpus comparable","analyse stylistique","degr\u00e9 de comparabilit\u00e9"],"prmu":["P","R","R","M","M"]} {"id":"taln-2007-poster-010","title":"OGMIOS : une plate-forme d\u2019annotation linguistique de collection de documents issus du Web","abstract":"L\u2019un des objectifs du projet ALVIS est d\u2019int\u00e9grer des informations linguistiques dans des moteurs de recherche sp\u00e9cialis\u00e9s. Dans ce contexte, nous avons con\u00e7u une plate-forme d\u2019enrichissement linguistique de documents issus du Web, OGMIOS, exploitant des outils de TAL existants. Les documents peuvent \u00eatre en fran\u00e7ais ou en anglais. Cette architecture est distribu\u00e9e, afin de r\u00e9pondre aux contraintes li\u00e9es aux traitements de gros volumes de textes, et adaptable, pour permettre l\u2019analyse de sous-langages. La plate-forme est d\u00e9velopp\u00e9e en Perl et disponible sous forme de modules CPAN. C\u2019est une structure modulaire dans lequel il est possible d\u2019int\u00e9grer de nouvelles ressources ou de nouveaux outils de TAL. On peut ainsi d\u00e9finir des configuration diff\u00e9rentes pour diff\u00e9rents domaines et types de collections. Cette plateforme robuste permet d\u2019analyser en masse des donn\u00e9es issus du web qui sont par essence tr\u00e8s h\u00e9t\u00e9rog\u00e8nes. Nous avons \u00e9valu\u00e9 les performances de la plateforme sur plusieurs collections de documents. En distribuant les traitements sur vingt machines, une collection de 55 329 documents du domaine de la biologie (106 millions de mots) a \u00e9t\u00e9 annot\u00e9e en 35 heures tandis qu\u2019une collection de 48 422 d\u00e9p\u00eaches relatives aux moteurs de recherche (14 millions de mots) a \u00e9t\u00e9 annot\u00e9e en 3 heures et 15 minutes.","translation":["","In the context of the ALVIS project, which aims at integrating linguistic information in topic-specific search engines, we developed an NLP architecture, OGMIOS, to linguistically annotate large collections of web documents with existing NLP tools. Documents can be written in French or English. The distributed architecture allows us to take into account constraints related to the scalability problem of Natural Language Processing and the domain specific tuning of the linguistic analysis. The platform is developed in Perl and is available as CPAN modules. It is a modularized framework where new resources or NLP tools can be integrated. Then, various configurations are easy to define for various domains and collections. This platform is robust to massively analyse web document collections which are heterogeneous in essence. We carried out experiments on two different collections of web documents on 20 computers. A 55,329 web documents collection dealing with biology (106 millions of words) has been annotated in 35 hours, whereas a 48,422 search engine news collection (14 millions of word) has been annotated in 3 hours and 15 minutes.","linguistic annotation, NLP platform, process scability, robustess"],"keyphrases":["plateforme d\u2019annotation linguistique","passage \u00e0 l\u2019\u00e9chelle","robustesse"],"prmu":["R","M","U"]} {"id":"taln-2007-poster-011","title":"Les Lexiques-Miroirs. Du dictionnaire bilingue au graphe multilingue","abstract":"On observe dans les dictionnaires bilingues une forte asym\u00e9trie entre les deux parties d\u2019un m\u00eame dictionnaire et l\u2019existence de traductions et d\u2019informations \u00ab cach\u00e9es \u00bb, i.e. pas directement visibles \u00e0 l\u2019entr\u00e9e du mot \u00e0 traduire. Nous proposons une m\u00e9thodologie de r\u00e9cup\u00e9ration des donn\u00e9es cach\u00e9es ainsi que la \u00ab sym\u00e9trisation \u00bb du dictionnaire gr\u00e2ce \u00e0 un traitement automatique. L\u2019\u00e9tude d\u2019un certain nombre de verbes et de leurs traductions en plusieurs langues a conduit \u00e0 l\u2019int\u00e9gration de toutes les donn\u00e9es, visibles ou cach\u00e9es, au sein d\u2019une base de donn\u00e9es unique et multilingue. L\u2019exploitation de la base de donn\u00e9es a \u00e9t\u00e9 rendue possible par l\u2019\u00e9criture d\u2019un algorithme de cr\u00e9ation de graphe synonymique qui lie dans un m\u00eame espace les mots de langues diff\u00e9rentes. Le programme qui en d\u00e9coule permettra de g\u00e9n\u00e9rer des dictionnaires param\u00e9trables directement \u00e0 partir du graphe.","translation":["","Lexical asymmetry and hidden data, i.e. not directly visible into one lexical entry, are phenomena peculiar to most of the bilingual dictionaries. Our purpose is to establish a methodology to highlight both phenomena by extracting hidden data from the dictionary and by re-establishing symmetry between its two parts. So we studied a large number of verbs and integrated them into a unique multilingual database. At last, our database is turned into a \u201cmultilexical\u201d graph thanks to an algorithm, which is binding together words from different languages into the same semantic space. This will allow us to generate automatically dictionaries straight from the graph.","bilingual dictionaries, machine translation, multilingual graph, algorithm, verbal polysemy, lexicographical asymmetry"],"keyphrases":["dictionnaires bilingues","graphe multilingue","algorithme","traduction automatique","polys\u00e9mie verbale","dissym\u00e9trie lexicographique"],"prmu":["P","P","P","R","U","U"]} {"id":"taln-2007-poster-012","title":"Traduction, restructurations syntaxiques et grammaires de correspondance","abstract":"Cet article pr\u00e9sente une nouvelle formalisation du mod\u00e8le de traduction par transfert de la Th\u00e9orie Sens-Texte. Notre mod\u00e9lisation utilise les grammaires de correspondance polaris\u00e9es et fait une stricte s\u00e9paration entre les mod\u00e8les monolingues, un lexique bilingue minimal et des r\u00e8gles de restructuration universelles, directement associ\u00e9es aux fonctions lexicales syntaxiques.","translation":["","This paper presents a new formalisation of transfer-based translation model of the Meaning-Text Theory. Our modelling is based on polarized correspondence grammars and observes a strict separation between monolingual models, the bilingual lexicon and universal restructuring rules, directly associated with syntactic lexical functions.","machine translation, paraphrase, syntactic restructuring, MTT (Meaning-Text Theory), dependency grammar, lexical function, bilingual lexicon, PUG (Polarized Unification Grammar), correspondence grammar, synchronous grammars"],"keyphrases":["restructuration syntaxique","grammaire de correspondance","lexique bilingue","fonction lexicale","traduction automatique","paraphrase","TST (Th\u00e9orie Sens-Texte)","grammaire de d\u00e9pendance","GUP (Grammaire d\u2019Unification Polaris\u00e9e)","grammaires synchrones"],"prmu":["P","P","P","P","M","U","M","M","M","M"]} {"id":"taln-2007-poster-013","title":"Mod\u00e9lisation des paradigmes de flexion des verbes arabes selon la norme LMF - ISO 24613","abstract":"Dans cet article, nous sp\u00e9cifions les paradigmes de flexion des verbes arabes en respectant la version 9 de LMF (Lexical Markup Framework), future norme ISO 24613 qui traite de la standardisation des bases lexicales. La sp\u00e9cification de ces paradigmes se fonde sur une combinaison des racines et des sch\u00e8mes. En particulier, nous mettons en relief les terminaisons de racines sensibles aux ajouts de suffixes et ce, afin de couvrir les situations non consid\u00e9r\u00e9es dans les travaux existants. L\u2019\u00e9laboration des paradigmes de flexion verbale que nous proposons est une description en intension d'ArabicLDB (Arabic Lexical DataBase) qui est une base lexicale normalis\u00e9e pour la langue arabe. Nos travaux sont illustr\u00e9s par la r\u00e9alisation d\u2019un conjugueur des verbes arabes \u00e0 partir d'ArabicLDB.","translation":["","In this paper, we specify the inflected paradigms of Arabic verbs with respect to the version 9 of LMF (Lexical Markup Framework) which is the expected ISO 24613 standard dealing with the standardisation of lexical databases. The specification of these paradigms is based on a combination of schemes and roots. In particular, we highlight the role of root endings that is not considered in other researches and that may generate erroneous forms while concatenating suffixes. The development of verbal inflected paradigms that we propose is an intentional component of ArabicLDB (Arabic Lexical DataBase) which is a normalized Arabic lexical database that we developed according to LMF. Our works are illustrated by the realization of a conjugation tool for Arabic verbs using ArabicLDB.","Arabic, inflected paradigms of verb, lexical database, norm ISO 24613, LMF, lexical markup framework, conjugation of arabic verbs"],"keyphrases":["LMF","lexical markup framework","norme ISO 24613","base lexicale","paradigmes de flexion verbale","langue arabe","conjugueur des verbes arabes"],"prmu":["P","P","P","P","P","P","P"]} {"id":"taln-2007-poster-014","title":"Du bruit, du silence et des ambigu\u00eft\u00e9s : que faire du TAL pour l'apprentissage des langues ?","abstract":"Nous proposons une nouvelle approche pour l\u2019int\u00e9gration du TAL dans les syst\u00e8mes d\u2019apprentissage des langues assist\u00e9 par ordinateur (ALAO), la strat\u00e9gie \u00ab moinsdisante \u00bb. Cette approche tire profit des technologies \u00e9l\u00e9mentaires mais fiables du TAL et insiste sur la n\u00e9cessit\u00e9 de traitements modulaires et d\u00e9claratifs afin de faciliter la portabilit\u00e9 et la prise en main didactique des syst\u00e8mes. Bas\u00e9 sur cette approche, ExoGen est un premier prototype pour la g\u00e9n\u00e9ration automatique d\u2019activit\u00e9s lacunaires ou de lecture d\u2019exemples. Il int\u00e8gre un module de rep\u00e9rage et de description des r\u00e9ponses des apprenants fond\u00e9 sur la comparaison entre r\u00e9ponse attendue et r\u00e9ponse donn\u00e9e. L\u2019analyse des diff\u00e9rences graphiques, orthographiques et morphosyntaxiques permet un diagnostic des erreurs de type fautes d\u2019orthographe, confusions, probl\u00e8mes d\u2019accord, de conjugaison, etc. La premi\u00e8re \u00e9valuation d\u2019ExoGen sur un extrait du corpus d\u2019apprenants FRIDA produit des r\u00e9sultats prometteurs pour le d\u00e9veloppement de cette approche \u00ab moins-disante \u00bb, et permet d'envisager un mod\u00e8le d'analyse performant et g\u00e9n\u00e9ralisable \u00e0 une grande vari\u00e9t\u00e9 d'activit\u00e9s.","translation":["","This paper presents the so-called \"moins-disante\" strategy, a new approach for NLP integrating in Computer Assisted Language Learning (CALL) systems. It is based on the implementation of basic but reliable NLP techniques, and put emphasis on declarative and modular processing, for the sake of portability and didactic implementation. Based on this approach, ExoGen is a prototype for generating activities such as gap filling exercises. It integrates a module for error detection and description, which checks learners' answers against expected ones. Through the analysis of graphic, orthographic and morphosyntactic differences, it is able to diagnose problems like spelling errors, lexical mix-up, error prone agreement, bad conjugations, etc. The first evaluation of ExoGen outputs, based on the FRIDA learner corpus, has yielded very promising results, paving the way for the development of an efficient and general model tailored to a wide variety of activities.","CALL, language learning, error diagnosis, error feedback"],"keyphrases":["apprentissage des langues","ALAO","diagnostic d'erreur","feed-back d'erreur"],"prmu":["P","P","R","M"]} {"id":"taln-2007-poster-015","title":"Extraction automatique de cadres de sous-cat\u00e9gorisation verbale pour le fran\u00e7ais \u00e0 partir d\u2019un corpus arbor\u00e9","abstract":"Nous pr\u00e9sentons une exp\u00e9rience d\u2019extraction automatique des cadres de souscat\u00e9gorisation pour 1362 verbes fran\u00e7ais. Nous exploitons un corpus journalistique richement annot\u00e9 de 15 000 phrases dont nous extrayons 12 510 occurrences verbales. Nous \u00e9valuons dans un premier temps l\u2019extraction des cadres bas\u00e9e sur la fonction des arguments, ce qui nous fournit 39 cadres diff\u00e9rents avec une moyenne de 1.54 cadres par lemme. Ensuite, nous adoptons une approche mixte (fonction et cat\u00e9gorie syntaxique) qui nous fournit dans un premier temps 925 cadres diff\u00e9rents, avec une moyenne de 3.44 cadres par lemme. Plusieurs m\u00e9thodes de factorisation, neutralisant en particulier les variantes de r\u00e9alisation avec le passif ou les pronoms clitiques, sont ensuite appliqu\u00e9es et nous permettent d\u2019aboutir \u00e0 235 cadres diff\u00e9rents avec une moyenne de 1.94 cadres par verbe. Nous comparons bri\u00e8vement nos r\u00e9sultats avec les travaux existants pour le fran\u00e7ais et pour l\u2019anglais.","translation":["","We present our work on automatic extraction of subcategorisation frames for 1362 French verbs. We use a treebank of 15000 sentences from which we extract 12510 verb occurrences. We evaluate the results based on a functional representation of frames and we acquire 39 different frames, 1.54 per lemma on average. Then, we adopt a mixed representation (functions and categories), which leads to 925 different frames, 3.44 frames on average. We investigate several methods to reduce the ambiguity (e.g., neutralisation of passive forms or clitic arguments), which allows us to arrive at 235 frames, with 1.94 frames per lemma on average. We present a brief comparison with the existing work on French and English.","French, treebank, verbal subcategorization, lexicon grammar"],"keyphrases":["sous-cat\u00e9gorisation verbale","fran\u00e7ais","corpus arbor\u00e9","lexique-grammaire"],"prmu":["P","P","P","U"]} {"id":"taln-2007-poster-016","title":"Vers une formalisation des d\u00e9compositions s\u00e9mantiques dans la Grammaire d\u2019Unification Sens-Texte","abstract":"Nous proposons une formalisation de la d\u00e9composition du sens dans le cadre de la Grammaire d\u2019Unification Sens-Texte. Cette formalisation vise une meilleure int\u00e9gration des d\u00e9compositions s\u00e9mantiques dans un mod\u00e8le global de la langue. Elle repose sur un jeu de saturation de polarit\u00e9s qui permet de contr\u00f4ler la construction des repr\u00e9sentations d\u00e9compos\u00e9es ainsi que leur mise en correspondance avec des arbres syntaxiques qui les expriment. Le formalisme propos\u00e9 est illustr\u00e9 ici dans une perspective de synth\u00e8se, mais il s\u2019applique \u00e9galement en analyse.","translation":["","We propose a formal representation of meaning decomposition in the framework of the Meaning-Text Unification Grammar. The proposed technique aims at offering a better integration of such semantic decompositions into a global model of the language. It relies on the saturation of polarities to control the construction of decomposed respresentations as well as their mapping to the syntactic trees that express them. The proposed formalism is discussed from the viewpoint of generation, but it applies to analysis as well.","Meaning-Text Unification Grammar, Meaning-Text Theory, semantics, representation of meaning, paraphrasing"],"keyphrases":["s\u00e9mantique","Grammaire d\u2019Unification Sens-Texte","Th\u00e9orie Sens-Texte","repr\u00e9sentation du sens","paraphrasage"],"prmu":["P","P","M","R","U"]} {"id":"taln-2007-poster-017","title":"Syst\u00e8mes de questions-r\u00e9ponses : vers la validation automatique des r\u00e9ponses","abstract":"Les syst\u00e8mes de questions-r\u00e9ponses (SQR) ont pour but de trouver une information pr\u00e9cise extraite d\u2019une grande collection de documents comme le Web. Afin de pouvoir comparer les diff\u00e9rentes strat\u00e9gies possibles pour trouver une telle information, il est important d\u2019\u00e9valuer ces syst\u00e8mes. L\u2019objectif d\u2019une t\u00e2che de validation de r\u00e9ponses est d\u2019estimer si une r\u00e9ponse donn\u00e9e par un SQR est correcte ou non, en fonction du passage de texte donn\u00e9 comme justification. En 2006, nous avons particip\u00e9 \u00e0 une t\u00e2che de validation de r\u00e9ponses, et dans cet article nous pr\u00e9sentons la strat\u00e9gie que nous avons utilis\u00e9e. Celle-ci est fond\u00e9e sur notre propre syst\u00e8me de questions-r\u00e9ponses. Le principe est de comparer nos r\u00e9ponses avec les r\u00e9ponses \u00e0 valider. Nous pr\u00e9sentons les r\u00e9sultats obtenus et montrons les extensions possibles. \u00c0 partir de quelques exemples, nous soulignons les difficult\u00e9s que pose cette t\u00e2che.","translation":["","Question answering aims at retrieving precise information from a large collection of documents, typically theWeb. Different techniques can be used to find relevant information, and to compare these techniques, it is important to evaluate question answering systems. The objective of an Answer Validation task is to estimate the correctness of an answer returned by a QA system for a question, according to the text snippet given to support it.We participated in such a task in 2006. In this article, we present our strategy for deciding if the snippets justify the answers. We used a strategy based on our own question answering system, and compared the answers it returned with the answer to judge. We discuss our results, and show the possible extensions of our strategy. Then we point out the difficulties of this task, by examining different examples.","question answering, answer validation"],"keyphrases":["syst\u00e8mes de questions-r\u00e9ponses","validation de r\u00e9ponses"],"prmu":["P","P"]} {"id":"taln-2007-poster-018","title":"Ressources lexicales chinoises pour le TALN","abstract":"Nous voulons traiter des textes chinois automatiquement ; pour ce faire, nous formalisons le vocabulaire chinois, en utilisant principalement des dictionnaires et des grammaires morphologiques et syntaxiques formalis\u00e9s avec le logiciel NooJ. Nous pr\u00e9sentons ici les crit\u00e8res linguistiques qui nous ont permis de construire dictionnaires et grammaires, sachant que l\u2019application envisag\u00e9e (linguistique de corpus) nous impose certaines contraintes dans la formalisation des unit\u00e9s de la langue, en particulier des compos\u00e9s.","translation":["","In order to parse Chinese texts automatically, we need to formalize the Chinese vocabulary by using electronic dictionaries and morphological and syntactic grammars. We have used the NooJ software to enter the formalization. We present here the set of linguistic criteria used to construct these dictionaries and grammars, so that they can be used by corpus-linguistic applications. We focus our discussion on the characterization of Chinese linguistic units, specifically compounds.","linguistic resources for chinese, corpus linguistics, NooJ"],"keyphrases":["linguistique de corpus","ressources linguistiques pour le chinois","NooJ"],"prmu":["P","R","U"]} {"id":"taln-2007-poster-019","title":"\u00c9tiquetage morpho-syntaxique de textes kabyles","abstract":"Cet article pr\u00e9sente la construction d\u2019un \u00e9tiqueteur morpho-syntaxique d\u00e9velopp\u00e9 pour annoter un corpus de textes kabyles (1 million de mots). Au sein de notre projet, un \u00e9tiqueteur morpho-syntaxique a \u00e9t\u00e9 d\u00e9velopp\u00e9 et impl\u00e9ment\u00e9. Ceci inclut un analyseur morphologique ainsi que l\u2019ensemble de r\u00e8gles de d\u00e9sambigu\u00efsation qui se basent sur l\u2019approche supervis\u00e9e \u00e0 base de r\u00e8gles. Pour effectuer le marquage, un jeu d\u2019\u00e9tiquettes morpho-syntaxiques pour le kabyle est propos\u00e9. Les r\u00e9sultats pr\u00e9liminaires sont tr\u00e8s encourageants. Nous obtenons un taux d\u2019\u00e9tiquetage r\u00e9ussi autour de 97 % des textes en prose.","translation":["","This paper describes the construction of a morpho-syntactic tagger developed to annotate our Kabyle text corpus (1 million words).Within our project, a part-of-speech tagger has been developed and implemented. That includes a morphological analyser and a set of disambiguation rules based on supervised rule-based tagging. To realise the annotation, a POS tagset for Kabyle is proposed. The first results of tests are very encouraging. At present stage, our tagger reaches 97 % of success.","Part of speech tagging, text corpus, kabyle language, berber"],"keyphrases":["\u00c9tiquetage morpho-syntaxique","corpus de textes","langue kabyle","berb\u00e8re"],"prmu":["P","P","M","U"]} {"id":"taln-2007-poster-020","title":"Analyse syntaxique et traitement automatique du syntagme nominal grec moderne","abstract":"Cet article d\u00e9crit le traitement automatique du syntagme nominal en grec moderne par le mod\u00e8le d\u2019analyse syntaxique multilingue Fips. L\u2019analyse syntaxique linguistique est focalis\u00e9e sur les points principaux du DP grec : l\u2019accord entre les constituants fl\u00e9chis, l\u2019ordre flexible des constituants, la cliticisation sur les noms et le ph\u00e9nom\u00e8ne de la polyd\u00e9finitude. Il est montr\u00e9 comment ces ph\u00e9nom\u00e8nes sont trait\u00e9s et impl\u00e9ment\u00e9s dans le cadre de l\u2019analyseur syntaxique FipsGreek, qui met en oeuvre un formalisme inspir\u00e9 de la grammaire g\u00e9n\u00e9rative chomskyenne.","translation":["","This article describes an automatic treatment to the Modern Greek noun phrase in terms of the Fips multilingual syntactic parser. The syntactic analysis focuses on the main issues related to the Greek DP: the agreement among the inflected constituents, the relatively free constituent order, noun cliticisation, and the polydefiniteness phenomenon. The paper discusses how these processes are treated and implemented within the FipsGreek parser, which puts forth a formalism relying on Chomsky\u2019s generative grammar.","Greek parser, morphosyntactic analysis, determiner phrase, modern Greek"],"keyphrases":["syntagme nominal","grec moderne","analyseur grec","analyse morphosyntaxique"],"prmu":["P","P","R","M"]} {"id":"taln-2007-poster-021","title":"Apprentissage symbolique de grammaires et traitement automatique des langues","abstract":"Le mod\u00e8le de Gold formalise le processus d\u2019apprentissage d\u2019un langage. Nous pr\u00e9sentons dans cet article les avantages et inconv\u00e9nients de ce cadre th\u00e9orique contraignant, dans la perspective d\u2019applications en TAL. Nous d\u00e9crivons bri\u00e8vement les r\u00e9centes avanc\u00e9es dans ce domaine, qui soul\u00e8vent selon nous certaines questions importantes.","translation":["","Gold\u2019s model formalizes the learning process of a language. In this paper we present the advantages and drawbacks of this restrictive theoretical framework, in the viewpoint of applications to NLP.We briefly describe recent advances in the domain which, in our opinion, raise some important questions.","symbolic learning, Gold\u2019s model, categorial grammars"],"keyphrases":["apprentissage symbolique","mod\u00e8le de Gold","grammaires cat\u00e9gorielles"],"prmu":["P","P","M"]} {"id":"taln-2007-poster-022","title":"M\u00e9thodes d\u2019alignement des propositions : un d\u00e9fi aux traductions crois\u00e9es","abstract":"Le pr\u00e9sent article d\u00e9crit deux m\u00e9thodes d\u2019alignement des propositions : l\u2019une bas\u00e9e sur les m\u00e9thodes d\u2019appariement des graphes et une autre inspir\u00e9e de la classification ascendante hi\u00e9rarchique (CAH). Les deux m\u00e9thodes sont caract\u00e9ris\u00e9es par leur capacit\u00e9 d\u2019alignement des traductions crois\u00e9es, ce qui \u00e9tait impossible pour beaucoup de m\u00e9thodes classiques d\u2019alignement des phrases. Contrairement aux r\u00e9sultats obtenus avec l\u2019approche spectrale qui nous paraissent non satisfaisants, l\u2019alignement bas\u00e9 sur la m\u00e9thode de classification ascendante hi\u00e9rarchique est prometteur dans la mesure o\u00f9 cette technique supporte bien les traductions crois\u00e9es.","translation":["","The present paper describes two methods for clauses alignment. The first one uses a graph matching approach, while the second one relies on agglomerative hirerarchical clustering (AHC). Both methods are characterized by the fact they can align cross translations, which was impossible for previous classic sentence alignment methods. Though the results given by the spectral method are unsatisfactory, the method based on AHC is very promising. It handles correctly cross translations.","parallel corpora alignment, graph matching, agglomerative hierarchical clustering, syntactic clause, translation memory, contrastive linguistics"],"keyphrases":["appariement de graphes","classification ascendante hi\u00e9rarchique","alignement des corpus parall\u00e8les","proposition syntaxique","m\u00e9moire de traduction","linguistique contrastive"],"prmu":["P","P","M","M","M","U"]} {"id":"taln-2007-poster-023","title":"Un Lexique G\u00e9n\u00e9ratif de r\u00e9f\u00e9rence pour le fran\u00e7ais","abstract":"Cet article propose une approche originale visant la construction d\u2019un lexique s\u00e9mantique de r\u00e9f\u00e9rence sur le fran\u00e7ais. Sa principale caract\u00e9ristique est de pouvoir s\u2019appuyer sur les propri\u00e9t\u00e9s morphologiques des lex\u00e8mes. La m\u00e9thode combine en effet des r\u00e9sultats d\u2019analyse morphologique (Namer, 2002;2003), \u00e0 partir de ressources lexicales de grande taille (nomenclatures du TLF) et des m\u00e9thodologies d\u2019acquisition d\u2019information lexicale d\u00e9j\u00e0 \u00e9prouv\u00e9es (Namer 2005; S\u00e9billot 2002). Le format de repr\u00e9sentation choisi, dans le cadre du Lexique G\u00e9n\u00e9ratif, se distingue par ses propri\u00e9t\u00e9s d\u2019expressivit\u00e9 et d\u2019\u00e9conomie. Cette approche permet donc d\u2019envisager la construction d\u2019un lexique de r\u00e9f\u00e9rence sur le fran\u00e7ais caract\u00e9ris\u00e9 par une forte homog\u00e9n\u00e9it\u00e9 tout en garantissant une couverture large, tant du point de vue de la nomenclature que du point de vue des contenus s\u00e9mantiques. Une premi\u00e8re validation de la m\u00e9thode fournit une projection quantitative et qualitative des r\u00e9sultats attendus.","translation":["","This paper describes an original approach aiming at building a reference semantic lexicon for French. Its main characteristic is that of being able to rely on morphological properties. The method thus combines morphological analyses results (Namer 2002;2003;2005) from large scale lexical resources (i.e. TLF word lists) with already tested acquisition methodologies on lexical information (S\u00e9billot, 2002). The representation format, within the Generative Lexicon framework, has been chosen for its expressiveness and economy features. So, this approach allows us to consider building a reference lexicon for French, which is fundamentally homogeneous as well as of a large coverage. A feasability study of the described method provides a projection of expected results, from both quantitative and qualitative points of view.","lexical acquisition, reference lexicon for French, generative lexicon model, word formation, corpora, semantics"],"keyphrases":["s\u00e9mantique","acquisition lexicale","lexique de r\u00e9f\u00e9rence du fran\u00e7ais","mod\u00e8le du lexique g\u00e9n\u00e9ratif","morphologie constructionnelle","corpus"],"prmu":["P","R","R","M","M","U"]} {"id":"taln-2007-poster-024","title":"Les r\u00e9sultats de la campagne EASY d\u2019\u00e9valuation des analyseurs syntaxiques du fran\u00e7ais","abstract":"Dans cet article, nous pr\u00e9sentons les r\u00e9sultats de la campagne d\u2019\u00e9valuation EASY des analyseurs syntaxiques du fran\u00e7ais. EASY a \u00e9t\u00e9 la toute premi\u00e8re campagne d\u2019\u00e9valuation comparative des analyseurs syntaxiques du fran\u00e7ais en mode bo\u00eete noire utilisant des mesures objectives quantitatives. EASY fait partie du programme TECHNOLANGUE du Minist\u00e8re d\u00e9l\u00e9gu\u00e9 \u00e0 la Recherche et \u00e0 l\u2019\u00c9ducation, avec le soutien du minist\u00e8re de d\u00e9l\u00e9gu\u00e9 \u00e0 l\u2019industrie et du minist\u00e8re de la culture et de la communication. Nous exposons tout d\u2019abord la position de la campagne par rapport aux autres projets d\u2019\u00e9valuation en analyse syntaxique, puis nous pr\u00e9sentos son d\u00e9roulement, et donnons les r\u00e9sultats des 15 analyseurs participants en fonction des diff\u00e9rents types de corpus et des diff\u00e9rentes annotations (constituants et relations). Nous proposons ensuite un ensemble de le\u00e7ons \u00e0 tirer de cette campagne, en particulier \u00e0 propos du protocole d\u2019\u00e9valuation, de la d\u00e9finition de la segmentation en unit\u00e9s linguistiques, du formalisme et des activit\u00e9s d\u2019annotation, des crit\u00e8res de qualit\u00e9 des donn\u00e9es, des annotations et des r\u00e9sultats, et finalement de la notion de r\u00e9f\u00e9rence en analyse syntaxique. Nous concluons en pr\u00e9sentant comment les r\u00e9sultats d\u2019EASY se prolongent dans le projet PASSAGE (ANR-06-MDCA-013) qui vient de d\u00e9buter et dont l\u2019objectif est d\u2019\u00e9tiqueter un grand corpus par plusieurs analyseurs en les combinant selon des param\u00e8tres issus de l\u2019\u00e9valuation.","translation":["","In this paper, we present the results of the EASY evaluation campaign on parsers of French. EASY has been the very first black-box comparative evaluation campaign for parsers of French, with objective quantitative performance measures. EASY was part of the TECHNOLANGUE program of the Delegate Ministry of Research, jointly supported by the Delegate Ministry of Industry and the ministry of Culture and Communication. After setting EASY in the context of parsing evaluation and giving an account of the campaign, we present the results obtained by 15 parsers according to syntactic relation and subcorpus genre. Then we propose some lessons to draw from this campaign, in particular about the evaluation protocole, the segmenting into linguistic units, the formalism and the annotation activities, the quality criteria to apply for data, annotations and results and finally about the notion of reference for parsing. We conclude by showing how EASY results extend through the PASSAGE project (ANR-06-MDCA-013), which has just started and whose aim is the automatic annotation of a large corpus by several parsers, the combination of which being parametrized by results stemming from evaluation.","parser, evaluation, french"],"keyphrases":["\u00e9valuation","analyseur syntaxique","fran\u00e7ais"],"prmu":["P","P","P"]} {"id":"taln-2007-poster-025","title":"Mod\u00e8les statistiques enrichis par la syntaxe pour la traduction automatique","abstract":"La traduction automatique statistique par s\u00e9quences de mots est une voie prometteuse. Nous pr\u00e9sentons dans cet article deux \u00e9volutions compl\u00e9mentaires. La premi\u00e8re permet une mod\u00e9lisation de la langue cible dans un espace continu. La seconde int\u00e8gre des cat\u00e9gories morpho-syntaxiques aux unit\u00e9s manipul\u00e9es par le mod\u00e8le de traduction. Ces deux approches sont \u00e9valu\u00e9es sur la t\u00e2che Tc-Star. Les r\u00e9sultats les plus int\u00e9ressants sont obtenus par la combinaison de ces deux m\u00e9thodes.","translation":["","Statistical phrase-based translation models are very efficient. In this paper, we present two complementary methods. The first one consists in a a statistical language model that is based on a continuous representation of the words in the vocabulary. By these means we expect to take better advantage of the limited amount of training data. In the second method, morpho-syntactic information is incorporated into the translation model in order to obtain lexical disambiguation. Both approaches are evaluated on the Tc-Star task. Most promising results are obtained by combining both methods.","statistical machine translation, continuous space language model, POS tagging, lexical disambiguation"],"keyphrases":["traduction automatique","approche statistique","mod\u00e9lisation linguistique dans un espace continu","analyse morpho-syntaxique","d\u00e9sambigu\u00efsation lexicale"],"prmu":["P","R","M","M","U"]} {"id":"taln-2007-poster-026","title":"Traitements phrastiques phon\u00e9tiques pour la r\u00e9\u00e9criture de phrases dysorthographi\u00e9es","abstract":"Cet article d\u00e9crit une m\u00e9thode qui combine des hypoth\u00e8ses graph\u00e9miques et phon\u00e9tiques au niveau de la phrase, \u00e0 l\u2019aide d\u2019une r\u00e9pr\u00e9sentation en automates \u00e0 \u00e9tats finis et d\u2019un mod\u00e8le de langage, pour la r\u00e9\u00e9criture de phrases tap\u00e9es au clavier par des dysorthographiques. La particularit\u00e9 des \u00e9crits dysorthographi\u00e9s qui emp\u00eache les correcteurs orthographiques d\u2019\u00eatre efficaces pour cette t\u00e2che est une segmentation en mots parfois incorrecte. La r\u00e9\u00e9criture diff\u00e8re de la correction en ce sens que les phrases r\u00e9\u00e9crites ne sont pas \u00e0 destination de l\u2019utilisateur mais d\u2019un syst\u00e8me automatique, tel qu\u2019un moteur de recherche. De ce fait l\u2019\u00e9valuation est conduite sur des versions filtr\u00e9es et lemmatis\u00e9es des phrases. Le taux d\u2019erreurs mots moyen passe de 51 % \u00e0 20 % avec notre m\u00e9thode, et est de 0 % sur 43 % des phrases test\u00e9es.","translation":["","This paper introduces a sentence level method combining written correction and phonetic interpretation in order to automatically rewrite sentences typed by dyslexic spellers. The method uses a finite state automata framework and a language model. Dysorthographics refers to incorrect word segmentation which usually causes classical spelling correctors fail. Our approach differs from spelling correction in that we aim to use several rewritings as an expression of the user need in an information retrieval context. Our system is evaluated on questions collected with the help of an orthophonist. The word error rate on lemmatised sentences falls from 51 % to 20 % (falls to 0 % on 43 % of sentences).","sentence level rewriting, dyslexia, FSM, spell checking"],"keyphrases":["r\u00e9\u00e9criture de phrases","automates","dyslexie","correction orthographique"],"prmu":["P","P","U","R"]} {"id":"taln-2007-poster-027","title":"Vers une m\u00e9thodologie g\u00e9n\u00e9rique de contr\u00f4le bas\u00e9e sur la combinaison de sources de jugement","abstract":"Le contr\u00f4le des hypoth\u00e8ses concurrentes g\u00e9n\u00e9r\u00e9es par les diff\u00e9rents modules qui peuvent intervenir dans des processus de TALN reste un enjeu important malgr\u00e9 de nombreuses avanc\u00e9es en terme de robustesse. Nous pr\u00e9sentons dans cet article une m\u00e9thodologie g\u00e9n\u00e9rique de contr\u00f4le exploitant des techniques issues de l\u2019aide multicrit\u00e8re \u00e0 la d\u00e9cision. \u00c0 partir de l\u2019ensemble des crit\u00e8res de comparaison disponibles et la formalisation des pr\u00e9f\u00e9rences d\u2019un expert, l\u2019approche propos\u00e9e \u00e9value la pertinence relative des diff\u00e9rents objets linguistiques g\u00e9n\u00e9r\u00e9s et conduit \u00e0 la mise en place d\u2019une action de contr\u00f4le appropri\u00e9e telle que le filtrage, le classement, le tri ou la propagation.","translation":["","The control of concurrent hypotheses generated by the different modules which compose NLP processes is still an important issue despite advances concerning robustness. In this article, we present a generic methodology of control inspired from multicriteria decision aid methods. Based on available comparison criteria and formalized expert knowledge, the proposed approach evaluate the relevancy of each generated linguistic object and lead to the decision of an appropriate control action such as filtering, ordering, sorting or propagating.","control methodology, multicriteria decision aid, metrics automatic learning"],"keyphrases":["aide multicrit\u00e8re \u00e0 la d\u00e9cision","m\u00e9thodologie de contr\u00f4le","apprentissage automatique de m\u00e9triques"],"prmu":["P","R","M"]} {"id":"taln-2007-poster-028","title":"Traitement s\u00e9mantique par analyse distributionnelle des noms transdisciplinaires des \u00e9crits scientifiques","abstract":"Dans cette \u00e9tude sur le lexique transdisciplinaire des \u00e9crits scientifiques, nous souhaitons \u00e9valuer dans quelle mesure les m\u00e9thodes distributionnelles de TAL peuvent faciliter la t\u00e2che du linguiste dans le traitement s\u00e9mantique de ce lexique. Apr\u00e8s avoir d\u00e9fini le champ lexical et les corpus exploit\u00e9s, nous testons plusieurs m\u00e9thodes bas\u00e9es sur des d\u00e9pendances syntaxiques et observons les proximit\u00e9s s\u00e9mantiques et les classes \u00e9tablies. L\u2019hypoth\u00e8se que certaines relations syntaxiques - en particulier les relations de sous-cat\u00e9gorisation \u2013 sont plus appropri\u00e9es pour \u00e9tablir des classements s\u00e9mantiques n\u2019appara\u00eet qu\u2019en partie v\u00e9rifi\u00e9e. Si les relations de sous-cat\u00e9gorisation g\u00e9n\u00e8rent des proximit\u00e9s s\u00e9mantiques entre les mots de meilleure qualit\u00e9, cela ne semble pas le cas pour la classification par voisinage.","translation":["","In this study about general scientific lexicon, we aim at evaluating to what extent distributional methods in NLP can enhance the linguist\u2019s task in the semantic treatment. After a definition of our lexical field and a presentation of our corpora, we evaluate several methods based on syntactic dependencies for establishing semantic similarities and semantic classes. Our hypothesis that some syntactic relations \u2013 namely subcategorized relations \u2013 is more relevant to establish semantic classes does not entirely appears valid. If subcategorized relations produce better semantic links between words, this is not the case with neighbour joigning clustering method.","corpus, scientific writings, semantic classes, distributional analysis"],"keyphrases":["analyse distributionnelle","\u00e9crits scientifiques","corpus","classes s\u00e9mantiques"],"prmu":["P","P","P","P"]} {"id":"taln-2007-poster-029","title":"Une exp\u00e9rience de compr\u00e9hension en contexte de dialogue avec le syst\u00e8me LOGUS, approche logique de la compr\u00e9hension de la langue orale","abstract":"LOGUS est un syst\u00e8me de compr\u00e9hension de la langue orale dans le cadre d\u2019un dialogue homme-machine finalis\u00e9. Il est la mise en oeuvre d\u2019une approche logique qui utilise diff\u00e9rents formalismes afin d\u2019obtenir un syst\u00e8me robuste mais n\u00e9anmoins relativement extensible. Cet article d\u00e9crit essentiellement l\u2019\u00e9tape de compr\u00e9hension en contexte de dialogue impl\u00e9ment\u00e9e sur LOGUS, d\u00e9velopp\u00e9e et test\u00e9e \u00e0 partir d\u2019un corpus de r\u00e9servation h\u00f4teli\u00e8re enregistr\u00e9 et annot\u00e9 lors des travaux du groupe MEDIA du projet technolangue. Il d\u00e9crit \u00e9galement les diff\u00e9rentes interrogations et conclusions que peut susciter une telle exp\u00e9rience et les r\u00e9sultats obtenus par le syst\u00e8me dans la r\u00e9solution des r\u00e9f\u00e9rences. Concernant l\u2019approche elle-m\u00eame, cette exp\u00e9rience semble montrer que le formalisme adopt\u00e9 pour la repr\u00e9sentation s\u00e9mantique des \u00e9nonc\u00e9s est bien adapt\u00e9 \u00e0 la compr\u00e9hension en contexte.","translation":["","LOGUS is a spoken language understanding system usable in a man-machine dialogue. It is based on a logical approach where various formalisms are used, in order to achieve a robust but generic and extensible system. Implementation of a context-sensitive understanding is the main topic of this paper. Processing and tests were carried out from a hotel reservation corpus which was recorded and annotated as part of the work handled by the technolangue consortium\u2019s MEDIA subgroup. This paper also describes the various questions raised and conclusions drawn from such an experiment, as well as the results achieved by the system for anaphora resolution. This experiment shows that the formalism used in order to represent the meaning of the utterances is relevant for anaphora resolution and in-context understanding.","man-machine dialogue, spoken language understanding, anaphora resolution"],"keyphrases":["r\u00e9solution des r\u00e9f\u00e9rences","compr\u00e9hension automatique de la parole","dialogue oral homme-machine"],"prmu":["P","M","R"]} {"id":"taln-2007-poster-030","title":"\u00c9valuation des performances d\u2019un mod\u00e8le de langage stochastique pour la compr\u00e9hension de la parole arabe spontan\u00e9e","abstract":"Les mod\u00e8les de Markov cach\u00e9s (HMM : Hidden Markov Models) (Baum et al., 1970), sont tr\u00e8s utilis\u00e9s en reconnaissance de la parole et depuis quelques ann\u00e9es en compr\u00e9hension de la parole spontan\u00e9e latine telle que le fran\u00e7ais ou l\u2019anglais. Dans cet article, nous proposons d\u2019utiliser et d\u2019\u00e9valuer la performance de ce type de mod\u00e8le pour l\u2019interpr\u00e9tation s\u00e9mantique de la parole arabe spontan\u00e9e. Les r\u00e9sultats obtenus sont satisfaisants, nous avons atteint un taux d\u2019erreur de l\u2019ordre de 9,9% en employant un HMM \u00e0 un seul niveau, avec des probabilit\u00e9s tri_grammes de transitions.","translation":["","The HMM (Hidden Markov Models) (Baum et al., 1970), are frequently used in speech recognition and in the comprehension of foreign spontaneous speech such us the french or the english. In this article, we propose using and evaluating the performance of this model type for the semantic interpretation of the spontaneous arabic speech. The obtained results are satisfying; we have achieved an error score equal to 9.9%, by using HMM with trigrams probabilities transitions.","semantic analysis, stochastic language model, pertinent context, overage mutual information, spontaneous arabic speech"],"keyphrases":["mod\u00e8le de langage stochastique","parole arabe spontan\u00e9e","analyse s\u00e9mantique","contexte pertinent","information mutuelle moyenne"],"prmu":["P","P","M","U","U"]} {"id":"taln-2007-demo-003","title":"TransCheck : un v\u00e9rificateur automatique de traductions","abstract":"Nous offrirons une d\u00e9monstration de la derni\u00e8re version de TransCheck, un v\u00e9rificateur automatique de traductions que le RALI est en train de d\u00e9velopper. TransCheck prend en entr\u00e9e deux textes, un texte source dans une langue et sa traduction dans une autre, les aligne au niveau de la phrase et ensuite v\u00e9rifie les r\u00e9gions align\u00e9es pour s\u2019assurer de la pr\u00e9sence de certains \u00e9quivalents obligatoires (p. ex. la terminologie normalis\u00e9e) et de l\u2019absence de certaines interdictions de traduction (p. ex. des interf\u00e9rences de la langue source). Ainsi, TransCheck se veut un nouveau type d\u2019outil d\u2019aide \u00e0 la traduction qui pourra \u00e0 r\u00e9duire le fardeau de la r\u00e9vision et diminuer le co\u00fbt du contr\u00f4le de la qualit\u00e9.","translation":["","We will present a demonstration of the latest version of TransCheck, an automatic translation checker that the RALI is currently developing. TransCheck takes as input two texts, a source text in one language and its translation in another, aligns them at the sentence level and then verifies the aligned regions to ensure that they contain certain obligatory equivalents (e.g. standardized terminology) and do not contain certain prohibited translations (e.g. source language interference). TransCheck is thus intended to be a new type of tool for assisting translators which has the potential to ease the burden of revision and diminish the costs of quality control.","machine-aided translation, automatic translation checking, translation revision"],"keyphrases":["v\u00e9rification automatique de traductions","traduction assist\u00e9e par ordinateur","r\u00e9vision de traduction"],"prmu":["P","M","R"]} {"id":"taln-2009-long-001","title":"Acquisition morphologique \u00e0 partir d\u2019un dictionnaire informatis\u00e9","abstract":"L\u2019article propose un mod\u00e8le linguistique et informatique permettant de faire \u00e9merger la structure morphologique d\u00e9rivationnelle du lexique \u00e0 partir des r\u00e9gularit\u00e9s s\u00e9mantiques et formelles des mots qu\u2019il contient. Ce mod\u00e8le est radicalement lex\u00e9matique. La structure morphologique est constitu\u00e9e par les relations que chaque mot entretient avec les autres unit\u00e9s du lexique et notamment avec les mots de sa famille morphologique et de sa s\u00e9rie d\u00e9rivationnelle. Ces relations forment des paradigmes analogiques. La mod\u00e9lisation a \u00e9t\u00e9 test\u00e9e sur le lexique du fran\u00e7ais en utilisant le dictionnaire informatis\u00e9 TLFi.","translation":["","The paper presents a linguistic and computational model aiming at making the morphological structure of the lexicon emerge from the formal and semantic regularities of the words it contains. The model is word-based. The proposed morphological structure consists of (1) binary relations that connect each headword with words that are morphologically related, and especially with the members of its morphological family and its derivational series, and of (2) the analogies that hold between the words. The model has been tested on the lexicon of French using the TLFi machine readable dictionary.","Derivational morphology, word-based morphology, morphological relatedness, formal analogy"],"keyphrases":["Morphologie d\u00e9rivationnelle","morphologie lex\u00e9matique","similarit\u00e9 morphologique","analogie formelle"],"prmu":["P","R","M","R"]} {"id":"taln-2009-long-002","title":"Analyse d\u00e9ductive pour les grammaires d\u2019interaction","abstract":"Nous proposons un algorithme d\u2019analyse pour les grammaires d\u2019interaction qui utilise le cadre formel de l\u2019analyse d\u00e9ductive. Cette approche donne un point de vue nouveau sur ce probl\u00e8me puisque les m\u00e9thodes pr\u00e9c\u00e9dentes r\u00e9duisaient ce dernier \u00e0 la r\u00e9\u00e9criture de graphes et utilisaient des techniques de r\u00e9solution de contraintes. D\u2019autre part, cette pr\u00e9sentation permet de d\u00e9crire le processus de mani\u00e8re standard et d\u2019exhiber les sources d\u2019ind\u00e9terminisme qui rendent ce probl\u00e8me difficile.","translation":["","We propose a parsing algorithm for Interaction Grammars using the deductive parsing framework. This approach brings new perspectives on this problem, departing from previous methods relying on constraint-solving techniques to interpret it as a graph-rewriting problem. Furthermore, this presentation allows a standard description of the algorithm and a fine-grained inspection of the sources of non-determinism.","Parsing, Interaction Grammars"],"keyphrases":["grammaires d\u2019interaction","Analyse syntaxique"],"prmu":["P","M"]} {"id":"taln-2009-long-003","title":"Analyse syntaxique en d\u00e9pendances de l\u2019oral spontan\u00e9","abstract":"Cet article d\u00e9crit un mod\u00e8le d\u2019analyse syntaxique de l\u2019oral spontan\u00e9 ax\u00e9 sur la reconnaissance de cadres valenciels verbaux. Le mod\u00e8le d\u2019analyse se d\u00e9compose en deux \u00e9tapes : une \u00e9tape g\u00e9n\u00e9rique, bas\u00e9e sur des ressources g\u00e9n\u00e9riques du fran\u00e7ais et une \u00e9tape de r\u00e9ordonnancement des solutions de l\u2019analyseur r\u00e9alis\u00e9 par un mod\u00e8le sp\u00e9cifique \u00e0 une application. Le mod\u00e8le est \u00e9valu\u00e9 sur le corpus MEDIA.","translation":["","We describe in this paper a syntactic parser for spontaneous speech geared towards the identification of verbal subcategorization frames. The parser proceeds in two stages. The first stage is based on generic syntactic ressources for French. The second stage is a reranker which is specially trained for a given application. The parser is evaluated on the MEDIA corpus.","Syntactic parsing, automatic speech recognition"],"keyphrases":["Analyse syntaxique","reconnaissance automatique de la parole"],"prmu":["P","M"]} {"id":"taln-2009-long-004","title":"Analyse syntaxique du fran\u00e7ais : des constituants aux d\u00e9pendances","abstract":"Cet article pr\u00e9sente une technique d\u2019analyse syntaxique statistique \u00e0 la fois en constituants et en d\u00e9pendances. L\u2019analyse proc\u00e8de en ajoutant des \u00e9tiquettes fonctionnelles aux sorties d\u2019un analyseur en constituants, entra\u00een\u00e9 sur le French Treebank, pour permettre l\u2019extraction de d\u00e9pendances typ\u00e9es. D\u2019une part, nous sp\u00e9cifions d\u2019un point de vue formel et linguistique les structures de d\u00e9pendances \u00e0 produire, ainsi que la proc\u00e9dure de conversion du corpus en constituants (le French Treebank) vers un corpus cible annot\u00e9 en d\u00e9pendances, et partiellement valid\u00e9. D\u2019autre part, nous d\u00e9crivons l\u2019approche algorithmique qui permet de r\u00e9aliser automatiquement le typage des d\u00e9pendances. En particulier, nous nous focalisons sur les m\u00e9thodes d\u2019apprentissage discriminantes d\u2019\u00e9tiquetage en fonctions grammaticales.","translation":["","This paper describes a technique for both constituent and dependency parsing. Parsing proceeds by adding functional labels to the output of a constituent parser trained on the French Treebank in order to further extract typed dependencies. On the one hand we specify on formal and linguistic grounds the nature of the dependencies to output as well as the conversion algorithm from the French Treebank to this dependency representation. On the other hand, we describe a class of algorithms that allows to perform the automatic labeling of the functions from the output of a constituent based parser. We specifically focus on discriminative learning methods for functional labelling.","Statistical parsing, constituent\/dependency parsing, grammatical function labeling"],"keyphrases":["\u00e9tiquetage en fonctions grammaticales","Analyseur syntaxique statistique","analyse en constituants\/d\u00e9pendances"],"prmu":["P","R","M"]} {"id":"taln-2009-long-005","title":"Annotation fonctionnelle de corpus arbor\u00e9s avec des Champs Al\u00e9atoires Conditionnels","abstract":"L\u2019objectif de cet article est d\u2019\u00e9valuer dans quelle mesure les \u201cfonctions syntaxiques\u201d qui figurent dans une partie du corpus arbor\u00e9 de Paris 7 sont apprenables \u00e0 partir d\u2019exemples. La technique d\u2019apprentissage automatique employ\u00e9e pour cela fait appel aux \u201cChamps Al\u00e9atoires Conditionnels\u201d (Conditional Random Fields ou CRF), dans une variante adapt\u00e9e \u00e0 l\u2019annotation d\u2019arbres. Les exp\u00e9riences men\u00e9es sont d\u00e9crites en d\u00e9tail et analys\u00e9es. Moyennant un bon param\u00e9trage, elles atteignent une F1-mesure de plus de 80%.","translation":["","The purpose of this paper is to evaluatewhether the \"syntactic functions\" present in a part of the Paris 7 Treebank are learnable from examples. The learning technic used is the one of \"Conditional Random Fields\" (CRF), in an original variant adapted to tree labelling. The conducted experiments are extensively described and analyzed. With good parameters, a F1-mesure value of over 80% is reached.","syntactic functions, Conditional Random Fields, Treebanks"],"keyphrases":["corpus arbor\u00e9s","fonctions syntaxiques","Conditional Random Fields"],"prmu":["P","P","P"]} {"id":"taln-2009-long-006","title":"Apport d\u2019un corpus comparable d\u00e9s\u00e9quilibr\u00e9 \u00e0 l\u2019extraction de lexiques bilingues","abstract":"Les principaux travaux en extraction de lexiques bilingues \u00e0 partir de corpus comparables reposent sur l\u2019hypoth\u00e8se implicite que ces corpus sont \u00e9quilibr\u00e9s. Cependant, les diff\u00e9rentes m\u00e9thodes computationnelles associ\u00e9es sont relativement insensibles \u00e0 la taille de chaque partie du corpus. Dans ce contexte, nous \u00e9tudions l\u2019influence que peut avoir un corpus comparable d\u00e9s\u00e9quilibr\u00e9 sur la qualit\u00e9 des terminologies bilingues extraites \u00e0 travers diff\u00e9rentes exp\u00e9riences. Nos r\u00e9sultats montrent que sous certaines conditions l\u2019utilisation d\u2019un corpus comparable d\u00e9s\u00e9quilibr\u00e9 peut engendrer un gain significatif dans la qualit\u00e9 des lexiques extraits.","translation":["","The main work in bilingual lexicon extraction from comparable corpora is based on the implicit hypothesis that corpora are balanced. However, the different related approaches are relatively insensitive to sizes of each part of the comparable corpus. Within this context, we study the influence of unbalanced comparable corpora on the quality of bilingual terminology extraction through different experiments. Our results show the conditions under which the use of an unbalanced comparable corpus can induce a significant gain in the quality of extracted lexicons.","Multilingualism, comparable corpus, bilingual lexicon extraction"],"keyphrases":["corpus comparable","extraction de lexiques bilingues","Multilinguisme"],"prmu":["P","P","U"]} {"id":"taln-2009-long-007","title":"Classification d\u2019un contenu encyclop\u00e9dique en vue d\u2019un \u00e9tiquetage par entit\u00e9s nomm\u00e9es","abstract":"On utilise souvent des ressources lexicales externes pour am\u00e9liorer les performances des syst\u00e8mes d\u2019\u00e9tiquetage d\u2019entit\u00e9s nomm\u00e9es. Les contenus de ces ressources lexicales peuvent \u00eatre vari\u00e9s : liste de noms propres, de lieux, de marques. On note cependant que la disponibilit\u00e9 de corpus encyclop\u00e9diques exhaustifs et ouverts de grande taille tels que Worldnet ou Wikipedia, a fait \u00e9merger de nombreuses propositions sp\u00e9cifiques d\u2019exploitation de ces contenus par des syst\u00e8mes d\u2019\u00e9tiquetage. Un probl\u00e8me demeure n\u00e9anmoins ouvert avec ces ressources : celui de l\u2019adaptation de leur taxonomie interne, complexe et compos\u00e9e de dizaines de milliers cat\u00e9gories, aux exigences particuli\u00e8res de l\u2019\u00e9tiquetage des entit\u00e9s nomm\u00e9es. Pour ces derni\u00e8res, au plus de quelques centaines de classes s\u00e9mantiques sont requises. Dans cet article nous explorons cette difficult\u00e9 et proposons un syst\u00e8me complet de transformation d\u2019un arbre taxonomique encyclop\u00e9dique en une syst\u00e8me \u00e0 classe s\u00e9mantiques adapt\u00e9 \u00e0 l\u2019\u00e9tiquetage d\u2019entit\u00e9s nomm\u00e9es.","translation":["","The advent of Wikipedia and WordNet aroused new interest in labeling by named entity aided by external resources. The availability of these large, multilingual, comprehensive and open digital encyclopaedic corpora suggests the development of labeling solutions that exploit the knowledge contained in these corpora. The mapping of a word sequence to an encyclopedic document is possible, however the classification of encyclopaedic entities and their related labels, is not yet fully resolved. The inconsistency of an open encyclopaedic corpus such as Wikipedia, makes sometimes difficult establishing a relationship between its entities and a restricted taxonomy. In this article we explore this problem and propose a complete system to meet this need.","Named entity recognition, classification, taxonomie"],"keyphrases":["classification","Entit\u00e9s nomm\u00e9es","taxonomie","Etiquetage"],"prmu":["P","P","P","U"]} {"id":"taln-2009-long-008","title":"\u00c9tude quantitative de liens entre l\u2019analogie formelle et la morphologie constructionnelle","abstract":"Plusieurs travaux ont r\u00e9cemment \u00e9tudi\u00e9 l\u2019apport de l\u2019apprentissage analogique dans des applications du traitement automatique des langues comme la traduction automatique, ou la recherche d\u2019information. Il est souvent admis que les relations analogiques de forme entre les mots capturent des informations de nature morphologique. Le but de cette \u00e9tude est de pr\u00e9senter une analyse des points de rencontre entre l\u2019analyse morphologique et les analogies de forme. C\u2019est \u00e0 notre connaissance la premi\u00e8re \u00e9tude de ce type portant sur des corpus de grande taille et sur plusieurs langues. Bien que notre \u00e9tude ne soit pas d\u00e9di\u00e9e \u00e0 une t\u00e2che particuli\u00e8re du traitement des langues, nous montrons cependant que le principe d\u2019analogie permet de segmenter des mots en morph\u00e8mes avec une bonne pr\u00e9cision.","translation":["","Several studies recently showed the interest of analogical learning for Natural Language processing tasks such as Machine Translation and Information Retrieval. It is often admitted that formal analogies between words capture morphological information. The purpose of this study os to quantify the correlations between morphological analysis and formal analogies. This is to our knowledge the first attempt to conduct such a quantitative analysis on large datasets and for several languages. Although this paper was not geared toward tackling a specific natural language processing task, we show that segmenting a word token into morphemes can be accomplished with a good precision by a simple strategy relying solely on formal analogy.","Analogical Learning, Formal Analogies, Morphological Analysis"],"keyphrases":["analogie formelle","Apprentissage analogique","analyse morphologique"],"prmu":["P","P","P"]} {"id":"taln-2009-long-009","title":"Exploitation d\u2019un corpus bilingue pour la cr\u00e9ation d\u2019un syst\u00e8me de traduction probabiliste Vietnamien - Fran\u00e7ais","abstract":"Cet article pr\u00e9sente nos premiers travaux en vue de la construction d\u2019un syst\u00e8me de traduction probabiliste pour le couple de langue vietnamien-fran\u00e7ais. La langue vietnamienne \u00e9tant consid\u00e9r\u00e9e comme une langue peu dot\u00e9e, une des difficult\u00e9s r\u00e9side dans la constitution des corpus parall\u00e8les, indispensable \u00e0 l\u2019apprentissage des mod\u00e8les. Nous nous concentrons sur la constitution d\u2019un grand corpus parall\u00e8le vietnamien-fran\u00e7ais. La m\u00e9thode d\u2019identification automatique des paires de documents parall\u00e8les fond\u00e9e sur la date de publication, les mots sp\u00e9ciaux et les scores d\u2019alignements des phrases est appliqu\u00e9e. Cet article pr\u00e9sente \u00e9galement la construction d\u2019un premier syst\u00e8me de traduction automatique probabiliste vietnamienfran\u00e7ais et fran\u00e7ais-vietnamien \u00e0 partir de ce corpus et discute l\u2019opportunit\u00e9 d\u2019utiliser des unit\u00e9s lexicales ou sous-lexicales pour le vietnamien (syllabes, mots, ou leurs combinaisons). Les performances du syst\u00e8me sont encourageantes et se comparent avantageusement \u00e0 celles du syst\u00e8me de Google.","translation":["","This paper presents our first attempt at constructing a Vietnamese-French statistical machine translation system. Since Vietnamese is considered as an under-resourced language, one of the difficulties is building a large Vietnamese-French parallel corpus, which is indispensable to train the models. We concentrate on building a large Vietnamese-French parallel corpus. The document alignment method based on publication date, special words and sentence alignment result is applied. The paper also presents an application of the obtained parallel corpus to the construction of a Vietnamese-French statistical machine translation system, where the use of different units for Vietnamese (syllables, words, or their combinations) is discussed. The performance of the system is encouraging and it compares favourably to that of Google Translate.","statistical machine translation, bilingual corpus, document alignment, phrase table"],"keyphrases":["corpus bilingue","traduction probabiliste","alignement de documents","table de traduction"],"prmu":["P","P","R","M"]} {"id":"taln-2009-long-010","title":"Influence des points d\u2019ancrage pour l\u2019extraction lexicale bilingue \u00e0 partir de corpus comparables sp\u00e9cialis\u00e9s","abstract":"L\u2019extraction de lexiques bilingues \u00e0 partir de corpus comparables affiche de bonnes performances pour des corpus volumineux mais chute fortement pour des corpus d\u2019une taille plus modeste. Pour pallier cette faiblesse, nous proposons une nouvelle contribution au processus d\u2019alignement lexical \u00e0 partir de corpus comparables sp\u00e9cialis\u00e9s qui vise \u00e0 renforcer la significativit\u00e9 des contextes lexicaux en s\u2019appuyant sur le vocabulaire sp\u00e9cialis\u00e9 du domaine \u00e9tudi\u00e9. Les exp\u00e9riences que nous avons r\u00e9alis\u00e9es en ce sens montrent qu\u2019une meilleure prise en compte du vocabulaire sp\u00e9cialis\u00e9 permet d\u2019am\u00e9liorer la qualit\u00e9 des lexiques extraits.","translation":["","Bilingual lexicon extraction from comparable corpora gives good results for large corpora but drops significantly for small size corpora. In order to compensate this weakness, we suggest a new contribution dedicated to the lexical alignment from specialized comparable corpora that strengthens the representativeness of the lexical contexts based on domainspecific vocabulary. The experiments carried out in this way show that taking better account the specialized vocabulary induces a significant improvement in the quality of extracted lexicons.","Comparable corpus, bilingual lexicon extraction, anchor points"],"keyphrases":["points d\u2019ancrage","Corpus comparable","extraction de lexiques bilingues"],"prmu":["P","P","P"]} {"id":"taln-2009-long-011","title":"Int\u00e9gration de l\u2019alignement de mots dans le concordancier bilingue TransSearch","abstract":"Malgr\u00e9 les nombreuses \u00e9tudes visant \u00e0 am\u00e9liorer la traduction automatique, la traduction assist\u00e9e par ordinateur reste la solution pr\u00e9f\u00e9r\u00e9e des traducteurs lorsqu\u2019une sortie de qualit\u00e9 est recherch\u00e9e. Dans cet article, nous pr\u00e9sentons nos travaux men\u00e9s dans le but d\u2019am\u00e9liorer le concordancier bilingue TransSearch. Ce service, accessible sur le Web, repose principalement sur un alignement au niveau des phrases. Dans cette \u00e9tude, nous discutons et \u00e9valuons l\u2019int\u00e9gration d\u2019un alignement statistique au niveau des mots. Nous pr\u00e9sentons deux nouvelles probl\u00e9matiques essentielles au succ\u00e8s de notre nouveau prototype : la d\u00e9tection des traductions erron\u00e9es et le regroupement des variantes de traduction similaires.","translation":["","Despite the impressive amount of recent studies devoted to improving the state of the art of machine translation, computer assisted translation tools remain the preferred solution of human translators when publication quality is of concern. In this paper, we present our ongoing efforts conducted within a project which aims at improving the commercial bilingual concordancer TransSearch. The core technology of this Web-based service mainly relies on sentence-level alignment. In this study, we discuss and evaluate the embedding of statistical word-level alignment. Two novel issues that are essential to the success of our new prototype are tackled: detecting erroneous translations and grouping together similar translations.","word-level alignment, bilingual concordancer, machine translation"],"keyphrases":["concordancier bilingue","traduction automatique","alignement au niveau des mots"],"prmu":["P","P","R"]} {"id":"taln-2009-long-012","title":"Jugements d'\u00e9valuation et constituants p\u00e9riph\u00e9riques","abstract":"L\u2019article pr\u00e9sente une \u00e9tude portant sur des constituants d\u00e9tach\u00e9s \u00e0 valeur axiologique. Dans un premier temps, une analyse linguistique sur corpus met en \u00e9vidence un ensemble de patrons caract\u00e9ristiques du ph\u00e9nom\u00e8ne. Ensuite, une exp\u00e9rimentation informatique est propos\u00e9e sur un corpus de plus grande taille afin de permettre l\u2019observation des patrons en vue d\u2019un retour sur le mod\u00e8le linguistique. Ce travail s\u2019inscrit dans un projet men\u00e9 \u00e0 l\u2019interface de la linguistique et du TAL, qui se donne pour but d\u2019enrichir, d\u2019adapter au fran\u00e7ais et de formaliser le mod\u00e8le g\u00e9n\u00e9ral Appraisal de l\u2019\u00e9valuation dans la langue.","translation":["","In this paper, we present a study about peripheral constituent expressing some axiological value. First, a linguistic corpus analysis highlights some characteristic patterns for this phenomenon. Then, a computational experiment is carried out on a larger corpus in order to enable the observation of these patterns and to get a feedback on the linguistic model. This work takes part in a project at the intersection of Linguistics and NLP, which aims at enhancing, adapting to French language and formalizing the Appraisal generic model of the evaluation in language.","evaluative judgement, peripheral constituent, evaluative constructions and lexicon, Appraisal, computational implementation, biographies and portraits in specialized press and newspapers"],"keyphrases":["Appraisal","jugement d\u2019\u00e9valuation","constituants extra-pr\u00e9dicatifs","constructions et lexiques subjectifs","impl\u00e9mentation informatique","portraits et biographies dans la presse de sp\u00e9cialit\u00e9 et la presse d\u2019information"],"prmu":["P","R","M","M","M","M"]} {"id":"taln-2009-long-013","title":"Le projet BabyTalk : g\u00e9n\u00e9ration de texte \u00e0 partir de donn\u00e9es h\u00e9t\u00e9rog\u00e8nes pour la prise de d\u00e9cision en unit\u00e9 n\u00e9onatale","abstract":"Notre soci\u00e9t\u00e9 g\u00e9n\u00e8re une masse d\u2019information toujours croissante, que ce soit en m\u00e9decine, en m\u00e9t\u00e9orologie, etc. La m\u00e9thode la plus employ\u00e9e pour analyser ces donn\u00e9es est de les r\u00e9sumer sous forme graphique. Cependant, il a \u00e9t\u00e9 d\u00e9montr\u00e9 qu'un r\u00e9sum\u00e9 textuel est aussi un mode de pr\u00e9sentation efficace. L'objectif du prototype BT-45, d\u00e9velopp\u00e9 dans le cadre du projet Babytalk, est de g\u00e9n\u00e9rer des r\u00e9sum\u00e9s de 45 minutes de signaux physiologiques continus et d'\u00e9v\u00e9nements temporels discrets en unit\u00e9 n\u00e9onatale de soins intensifs (NICU). L'article pr\u00e9sente l'aspect g\u00e9n\u00e9ration de texte de ce prototype. Une exp\u00e9rimentation clinique a montr\u00e9 que les r\u00e9sum\u00e9s humains am\u00e9liorent la prise de d\u00e9cision par rapport \u00e0 l'approche graphique, tandis que les textes de BT-45 donnent des r\u00e9sultats similaires \u00e0 l\u2019approche graphique. Une analyse a identifi\u00e9 certaines des limitations de BT-45 mais en d\u00e9pit de cellesci, notre travail montre qu'il est possible de produire automatiquement des r\u00e9sum\u00e9s textuels efficaces de donn\u00e9es complexes.","translation":["","Nowadays large amount of data is produced every day in medicine, meteorology and other areas and the most common approach to analyse such data is to present it graphically. However, it has been shown that textual summarisation is also an effective approach. As part of the BabyTalk project, the prototype BT-45 was developed to generate summaries of 45 minutes of continuous physiological signals and discrete temporal events in a neonatal intensive care unit (NICU). The paper presents its architecture with an emphasis on its natural language generation part. A clinical experiment showed that human textual summaries led to better decision making than graphical presentation, whereas BT-45 texts led to similar results as visualisations. An analysis identified some of the reasons for the BT-45 texts inferiority, but, despite these deficiencies, our work shows that it is possible for computer systems to generate effective textual summaries of complex data.","Natural language processing, Natural language generation, Intelligent data analysis, Intensive care unit, Decision support systems"],"keyphrases":["G\u00e9n\u00e9ration de texte","Traitement automatique des langues naturelles","Analyse de donn\u00e9es","Unit\u00e9 de soins intensifs","Syst\u00e8mes d'aide \u00e0 la d\u00e9cision"],"prmu":["P","M","R","R","M"]} {"id":"taln-2009-long-014","title":"Les adjectifs relationnels dans les lexiques informatis\u00e9s : formalisation et exploitation dans un contexte multilingue","abstract":"Dans cet article, nous nous int\u00e9ressons aux adjectifs dits relationnels et \u00e0 leur statut en traitement automatique des langues naturelles (TALN). Nous montrons qu\u2019ils constituent une \u00ab sous-classe \u00bb d\u2019adjectifs rarement explicit\u00e9e et donc rarement repr\u00e9sent\u00e9e dans les lexiques sur lesquels reposent les applications du TALN, alors qu\u2019ils jouent un r\u00f4le important dans de nombreuses applications. Leur formation morphologique est source d\u2019importantes divergences entre diff\u00e9rentes langues, et c\u2019est pourquoi ces adjectifs sont un v\u00e9ritable d\u00e9fi pour les applications informatiques multilingues. Dans une partie plus pratique, nous proposons une formalisation de ces adjectifs permettant de rendre compte de leurs liens avec leur base nominale. Nous tentons d\u2019extraire ces informations dans les lexiques informatis\u00e9s existants, puis nous les exploitons pour traduire les adjectifs relationnels pr\u00e9fix\u00e9s de l\u2019italien en fran\u00e7ais.","translation":["","This article focuses on a particular type of adjectives, relational adjectives, and especially on the way they are processed in natural language processing systems. We show that this class of adjectives is barely recorded in an explicit manner in computer lexicons. There is an important discrepancy in the way those adjectives are morphologically constructed in different languages, and therefore, they are a real challenge for multilingual computing applications. On a more practical side, we propose a formalisation for the adjectives that shows their semantic link with their nominal base. We make an attempt to extract this kind of information in existing machine lexica, and we exploit their semantic links in the translation of prefixed relational adjectives from Italian into French.","Relational adjectives, lexical resources, constructional morphology"],"keyphrases":["Adjectifs relationnels","ressources lexicales","morphologie constructionnelle"],"prmu":["P","U","M"]} {"id":"taln-2009-long-015","title":"Motifs s\u00e9quentiels pour l\u2019extraction d\u2019information : illustration sur le probl\u00e8me de la d\u00e9tection d\u2019interactions entre g\u00e8nes","abstract":"Face \u00e0 la prolif\u00e9ration des publications en biologie et m\u00e9decine (plus de 18 millions de publications actuellement recens\u00e9es dans PubMed), l\u2019extraction d\u2019information automatique est devenue un enjeu crucial. Il existe de nombreux travaux dans le domaine du traitement de la langue appliqu\u00e9e \u00e0 la biom\u00e9decine (\"BioNLP\"). Ces travaux se distribuent en deux grandes tendances. La premi\u00e8re est fond\u00e9e sur les m\u00e9thodes d\u2019apprentissage automatique de type num\u00e9rique qui donnent de bons r\u00e9sultats mais ont un fonctionnement de type \"boite noire\". La deuxi\u00e8me tendance est celle du TALN \u00e0 base d\u2019analyses (lexicales, syntaxiques, voire s\u00e9mantiques ou discursives) co\u00fbteuses en temps de d\u00e9veloppement des ressources n\u00e9cessaires (lexiques, grammaires, etc.). Nous proposons dans cet article une approche bas\u00e9e sur la d\u00e9couverte de motifs s\u00e9quentiels pour apprendre automatiquement les ressources linguistiques, en l\u2019occurrence les patrons linguistiques qui permettent l\u2019extraction de l\u2019information dans les textes. Plusieurs aspects m\u00e9ritent d\u2019\u00eatre soulign\u00e9s : cette approche permet de s\u2019affranchir de l\u2019analyse syntaxique de la phrase, elle ne n\u00e9cessite pas de ressources en dehors du corpus d\u2019apprentissage et elle ne demande que tr\u00e8s peu d\u2019intervention manuelle. Nous illustrons l\u2019approche sur le probl\u00e8me de la d\u00e9tection d\u2019interactions entre g\u00e8nes et donnons les r\u00e9sultats obtenus sur des corpus biologiques qui montrent l\u2019int\u00e9r\u00eat de ce type d\u2019approche.","translation":["","The proliferation of publications in biology andmedicine (more than 18million publications currently listed in PubMed) has lead to the crucial need of automatic information extraction. There are many work in the field of natural language processing applied to biomedicine (BioNLP). Two types of approaches tackle this problem. On the one hand, machine learning based approaches give good results but run as a \"black box\". On the second hand, NLP based approaches are highly time consuming for developing the resources (lexicons, grammars, etc.). In this paper, we propose an approach based on sequential pattern mining to automatically discover linguistic patterns that allow the information extraction in texts. This approach allows to overcome sentence parsing and it does not require resources outside the training data set. We illustrate the approach on the problem of detecting interactions between genes and give the results obtained on biological corpora that show the relevance of this type of approach.","Information extraction, text mining, sequential patterns, gene interactions"],"keyphrases":["motifs s\u00e9quentiels","Extraction d\u2019information","interactions entre g\u00e8nes","fouille de textes"],"prmu":["P","P","P","M"]} {"id":"taln-2009-long-016","title":"Prise en compte de d\u00e9pendances syntaxiques pour la traduction contextuelle de segments","abstract":"Dans un syst\u00e8me standard de traduction statistique bas\u00e9 sur les segments, le score attribu\u00e9 aux diff\u00e9rentes traductions d\u2019un segment ne d\u00e9pend pas du contexte dans lequel il appara\u00eet. Plusieurs travaux r\u00e9cents tendent \u00e0 montrer l\u2019int\u00e9r\u00eat de prendre en compte le contexte source lors de la traduction, mais ces \u00e9tudes portent sur des syst\u00e8mes traduisant vers l\u2019anglais, une langue faiblement fl\u00e9chie. Dans cet article, nous d\u00e9crivons nos exp\u00e9riences sur la prise en compte du contexte source dans un syst\u00e8me statistique traduisant de l\u2019anglais vers le fran\u00e7ais, bas\u00e9 sur l\u2019approche propos\u00e9e par Stroppa et al. (2007). Nous \u00e9tudions l\u2019impact de diff\u00e9rents types d\u2019indices capturant l\u2019information contextuelle, dont des d\u00e9pendances syntaxiques typ\u00e9es. Si les mesures automatiques d\u2019\u00e9valuation de la qualit\u00e9 d\u2019une traduction ne r\u00e9v\u00e8lent pas de gains significatifs de notre syst\u00e8me par rapport \u00e0 un syst\u00e8me \u00e0 l\u2019\u00e9tat de l\u2019art ne faisant pas usage du contexte, une \u00e9valuation manuelle conduite sur 100 phrases choisies al\u00e9atoirement est en faveur de notre syst\u00e8me. Cette \u00e9valuation fait \u00e9galement ressortir que la prise en compte de certaines d\u00e9pendances syntaxiques est b\u00e9n\u00e9fique \u00e0 notre syst\u00e8me.","translation":["","In standard phrase-based Statistical Machine Translation (PBSMT) systems, the score associated with each translation of a phrase does not depend on its context. While several works have shown the potential gain of exploiting source context, they all considered English, a morphologically poor language, as the target language. In this article, we describe experiments on exploiting the source context in an English -> French PBSMT system, inspired by the work of Stroppa et al. (2007). We report a study on the impact of various types of features that capture contextual information, including syntactic dependencies. While automatic metrics do not show significative gains relative to a baseline system, a manual evaluation of 100 randomly selected sentences concludes that our context-aware system performs consistently better. This evaluation also shows that some types of syntactic dependencies can participate to the gains observed.","Statistical Machine Translation, source context, syntactic dependencies"],"keyphrases":["d\u00e9pendances syntaxiques","contexte source","Traduction automatique statistique"],"prmu":["P","P","R"]} {"id":"taln-2009-long-017","title":"Proposition de caract\u00e9risation et de typage des expressions temporelles en contexte","abstract":"Nous assistons actuellement en TAL \u00e0 un regain d\u2019int\u00e9r\u00eat pour le traitement de la temporalit\u00e9 v\u00e9hicul\u00e9e par les textes. Dans cet article, nous pr\u00e9sentons une proposition de caract\u00e9risation et de typage des expressions temporelles tenant compte des travaux effectu\u00e9s dans ce domaine tout en cherchant \u00e0 pallier les manques et incompl\u00e9tudes de certains de ces travaux. Nous explicitons comment nous nous situons par rapport \u00e0 l\u2019existant et les raisons pour lesquelles parfois nous nous en d\u00e9marquons. Le typage que nous d\u00e9finissons met en \u00e9vidence de r\u00e9elles diff\u00e9rences dans l\u2019interpr\u00e9tation et le mode de r\u00e9solution r\u00e9f\u00e9rentielle d\u2019expressions qui, en surface, paraissent similaires ou identiques. Nous proposons un ensemble des crit\u00e8res objectifs et linguistiquement motiv\u00e9s permettant de reconna\u00eetre, de segmenter et de typer ces expressions. Nous verrons que cela ne peut se r\u00e9aliser sans consid\u00e9rer les proc\u00e8s auxquels ces expressions sont associ\u00e9es et un contexte parfois \u00e9loign\u00e9.","translation":["","Temporal processing in texts is a topic of renewed interest in NLP. In this paper we present a new way of typing temporal expressions that takes into account both the state of the art of this domain and that also tries to be more precise and accurate that some of the current proposals. We explain into what extent our proposal is compatible and comparable with the state-of-the art and why sometimes we stray from it. The typing system that we define highlights real differences in the interpretation and reference calculus of these expressions. At the same time, by offering objective criteria, it fulfils the necessity of high inter-agreement between annotators. After having defined what we consider as temporal expressions, we will show that tokenization, characterization and typing of those expressions can only be done having into account processes to which these expressions are linked.","temporal processing, temporal expressions characterization and typing"],"keyphrases":["Temporalit\u00e9","typage et caract\u00e9risation des expressions temporelles"],"prmu":["P","R"]} {"id":"taln-2009-long-018","title":"Quel indice pour mesurer l'efficacit\u00e9 en segmentation de textes?","abstract":"L'\u00e9valuation de l'efficacit\u00e9 d'algorithmes de segmentation th\u00e9matique est g\u00e9n\u00e9ralement effectu\u00e9e en quantifiant le degr\u00e9 d'accord entre une segmentation hypoth\u00e9tique et une segmentation de r\u00e9f\u00e9rence. Les indices classiques de pr\u00e9cision et de rappel \u00e9tant peu adapt\u00e9s \u00e0 ce domaine, WindowDiff (Pevzner, Hearst, 2002) s'est impos\u00e9 comme l'indice de r\u00e9f\u00e9rence. Une analyse de cet indice montre toutefois qu'il pr\u00e9sente plusieurs limitations. L'objectif de ce rapport est d'\u00e9valuer un indice propos\u00e9 par Bookstein, Kulyukin et Raita (2002), la distance de Hamming g\u00e9n\u00e9ralis\u00e9e, qui est susceptible de rem\u00e9dier \u00e0 celles-ci. Les analyses montrent que celui-ci conserve tous les avantages de WindowDiff sans les limitations. De plus, contrairement \u00e0 WindowDiff, il pr\u00e9sente une interpr\u00e9tation simple puisqu'il correspond \u00e0 une vraie distance entre les deux segmentations \u00e0 comparer.","translation":["","The evaluation of thematic segmentation algorithms is generally carried out by quantifying the degree of agreement between a hypothetical segmentation and a gold standard. The traditional indices of precision and recall being little adapted to this field, WindowDiff (Pevzner, Hearst, 2002) has become the standard for this kind of assessment. An analysis of this index shows however that it presents several limitations. The objective of this report is to evaluate an index developed by Bookstein, Kulyukin and Raita (2002), the Generalized Hamming Distance, which is likely to overcome these limitations. The analyzes show that it preserves all the advantages of WindowDiff without its limitations. Moreover, contrary to WindowDiff, it presents a simple interpretation since it corresponds to a true distance between the two segmentations.","Thematic segmentation, evaluation, generalized Hamming distance, WindowDiff"],"keyphrases":["\u00e9valuation","Segmentation th\u00e9matique","WindowDiff","distance de Hamming g\u00e9n\u00e9ralis\u00e9e"],"prmu":["P","P","P","P"]} {"id":"taln-2009-long-019","title":"Rep\u00e9rer automatiquement les segments obsolescents \u00e0 l\u2019aide d\u2019indices s\u00e9mantiques et discursifs","abstract":"Cet article vise la description et le rep\u00e9rage automatique des segments d\u2019obsolescence dans les documents de type encyclop\u00e9dique. Nous supposons que des indices s\u00e9mantiques et discursifs peuvent permettre le rep\u00e9rage de tels segments. Pour ce faire, nous travaillons sur un corpus annot\u00e9 manuellement par des experts sur lequel nous projetons des indices rep\u00e9r\u00e9s automatiquement. Les techniques statistiques de base ne permettent pas d\u2019expliquer ce ph\u00e9nom\u00e8ne complexe. Nous proposons l\u2019utilisation de techniques de fouille de donn\u00e9es pour le caract\u00e9riser et nous \u00e9valuons le pouvoir pr\u00e9dictif de nos indices. Nous montrons, \u00e0 l\u2019aide de techniques de classification supervis\u00e9e et de calcul de l\u2019aire sous la courbe ROC, que nos hypoth\u00e8ses sont pertinentes.","translation":["","This paper deals with the description and automatic tracking of obsolescence in encyclopedic type of documents. We suppose that semantic and discursive cues may allow the tracking of these segments. For that purpose, we have worked on an expert manually annotated corpus, on which we have projected automatically tracked cues. Basic statistic techniques can not account for this complex phenomenon. We propose the use of techniques of data mining to characterize it, and we evaluate the predictive power of our cues. We show, using techniques of supervised classification and area under the ROC curve, that our hypotheses are relevant.","automatic tracking of obsolescence, semantic and discursive cues, encyclopedic type of documents, supervised classification, area under the ROC curve"],"keyphrases":["indices s\u00e9mantiques et discursifs","classification supervis\u00e9e","aire sous la courbe ROC","rep\u00e9rage automatique de l\u2019obsolescence","textes encyclop\u00e9diques"],"prmu":["P","P","P","R","M"]} {"id":"taln-2009-long-020","title":"R\u00e9sum\u00e9 automatique de textes d\u2019opinions","abstract":"Le traitement des langues fait face \u00e0 une demande croissante en mati\u00e8re d\u2019analyse de textes v\u00e9hiculant des critiques ou des opinions. Nous pr\u00e9sentons ici un syst\u00e8me de r\u00e9sum\u00e9 automatique tourn\u00e9 vers l\u2019analyse d\u2019articles post\u00e9s sur des blogues, o\u00f9 sont exprim\u00e9es \u00e0 la fois des informations factuelles et des prises de position sur les faits consid\u00e9r\u00e9s. Nous montrons qu\u2019une approche classique \u00e0 base de traits de surface est tout \u00e0 fait efficace dans ce cadre. Le syst\u00e8me est \u00e9valu\u00e9 \u00e0 travers une participation \u00e0 la campagne d\u2019\u00e9valuation internationale TAC (Text Analysis Conference) o\u00f9 notre syst\u00e8me a r\u00e9alis\u00e9 des performances satisfaisantes.","translation":["","There is currently a growing need concerning the analysis of texts expressing opinions or judgements. In this paper, we present a summarization system that is specifically designed to process blog posts, where factual information is mixed with opinions. We show that a classical approach based on surface cues is efficient to summarize this kind of texts. The system is evaluated through a participation to TAC (Text Analysis Conference), an international evaluation framework for automatic summarization, in which our system obtained good results.","automatic summarization, analysis of subjective texts, automatic evaluation"],"keyphrases":["r\u00e9sum\u00e9 automatique","analyse de textes subjectifs","\u00e9valuation automatique"],"prmu":["P","M","R"]} {"id":"taln-2009-long-022","title":"Vers des contraintes plus linguistiques en r\u00e9solution de cor\u00e9f\u00e9rences","abstract":"Nous proposons un mod\u00e8le filtrant de r\u00e9solution de cor\u00e9f\u00e9rences bas\u00e9 sur les notions de transitivit\u00e9 et d\u2019exclusivit\u00e9 linguistique. \u00c0 partir de l\u2019hypoth\u00e8se g\u00e9n\u00e9rale que les cha\u00eenes de cor\u00e9f\u00e9rence demeurent coh\u00e9rentes tout au long d\u2019un texte, notre mod\u00e8le assure le respect de certaines contraintes linguistiques (via des filtres) quant \u00e0 la cor\u00e9f\u00e9rence, ce qui am\u00e9liore la r\u00e9solution globale. Le filtrage a lieu \u00e0 diff\u00e9rentes \u00e9tapes de l\u2019approche standard (c-\u00e0-d. par apprentissage automatique), y compris avant l\u2019apprentissage et avant la classification, acc\u00e9l\u00e9rant et am\u00e9liorant ce processus.","translation":["","We propose a filter model of coreference resolution that is based on the notions of transitivity and linguistic exclusivity. Starting from the general assumption that coreference sets remain coherent throughout a text, our model enforces the checking of some compatibility criteria (filters) between coreference candidates, thereby improving resolution performance. This filtering is achieved at different stages of the workflow of machine-learning-based coreference resolution, including at the standard learning and testing steps, where it may help reduce the computational load and better distribute the actual occurrences to be learned.","Coreference resolution, Machine learning, Constraint-based NLP"],"keyphrases":["R\u00e9solution de cor\u00e9f\u00e9rences","apprentissage automatique","linguistique informatique par contraintes"],"prmu":["P","P","M"]} {"id":"taln-2009-long-023","title":"Trouver et confondre les coupables : un processus sophistiqu\u00e9 de correction de lexique","abstract":"La couverture d\u2019un analyseur syntaxique d\u00e9pend avant tout de la grammaire et du lexique sur lequel il repose. Le d\u00e9veloppement d\u2019un lexique complet et pr\u00e9cis est une t\u00e2che ardue et de longue haleine, surtout lorsque le lexique atteint un certain niveau de qualit\u00e9 et de couverture. Dans cet article, nous pr\u00e9sentons un processus capable de d\u00e9tecter automatiquement les entr\u00e9es manquantes ou incompl\u00e8tes d\u2019un lexique, et de sugg\u00e9rer des corrections pour ces entr\u00e9es. La d\u00e9tection se r\u00e9alise au moyen de deux techniques reposant soit sur un mod\u00e8le statistique, soit sur les informations fournies par un \u00e9tiqueteur syntaxique. Les hypoth\u00e8ses de corrections pour les entr\u00e9es lexicales d\u00e9tect\u00e9es sont g\u00e9n\u00e9r\u00e9es en \u00e9tudiant les modifications qui permettent d\u2019am\u00e9liorer le taux d\u2019analyse des phrases dans lesquelles ces entr\u00e9es apparaissent. Le processus global met en oeuvre plusieurs techniques utilisant divers outils tels que des \u00e9tiqueteurs et des analyseurs syntaxiques ou des classifieurs d\u2019entropie. Son application au Lefff , un lexique morphologique et syntaxique \u00e0 large couverture du fran\u00e7ais, nous a d\u00e9j\u00e0 permis de r\u00e9aliser des am\u00e9liorations notables.","translation":["","The coverage of a parser depends mostly on the quality of the underlying grammar and lexicon. The development of a lexicon both complete and accurate is an intricate and demanding task, overall when achieving a certain level of quality and coverage. We introduce an automatic process able to detect missing or incomplete entries in a lexicon, and to suggest corrections hypotheses for these entries. The detection of dubious lexical entries is tackled by two techniques relying either on a specific statistical model, or on the information provided by a part-of-speech tagger. The generation of correction hypotheses for the detected entries is achieved by studying which modifications could improve the parse rate of the sentences in which the entries occur. This process brings together various techniques based on different tools such as taggers, parsers and entropy classifiers. Applying it on the Lefff , a large-coverage morphological and syntactic French lexicon, has already allowed us to perfom noticeable improvements.","Lexical acquisition and correction, wide coverage lexicon, error mining, tagger, entropy classifier, syntactic parser"],"keyphrases":["analyseur syntaxique","\u00e9tiqueteur syntaxique","classifieur d\u2019entropie","Acquisition et correction lexicale","lexique \u00e0 large couverture","fouille d\u2019erreurs"],"prmu":["P","P","P","M","R","M"]} {"id":"taln-2009-long-024","title":"Un analyseur de surface non d\u00e9terministe pour le fran\u00e7ais","abstract":"Les analyseurs syntaxiques de surface \u00e0 base de r\u00e8gles se caract\u00e9risent par un processus en deux temps : d\u00e9sambigu\u00efsation lexicale, puis reconnaissance de patrons. Consid\u00e9rant que ces deux \u00e9tapes introduisent une certaine redondance dans la description linguistique et une dilution des heuristiques dans les diff\u00e9rents processus, nous proposons de d\u00e9finir un analyseur de surface qui fonctionne sur une entr\u00e9e non d\u00e9sambigu\u00efs\u00e9e et produise l\u2019ensemble des analyses possibles en termes de syntagmes noyau (chunks). L\u2019analyseur, implant\u00e9 avec NooJ, repose sur la d\u00e9finition de patrons \u00e9tendus qui annotent des s\u00e9quences de syntagmes noyau. Les r\u00e9sultats obtenus sur un corpus de d\u00e9veloppement d\u2019environ 22 500 mots, avec un rappel proche de 100 %, montrent la faisabilit\u00e9 de l\u2019approche et signalent quelques points d\u2019ambigu\u00eft\u00e9 \u00e0 \u00e9tudier plus particuli\u00e8rement pour am\u00e9liorer la pr\u00e9cision.","translation":["","Rule-based chunkers are characterized by a two-tier process : part-of-speech disambiguation, and pattern matching. Considering that these two stages introduce some redundancy in the linguistic description and a dilution of heuristics over the different processes, we propose to define a chunker which parses a non-disambiguated input, and produces all possible analysis in terms of chunks. The parser, implemented with NooJ, relies on the definition of extended patterns, which annotate sequences of chunks. The results obtained on an approx. 22500 word corpus, with almost 100 % recall, demonstrate the feasability of the approach, and signal which ambiguities should be further studied in order to improve precision.","Chunking, finite-state automata, determinism, disambiguation"],"keyphrases":["d\u00e9terminisme","d\u00e9sambigu\u00efsation","Analyse syntaxique de surface","automates \u00e0 \u00e9tats finis"],"prmu":["P","P","R","M"]} {"id":"taln-2009-long-025","title":"Une approche mixte-statistique et structurelle - pour le r\u00e9sum\u00e9 automatique de d\u00e9p\u00eaches","abstract":"Les techniques de r\u00e9sum\u00e9 automatique multi-documents par extraction ont r\u00e9cemment \u00e9volu\u00e9 vers des m\u00e9thodes statistiques pour la s\u00e9lection des phrases \u00e0 extraire. Dans cet article, nous pr\u00e9sentons un syst\u00e8me conforme \u00e0 l\u2019\u00ab \u00e9tat de l\u2019art \u00bb \u2014 CBSEAS \u2014 que nous avons d\u00e9velopp\u00e9 pour les t\u00e2ches Opinion (r\u00e9sum\u00e9s d\u2019opinions issues de blogs) et Update (r\u00e9sum\u00e9s de d\u00e9p\u00eaches et mise \u00e0 jour du r\u00e9sum\u00e9 \u00e0 partir de nouvelles d\u00e9p\u00eaches sur le m\u00eame \u00e9v\u00e9nement) de la campagne d\u2019\u00e9valuation TAC 2008, et montrons l\u2019int\u00e9r\u00eat d\u2019analyses structurelles et linguistiques des documents \u00e0 r\u00e9sumer. Nous pr\u00e9sentons \u00e9galement notre \u00e9tude sur la structure des d\u00e9p\u00eaches et l\u2019impact de son int\u00e9gration \u00e0 CBSEAS.","translation":["","Automatic multi-document summarization techniques have recently evolved into statistical methods for selecting the sentences that will be used to generate the summary. In this paper, we present a system in accordance with \u00ab State-of-the-art \u00bb \u2014 CBSEAS \u2014 that we have developped for the \u00ab Opinion Task \u00bb (automatic summaries of opinions from blogs) and the \u00ab Update Task \u00bb (automatic summaries of newswire articles and information update) of the TAC 2008 evaluation campaign, and show the interest of structural and linguistic analysis of the documents to summarize .We also present our study on news structure and its integration to CBSEAS impact.","Automatic summarization, document structure"],"keyphrases":["R\u00e9sum\u00e9 automatique","structure de documents"],"prmu":["P","R"]} {"id":"taln-2009-long-026","title":"Une exp\u00e9rience de fusion pour l\u2019annotation d'entit\u00e9s nomm\u00e9es","abstract":"Nous pr\u00e9sentons une exp\u00e9rience de fusion d\u2019annotations d\u2019entit\u00e9s nomm\u00e9es provenant de diff\u00e9rents annotateurs. Ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 dans le cadre du projet Infom@gic, projet visant \u00e0 l\u2019int\u00e9gration et \u00e0 la validation d\u2019applications op\u00e9rationnelles autour de l\u2019ing\u00e9nierie des connaissances et de l\u2019analyse de l\u2019information, et soutenu par le p\u00f4le de comp\u00e9titivit\u00e9 Cap Digital \u00ab Image, MultiM\u00e9dia et Vie Num\u00e9rique \u00bb. Nous d\u00e9crivons tout d\u2019abord les quatre annotateurs d\u2019entit\u00e9s nomm\u00e9es \u00e0 l\u2019origine de cette exp\u00e9rience. Chacun d\u2019entre eux fournit des annotations d\u2019entit\u00e9s conformes \u00e0 une norme d\u00e9velopp\u00e9e dans le cadre du projet Infom@gic. L\u2019algorithme de fusion des annotations est ensuite pr\u00e9sent\u00e9 ; il permet de g\u00e9rer la compatibilit\u00e9 entre annotations et de mettre en \u00e9vidence les conflits, et ainsi de fournir des informations plus fiables. Nous concluons en pr\u00e9sentant et interpr\u00e9tant les r\u00e9sultats de la fusion, obtenus sur un corpus de r\u00e9f\u00e9rence annot\u00e9 manuellement.","translation":["","In this paper, we present an experiment aimed at merging named entity annotations provided by different annotators. This work has been performed as part of the Infom@gic project, whose goal is the integration and validation of knowledge engineering and information analysis applications, and which is supported by the pole of competitiveness Cap Digital \u00ab Image, MultiM\u00e9dia et Vie Num\u00e9rique \u00bb. We first describe the four annotators, which provide named entity annotations that conform to guidelines defined in the Infom@gic project. Then we present an algorithm for merging the different annotations. It uses information about the compatibility of various annotations and can point out conflicts, and thus yields annotations that are more reliable than those of any single annotator. We conclude by describing and interpreting the merging results obtained on a manually annotated reference corpus.","Named entities, fusion of annotations, UIMA"],"keyphrases":["Entit\u00e9s nomm\u00e9es","fusion d\u2019annotations","UIMA"],"prmu":["P","P","U"]} {"id":"taln-2009-long-027","title":"Un syst\u00e8me modulaire d\u2019acquisition automatique de traductions \u00e0 partir du Web","abstract":"Nous pr\u00e9sentons une m\u00e9thode de Traduction Automatique d\u2019Unit\u00e9s Lexicales Complexes (ULC) pour la construction de ressources bilingues fran\u00e7ais\/anglais, bas\u00e9e sur un syst\u00e8me modulaire qui prend en compte les propri\u00e9t\u00e9s linguistiques des unit\u00e9s sources (compositionnalit\u00e9, polys\u00e9mie, etc.). Notre syst\u00e8me exploite les diff\u00e9rentes \u00ab facettes \u00bb du Web multilingue pour valider des traductions candidates ou acqu\u00e9rir de nouvelles traductions. Apr\u00e8s avoir collect\u00e9 une base d\u2019ULC en fran\u00e7ais \u00e0 partir d\u2019un corpus de pages Web, nous passons par trois phases de traduction qui s\u2019appliquent \u00e0 un cas linguistique, avec une m\u00e9thode adapt\u00e9e : les traductions compositionnelles non polys\u00e9miques, les traductions compositionnelles polys\u00e9miques et les traductions non compositionnelles et\/ou inconnues. Notre \u00e9valuation sur un vaste \u00e9chantillon d\u2019ULC montre que l\u2019exploitation du Web pour la traduction et la prise en compte des propri\u00e9t\u00e9s linguistiques au sein d\u2019un syst\u00e8me modulaire permet une acquisition automatique de traductions avec une excellente pr\u00e9cision.","translation":["","We present a method of automatic translation (French\/English) of Complex Lexical Units (CLU) for aiming at extracting a bilingual lexicon. Our modular system is based on linguistic properties (compositionality, polysemy, etc.). Different aspects of the multilingual Web are used to validate candidate translations and collect new terms. We first build a French corpus of Web pages to collect CLU. Three adapted processing stages are applied for each linguistic property : compositional and non polysemous translations, compositional polysemous translations and non compositional translations. Our evaluation on a sample of CLU shows that our technique based on the Web can reach a very high precision.","Automatic translation, Complex lexical units, Lexical disambiguisation, World Wide Web, Terminology"],"keyphrases":["Traduction Automatique","Unit\u00e9s Lexicales Complexes","D\u00e9sambigu\u00efsation lexicale","World Wide Web","Terminologie"],"prmu":["P","P","M","M","U"]} {"id":"taln-2009-long-028","title":"Des relations d\u2019alignement pour d\u00e9crire l\u2019interaction des domaines linguistiques : vers des Grammaires Multimodales","abstract":"Un des probl\u00e8mes majeurs de la linguistique aujourd\u2019hui r\u00e9side dans la prise en compte de ph\u00e9nom\u00e8nes relevant de domaines et de modalit\u00e9s diff\u00e9rentes. Dans la litt\u00e9rature, la r\u00e9ponse consiste \u00e0 repr\u00e9senter les relations pouvant exister entre ces domaines de fa\u00e7on externe, en termes de relation de structure \u00e0 structure, s\u2019appuyant donc sur une description distincte de chaque domaine ou chaque modalit\u00e9. Nous proposons dans cet article une approche diff\u00e9rente permettant repr\u00e9senter ces ph\u00e9nom\u00e8nes dans un cadre formel unique, permettant de rendre compte au sein d\u2019une m\u00eame grammaire tous les ph\u00e9nom\u00e8nes concern\u00e9s. Cette repr\u00e9sentation pr\u00e9cise de l\u2019interaction entre domaines et modalit\u00e9s s\u2019appuie sur la d\u00e9finition de relations d\u2019alignement.","translation":["","Linguistics is now faced with the question of representing information coming from different domains or modalities. The classical answer consists in representing separately each of these domains, building for each of them an independent structure, and then representing domain interaction in terms of relation between structures. We propose n this paper a different approach in which all information is represented within a unique and homogeneous framework, making it possible to represent into a same grammar all interaction phenomena. This precise representation of interaction relies on the definition of a new notion of alignment relations.","Multimodality, domains interaction, grammar, multimodal corpora"],"keyphrases":["grammaire","Multimodalit\u00e9","interaction entre domaines","corpus multimodaux"],"prmu":["P","P","P","M"]} {"id":"taln-2009-long-029","title":"Vers une m\u00e9thodologie d\u2019annotation des entit\u00e9s nomm\u00e9es en corpus ?","abstract":"La t\u00e2che, aujourd\u2019hui consid\u00e9r\u00e9e comme fondamentale, de reconnaissance d\u2019entit\u00e9s nomm\u00e9es, pr\u00e9sente des difficult\u00e9s sp\u00e9cifiques en mati\u00e8re d\u2019annotation. Nous les pr\u00e9cisons ici, en les illustrant par des exp\u00e9riences d\u2019annotation manuelle dans le domaine de la microbiologie. Ces probl\u00e8mes nous am\u00e8nent \u00e0 reposer la question fondamentale de ce que les annotateurs doivent annoter et surtout, pour quoi faire. Nous identifions pour cela les applications n\u00e9cessitant l\u2019extraction d\u2019entit\u00e9s nomm\u00e9es et, en fonction des besoins de ces applications, nous proposons de d\u00e9finir s\u00e9mantiquement les \u00e9l\u00e9ments \u00e0 annoter. Nous pr\u00e9sentons ensuite un certain nombre de recommandations m\u00e9thodologiques permettant d\u2019assurer un cadre d\u2019annotation coh\u00e9rent et \u00e9valuable.","translation":["","Today, the named entity recognition task is considered as fundamental, but it involves some specific difficulties in terms of annotation. We list them here, with illustrations taken from manual annotation experiments in microbiology. Those issues lead us to ask the fundamental question of what the annotators should annotate and, even more important, for which purpose. We thus identify the applications using named entity recognition and, according to the real needs of those applications, we propose to semantically define the elements to annotate. Finally, we put forward a number of methodological recommendations to ensure a coherent and reliable annotation scheme.","annotation, named entities extraction"],"keyphrases":["annotation","reconnaissance d\u2019entit\u00e9s nomm\u00e9es"],"prmu":["P","P"]} {"id":"taln-2009-position-001","title":"Donn\u00e9es bilingues pour la TAS fran\u00e7ais-anglais : impact de la langue source et direction de traduction originales sur la qualit\u00e9 de la traduction","abstract":"Dans cet article, nous prenons position par rapport \u00e0 la question de la qualit\u00e9 des donn\u00e9es bilingues destin\u00e9es \u00e0 la traduction automatique statistique en terme de langue source et direction de traduction originales \u00e0 l\u2019\u00e9gard d\u2019une t\u00e2che de traduction fran\u00e7ais-anglais. Nous montrons que l\u2019entra\u00eenement sur un corpus contenant des textes qui ont \u00e9t\u00e9 \u00e0 l\u2019origine traduits du fran\u00e7ais vers l\u2019anglais am\u00e9liore la qualit\u00e9 de la traduction. Inversement, l\u2019entra\u00eenement sur un corpus contenant exclusivement des textes dont la langue source originale n\u2019est ni le fran\u00e7ais ni l\u2019anglais d\u00e9grade la traduction.","translation":["","In this paper, we argue about the quality of bilingual data for statistical machine translation in terms of the original source language and translation direction in the context of a French to English translation task. We show that data containing original French and English translated from French improves translation quality. Conversely, using data comprising exclusively French and English translated from several other languages results in a clear-cut decrease in translation quality.","Statistical machine translation, bilingual corpus, translation direction, source language, target language"],"keyphrases":["langue source","Traduction automatique statistique","corpus bilingue","direction de la traduction","langue cible"],"prmu":["P","P","R","R","M"]} {"id":"taln-2009-position-002","title":"La place de la d\u00e9sambigu\u00efsation lexicale dans la Traduction Automatique Statistique","abstract":"L\u2019\u00e9tape de la d\u00e9sambigu\u00efsation lexicale est souvent esquiv\u00e9e dans les syst\u00e8mes de Traduction Automatique Statistique (Statistical Machine Translation (SMT)) car consid\u00e9r\u00e9e comme non n\u00e9cessaire \u00e0 la s\u00e9lection de traductions correctes. Le d\u00e9bat autour de cette n\u00e9cessit\u00e9 est actuellement assez vif. Dans cet article, nous pr\u00e9sentons les principales positions sur le sujet. Nous analysons les avantages et les inconv\u00e9nients de la conception actuelle de la d\u00e9sambigu\u00efsation dans le cadre de la SMT, d\u2019apr\u00e8s laquelle les sens des mots correspondent \u00e0 leurs traductions dans des corpus parall\u00e8les. Ensuite, nous pr\u00e9sentons des arguments en faveur d\u2019une analyse plus pouss\u00e9e des informations s\u00e9mantiques induites \u00e0 partir de corpus parall\u00e8les et nous expliquons comment les r\u00e9sultats d\u2019une telle analyse pourraient \u00eatre exploit\u00e9s pour une \u00e9valuation plus flexible et concluante de l\u2019impact de la d\u00e9sambigu\u00efsation dans la SMT.","translation":["","Word Sense Disambiguation (WSD) is often omitted in Statistical Machine Translation (SMT) systems, as it is considered unnecessary for lexical selection. The discussion on the need ofWSD is currently very active. In this article we present the main positions on the subject. We analyze the advantages and weaknesses of the current conception of WSD in SMT, according to which the senses of ambiguous words correspond to their translations in a parallel corpus. Then we present some arguments towards a more thorough analysis of the semantic information induced from parallel corpora and we explain how the results of this analysis could be exploited for a more flexible and conclusive evaluation of the impact of WSD on SMT.","Word Sense Disambiguation, Statistical Machine Translation, lexical selection"],"keyphrases":["D\u00e9sambigu\u00efsation lexicale","Traduction Automatique Statistique","s\u00e9lection lexicale"],"prmu":["P","P","R"]} {"id":"taln-2009-position-003","title":"Nouveau paradigme d\u2019\u00e9valuation des syst\u00e8mes de dialogue homme-machine","abstract":"L\u2019\u00e9valuation des syst\u00e8mes de dialogue homme-machine est un probl\u00e8me difficile et pour lequel ni les objectifs ni les solutions propos\u00e9es ne font aujourd\u2019hui l\u2019unanimit\u00e9. Les approches ergonomiques traditionnelles soumettent le syst\u00e8me de dialogue au regard critique de l\u2019utilisateur et tente d\u2019en capter l\u2019expression, mais l\u2019absence d\u2019un cadre objectivable des usages de ces utilisateurs emp\u00eache une comparaison entre syst\u00e8mes diff\u00e9rents, ou entre \u00e9volutions d\u2019un m\u00eame syst\u00e8me. Nous proposons d\u2019inverser cette vision et de mesurer le comportement de l\u2019utilisateur au regard du syst\u00e8me de dialogue. Aussi, au lieu d\u2019\u00e9valuer l\u2019ad\u00e9quation du syst\u00e8me \u00e0 ses utilisateurs, nous mesurons l\u2019ad\u00e9quation des utilisateurs au syst\u00e8me. Ce changement de paradigme permet un changement de r\u00e9f\u00e9rentiel qui n\u2019est plus les usages des utilisateurs mais le cadre du syst\u00e8me. Puisque le syst\u00e8me est compl\u00e8tement d\u00e9fini, ce paradigme permet des approches quantitatives et donc des \u00e9valuations comparatives de syst\u00e8mes.","translation":["","Evaluation of a human-machine dialogue system is a difficult problem for which neither the objectives nor the proposed solutions gather a unanimous support. Traditional approaches in the ergonomics field evaluate the system by describing how it fits the user in the user referential of practices. However, the user referential is even more complicated to formalise, and one cannot ground a common use context to enable the comparison of two systems, even if they are merely an evolution of the same service. We propose to shift the point of view on the evaluation problem : instead of evaluating the system in interaction with the user in the user\u2019s referential, we will now measure the user\u2019s adequacy to the system in the system referential. This is our Copernician revolution : for the evaluation purpose, our system is no longer user-centric, because the user referential is not properly objectifiable, while the system referential is completely known by design.","Evaluation, Dialogue"],"keyphrases":["\u00c9valuation","Dialogue"],"prmu":["P","P"]} {"id":"taln-2009-demo-001","title":"ACOLAD un environnement pour l\u2019\u00e9dition de corpus de d\u00e9pendances","abstract":"Dans cette d\u00e9monstration, nous pr\u00e9sentons le prototype d\u2019un environnement open-source pour l\u2019\u00e9dition de corpus de d\u00e9pendances. Cet environnement, nomm\u00e9 ACOLAD (Annotation de COrpus Linguistique pour l\u2019Analyse de d\u00e9pendances), propose des services manuels de segmentation et d\u2019annotation multi-niveaux (segmentation en mots et en syntagmes minimaux (chunks), annotation morphosyntaxique des mots, annotation syntaxique des chunks et annotation syntaxique des d\u00e9pendances entre mots ou entre chunks).","translation":["","",""],"keyphrases":["\u00e9dition","d\u00e9pendances","chunk"],"prmu":["P","P","P"]} {"id":"taln-2009-demo-002","title":"Amener des utilisateurs \u00e0 cr\u00e9er et \u00e9valuer des paraphrases par le jeu","abstract":"Dans cet article, nous pr\u00e9sentons une application sur le web pour l\u2019acquisition de paraphrases phrastiques et sous-phrastiques sous forme de jeu. L\u2019application permet l\u2019acquisition \u00e0 la fois de paraphrases et de jugements humains multiples sur ces paraphrases, ce qui constitue des donn\u00e9es particuli\u00e8rement utiles pour les applications du TAL bas\u00e9es sur les ph\u00e9nom\u00e8nes paraphrastiques.","translation":["","In this article, we present a web application presented as a game for acquiring sentencial and phrasal paraphrases. It can be used both to acquire paraphrases and important quantities of human evaluations of their quality. These are particularly useful for NLP applications relying on paraphrasing.","Paraphrasing, data acquisition, data evaluation"],"keyphrases":["Paraphrase","acquisition de donn\u00e9es","\u00e9valuation de donn\u00e9es"],"prmu":["P","R","R"]} {"id":"taln-2009-demo-003","title":"anymalign : un outil d\u2019alignement sous-phrastique libre pour les \u00eatres humains","abstract":"Nous pr\u00e9sentons anymalign, un aligneur sous-phrastique grand public. Ses r\u00e9sultats ont une qualit\u00e9 qui rivalise avec le meilleur outil du domaine, GIZA++. Il est rapide et simple d\u2019utilisation, et permet de produire dictionnaires et autres tables de traduction en une seule commande. \u00c0 notre connaissance, c\u2019est le seul outil au monde permettant d\u2019aligner un nombre quelconque de langues simultan\u00e9ment. Il s\u2019agit donc du premier aligneur sousphrastique r\u00e9ellement multilingue.","translation":["","We present anymalign, a sub-sentential aligner oriented towards end users. It produces results that are competitive with the best known tool in the domain, GIZA++. It is fast and easy to use, and allows dictionaries or translation tables to be produced in a single command. To our knowledge, it is the only tool in the world capable of aligning any number of languages simultaneously. It is therefore the first truly multilingual sub-sentential aligner.","sub-sentential alignment, multilinguism, translation table"],"keyphrases":["alignement sous-phrastique","table de traduction","multilinguisme"],"prmu":["P","P","P"]} {"id":"taln-2009-demo-004","title":"Apport des outils de TAL \u00e0 la construction d\u2019ontologies : propositions au sein de la plateforme DaFOE","abstract":"La construction d\u2019ontologie \u00e0 partir de textes fait l\u2019objet d\u2019\u00e9tudes depuis plusieurs ann\u00e9es dans le domaine de l\u2019ing\u00e9nierie des ontologies. Un cadre m\u00e9thodologique en quatre \u00e9tapes (constitution d\u2019un corpus de documents, analyse linguistique du corpus, conceptualisation, op\u00e9rationnalisation de l\u2019ontologie) est commun \u00e0 la plupart des m\u00e9thodes de construction d\u2019ontologies \u00e0 partir de textes. S\u2019il existe plusieurs plateformes de traitement automatique de la langue (TAL) permettant d\u2019analyser automatiquement les corpus et de les annoter tant du point de vue syntaxique que statistique, il n\u2019existe actuellement aucune proc\u00e9dure g\u00e9n\u00e9ralement accept\u00e9e, ni a fortiori aucun ensemble coh\u00e9rent d\u2019outils supports, permettant de concevoir de fa\u00e7on progressive, explicite et tra\u00e7able une ontologie de domaine \u00e0 partir d\u2019un ensemble de ressources informationnelles relevant de ce domaine. Le but de ce court article est de pr\u00e9senter les propositions d\u00e9velopp\u00e9es, au sein du projet ANR DaFOE 4app, pour favoriser l\u2019\u00e9mergence d\u2019un tel ensemble d\u2019outils.","translation":["","The concept of ontologies, appeared in the nineties, constitute a key point to represent and share the meaning carried out by formal symbols. Thus, the building of such an ontology is quite difficult. A way to do so is to use preexistent elements (textual corpus, taxonomies, norms or other ontologies) and operate them as a basis to define the ontology field. However, there is neither accepted process nor set of tools to progressively built ontologies from the available resources in a traceable and explicit way. We report in this paper several propositions developed within the framework of the ANR DaFOE4App project to support emergence of such tools.","Ontology, Ontology building, NLP"],"keyphrases":["construction d\u2019ontologie","Ontologie","TALN"],"prmu":["P","P","U"]} {"id":"taln-2009-demo-005","title":"ASSIST : un moteur de recherche sp\u00e9cialis\u00e9 pour l\u2019analyse des cadres d\u2019exp\u00e9riences","abstract":"L\u2019analyse qualitative des donn\u00e9es demande au sociologue un important travail de s\u00e9lection et d\u2019interpr\u00e9tation des documents. Afin de faciliter ce travail, cette communaut\u00e9 c\u2019est dot\u00e9e d\u2019outils informatique mais leur fonctionnalit\u00e9s sont encore limit\u00e9es. Le projet ASSIST est une \u00e9tude exploratoire pour pr\u00e9ciser les modules de traitement automatique des langues (TAL) permettant d\u2019assister le sociologue dans son travail d\u2019analyse. Nous pr\u00e9sentons le moteur de recherche r\u00e9alis\u00e9 et nous justifions le choix des composants de TAL int\u00e9gr\u00e9s au prototype.","translation":["","Qualitative data analysis requiers from the sociologist an important work of selection and interpretation of the documents. To facilitate this work, several software have been created but their functionalities are still limitated. The ASSIST project is a preliminary work to define the natural language processing modules for helping the sociologist. We present the search engine realised and justify the NLP modules integrated in the prototype.","Information Retrieval, Information Extraction, Terminology"],"keyphrases":["Recherche d\u2019information","Extraction d\u2019information","Terminologie"],"prmu":["M","M","U"]} {"id":"taln-2009-demo-006","title":"CETLEF.fr - diagnostic automatique des erreurs de d\u00e9clinaison tch\u00e8que dans un outil ELAO","abstract":"CETLEF.fr \u2013 une application Web dynamique \u2013 propose des exercices de d\u00e9clinaison tch\u00e8que avec un diagnostic automatique des erreurs. Le diagnostic a n\u00e9cessit\u00e9 l'\u00e9laboration d'un mod\u00e8le formel sp\u00e9cifique de la d\u00e9clinaison contenant un classement des types paradigmatiques et des r\u00e8gles pour la r\u00e9alisation des alternances morph\u00e9matiques. Ce mod\u00e8le est employ\u00e9 pour l'annotation des formes requises, n\u00e9cessaire pour le diagnostic, mais \u00e9galement pour une pr\u00e9sentation didactique sur la plateforme apprenant. Le diagnostic est effectu\u00e9 par comparaison d'une production erron\u00e9e avec des formes hypoth\u00e9tiques g\u00e9n\u00e9r\u00e9es \u00e0 partir du radical de la forme requise et des diff\u00e9rentes d\u00e9sinences casuelles. S'il existe une correspondance, l'erreur est interpr\u00e9t\u00e9e d'apr\u00e8s les diff\u00e9rences dans les traits morphologiques de la forme requise et de la forme hypoth\u00e9tique. La majorit\u00e9 des erreurs commises peut \u00eatre interpr\u00e9t\u00e9e \u00e0 l'aide de cette technique.","translation":["","CETLEF.fr \u2013 a dynamic Web application \u2013 contains fill-in-the-blank exercises on Czech declension with an automatic error diagnosis. The diagnosis rendered necessary the definition of a specific formal model of nominal inflection containing a classification of the paradigms and the rules for the realization of morphemic alternations. This model has been employed for the morphological annotation of required forms, necessary for the error diagnosis as well as for a didactic presentation on the learning platform. Diagnosis is carried out by the comparison of an erroneous production with hypothetical forms generated from the radical of the required form and various haphazard endings. If a correspondence is found, the error is interpreted according to the differences in the morphological features of the required form and the hypothetical form. The majority of errors can be interpreted with the aid of this technique.","inflectional morphology, Czech declension, second language acquisition, error diagnosis and feedback, CALL"],"keyphrases":["d\u00e9clinaison tch\u00e8que","ELAO","morphologie flexionnelle","acquisition d'une langue \u00e9trang\u00e8re","diagnostic des erreurs et feedback"],"prmu":["P","P","M","M","M"]} {"id":"taln-2009-demo-007","title":"CIFLI-SurviTra, deux facettes : d\u00e9monstrateur de composants de TA fond\u00e9e sur UNL, et phrasebook multilingue","abstract":"CIFLI-SurviTra (\"Survival Translation\" assistant) est une plate-forme destin\u00e9e \u00e0 favoriser l'ing\u00e9nierie et la mise au point de composants UNL de TA, \u00e0 partir d'une m\u00e9moire de traduction form\u00e9e de livres de phrases multilingues avec variables lexicales. SurviTra est aussi un phrasebook digital multilingue, assistant linguistique pour voyageurs monolingues (fran\u00e7ais, hindi, tamoul, anglais) en situation de \"survie linguistique\". Le corpus d\u2019un domaine-pilote (\"Restaurant\") a \u00e9t\u00e9 structur\u00e9 et construit : sous-domaines de phrases align\u00e9es et classes lexicales de locutions quadrilingues, graphes UNL, dictionnaires UW++\/fran\u00e7ais et UW++\/hindi par domaines. L\u2019approche, g\u00e9n\u00e9rique, est applicable \u00e0 d\u2019autres langues. Le prototype d\u2019assistant linguistique (application Web, \u00e0 interface textuelle) peut \u00e9voluer vers une application UNL embarqu\u00e9e sur SmartPhone, avec Traitement de Parole et multimodalit\u00e9.","translation":["","",""],"keyphrases":["m\u00e9moire de traduction","phrasebook digital multilingue","TA via UNL","d\u00e9monstrateur de composants UNL","assistant linguistique sur le Web","collecte collaborative de corpus"],"prmu":["P","P","M","R","R","M"]} {"id":"taln-2009-demo-008","title":"Composition multilingue de sentiments","abstract":"Nous pr\u00e9sentons ici PolArt, un outil multilingue pour l\u2019analyse de sentiments qui aborde la composition des sentiments en appliquant des transducteurs en cascade. La compositionnalit\u00e9 est assur\u00e9e au moyen de polarit\u00e9s pr\u00e9alables extraites d\u2019un lexique et des r\u00e8gles de composition appliqu\u00e9es de mani\u00e8re incr\u00e9mentielle.","translation":["","We introduce PolArt, a multilingual tool for sentiment detection that copes with sentiment composition through the application of cascaded transducers. Compositionality is enabled by prior polarities taken from a polarity lexicon and the compositional rules applied incrementally.","Sentiment Detection"],"keyphrases":["Analyse de sentiments"],"prmu":["P"]} {"id":"taln-2009-demo-009","title":"EXCOM : Plate-forme d'annotation s\u00e9mantique de textes multilingues","abstract":"Nous proposons une plateforme d\u201fannotation s\u00e9mantique, appel\u00e9e \u00ab EXCOM \u00bb. Bas\u00e9e sur la m\u00e9thode de l\u201f \u00ab Exploration Contextuelle \u00bb, elle permet, \u00e0 travers une diversit\u00e9 de langues, de proc\u00e9der \u00e0 des annotations automatiques de segments textuels par l'analyse des formes de surface dans leur contexte. Les textes sont trait\u00e9s selon des \u00ab points de vue \u00bb discursifs dont les valeurs sont organis\u00e9es dans une \u00ab carte s\u00e9mantique \u00bb. L\u201fannotation se base sur un ensemble de r\u00e8gles linguistiques, \u00e9crites par un analyste, qui permettent d\u201fidentifier les repr\u00e9sentations textuelles sous-jacentes aux diff\u00e9rentes cat\u00e9gories de la carte. Le syst\u00e8me offre, \u00e0 travers deux types d\u201finterfaces (d\u00e9veloppeur ou utilisateur), une cha\u00eene de traitements automatiques de textes qui comprend la segmentation, l\u201fannotation et d\u201fautres fonctionnalit\u00e9s de post-traitement. Les documents annot\u00e9s peuvent \u00eatre utilis\u00e9s, par exemple, pour des syst\u00e8mes de recherche d\u201finformation, de veille, de classification ou de r\u00e9sum\u00e9 automatique.","translation":["","We propose a platform for semantic annotation, called \u201cEXCOM\u201d. Based on the \u201cContextual Exploration\u201d method, it enables, across a great range of languages, to perform automatic annotations of textual segments by analyzing surface forms in their context. Texts are approached through discursive \u201cpoints of view\u201d, of which values are organized into a \u201csemantic map\u201d. The annotation is based on a set of linguistic rules, manually constructed by an analyst, and that enables to automatically identify the textual representations underlying the different semantic categories of the map. The system provides through two sorts of user-friendly interfaces (analyst or end-user) a complete pipeline of automatic text processing which consists of segmentation, annotation and other post-processing functionalities. Annotated documents can be used, for instance, for information retrieval systems, classification or automatic summarization.","Platform, automatic annotation, Contextual Exploration, semantic analysis, discoursive markers, Semantic Map, multilingual approach"],"keyphrases":["Plate-forme","multilinguisme","Exploration Contextuelle","Annotation automatique","carte s\u00e9mantique","analyse s\u00e9mantique","marqueurs discursifs"],"prmu":["P","P","P","P","P","R","M"]} {"id":"taln-2009-demo-011","title":"SAGACE-v3.3 ; Analyseur de corpus pour langues non flexionnelles","abstract":"Nous pr\u00e9sentons la derni\u00e8re version du logiciel SAGACE, analyseur de corpus pour langues faiblement flexionnelles (par exemple japonais ou chinois). Ce logiciel est distribu\u00e9 avec un lexique o\u00f9 les cat\u00e9gories sont exprim\u00e9es \u00e0 l'aide de syst\u00e8mes de traits.","translation":["","We present a software program named SAGACE, designed to search for and extract word strings from a large corpus. It has been conceived for poor flexional languages, such as Japanese or Chinese. It is associated with a lexicon where categories are expressed with feature systems.","corpus, lexicon, analyzer, japanese, chinese"],"keyphrases":["analyseur","corpus","japonais","chinois","lexique"],"prmu":["P","P","P","P","P"]} {"id":"taln-2009-demo-012","title":"Apache UIMA pour le Traitement Automatique des Langues","abstract":"L\u2019objectif de la d\u00e9monstration est d\u2019une part de faire un retour d\u2019exp\u00e9rience sur la solution logicielle Apache UIMA comme infrastructure de d\u00e9veloppement d\u2019applications distribu\u00e9es de TAL, et d\u2019autre part de pr\u00e9senter les d\u00e9veloppements r\u00e9alis\u00e9s par l\u2019\u00e9quipe TALN du LINA pour permettre \u00e0 la communaut\u00e9 de s\u2019approprier ce \u00ab framework \u00bb.","translation":["","Our objectives are twofold : First, based on some common use cases, we will discuss the interest of using UIMA as a middleware solution for developing Natural Language Processing systems. Second, we will present various preprocessing tools we have developed in order to facilitate the access to the framework for the French community.","Apache UIMA, NLP applications, Middleware"],"keyphrases":["Apache UIMA","Applications du TAL","Infrastructure logicielle"],"prmu":["P","R","R"]} {"id":"taln-2009-demo-014","title":"Un chunker multilingue endog\u00e8ne","abstract":"Le chunking consiste \u00e0 segmenter un texte en chunks, segments sous-phrastiques qu'Abney a d\u00e9fini approximativement comme des groupes accentuels. Traditionnellement, le chunking utilise des ressources monolingues, le plus souvent exhaustives, quelquefois partielles : des mots grammaticaux et des ponctuations, qui marquent souvent des d\u00e9buts et fins de chunk. Mais cette m\u00e9thode, si l'on veut l'\u00e9tendre \u00e0 de nombreuses langues, n\u00e9cessite de multiplier les ressources monolingues. Nous pr\u00e9sentons une nouvelle m\u00e9thode : le chunking endog\u00e8ne, qui n'utilise aucune ressource hormis le texte analys\u00e9 lui-m\u00eame. Cette m\u00e9thode prolonge les travaux de Zipf : la minimisation de l'effort de communication conduit les locuteurs \u00e0 raccourcir les mots fr\u00e9quents. On peut alors caract\u00e9riser un chunk comme \u00e9tant la p\u00e9riode des fonctions p\u00e9riodiques correll\u00e9es longueur et effectif des mots sur l'axe syntagmatique. Cette m\u00e9thode originale pr\u00e9sente l'avantage de s'appliquer \u00e0 un grand nombre de langues d'\u00e9criture alphab\u00e9tique, avec le m\u00eame algorithme, sans aucune ressource.","translation":["","Chunking is segmenting a text into chunks, sub-sentential segments, that Abney approximately defined as stress groups. Chunking usually uses monolingual resources, most often exhaustive, sometimes partial : function words and punctuations, which often mark beginnings and ends of chunks. But, to extend this method to other languages, monolingual resources have to be multiplied. We present a new method : endogenous chunking, which uses no other resource than the text to be parsed itself. The idea of this method comes from Zipf : to make the least communication effort, speakers are driven to shorten frequent words. A chunk then can be characterised as the period of the periodic correlated functions length and frequency of words on the syntagmatic axis. This original method takes its advantage to be applied to a great number of languages of alphabetic script, with the same algorithm, without any resource.","chunking, multilingual, endogenous, word length, word frequency"],"keyphrases":["multilingue","endog\u00e8ne","chunking","effectif des mots","longueur des mots"],"prmu":["P","P","P","P","R"]} {"id":"taln-2009-court-001","title":"Adaptation de parsers statistiques lexicalis\u00e9s pour le fran\u00e7ais : Une \u00e9valuation compl\u00e8te sur corpus arbor\u00e9s","abstract":"Cet article pr\u00e9sente les r\u00e9sultats d\u2019une \u00e9valuation exhaustive des principaux analyseurs syntaxiques probabilistes dit \u201clexicalis\u00e9s\u201d initialement con\u00e7us pour l\u2019anglais, adapt\u00e9s pour le fran\u00e7ais et \u00e9valu\u00e9s sur le CORPUS ARBOR\u00c9 DU FRAN\u00c7AIS (Abeill\u00e9 et al., 2003) et le MODIFIED FRENCH TREEBANK (Schluter & van Genabith, 2007). Confirmant les r\u00e9sultats de (Crabb\u00e9 & Candito, 2008), nous montrons que les mod\u00e8les lexicalis\u00e9s, \u00e0 travers les mod\u00e8les de Charniak (Charniak, 2000), ceux de Collins (Collins, 1999) et le mod\u00e8le des TIG Stochastiques (Chiang, 2000), pr\u00e9sentent des performances moindres face \u00e0 un analyseur PCFG \u00e0 Annotation Latente (Petrov et al., 2006). De plus, nous montrons que le choix d\u2019un jeu d\u2019annotations issus de tel ou tel treebank oriente fortement les r\u00e9sultats d\u2019\u00e9valuations tant en constituance qu\u2019en d\u00e9pendance non typ\u00e9e. Compar\u00e9s \u00e0 (Schluter & van Genabith, 2008; Arun & Keller, 2005), tous nos r\u00e9sultats sont state-of-the-art et infirment l\u2019hypoth\u00e8se d\u2019une difficult\u00e9 particuli\u00e8re qu\u2019aurait le fran\u00e7ais en terme d\u2019analyse syntaxique probabiliste et de sources de donn\u00e9es.","translation":["","This paper presents complete investigation results on the statistical parsing of French by bringing a complete evaluation on French data of the main based probabilistic lexicalized (Charniak, Collins, Chiang) and unlexicalized (Berkeley) parsers designed first on the Penn Treebank. We adapted the parsers on the two existing treebanks of French (Abeill\u00e9 et al., 2003; Schluter & van Genabith, 2007). To our knowledge, all the results reported here are state-of-the-art for the constituent parsing of French on every available treebank and invalidate the hypothesis of French being particularly difficult to parse. Regarding the algorithms, the comparisons show that lexicalized parsing models are outperformed by the unlexicalized Berkeley parser. Regarding the treebanks, we observe that a tag set with specific features has direct influences over evaluation results depending on the parsing model.","Probabilistic parsing, treebanks, evaluation, French parsing"],"keyphrases":["\u00e9valuation","corpus arbor\u00e9s","Analyse syntaxique probabiliste","analyse du fran\u00e7ais"],"prmu":["P","P","P","R"]} {"id":"taln-2009-court-002","title":"Analyse automatique des noms d\u00e9verbaux compos\u00e9s : pourquoi et comment faire interagir analogie et syst\u00e8me de r\u00e8gles","abstract":"Cet article aborde deux probl\u00e8mes d\u2019analyse morpho-s\u00e9mantique du lexique : (1) attribuer automatiquement une d\u00e9finition \u00e0 des noms et verbes morphologiquement construits inconnus des dictionnaires mais pr\u00e9sents dans les textes ; (2) proposer une analyse combinant r\u00e8gles et analogie, deux techniques g\u00e9n\u00e9ralement contradictoires. Les noms analys\u00e9s sont apparemment suffix\u00e9s et compos\u00e9s (HYDROMASSAGE). La plupart d\u2019entre eux, massivement attest\u00e9s dans les documents (journaux, Internet) sont absents des dictionnaires. Ils sont souvent reli\u00e9s \u00e0 des verbes (HYDROMASSER) \u00e9galement n\u00e9ologiques. Le nombre de ces noms et verbes est estim\u00e9 \u00e0 5.400. L\u2019analyse propos\u00e9e leur attribue une d\u00e9finition par rapport \u00e0 leur base, et enrichit un lexique de r\u00e9f\u00e9rence pour le TALN au moyen de cette base, si elle est n\u00e9ologique. L\u2019impl\u00e9mentation des contraintes linguistiques qui r\u00e9gissent ces formations est reproductible dans d\u2019autres langues europ\u00e9ennes o\u00f9 sont rencontr\u00e9s les m\u00eames types de donn\u00e9es dont l\u2019analyse refl\u00e8te le m\u00eame raisonnement que pour le fran\u00e7ais.","translation":["","This paper addresses two morpho-semantic parsing issues: (1) to automatically provide morphologically complex unknown nouns and verbs with a definition; (2) to propose a methodology combining both rules and analogy, which are techniques usually seen as inconsistent with eachother. The analysed nouns look like both suffixed and compounded (HYDROMASSAGE). Most of them are not stored in dictionaries, although they are very frequent in newspapers or online documents. They are often related to verbs (HYDROMASSER), also lacking from dictionaries. The estimated amount of these nouns and verbs is 5,400. The proposed analysis assigns them a definition calculated according to their base meaning, and it increases the existing reference lexicon content with this base, from the moment that it is a new-coined form. The implementation of linguistic constraints which govern this word formations is reproducible in other West-European languages, where the same data type is found, subject to the same kind of analysis.","Morphological parsing, Semantic annotation, Neo-classical compounds, Deverbal nouns, Rules, Analogy"],"keyphrases":["Noms d\u00e9verbaux","Analogie","R\u00e8gles","Analyse morphologique","Annotation s\u00e9mantique","Composition savante"],"prmu":["P","P","P","R","U","U"]} {"id":"taln-2009-court-003","title":"Analyse en d\u00e9pendances \u00e0 l\u2019aide des grammaires d\u2019interaction","abstract":"Cet article propose une m\u00e9thode pour extraire une analyse en d\u00e9pendances d\u2019un \u00e9nonc\u00e9 \u00e0 partir de son analyse en constituants avec les grammaires d\u2019interaction. Les grammaires d\u2019interaction sont un formalisme grammatical qui exprime l\u2019interaction entre les mots \u00e0 l\u2019aide d\u2019un syst\u00e8me de polarit\u00e9s. Le m\u00e9canisme de composition syntaxique est r\u00e9gi par la saturation des polarit\u00e9s. Les interactions s\u2019effectuent entre les constituants, mais les grammaires \u00e9tant lexicalis\u00e9es, ces interactions peuvent se traduire sur les mots. La saturation des polarit\u00e9s lors de l\u2019analyse syntaxique d\u2019un \u00e9nonc\u00e9 permet d\u2019extraire des relations de d\u00e9pendances entre les mots, chaque d\u00e9pendance \u00e9tant r\u00e9alis\u00e9e par une saturation. Les structures de d\u00e9pendances ainsi obtenues peuvent \u00eatre vues comme un raffinement de l\u2019analyse habituellement effectu\u00e9e sous forme d\u2019arbre de d\u00e9pendance. Plus g\u00e9n\u00e9ralement, ce travail apporte un \u00e9clairage nouveau sur les liens entre analyse en constituants et analyse en d\u00e9pendances.","translation":["","This article proposes a method to extract dependency structures from phrasestructure level parsing with Interaction Grammars. Interaction Grammars are a formalism which expresses interactions among words using a polarity system. Syntactical composition is led by the saturation of polarities. Interactions take place between constituents, but as grammars are lexicalized, these interactions can be translated at the level of words. Dependency relations are extracted from the parsing process : every dependency is the consequence of a polarity saturation. The dependency relations we obtain can be seen as a refinement of the usual dependency tree. Generally speaking, this work sheds new light on links between phrase structure and dependency parsing.","Syntactic analysis, dependency grammars, interaction grammars, polarity"],"keyphrases":["grammaires d\u2019interaction","polarit\u00e9","Analyse syntaxique","grammaires de d\u00e9pendances"],"prmu":["P","P","P","R"]} {"id":"taln-2009-court-004","title":"Analyse rel\u00e2ch\u00e9e \u00e0 base de contraintes","abstract":"La question de la grammaticalit\u00e9, et celle duale de l\u2019agrammaticalit\u00e9, sont des sujets d\u00e9licats \u00e0 aborder, d\u00e8s lors que l\u2019on souhaite int\u00e9grer diff\u00e9rents degr\u00e9s, tant de grammaticalit\u00e9 que d\u2019agrammaticalit\u00e9. En termes d\u2019analyse automatique, les probl\u00e8mes pos\u00e9s sont de l\u2019ordre de la repr\u00e9sentation des connaissances, du traitement, et bien \u00e9videment de l\u2019\u00e9valuation. Dans cet article, nous nous concentrons sur l\u2019aspect traitement, et nous nous penchons sur la question de l\u2019analyse d\u2019\u00e9nonc\u00e9s agrammaticaux. Nous explorons la possibilit\u00e9 de fournir une analyse la plus compl\u00e8te possible pour un \u00e9nonc\u00e9 agrammatical, sans l\u2019apport d\u2019information compl\u00e9mentaire telle que par le biais de mal-r\u00e8gles ou autre grammaire d\u2019erreurs. Nous proposons une solution algorithmique qui permet l\u2019analyse automatique d\u2019un \u00e9nonc\u00e9 agrammatical, sur la seule base d\u2019une grammaire mod\u00e8le-th\u00e9orique de bonne formation. Cet analyseur est prouv\u00e9 g\u00e9n\u00e9rer une solution optimale, selon un crit\u00e8re num\u00e9rique maximis\u00e9.","translation":["","The question of grammaticality, and the dual one of ungrammaticality, are topics delicate to address when interested in modeling different degrees, whether of grammaticality or ungrammaticality. As far as parsing is concerned, the problems are with regard to knowledge representation, processing, and obviously evaluation. In this paper, we concentrate on the processing aspect and we address the question of parsing ungrammatical utterances. We explore the possibility to provide a full parse for an ungrammatical utterance without relying on any kind of additional information, which would be provided by mal-rules or other error grammar. We propose an algorithmic solution in order to parse an ungrammatical utterance using only a model-theoretic grammar of well-formedness. The parser is proven to generate an optimal solution, according to a maximised criterion.","grammaticality, syntactic parsing, constraints, Model-Theoretic Syntax"],"keyphrases":["contraintes","grammaticalit\u00e9","analyse syntaxique","syntaxe mod\u00e8le-th\u00e9orique"],"prmu":["P","P","M","M"]} {"id":"taln-2009-court-005","title":"ANNODIS: une approche outill\u00e9e de l'annotation de structures discursives","abstract":"Le projet ANNODIS vise la construction d\u2019un corpus de textes annot\u00e9s au niveau discursif ainsi que le d\u00e9veloppement d'outils pour l\u2019annotation et l\u2019exploitation de corpus. Les annotations adoptent deux points de vue compl\u00e9mentaires : une perspective ascendante part d'unit\u00e9s de discours minimales pour construire des structures complexes via un jeu de relations de discours ; une perspective descendante aborde le texte dans son entier et se base sur des indices pr\u00e9-identifi\u00e9s pour d\u00e9tecter des structures discursives de haut niveau. La construction du corpus est associ\u00e9e \u00e0 la cr\u00e9ation de deux interfaces : la premi\u00e8re assiste l'annotation manuelle des relations et structures discursives en permettant une visualisation du marquage issu des pr\u00e9traitements ; une seconde sera destin\u00e9e \u00e0 l'exploitation des annotations. Nous pr\u00e9sentons les mod\u00e8les et protocoles d'annotation \u00e9labor\u00e9s pour mettre en oeuvre, au travers de l'interface d\u00e9di\u00e9e, la campagne d'annotation.","translation":["","The ANNODIS project has two interconnected objectives: to produce a corpus of texts annotated at discourse-level, and to develop tools for corpus annotation and exploitation. Two sets of annotations are proposed, representing two complementary perspectives on discourse organisation: a bottom-up approach starting from minimal discourse units and building complex structures via a set of discourse relations; a top-down approach envisaging the text as a whole and using pre-identified cues to detect discourse macro-structures. The construction of the corpus goes hand in hand with the development of two interfaces: the first one supports manual annotation of discourse structures, and allows different views of the texts using NLPM-based pre-processing; another interface will support the exploitation of the annotations. We present the discourse models and annotation protocols, and the interface which embodies them.","corpus annotation, discourse structures, annotation tools"],"keyphrases":["annotation de corpus","structures de discours","interface d'annotation"],"prmu":["R","R","R"]} {"id":"taln-2009-court-006","title":"Apport de la syntaxe dans un syst\u00e8me de question-r\u00e9ponse : \u00e9tude du syst\u00e8me FIDJI.","abstract":"Cet article pr\u00e9sente une s\u00e9rie d\u2019\u00e9valuations visant \u00e0 \u00e9tudier l\u2019apport d\u2019une analyse syntaxique robuste des questions et des documents dans un syst\u00e8me de questions-r\u00e9ponses. Ces \u00e9valuations ont \u00e9t\u00e9 effectu\u00e9es sur le syst\u00e8me FIDJI, qui utilise \u00e0 la fois des informations syntaxiques et des techniques plus \u201ctraditionnelles\u201d. La s\u00e9lection des documents, l\u2019extraction de la r\u00e9ponse ainsi que le comportement selon les diff\u00e9rents types de questions ont \u00e9t\u00e9 \u00e9tudi\u00e9s.","translation":["","This paper presents some experiments aiming at estimating the contribution of a syntactic parser on both questions and documents in a question-answering system. This evaluation has been performed with the system FIDJI, which makes use of both syntactic information and more \u201ctraditional\u201d techniques. Document selection, answer extraction as well as system behaviour on different types of questions have been experimented.","Question-answering, syntactic analysis, evaluation"],"keyphrases":["\u00e9valuation","analyse syntaxique","Syst\u00e8mes de questions-r\u00e9ponses"],"prmu":["P","P","P"]} {"id":"taln-2009-court-007","title":"Apport des cooccurrences \u00e0 la correction et \u00e0 l'analyse syntaxique","abstract":"Le correcteur grammatical Cordial utilise depuis de nombreuses ann\u00e9es les cooccurrences pour la d\u00e9sambigu\u00efsation s\u00e9mantique. Un dictionnaire de cooccurrences ayant \u00e9t\u00e9 constitu\u00e9 pour les utilisateurs du logiciel de correction et d'aides \u00e0 la r\u00e9daction, la grande richesse de ce dictionnaire a incit\u00e9 \u00e0 l'utiliser intensivement pour la correction, sp\u00e9cialement des homonymes et paronymes. Les r\u00e9sultats obtenus sont spectaculaires sur ces types d'erreurs mais la prise en compte des cooccurrences a \u00e9galement \u00e9t\u00e9 utilis\u00e9e avec profit pour la pure correction orthographique et pour le rattachement des groupes en analyse syntaxique.","translation":["","For many years, the spellchecker named Cordial has been using cooccurrences for semantic disambiguation. Since a dictionary of co-occurrences had been established for users of the spellchecker and of the writing aid, the richness of this dictionary led us to use it intensively for the correction, especially for homonyms and paronyms. The results are impressive on this kind of errors but taking into account the cooccurrences proved to be very profitable for pure spellchecking and for the attachment of groups in syntactic parsing.","collocation, grammar checking"],"keyphrases":["cooccurrences","collocations","correction grammaticale"],"prmu":["P","U","R"]} {"id":"taln-2009-court-009","title":"Association automatique de lemmes et de paradigmes de flexion \u00e0 un mot inconnu","abstract":"La maintenance et l\u2019enrichissement des lexiques morphosyntaxiques sont souvent des t\u00e2ches fastidieuses. Dans cet article nous pr\u00e9sentons la mise en place d\u2019une proc\u00e9dure de guessing de flexion afin d\u2019aider les linguistes dans leur travail de lexicographes. Le guesser d\u00e9velopp\u00e9 ne fait pas qu\u2019\u00e9valuer l\u2019\u00e9tiquette morphosyntaxique comme c\u2019est g\u00e9n\u00e9ralement le cas. Il propose pour un mot fran\u00e7ais inconnu, un ou plusieurs candidats-lemmes, ainsi que les paradigmes de flexion associ\u00e9s (formes fl\u00e9chies et \u00e9tiquettes morphosyntaxiques). Dans cet article, nous d\u00e9crivons le mod\u00e8le probabiliste utilis\u00e9 ainsi que les r\u00e9sultats obtenus. La m\u00e9thode utilis\u00e9e permet de r\u00e9duire consid\u00e9rablement le nombre de r\u00e8gles \u00e0 valider, permettant ainsi un gain de temps important.","translation":["","Lexicon maintenance and lexicon enrichment is a labour-intensive task. In this paper, we present preliminary work on an inflectional guessing procedure for helping the linguist in lexicographic tasks. The guesser presented here does not only output morphosyntactic tags, but also suggests for an unknown French word one or more lemma candidates as well as their corresponding inflectional rules and morphosyntactic tags that the linguist has to validate. In this article, we present the probabilistic model we used as well as obtained results. The method allows a drastic reduction of the number of rules to validate.","guesser, morphosyntactic lexica, aide to the linguist, induction of inflection rules"],"keyphrases":["lexiques morphosyntaxiques","guesser","aide aux linguistes","induction des r\u00e8gles de flexion"],"prmu":["P","P","M","M"]} {"id":"taln-2009-court-010","title":"Cat\u00e9gorisation s\u00e9mantico-discursive des \u00e9valuations exprim\u00e9es dans la blogosph\u00e8re","abstract":"Les blogs constituent un support d\u2019observations id\u00e9al pour des applications li\u00e9es \u00e0 la fouille d\u2019opinion. Toutefois, ils imposent de nouvelles probl\u00e9matiques et de nouveaux d\u00e9fis au regard des m\u00e9thodes traditionnelles du domaine. De ce fait, nous proposons une m\u00e9thode automatique pour la d\u00e9tection et la cat\u00e9gorisation des \u00e9valuations localement exprim\u00e9es dans un corpus de blogs multi-domaine. Celle-ci rend compte des sp\u00e9cificit\u00e9s du langage \u00e9valuatif d\u00e9crites dans deux th\u00e9ories linguistiques. L\u2019outil d\u00e9velopp\u00e9 au sein de la plateforme UIMA vise d\u2019une part \u00e0 construire automatiquement une grammaire du langage \u00e9valuatif, et d\u2019autre part \u00e0 utiliser cette grammaire pour la d\u00e9tection et la cat\u00e9gorisation des passages \u00e9valuatifs d\u2019un texte. La cat\u00e9gorisation traite en particulier l\u2019aspect axiologique de l\u2019\u00e9valuation, sa configuration d\u2019\u00e9nonciation et sa modalit\u00e9 dans le discours.","translation":["","Blogs are an ideal observation for applications related to the opinion mining task. However, they impose new problems and new challenges in this field. Therefore, we propose a method for automatic detection and classification of appraisal locally expressed in a multi-domain blogs corpus. It reflects the specific aspects of appraisal language described in two linguistic theories. The tool developed within the UIMA platform aims both to automatically build a grammar of the appraisal language, and the other part to use this grammar for the detection and categorization of evaluative segments in a text. Categorization especially deals with axiological aspect of an evaluative segments, enunciative configuration and its attitude in discourse.","opinion mining, appraisal language, appraisal classification"],"keyphrases":["fouille d\u2019opinion","cat\u00e9gorisation des \u00e9valuations","langage \u00e9valuatif"],"prmu":["P","P","P"]} {"id":"taln-2009-court-011","title":"Cha\u00eene de traitement linguistique : du rep\u00e9rage d'expressions temporelles au peuplement d'une ontologie de tourisme","abstract":"Cet article pr\u00e9sente la cha\u00eene de traitement linguistique r\u00e9alis\u00e9e pour la mise en place d'une plateforme touristique sur Internet. Les premi\u00e8res \u00e9tapes de cette cha\u00eene sont le rep\u00e9rage et l'annotation des expressions temporelles pr\u00e9sentes dans des pages Web. Ces deux t\u00e2ches sont effectu\u00e9es \u00e0 l'aide de patrons linguistiques. Elles soul\u00e8vent de nombreux questionnements auxquels nous tentons de r\u00e9pondre, notamment au sujet de la d\u00e9finition des informations \u00e0 extraire, du format d'annotation et des contraintes. L'\u00e9tape suivante consiste en l'exploitation des donn\u00e9es annot\u00e9es pour le peuplement d'une ontologie du tourisme. Nous pr\u00e9sentons les r\u00e8gles d'acquisition n\u00e9cessaires pour alimenter la base de connaissance du projet. Enfin, nous exposons une \u00e9valuation du syst\u00e8me d'annotation. Cette \u00e9valuation permet de juger aussi bien le rep\u00e9rage des expressions temporelles que leur annotation.","translation":["","This paper presents the linguistic data processing sequence built for a tourism web portal. The first steps of this sequence are the detection and the annotation of the temporal expressions found in the web pages. These tasks are performed using linguistic patterns. They lead to many questions which we try to answer, such as the definition of information to detect, annotation format and constraints. In the next step this annotated data is used to populate a tourism ontology. We present the acquisition rules which are necessary to enrich the portal knowledge base. Then we present an evaluation of our annotation system. This evaluation is able to judge the detection of the temporal expressions and their annotation.","Annotation, temporal expressions, ontologies, knowledge base, tourism"],"keyphrases":["expressions temporelles","ontologies","tourisme","Annotation","base de connaissance"],"prmu":["P","P","P","P","P"]} {"id":"taln-2009-court-012","title":"D\u00e9tection des contradictions dans les annotations s\u00e9mantiques","abstract":"L\u2019annotation s\u00e9mantique a pour objectif d\u2019apporter au texte une repr\u00e9sentation explicite de son interpr\u00e9tation s\u00e9mantique. Dans un pr\u00e9c\u00e9dent article, nous avons propos\u00e9 d\u2019\u00e9tendre les ontologies par des r\u00e8gles d\u2019annotation s\u00e9mantique. Ces r\u00e8gles sont utilis\u00e9es pour l\u2019annotation s\u00e9mantique d\u2019un texte au regard d\u2019une ontologie dans le cadre d\u2019une plate-forme d\u2019annotation linguistique automatique. Nous pr\u00e9sentons dans cet article une mesure, bas\u00e9e sur la valeur de Shapley, permettant d\u2019identifier les r\u00e8gles qui sont sources de contradiction dans l\u2019annotation s\u00e9mantique. Par rapport aux classiques mesures de pr\u00e9cision et de rappel, l\u2019int\u00e9r\u00eat de cette mesure est de ne pas n\u00e9cessiter de corpus manuellement annot\u00e9, d\u2019\u00eatre enti\u00e8rement automatisable et de permettre l\u2019identification des r\u00e8gles qui posent probl\u00e8me.","translation":["","The semantic annotation has the objective to bring to a text an explicit representation of its semantic interpretation. In a preceding article, we suggested extending ontologies by semantic annotation rules. These rules are used for the semantic annotation of a text with respect to an ontology within the framework of an automated linguistic annotation platform. We present in this article a measure, based on the Shapley value, allowing to identify the rules which are sources of contradictions in the semantic annotation. With regard to the classic measures, precision and recall, the interest of this measure is without the requirement of manually annotated corpus, completely automated and its ability to identify rules which raise problems.","Semantic annotation, Shapley value, annotation platform"],"keyphrases":["Annotation s\u00e9mantique","plate-forme d\u2019annotation","valeur de Shapley"],"prmu":["P","P","P"]} {"id":"taln-2009-court-013","title":"D\u00e9tection des \u00e9motions \u00e0 partir du contenu linguistique d\u2019\u00e9nonc\u00e9s oraux : application \u00e0 un robot compagnon pour enfants fragilis\u00e9s","abstract":"Le projet ANR Emotirob aborde la question de la d\u00e9tection des \u00e9motions sous un cadre original : concevoir un robot compagnon \u00e9motionnel pour enfants fragilis\u00e9s. Notre approche consiste \u00e0 combiner d\u00e9tection linguistique et prosodie. Nos exp\u00e9riences montrent qu'un sujet humain peut estimer de mani\u00e8re fiable la valence \u00e9motionnelle d'un \u00e9nonc\u00e9 \u00e0 partir de son contenu propositionnel. Nous avons donc d\u00e9velopp\u00e9 un premier mod\u00e8le de d\u00e9tection linguistique qui repose sur le principe de compositionnalit\u00e9 des \u00e9motions : les mots simples ont une valence \u00e9motionnelle donn\u00e9e et les pr\u00e9dicats modifient la valence de leurs arguments. Apr\u00e8s une description succincte du syst\u00e8me logique de compr\u00e9hension dont les sorties sont utilis\u00e9es pour le calcul global de l'\u00e9motion, cet article pr\u00e9sente la construction d'une norme \u00e9motionnelle lexicale de r\u00e9f\u00e9rence, ainsi que d'une ontologie de classes \u00e9motionnelles de pr\u00e9dicats, pour des enfants de 5 et 7 ans.","translation":["","Project ANR Emotirob aims at detecting emotions from an original point of view: realizing an emotional companion robot for weakened children. In our approach, linguistic detection and prosodie are combined. Our experiments show that human beings can estimate the emotional value of an utterance from its propositional content in a reliable way. So we have implemented a first model of linguistic detection, based on the principle that emotions can be compound: lexical words have an emotional value while predicates can modify emotional values of their arguments. This paper presents a short description of the logical understanding system, the outputs of which are used for the final emotional value calculus. Then, the creation of a lexical emotional reference standard is presented with an ontology of emotional predicate classes for children, aged between 5 and 7.","Emotion, Emotional valency, Emotional lexical standard, companion robot, spoken language understanding"],"keyphrases":["robot compagnon","valence \u00e9motionnelle","Emotion","norme lexicale \u00e9motionnelle","compr\u00e9hension de parole"],"prmu":["P","P","U","R","M"]} {"id":"taln-2009-court-014","title":"Dispersion s\u00e9mantique dans des familles morpho-phonologiques : \u00e9l\u00e9ments th\u00e9oriques et empiriques","abstract":"Traditionnellement, la morphologie lexicale a \u00e9t\u00e9 diachronique et a permis de proposer le concept de famille de mots. Ce dernier est repris dans les \u00e9tudes en synchronie et repose sur une forte coh\u00e9rence s\u00e9mantique entre les mots d\u2019une m\u00eame famille. Dans cet article, nous proposons une approche en synchronie fond\u00e9e sur la notion de continuit\u00e9 \u00e0 la fois phonologique et s\u00e9mantique. Nous nous int\u00e9ressons, d\u2019une part, \u00e0 la morpho-phonologie et, d\u2019autre part, \u00e0 la dispersion s\u00e9mantique des mots dans les familles. Une premi\u00e8re \u00e9tude (Gala & Rey, 2008) montrait que les familles de mots obtenues pr\u00e9sentaient des espaces s\u00e9mantiques soit de grande coh\u00e9sion soit de grande dispersion. Afin de valider ces observations, nous pr\u00e9sentons ici une m\u00e9thode empirique qui permet de pond\u00e9rer automatiquement les unit\u00e9s de sens d\u2019un mot et d\u2019une famille. Une exp\u00e9rience men\u00e9e aupr\u00e8s de 30 locuteurs natifs valide notre approche et ouvre la voie pour une \u00e9tude approfondie du lexique sur ces bases phonologiques et s\u00e9mantiques.","translation":["","Traditionally, lexical morphology has been diachronic and has established the notion of word families. This notion is reused in synchronic studies and implies strong semantic coherence within the words of a same family. In this paper, we propose an approach in synchrony which highlights phonological and semantic continuity. Our interests go on morphophonology and on the semantic dispersion of words in a family. A first study (Gala & Rey, 2008) showed that the semantic spaces of the families displayed either a strong semantic cohesion or a strong dispersion. In order to validate this observation, we present here a corpus-based method that automatically weights the semantic units of a word and a family. An experience carried out with 30 native speakers validates our approach and allows us to foresee a thorough study of the lexicon based on phonological and semantic basis.","lexicalmorpho-phonology, derivational families processing, semantic spaces"],"keyphrases":["espaces s\u00e9mantiques","morpho-phonologie lexicale","traitement automatique des familles d\u00e9rivationnelles"],"prmu":["P","R","M"]} {"id":"taln-2009-court-015","title":"Exploitation d\u2019une structure pour les questions encha\u00een\u00e9es","abstract":"Nous pr\u00e9sentons des travaux r\u00e9alis\u00e9s dans le domaine des syst\u00e8mes de questions r\u00e9ponses (SQR) utilisant des questions encha\u00een\u00e9es. La recherche des documents dans un SQR est perturb\u00e9e par l\u2019absence des \u00e9l\u00e9ments utiles \u00e0 la recherche dans les questions li\u00e9es, \u00e9l\u00e9ments figurant dans les \u00e9changes pr\u00e9c\u00e9dents. Les r\u00e9centes campagnes d\u2019\u00e9valuation montrent que ce probl\u00e8me est sous-estim\u00e9, et n\u2019a pas fait l\u2019objet de technique d\u00e9di\u00e9e. Afin d\u2019am\u00e9liorer la recherche des documents dans un SQR nous utilisons une m\u00e9thode r\u00e9cente d\u2019organisation des informations li\u00e9es aux interactions entre questions. Celle-ci se base sur l\u2019exploitation d\u2019une structure de donn\u00e9es adapt\u00e9e \u00e0 la transmission des informations des questions li\u00e9es jusqu\u2019au moteur d\u2019interrogation. Le moteur d\u2019interrogation doit alors \u00eatre adapt\u00e9 afin de tirer partie de cette structure de donn\u00e9es.","translation":["","We present works realized in the field of the questions answering (QA) using chained questions. The documents search in QA system is disrupted because useful elements are missing for search using bound questions. Recents evaluation campaigns show this problem as underestimated, and this problem wasn\u2019t solve by specific techniques. To improve documents search in a QA we use a recent information organization method for bound questions to the interactions between questions. This methode is bases on the operation of a special data structure. This data structure transmit informations from bound questions to the interrogation engine. Then the interrogation engine must be improve to take advantage of this data structure.","chained question answering"],"keyphrases":["Question r\u00e9ponse encha\u00een\u00e9e"],"prmu":["R"]} {"id":"taln-2009-court-016","title":"Exploitation du terrain commun pour la production d\u2019expressions r\u00e9f\u00e9rentielles dans les syst\u00e8mes de dialogue","abstract":"Cet article pr\u00e9sente un moyen de contraindre la production d\u2019expressions r\u00e9f\u00e9rentielles par un syst\u00e8me de dialogue en fonction du terrain commun. Cette capacit\u00e9, fondamentale pour atteindre la compr\u00e9hension mutuelle, est trop souvent oubli\u00e9e dans les syst\u00e8mes de dialogue. Le mod\u00e8le que nous proposons s\u2019appuie sur une mod\u00e9lisation du processus d\u2019ancrage (grounding process) en proposant un raffinement du statut d\u2019ancrage appliqu\u00e9 \u00e0 la description des r\u00e9f\u00e9rents. Il d\u00e9crit quand et comment ce statut doit \u00eatre r\u00e9vis\u00e9 en fonction des jugements de compr\u00e9hension des deux participants ainsi que son influence dans le choix d\u2019une description partag\u00e9e destin\u00e9e \u00e0 la g\u00e9n\u00e9ration d\u2019une expression r\u00e9f\u00e9rentielle.","translation":["","This paper presents a way to constraint the production of referring expressions by a dialogue system according to the common ground. This ability \u2013 fundamental for reaching mutual understanding \u2013 is often neglected in dialogue system design. The proposed model is based on a view of the grounding process and offering a refinement of the grounding status concerning the referent description. It explains how and when this status should be revised with respect to how participants evaluate their understanding and how this status may help to choose a shared description with which a referring expression can be generated.","Mutual understanding, grounding process, referring expression, generation"],"keyphrases":["r\u00e9f\u00e9rence","Compr\u00e9hension mutuelle","processus d\u2019ancrage","g\u00e9n\u00e9ration"],"prmu":["P","P","P","P"]} {"id":"taln-2009-court-017","title":"Gestion de dialogue oral Homme-machine en arabe","abstract":"Dans le pr\u00e9sent papier, nous pr\u00e9sentons nos travaux sur la gestion du dialogue oral arabe Homme-machine. Ces travaux entrent dans le cadre de la r\u00e9alisation du serveur vocal interactif SARF (Bahou et al., 2008) offrant des renseignements sur le transport ferroviaire tunisien en langue arabe standard moderne. Le gestionnaire de dialogue que nous proposons est bas\u00e9 sur une approche structurelle et est compos\u00e9 de deux mod\u00e8les \u00e0 savoir, le mod\u00e8le de t\u00e2che et le mod\u00e8le de dialogue. Le premier mod\u00e8le permet de i) compl\u00e9ter et v\u00e9rifier l\u2019incoh\u00e9rence des structures s\u00e9mantiques repr\u00e9sentant les sens utiles des \u00e9nonc\u00e9s, ii) g\u00e9n\u00e9rer une requ\u00eate vers l\u2019application et iii) r\u00e9cup\u00e9rer le r\u00e9sultat et de formuler une r\u00e9ponse \u00e0 l\u2019utilisateur en langage naturel. Quant au mod\u00e8le de dialogue, il assure l\u2019avancement du dialogue avec l\u2019utilisateur et l\u2019identification de ses intentions. L\u2019interaction entre ces deux mod\u00e8les est assur\u00e9e gr\u00e2ce \u00e0 un contexte du dialogue permettant le suivi et la mise \u00e0 jour de l\u2019historique du dialogue.","translation":["","In this paper, we present our research work on Human-machine Arabic oral dialogue management. This work enters in the context of SARF system (Bahou et al., 2008) an interactive vocal server that provides information on Tunisian railway using modern standard Arabic. The dialogue manager that we propose is based on a structural approach and consists of two models namely, the task model and the dialogue model. The first model is used to i) complete and verify the incoherence of semantic structures representing the useful meaning of utterances, ii) generate a query to the application and iii) get back the results and formulate an answer to the user in natural language. As for the dialogue model, it assures the dialogue progress with the user and the identification of her or his intentions. The interaction between these two models is assured by a dialogue context that allows monitoring and updating the dialogue history.","Human-machine dialogue management, Arabic oral dialogue, task model, dialogue model"],"keyphrases":["dialogue oral arabe","mod\u00e8le de t\u00e2che","mod\u00e8le de dialogue","gestion du dialogue Homme-machine"],"prmu":["P","P","P","R"]} {"id":"taln-2009-court-018","title":"Grammaires d\u2019erreur \u2013 correction grammaticale avec analyse profonde et proposition de corrections minimales","abstract":"Nous pr\u00e9sentons un syst\u00e8me de correction grammatical ouvert, bas\u00e9 sur des analyses syntaxiques profondes. La sp\u00e9cification grammaticale est une grammaire hors-contexte \u00e9quip\u00e9e de structures de traits plates. Apr\u00e8s une analyse en for\u00eat partag\u00e9e o\u00f9 les contraintes d\u2019accord de traits sont rel\u00e2ch\u00e9es, la d\u00e9tection d\u2019erreur minimise globalement les corrections \u00e0 effectuer et des phrases alternatives correctes sont automatiquement propos\u00e9es.","translation":["","We present an open system for grammar checking, based on deep parsing. The grammatical specification is a contex-free grammar with flat feature structures. After a sharedforest analysis where feature agreement constraints are relaxed, error detection globally minimizes the number of fixes and alternate correct sentences are automatically proposed.","Grammar checker, parsing, shared forest"],"keyphrases":["analyse syntaxique","for\u00eat partag\u00e9e","Correcteur grammatical"],"prmu":["P","P","M"]} {"id":"taln-2009-court-019","title":"Int\u00e9gration des constructions \u00e0 verbe support dans TimeML","abstract":"Le langage TimeML a \u00e9t\u00e9 con\u00e7u pour l\u2019annotation des informations temporelles dans les textes, notamment les \u00e9v\u00e9nements, les expressions de temps et les relations entre les deux. Des consignes d\u2019annotation g\u00e9n\u00e9rales ont \u00e9t\u00e9 \u00e9labor\u00e9es afin de guider l\u2019annotateur dans cette t\u00e2che, mais certains ph\u00e9nom\u00e8nes linguistiques restent \u00e0 traiter en d\u00e9tail. Un probl\u00e8me commun dans les t\u00e2ches de TAL, que ce soit en traduction, en g\u00e9n\u00e9ration ou en compr\u00e9hension, est celui de l\u2019encodage des constructions \u00e0 verbe support. Relativement peu d\u2019attention a \u00e9t\u00e9 port\u00e9e, jusqu\u2019\u00e0 maintenant, sur ce probl\u00e8me dans le cadre du langage TimeML. Dans cet article, nous proposons des consignes d\u2019annotation pour les constructions \u00e0 verbe support.","translation":["","TimeML is a markup language developed for the annotation of temporal information in texts, in particular events, temporal expressions and the relations which hold between the two. General annotation guidelines have been developed to guide the annotator in this task, but certain linguistic phenomena have yet to be dealt with in detail. A common problem in NLP tasks, whether in translation, generation or understanding, is that of the encoding of light verb constructions. Relatively little attention has been paid to this problem, until now, in the TimeML framework. In this article, we propose annotation guidelines for light verb constructions.","TimeML, light verbs, discourse, semantics"],"keyphrases":["verbes support","TimeML","discours","s\u00e9mantique"],"prmu":["P","P","U","U"]} {"id":"taln-2009-court-020","title":"Int\u00e9grer les tables du Lexique-Grammaire \u00e0 un analyseur syntaxique robuste \u00e0 grande \u00e9chelle","abstract":"Dans cet article, nous montrons comment nous avons converti les tables du Lexique-Grammaire en un format TAL, celui du lexique Lefff, permettant ainsi son int\u00e9gration dans l\u2019analyseur syntaxique FRMG. Nous pr\u00e9sentons les fondements linguistiques de ce processus de conversion et le lexique obtenu. Nous validons le lexique obtenu en \u00e9valuant l\u2019analyseur syntaxique FRMG sur le corpus de r\u00e9f\u00e9rence de la campagne EASy selon qu\u2019il utilise les entr\u00e9es verbales du Lefff ou celles des tables des verbes du Lexique-Grammaire ainsi converties.","translation":["","In this paper, we describe how we converted the lexicon-grammar tables into an NLP format, that of the Lefff lexicon, which allowed us to integrate it into the FRMG parser. We decribe the linguistic basis of this conversion process, and the resulting lexicon.We validate the resulting lexicon by evaluating the FRMG parser on the EASy reference corpus depending on the set of verbal entries it relies on, namely those of the Lefff or those of the converted lexicon-grammar verb tables.","Syntactic lexica, Lexicon-Grammar, parsing"],"keyphrases":["Lexique-Grammaire","Lexiques syntaxiques","analyse syntaxique"],"prmu":["P","R","M"]} {"id":"taln-2009-court-021","title":"La compl\u00e9mentarit\u00e9 des approches manuelle et automatique en acquisition lexicale","abstract":"Les ressources lexicales sont essentielles pour obtenir des syst\u00e8mes de traitement des langues performants. Ces ressources peuvent \u00eatre soit construites \u00e0 la main, soit acquises automatiquement \u00e0 partir de gros corpus. Dans cet article, nous montrons la compl\u00e9mentarit\u00e9 de ces deux approches. Pour ce faire, nous utilisons l\u2019exemple de la sous-cat\u00e9gorisation verbale en comparant un lexique acquis par des m\u00e9thodes automatiques (LexSchem) avec un lexique construit manuellement (Le Lexique-Grammaire). Nous montrons que les informations acquises par ces deux m\u00e9thodes sont bien distinctes et qu\u2019elles peuvent s\u2019enrichir mutuellement.","translation":["","Lexical resources are essentially created to obtain efficient text-processing systems. These resources can be constructed either manually or automatically from large corpora. In this paper, we show the complementarity of these two types of approaches, comparing an automatically constructed lexicon (LexSchem) to a manually constructed one (Lexique-Grammaire), on examples of verbal subcategorization. The results show that the information retained by these two resources is in fact different and that they can be mutually enhanced.","verb, syntax, lexicon, subcategorization"],"keyphrases":["sous-cat\u00e9gorisation","lexique","verbe","syntaxe"],"prmu":["P","P","U","U"]} {"id":"taln-2009-court-022","title":"L'analyseur syntaxique Cordial dans Passage","abstract":"Cordial est un analyseur syntaxique et s\u00e9mantique d\u00e9velopp\u00e9 par la soci\u00e9t\u00e9 Synapse D\u00e9veloppement. Largement utilis\u00e9 par les laboratoires de TALN depuis plus de dix ans, cet analyseur participe \u00e0 la campagne Passage (\"Produire des Annotations Syntaxiques \u00e0 Grande \u00c9chelle\"). Comment fonctionne cet analyseur ? Quels r\u00e9sultats a-t-il obtenu lors de la premi\u00e8re phase d'\u00e9valuation de cette campagne ? Au-del\u00e0 de ces questions, cet article montre en quoi les contraintes industrielles fa\u00e7onnent les outils d'analyse automatique du langage naturel.","translation":["","Cordial is a syntactic and semantic parser developed by Synapse D\u00e9veloppement. Widely used by the laboratories of NLP for over ten years, this analyzer is involved in the Passage campaign (\"Producing Syntactic Annotations on a Large Scale\"). How does this parser work? What were the results obtained during the first phase of the evaluation? Beyond these issues, this article shows how the industrial constraints condition the tools for Natural Language Procesing.","Parsing, semantic analysis, evaluation"],"keyphrases":["Passage","\u00e9valuation","Analyse syntaxique","analyse s\u00e9mantique"],"prmu":["P","P","R","R"]} {"id":"taln-2009-court-023","title":"La plate-forme Glozz : environnement d\u2019annotation et d\u2019exploration de corpus","abstract":"La n\u00e9cessit\u00e9 d\u2019une interaction syst\u00e9matique entre mod\u00e8les, traitements et corpus impose la disponibilit\u00e9 d\u2019annotations de r\u00e9f\u00e9rence auxquelles mod\u00e8les et traitements pourront \u00eatre confront\u00e9s. Or l\u2019\u00e9tablissement de telles annotations requiert un cadre formel permettant la repr\u00e9sentation d\u2019objets linguistiques vari\u00e9s, et des applications permettant \u00e0 l\u2019annotateur de localiser sur corpus et de caract\u00e9riser les occurrences des ph\u00e9nom\u00e8nes observ\u00e9s. Si diff\u00e9rents outils d\u2019annotation ont vu le jour, ils demeurent souvent fortement li\u00e9s \u00e0 un mod\u00e8le th\u00e9orique et \u00e0 des objets linguistiques particuliers, et ne permettent que marginalement d\u2019explorer certaines structures plus r\u00e9cemment appr\u00e9hend\u00e9es exp\u00e9rimentalement, notamment \u00e0 granularit\u00e9 \u00e9lev\u00e9e et en mati\u00e8re d\u2019analyse du discours. La plate-forme Glozz r\u00e9pond \u00e0 ces diff\u00e9rentes contraintes et propose un environnement d\u2019exploration de corpus et d\u2019annotation fortement configurable et non limit\u00e9 a priori au contexte discursif dans lequel elle a initialement vu le jour.","translation":["","The need for a systematic confrontation between models and corpora make it necessary to have - and consequently, to produce - reference annotations to which linguistic models could be compared. Creating such annotations requires both a formal framework which copes with various linguistic objects, and specific manual annotation tools, in order to make it possible to locate, identify and feature linguistic phenomena in texts. Though several annotation tools do already exist, they are mostly dedicated to a given theory and to a given set of structures. The Glozz platform, described in this paper, tries to address all of these needs, and provides a highly versatile corpus exploration and annotation framework.","Corpus Linguistics, Annotation, Software Framework"],"keyphrases":["Annotation","Linguistique de corpus","Plate-forme logicielle"],"prmu":["P","R","M"]} {"id":"taln-2009-court-024","title":"Morfetik, ressource lexicale pour le TAL","abstract":"Le traitement automatique des langues exige un recensement lexical aussi rigoureux que possible. Dans ce but, nous avons d\u00e9velopp\u00e9 un dictionnaire morphologique du fran\u00e7ais, con\u00e7u comme le point de d\u00e9part d\u2019un syst\u00e8me modulaire (Morfetik) incluant un moteur de flexion, des interfaces de consultation et d\u2019interrogation et des outils d\u2019exploitation. Nous pr\u00e9sentons dans cet article, apr\u00e8s une br\u00e8ve description du dictionnaire de base (lexique des mots simples), quelques-uns des outils informatiques li\u00e9s \u00e0 cette ressource : un moteur de recherche des lemmes et des formes fl\u00e9chies ; un moteur de flexion XML et MySQL ; des outils NLP permettant d\u2019exploiter le dictionnaire ainsi g\u00e9n\u00e9r\u00e9 ; nous pr\u00e9sentons notamment un analyseur linguistique d\u00e9velopp\u00e9 dans notre laboratoire. Nous comparons dans une derni\u00e8re partie Morfetik avec d\u2019autres ressources analogues du fran\u00e7ais : Morphalou, Lexique3 et le DELAF.","translation":["","Automatic language processing requires as rigorous a lexical inventory as possible. For this purpose, we have developed a morphological dictionary for French, conceived as the starting point of a modular system (Morfetik) which includes an inflection generator, user interfaces and operating tools. In this paper, we briefly describe the basic dictionary (lexicon of simple words) and detail some of the computing tools based on the dictionary. The computing tools built on this resource include: a lemma \/ inflected forms search engine; an XML and MySQL engine to build the inflected forms; the generated dictionary can then be used by various NLP Tools; in this article, we present the use of the dictionary in a linguistic analyser developed at the laboratory. Finally, we compare Morfetik to similar resources : Morphalou, Lexique3 and DELAF.","French morphological dictionary, XML, CMLF, Linguistical analysis, Morfetik"],"keyphrases":["dictionnaire morphologique du fran\u00e7ais","CMLF","analyse linguistique des textes"],"prmu":["P","U","M"]} {"id":"taln-2009-court-025","title":"Nouvelles consid\u00e9rations pour la d\u00e9tection de r\u00e9utilisation de texte","abstract":"Dans cet article nous nous int\u00e9ressons au probl\u00e8me de la d\u00e9tection de r\u00e9utilisation de texte. Plus particuli\u00e8rement, \u00e9tant donn\u00e9 un document original et un ensemble de documents candidats \u2014 th\u00e9matiquement similaires au premier \u2014 nous cherchons \u00e0 classer ceux qui sont d\u00e9riv\u00e9s du document original et ceux qui ne le sont pas. Nous abordons le probl\u00e8me selon deux approches : dans la premi\u00e8re, nous nous int\u00e9ressons aux similarit\u00e9s discursives entre les documents, dans la seconde au recouvrement de n-grams hapax. Nous pr\u00e9sentons le r\u00e9sultat d\u2019exp\u00e9rimentations men\u00e9es sur un corpus de presse francophone construit dans le cadre du projet ANR PIITHIE.","translation":["","In this article we are interested in the problem of text reuse. More specifically, given an original document and a set of candidate documents\u2014which are thematically similar to the first one \u2014 we are interested in classifying them into those that have been derived from the original document and those that are not. We are approaching the problem in two ways : firstly we are interested in the discourse similarities between the documents, and secondly we are interested in the overlap of n-grams that are hapax. We are presenting the results of the experiments that we have performed on a corpus constituted from articles of the French press which has been created in the context of the PIITHIE project funded by the French National Agency for Research (Agence National de la Recherche, ANR).","text reuse, hapax n-grams overlap, discourse similarities, french journalistic corpus"],"keyphrases":["r\u00e9utilisation de texte","similarit\u00e9s discursives","recouvrement de n-grams hapax","corpus journalistique francophone"],"prmu":["P","P","P","M"]} {"id":"taln-2009-court-026","title":"Collecte et analyses de r\u00e9ponses naturelles pour les syst\u00e8mes de questions-r\u00e9ponses","abstract":"Notre travail se situe dans le cadre des syst\u00e8mes de r\u00e9ponse a une question et \u00e0 pour but de fournir une r\u00e9ponse en langue naturelle aux questions pos\u00e9es en langue naturelle. Cet article pr\u00e9sente une exp\u00e9rience permettant d\u2019analyser les r\u00e9ponses de locuteurs du fran\u00e7ais \u00e0 des questions que nous leur posons. L\u2019exp\u00e9rience se d\u00e9roule \u00e0 l\u2019\u00e9crit comme \u00e0 l\u2019oral et propose \u00e0 des locuteurs fran\u00e7ais des questions relevant de diff\u00e9rents types s\u00e9mantiques et syntaxiques. Nous mettons en valeur une large variabilit\u00e9 dans les formes de r\u00e9ponses possibles en langue fran\u00e7aise. D\u2019autre part nous \u00e9tablissons un certain nombre de liens entre formulation de question et formulation de r\u00e9ponse. Nous proposons d\u2019autre part une comparaison des r\u00e9ponses selon la modalit\u00e9 oral \/ \u00e9crit. Ces r\u00e9sultats peuvent \u00eatre int\u00e9gr\u00e9s \u00e0 des syst\u00e8mes existants pour produire une r\u00e9ponse en langue naturelle de fa\u00e7on dynamique.","translation":["","Situated within the domain of interactive question-answering, our work is to increase the naturalness of natural language answers. This paper presents an experiment aiming at observing the formulation of answers by French speakers. The system asked simple questions to which the humans had to answer. Two modalities were used : text (web) and speech (phone). We present and analyze the collected corpus. Within the large variability of answer forms in French, we point some links between the answer form and the question form. Moreover we present a preliminary study on the observed variation between modalities. We expect these results to be integrable in existing systems to dynamically produce adpated natural language answers.","question-answering systems, experimentation, linguistics variations, natural language answer"],"keyphrases":["r\u00e9ponse en langue naturelle","exp\u00e9rience","syst\u00e8mes de r\u00e9ponse \u00e0 une question","variations linguistiques"],"prmu":["P","P","R","U"]} {"id":"taln-2009-court-027","title":"La \/fOnetizasjc\/ comme un probl\u00e8me de translitt\u00e9ration","abstract":"La phon\u00e9tisation est une \u00e9tape essentielle pour le traitement de l\u2019oral. Dans cet article, nous d\u00e9crivons un syst\u00e8me automatique de phon\u00e9tisation de mots isol\u00e9s qui est simple, portable et performant. Il repose sur une approche par apprentissage ; le syst\u00e8me est donc construit \u00e0 partir d\u2019exemples de mots et de leur repr\u00e9sentation phon\u00e9tique. Nous utilisons pour cela une technique d\u2019inf\u00e9rence de r\u00e8gles de r\u00e9\u00e9criture initialement d\u00e9velopp\u00e9e pour la translitt\u00e9ration et la traduction. Pour \u00e9valuer les performances de notre approche, nous avons utilis\u00e9 plusieurs jeux de donn\u00e9es couvrant diff\u00e9rentes langues et divers alphabets phon\u00e9tiques, tir\u00e9s du challenge Pascal Pronalsyl. Les tr\u00e8s bons r\u00e9sultats obtenus \u00e9galent ou d\u00e9passent ceux des meilleurs syst\u00e8mes de l\u2019\u00e9tat de l\u2019art.","translation":["","Phonetizing is a crucial step to process oral documents. In this paper, a new word-based phonetization approach is proposed ; it is automatic, simple, portable and efficient. It relies on machine learning ; thus, the system is built from examples of words with their phonetic representations. More precisely, it makes the most of a technique inferring rewriting rules initially developed for transliteration and translation. In order to evaluate the performances of this approach, we used several datasets from the Pronalsyl Pascal challenge, including different languages. The obtained results equal or outperform those of the best known systems.","Phonetization, phonemization, inference of rewriting rule, Pronalsyl challenge, grapheme-phoneme conversion, transliteration"],"keyphrases":["translitt\u00e9ration","Phon\u00e9tisation","inf\u00e9rence de r\u00e8gles de r\u00e9\u00e9criture","phon\u00e9misation","challenge Pronalsyl","conversion graph\u00e8me-phon\u00e8me"],"prmu":["P","P","P","U","R","U"]} {"id":"taln-2009-court-028","title":"Plusieurs langues (bien choisies) valent mieux qu\u2019une : traduction statistique multi-source par renforcement lexical","abstract":"Les syst\u00e8mes de traduction statistiques int\u00e8grent diff\u00e9rents types de mod\u00e8les dont les pr\u00e9dictions sont combin\u00e9es, lors du d\u00e9codage, afin de produire les meilleures traductions possibles. Traduire correctement des mots polys\u00e9miques, comme, par exemple, le mot avocat du fran\u00e7ais vers l\u2019anglais (lawyer ou avocado), requiert l\u2019utilisation de mod\u00e8les suppl\u00e9mentaires, dont l\u2019estimation et l\u2019int\u00e9gration s\u2019av\u00e8rent complexes. Une alternative consiste \u00e0 tirer parti de l\u2019observation selon laquelle les ambigu\u00eft\u00e9s li\u00e9es \u00e0 la polys\u00e9mie ne sont pas les m\u00eames selon les langues source consid\u00e9r\u00e9es. Si l\u2019on dispose, par exemple, d\u2019une traduction vers l\u2019espagnol dans laquelle avocat a \u00e9t\u00e9 traduit par aguacate, alors la traduction de ce mot vers l\u2019anglais n\u2019est plus ambigu\u00eb. Ainsi, la connaissance d\u2019une traduction fran\u00e7ais!espagnol permet de renforcer la s\u00e9lection de la traduction avocado pour le syst\u00e8me fran\u00e7ais!anglais. Dans cet article, nous proposons d\u2019utiliser des documents en plusieurs langues pour renforcer les choix lexicaux effectu\u00e9s par un syst\u00e8me de traduction automatique. En particulier, nous montrons une am\u00e9lioration des performances sur plusieurs m\u00e9triques lorsque les traductions auxiliaires utilis\u00e9es sont obtenues manuellement.","translation":["","Statistical Machine Translation (SMT) systems integrate various models that exploit all available features during decoding to produce the best possible translation hypotheses. Correctly translating polysemous words, such as the French word avocat into English (lawyer or avocado) requires integrating complex models. Such translation lexical ambiguities, however, depend on the language pair considered. If one knows, for instance, that avocat was translated into Spanish as aguacate, then translating it into English is no longer ambiguous (avocado). Thus, in this example, the knowledge of the Spanish translation allows to reinforce the choice of the appropriate English word for the French!English system. In this article, we present an approach in which documents available in several languages are used to reinforce the lexical choices made by a SMT system. In particular, we show that gains can be obtained on several metrics when using auxiliary translations produced by human translators.","Statistical Machine Translation, Word Sense Disambiguation, N-best list rescoring"],"keyphrases":["Traduction automatique statistique","d\u00e9sambigu\u00efsation lexicale","r\u00e9\u00e9valuation de listes d\u2019hypoth\u00e8ses"],"prmu":["R","M","M"]} {"id":"taln-2009-court-029","title":"Probl\u00e9matique d'analyse et de mod\u00e9lisation des erreurs en production \u00e9crite. Approche interdisciplinaire","abstract":"L'objectif du travail pr\u00e9sent\u00e9 ici est la mod\u00e9lisation de la d\u00e9tection et la correction des erreurs orthographiques et dactylographiques, plus particuli\u00e8rement dans le contexte des handicaps langagiers. Le travail est fond\u00e9 sur une analyse fine des erreurs d\u2019\u00e9criture commises. La premi\u00e8re partie de cet article est consacr\u00e9e \u00e0 une description pr\u00e9cise de la faute. Dans la seconde partie, nous analysons l\u2019erreur (1) en d\u00e9terminant la nature de la faute (typographique, orthographique, ou grammaticale) et (2) en explicitant sa cons\u00e9quence sur le niveau de perturbation linguistique (phonologique, orthographique, morphologique ou syntaxique). Il r\u00e9sulte de ce travail un mod\u00e8le g\u00e9n\u00e9ral des erreurs (une grille) que nous pr\u00e9senterons, ainsi que les r\u00e9sultats statistiques correspondants. Enfin, nous montrerons sur des exemples, l\u2019utilit\u00e9 de l\u2019apport de cette grille, en soumettant ces types de fautes \u00e0 quelques correcteurs. Nous envisageons \u00e9galement les implications informatiques de ce travail.","translation":["","The aim of our work is modeling the detection and the correction of spelling and typing errors, especially in the linguistic disabilities context. The work is based on a fine analysis of clerical errors committed. The first part of this article is devoted to a detailed description of error. In the second part, we analyze error in (1) determining the nature of the fault (typographical, spelling, or grammar) and (2) by explaining its consequences on the level of linguistic disturbance (phonological, orthographic, morphological and syntactic). The outcome of this work is a general model of errors (a grid) that we present, as well as the corresponding statistical results. Finally, we show on examples, the usefulness of this grid, by submitting these types of errors to a few spellcheckers. We also envisage the computer implications of this work.","Typology and analyze of textual errors, writing assitance systems"],"keyphrases":["Typologie et analyse d\u2019erreurs textuelles","assistance \u00e0 la saisie de textes"],"prmu":["M","M"]} {"id":"taln-2009-court-030","title":"Profilage de candidatures assist\u00e9 par Relevance Feedback","abstract":"Le march\u00e9 d\u2019offres d\u2019emploi et des candidatures sur Internet conna\u00eet une croissance exponentielle. Ceci implique des volumes d\u2019information (majoritairement sous la forme de texte libre) qu\u2019il n\u2019est plus possible de traiter manuellement. Une analyse et cat\u00e9gorisation assist\u00e9es nous semble pertinente en r\u00e9ponse \u00e0 cette probl\u00e9matique. Nous proposons E-Gen, syst\u00e8me qui a pour but l\u2019analyse et cat\u00e9gorisation assist\u00e9s d\u2019offres d\u2019emploi et des r\u00e9ponses des candidats. Dans cet article nous pr\u00e9sentons plusieurs strat\u00e9gies, reposant sur les mod\u00e8les vectoriel et probabiliste, afin de r\u00e9soudre la probl\u00e9matique du profilage des candidatures en fonction d\u2019une offre pr\u00e9cise. Nous avons \u00e9valu\u00e9 une palette de mesures de similarit\u00e9 afin d\u2019effectuer un classement pertinent des candidatures au moyen des courbes ROC. L\u2019utilisation d\u2019une forme de relevance feedback a permis de surpasser nos r\u00e9sultats sur ce probl\u00e8me difficile et sujet \u00e0 une grande subjectivit\u00e9.","translation":["","The market of online job search sites has grown exponentially. This implies volumes of information (mostly in the form of free text) manually impossible to process. An analysis and assisted categorization seems relevant to address this issue. We present E-Gen, a system which aims to perform assisted analysis and categorization of job offers and the responses of candidates. This paper presents several strategies based on vectorial and probabilistic models to solve the problem of profiling applications according to a specific job offer. We have evaluated a range of measures of similarity to rank candidatures by using ROC curves. Relevance feedback approach allows surpass our previous results on this task, difficult and higly subjective.","Classification,Information Retrieval, Human Ressources, Probabilistic Model, Similarity measure, Relevance Feedback"],"keyphrases":["Relevance Feedback","mesures de similarit\u00e9","Classification","recherche d\u2019information","Ressources humaines","mod\u00e8le probabiliste"],"prmu":["P","P","U","M","U","R"]} {"id":"taln-2009-court-031","title":"Profilage s\u00e9mantique endog\u00e8ne des relations de synonymie au sein de Gene Ontology","abstract":"Le calcul de la similarit\u00e9 s\u00e9mantique entre les termes repose sur l\u2019existence et l\u2019utilisation de ressources s\u00e9mantiques. Cependant de telles ressources, qui proposent des \u00e9quivalences entre entit\u00e9s, souvent des relations de synonymie, doivent elles-m\u00eames \u00eatre d\u2019abord analys\u00e9es afin de d\u00e9finir des zones de fiabilit\u00e9 o\u00f9 la similarit\u00e9 s\u00e9mantique est plus forte. Nous proposons une m\u00e9thode d\u2019acquisition de synonymes \u00e9l\u00e9mentaires gr\u00e2ce \u00e0 l\u2019exploitation des terminologies structur\u00e9es au travers l\u2019analyse de la structure syntaxique des termes complexes et de leur compositionnalit\u00e9. Les synonymes acquis sont ensuite profil\u00e9s gr\u00e2ce aux indicateurs endog\u00e8nes inf\u00e9r\u00e9s automatiquement \u00e0 partir de ces m\u00eames terminologies (d\u2019autres types de relations, inclusions lexicales, productivit\u00e9, forme des composantes connexes). Dans le domaine biom\u00e9dical, il existe de nombreuses terminologies structur\u00e9es qui peuvent \u00eatre exploit\u00e9es pour la constitution de ressources s\u00e9mantiques. Le travail pr\u00e9sent\u00e9 ici exploite une de ces terminologies, Gene Ontology.","translation":["","Computing the semantic similarity between terms relies on existence and usage of semantic resources. However, these resources, often composed of equivalent units, or synonyms, must be first analyzed and weighted in order to define within them the reliability zones where the semantic similarity shows to be stronger. We propose a method for acquisition of elementary synonyms which is based on exploitation of structured terminologies, analysis of syntactic structure of complex (multi-unit) terms and their compositionality. The acquired synonyms are then profiled thanks to endogenous indicators (other types of relations, lexical inclusions, productivity, form of connected components), which are automatically inferred within the same terminologies. In the biomedical area, several structured terminologies have been built and can be exploited for the construction of semantic resources. The work we present in this paper, is applied to terms of one of these terminologies, i.e. the Gene Ontology.","Terminology, semantic distance, semantic relations, synonymy"],"keyphrases":["synonymie","Terminologie","distance s\u00e9mantique","relations s\u00e9mantiques"],"prmu":["P","P","M","R"]} {"id":"taln-2009-court-032","title":"Quels attributs discriminants pour une analyse syntaxique par classification de textes en langue arabe ?","abstract":"Dans le cadre d\u0092une approche d\u00e9terministe et incr\u00e9mentale d\u0092analyse syntaxique par classification de textes en langue arabe, nous avons pr\u00e9vu de prendre en consid\u00e9ration un ensemble vari\u00e9 d\u0092attributs discriminants afin de mieux assister la proc\u00e9dure de classification dans ses prises de d\u00e9cisions \u00e0 travers les diff\u00e9rentes \u00e9tapes d\u0092analyse. Ainsi, en plus des attributs morpho-syntaxiques du mot en cours d\u0092analyse et des informations contextuelles des mots l\u0092avoisinant, nous avons ajout\u00e9 des informations compositionnelles extraites du fragment de l\u0092arbre syntaxique d\u00e9j\u00e0 construit lors de l\u0092\u00e9tape pr\u00e9c\u00e9dente de l\u0092analyse en cours. Ce papier pr\u00e9sente notre approche d\u0092analyse syntaxique par classification et vise l\u0092exposition d\u0092une justification exp\u00e9rimentale de l\u0092apport de chaque type d\u0092attributs discriminants et sp\u00e9cialement ceux compositionnels dans ladite analyse syntaxique.","translation":["","For parsing Arabic texts in a deterministic and incremental classification approach, we suggest that varying discriminative attributes is helpful in disambiguation between structures to classify. That\u0092s why; we consider morpho-syntactic information of the current analyzed word and its surrounding context. In addition, we add a new information type: the compositional one. It consists of the portion of the syntactic tree already constructed until the previous analysis step. In this paper, we expose our parsing approach with classification basis and we justify the utility of the different discriminative attributes and especially the compositional ones.","incremental parsing, Arabic language, machine learning, classification, discriminative attributes"],"keyphrases":["attributs discriminants","classification","langue arabe","analyse syntaxique incr\u00e9mentale","apprentissage automatique"],"prmu":["P","P","P","R","U"]} {"id":"taln-2009-court-033","title":"Recto \/Verso Un syst\u00e8me de conversion automatique ancienne \/ nouvelle orthographe \u00e0 vis\u00e9e linguistique et didactique","abstract":"Cet article pr\u00e9sente Recto \/Verso, un syst\u00e8me de traitement automatique du langage d\u00e9di\u00e9 \u00e0 l\u2019application des rectifications orthographiques de 1990. Ce syst\u00e8me a \u00e9t\u00e9 d\u00e9velopp\u00e9 dans le cadre de la campagne de sensibilisation r\u00e9alis\u00e9e en mars dernier par le Service et le Conseil de la langue fran\u00e7aise et de la politique linguistique de la Communaut\u00e9 fran\u00e7aise de Belgique. Nous commen\u00e7ons par rappeler les motivations et le contenu de la r\u00e9forme propos\u00e9e, et faisons le point sur les principes didactiques retenus dans le cadre de la campagne. La plus grande partie de l\u2019article est ensuite consacr\u00e9e \u00e0 l\u2019impl\u00e9mentation du syst\u00e8me. Nous terminons enfin par une premi\u00e8re analyse de l\u2019impact de la campagne sur les utilisateurs.","translation":["","This paper presents Recto \/Verso, a natural language processing system dedicated to the application of the 1990 French spelling rectifications. This system was developed for supporting the awareness-raising campaign promoted last March by the Superior council of the French language in Belgium. We first remind the motivations and the content of the reform, and we draw up the didactic principles followed during the campaign. The most important part of this paper is then focused on the system\u2019s implementation.We finally end by a short analysis of the campaign\u2019s impact on the users.","1990 French spelling rectifications, ancient \/ new spelling conversion, didactic purposes, finite-state machines"],"keyphrases":["Rectifications orthographiques de 1990","conversion ancienne \/ nouvelle orthographe","objectifs didactiques","machines \u00e0 \u00e9tats finis"],"prmu":["P","R","M","M"]} {"id":"taln-2009-court-035","title":"R\u00e9sum\u00e9 automatique multi-document et ind\u00e9pendance de la langue : une premi\u00e8re \u00e9valuation en fran\u00e7ais","abstract":"Le r\u00e9sum\u00e9 automatique de texte est une probl\u00e9matique difficile, fortement d\u00e9pendante de la langue et qui peut n\u00e9cessiter un ensemble de donn\u00e9es d\u2019apprentissage cons\u00e9quent. L\u2019approche par extraction peut aider \u00e0 surmonter ces difficult\u00e9s. (Mihalcea, 2004) a d\u00e9montr\u00e9 l\u2019int\u00e9r\u00eat des approches \u00e0 base de graphes pour l\u2019extraction de segments de texte importants. Dans cette \u00e9tude, nous d\u00e9crivons une approche ind\u00e9pendante de la langue pour la probl\u00e9matique du r\u00e9sum\u00e9 automatique multi-documents. L\u2019originalit\u00e9 de notre m\u00e9thode repose sur l\u2019utilisation d\u2019une mesure de similarit\u00e9 permettant le rapprochement de segments morphologiquement proches. De plus, c\u2019est \u00e0 notre connaissance la premi\u00e8re fois que l\u2019\u00e9valuation d\u2019une approche de r\u00e9sum\u00e9 automatique multi-document est conduite sur des textes en fran\u00e7ais.","translation":["","Automatic text summarization is a difficult task, highly language-dependent and which may require a large training dataset. Recently, (Mihalcea, 2004) has shown that graph-based approaches applied to the sentence extraction issue can achieve good results. In this paper, we describe a language-independent approach for automatic multi-document text summarization. The main originality of our approach is the use of an hybrid similarity measure during the graph building process that can identify morphologically similar words. Moreover, this is as far as we know, the first time that the evaluation of a summarization approach is conducted on French documents.","Text summarization, Graph-Based approaches, Information Extraction"],"keyphrases":["R\u00e9sum\u00e9 automatique de texte","Approches \u00e0 base de graphes","Extraction d\u2019information"],"prmu":["P","P","M"]} {"id":"taln-2009-court-036","title":"Segmentation et classification non supervis\u00e9e de conversations t\u00e9l\u00e9phoniques automatiquement retranscrites","abstract":"Cette \u00e9tude porte sur l\u2019analyse de conversations entre des clients et des t\u00e9l\u00e9conseillers d\u2019EDF. Elle propose une cha\u00eene de traitements permettant d\u2019automatiser la d\u00e9tection des sujets abord\u00e9s dans chaque conversation. L\u2019aspect multi-th\u00e9matique des conversations nous incite \u00e0 trouver une unit\u00e9 de documents entre le simple tour de parole et la conversation enti\u00e8re. Cette d\u00e9marche encha\u00eene une \u00e9tape de segmentation de la conversation en th\u00e8mes homog\u00e8nes bas\u00e9e sur la notion de coh\u00e9sion lexicale, puis une \u00e9tape de text-mining comportant une analyse linguistique enrichie d\u2019un vocabulaire m\u00e9tier sp\u00e9cifique \u00e0 EDF, et enfin une classification non supervis\u00e9e des segments obtenus. Plusieurs algorithmes de segmentation ont \u00e9t\u00e9 \u00e9valu\u00e9s sur un corpus de test, segment\u00e9 et annot\u00e9 manuellement : le plus \u00ab proche \u00bb de la segmentation de r\u00e9f\u00e9rence est C99. Cette d\u00e9marche, appliqu\u00e9e \u00e0 la fois sur un corpus de conversations transcrites \u00e0 la main, et sur les m\u00eames conversations d\u00e9cod\u00e9es par un moteur de reconnaissance vocale, aboutit quasiment \u00e0 l\u2019obtention des 20 m\u00eames classes th\u00e9matiques.","translation":["","This study focuses on the analysis of conversations and between clients and EDF agent. It offers a range of treatments designed to automate the detection of the topics covered in each conversation. As the conversations are multi-thematic we have to find a document unit, between the simple turn of speech and the whole conversation. The proposed approach starts with a step of segmentation of the conversation (based on lexical cohesion), and then a stage of text-mining, including a language enriched by a vocabulary specific to EDF, and finally a clustering of the segments. Several segmentation algorithms were tested on a test corpus, manually annotated and segmented : the \"closest\" to the reference segmentation is C99. This approach, applied to both a corpus of conversations transcribed manually, and on the same conversations decoded by a voice recognition engine, leads to almost obtain the same 200 clusters.","audio-mining, text mining, segmentation, clustering, categorization, voice recognition, textual data, phone conversation, call center"],"keyphrases":["segmentation","classification","conversations t\u00e9l\u00e9phoniques","reconnaissance vocale","audio-mining","text mining","cat\u00e9gorisation","donn\u00e9es textuelles","centre d\u2019appel"],"prmu":["P","P","P","P","U","U","U","U","M"]} {"id":"taln-2009-court-037","title":"Segmentation multiple d\u2019un flux de donn\u00e9es textuelles pour la mod\u00e9lisation statistique du langage","abstract":"Dans cet article, nous traitons du probl\u00e8me de la mod\u00e9lisation statistique du langage pour les langues peu dot\u00e9es et sans segmentation entre les mots. Tandis que le manque de donn\u00e9es textuelles a un impact sur la performance des mod\u00e8les, les erreurs introduites par la segmentation automatique peuvent rendre ces donn\u00e9es encore moins exploitables. Pour exploiter au mieux les donn\u00e9es textuelles, nous proposons une m\u00e9thode qui effectue des segmentations multiples sur le corpus d\u2019apprentissage au lieu d\u2019une segmentation unique. Cette m\u00e9thode bas\u00e9e sur les automates d\u2019\u00e9tat finis permet de retrouver les n-grammes non trouv\u00e9s par la segmentation unique et de g\u00e9n\u00e9rer des nouveaux n-grammes pour l\u2019apprentissage de mod\u00e8le du langage. L\u2019application de cette approche pour l\u2019apprentissage des mod\u00e8les de langage pour les syst\u00e8mes de reconnaissance automatique de la parole en langue khm\u00e8re et vietnamienne s\u2019est montr\u00e9e plus performante que la m\u00e9thode par segmentation unique, \u00e0 base de r\u00e8gles.","translation":["","In this article we deal with the problem of statistical language modelling for under-resourced language with a writing system without word boundary delimiters. While the lack of text resources has an impact on the performance of language models, the errors produced by the word segmentation makes those data less usable. To better exploit the text resources, we propose a method to make multiples segmentations on the training corpus instead of a unique segmentation. This method based on finite state machine allows obtaining the n-grams not found by the unique segmentation and generate new n-grams. We use this approach to train the language models for automatic speech recognition systems of Khmer and Vietnamese languages and it proves better performance than the unique segmentation method.","multiple segmentation, unsegmented language, statistical language modeling"],"keyphrases":["segmentation multiple","mod\u00e9lisation statistique du langage","langue non segment\u00e9e"],"prmu":["P","P","R"]} {"id":"taln-2009-court-038","title":"Sens et usages d\u2019un terme dans un r\u00e9seau lexical \u00e9volutif","abstract":"L\u2019obtention d\u2019informations lexicales fiables est un enjeu primordial en TALN, mais cette collecte peut s\u2019av\u00e9rer difficile. L\u2019approche pr\u00e9sent\u00e9e ici vise \u00e0 pallier les \u00e9cueils de cette difficult\u00e9 en faisant participer un grand nombre de personnes \u00e0 un projet contributif via des jeux accessibles sur le web. Ainsi, les joueurs vont construire le r\u00e9seau lexical, en fournissant de plusieurs mani\u00e8res possibles des associations de termes \u00e0 partir d'un terme cible et d'une consigne correspondant \u00e0 une relation typ\u00e9e. Le r\u00e9seau lexical ainsi produit est de grande taille et comporte une trentaine de types de relations. A partir de cette ressource, nous abordons la question de la d\u00e9termination des diff\u00e9rents sens et usages d\u2019un terme. Ceci est r\u00e9alis\u00e9 en analysant les relations entre ce terme et ses voisins imm\u00e9diats dans le r\u00e9seau et en calculant des cliques ou des quasi-cliques. Ceci nous am\u00e8ne naturellement \u00e0 introduire la notion de similarit\u00e9 entre cliques, que nous interpr\u00e9tons comme une mesure de similarit\u00e9 entre ces diff\u00e9rents sens et usages. Nous pouvons ainsi construire pour un terme son arbre des usages, qui est une structure de donn\u00e9es exploitable en d\u00e9sambigu\u00efsation de sens. Nous pr\u00e9sentons quelques r\u00e9sultats obtenus en soulignant leur caract\u00e8re \u00e9volutif.","translation":["","Obtaining reliable lexical information is an essential task in NLP, but it can prove a difficult task. The approach we present here aims at lessening the difficulty: it consists in having people take part in a collective project by offering them playful applications accessible on the web. The players themselves thus build the lexical network, by supplying (in various possible ways) associations between terms from a target term and an instruction concerning a typed relation. The lexical network thus obtained is large and it includes about thirty types of relations. From this network, we then discuss the question of meaning and word usage determination for a term, by searching relations between this term and its neighbours in the network and by computing cliques or quasicliques. This leads us to introduce the notion of similarity between cliques, which can be interpreted as a measure of similarity between these different meanings and word usages. We are thus able to build the tree of word usages for a term: it is a data structure that can be used to disambiguate meaning. Finally, we briefly present some of the results obtained, putting the emphasis on their evolutionary aspect.","Natural Language Processing, evolutionary lexical network, typed and weighted relations, meaning and word usage similarity, tree of word usages"],"keyphrases":["r\u00e9seau lexical \u00e9volutif","arbre des usages","Traitement Automatique du Langage Naturel","relations typ\u00e9es pond\u00e9r\u00e9es","similarit\u00e9 entre sens et usages"],"prmu":["P","P","M","M","R"]} {"id":"taln-2009-court-039","title":"Traitement automatique de disfluences dans un corpus linguistiquement contraint","abstract":"Cet article pr\u00e9sente un travail de mod\u00e9lisation et de d\u00e9tection des ph\u00e9nom\u00e8nes de disfluence. Une des sp\u00e9cificit\u00e9 de ce travail est le cadre dans lequel il se situe: le contr\u00f4le de la navigation a\u00e9rienne. Nous montrons ce que ce cadre particulier implique certains choix concernant la mod\u00e9lisation et l'impl\u00e9mentation. Ainsi, nous constatons que la mod\u00e9lisation fond\u00e9e sur la syntaxe, souvent utilis\u00e9e dans le traitement des langues naturelles, n'est pas la plus appropri\u00e9e ici. Nous expliquons la fa\u00e7on dont l'impl\u00e9mentation a \u00e9t\u00e9 r\u00e9alis\u00e9e. Dans une derni\u00e8re partie, nous pr\u00e9sentons la validation de ce dispositif, effectu\u00e9e sur 400 \u00e9nonc\u00e9s.","translation":["","This article presents a work of modeling and detection of phenomena disfluences. One of the specificity of this work is its framework: the air traffic control. We show that this particular framework implies certain choices about modeling and implementation. Thus, we find that modeling based on the syntax, often used in natural language processing, is not the most appropriate here. We explain how the implementation has been completed. In a final section, we present the validation of this device, made of 400 utterances.","Spontaneous speech dialog, corpus linguistic analysis, robust understanding, Air Traffic Control, phraseology, disfluencies, language models, Natural Language Processing"],"keyphrases":["Disfluences","Dialogue oral spontan\u00e9","Analyse linguistique de corpus","Compr\u00e9hension robuste","Contr\u00f4le A\u00e9rien","Phras\u00e9ologie","Mod\u00e8les de langage","Traitement Automatique du Langage Naturel"],"prmu":["P","U","M","U","R","U","M","M"]} {"id":"taln-2009-court-040","title":"Un Algorithme d\u2019Analyse de Type Earley pour Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles","abstract":"Nous pr\u00e9sentons ici diff\u00e9rents algorithmes d\u2019analyse pour grammaires \u00e0 concat\u00e9nation d\u2019intervalles (Range Concatenation Grammar, RCG), dont un nouvel algorithme de type Earley, dans le paradigme de l\u2019analyse d\u00e9ductive. Notre travail est motiv\u00e9 par l\u2019int\u00e9r\u00eat port\u00e9 r\u00e9cemment \u00e0 ce type de grammaire, et comble un manque dans la litt\u00e9rature existante.","translation":["","We present several different parsing algorithms for Range Concatenation Grammar (RCG), inter alia an entirely novel Earley-style algorithm, using the deductive parsing framework. Our work is motivated by recent interest in range concatenation grammar in general and fills a gap in the existing literature.","Deductive parsing, range concatenation grammar"],"keyphrases":["grammaires \u00e0 concat\u00e9nation d\u2019intervalles","Analyse syntaxique d\u00e9ductive"],"prmu":["P","M"]} {"id":"taln-2009-court-041","title":"Un Analyseur S\u00e9mantique pour le DHM Mod\u00e9lisation \u2013 R\u00e9alisation \u2013 \u00c9valuation","abstract":"Cet article d\u00e9crit un mod\u00e8le de langage d\u00e9di\u00e9 au dialogue homme-machine, son impl\u00e9mentation en CLIPS, ainsi qu\u2019une \u00e9valuation comparative. Notre probl\u00e9matique n\u2019est ni d\u2019analyser des grands corpus, ni de proposer une grammaire \u00e0 grande couverture. Notre objectif est de produire des repr\u00e9sentations s\u00e9mantiques utilisables par un module de dialogue \u00e0 partir d\u2019\u00e9nonc\u00e9s oraux courts, le plus souvent agrammaticaux. Une d\u00e9marche pragmatique nous a conduit \u00e0 fonder l\u2019analyse sur des principes simples mais efficaces dans le cadre que nous nous sommes fix\u00e9. L\u2019algorithme retenu s\u2019inspire de l\u2019analyse tabulaire. L\u2019\u00e9valuation que nous pr\u00e9sentons repose sur le corpus MEDIA qui a fait l\u2019objet d\u2019une annotation s\u00e9mantique manuelle de r\u00e9f\u00e9rence pour une campagne d\u2019\u00e9valuation d\u2019analyseurs s\u00e9mantiques pour le dialogue. Les r\u00e9sultats que nous obtenons place notre analyseur dans le trio de t\u00eate des syst\u00e8mes \u00e9valu\u00e9s lors de la campagne de juin 2005, et nous confortent dans nos choix d\u2019algorithme et de repr\u00e9sentation des connaissances.","translation":["","This article describes a natural language model dedicated to man-machine dialogue, its implementation in CLIPS, as well as a comparative evaluation. Our problematic is neither to analyze large corpora nor to propose a large-coverage grammar. Our objective is to produce semantic representations usable for a dialog module from short oral utterances that are rather often ungrammatical. A pragmatic approach leads us to base parsing on simple but efficient principles within the man-machine dialog framework. Chart parsing influences the algorithm we have chosen. The evaluation that we present here uses the MEDIA corpora. It has been manually annotated and represents a standard usable in an evaluation campaign for semantic parsers dedicated to the dialog. With the results that we obtain our parser is in the three bests of the systems evaluated in the June 2005 campaign. It confirms our choices of algorithm and of knowledge representation.","Semantic chart parsing, dialogue context, evaluation"],"keyphrases":["\u00e9valuation","Analyse s\u00e9mantique tabulaire","contexte dialogique"],"prmu":["P","R","U"]} {"id":"taln-2009-court-042","title":"Une approche exploratoire de compression automatique de phrases bas\u00e9e sur des crit\u00e8res thermodynamiques","abstract":"Nous pr\u00e9sentons une approche exploratoire bas\u00e9e sur des notions thermodynamiques de la Physique statistique pour la compression de phrases. Nous d\u00e9crivons le mod\u00e8le magn\u00e9tique des verres de spins, adapt\u00e9 \u00e0 notre conception de la probl\u00e9matique. Des simulations M\u00e9tropolis Monte-Carlo permettent d\u2019introduire des fluctuations thermiques pour piloter la compression. Des comparaisons int\u00e9ressantes de notre m\u00e9thode ont \u00e9t\u00e9 r\u00e9alis\u00e9es sur un corpus en fran\u00e7ais.","translation":["","We present an exploratory approach based on thermodynamic concepts of Statistical Physics for sentence compression.We describe the magnetic model of spin glasses, well suited to our conception of problem. The Metropolis Monte-Carlo simulations allow to introduce thermal fluctuations to drive the compression. Interesting comparisons of our method were performed on a French text corpora.","Sentence Compression, Automatic Summarization, Extraction Summarization, Enertex, Statistical Mechanics"],"keyphrases":["Compression de phrases","R\u00e9sum\u00e9 automatique","R\u00e9sum\u00e9 par extraction","Enertex","M\u00e9canique statistique"],"prmu":["P","M","U","U","M"]} {"id":"taln-2009-court-043","title":"Un nouveau sch\u00e9ma de pond\u00e9ration pour la cat\u00e9gorisation de documents manuscrits","abstract":"Les sch\u00e9mas de pond\u00e9ration utilis\u00e9s habituellement en cat\u00e9gorisation de textes, et plus g\u00e9n\u00e9ralement en recherche d\u2019information (RI), ne sont pas adapt\u00e9s \u00e0 l\u2019utilisation de donn\u00e9es li\u00e9es \u00e0 des textes issus d\u2019un processus de reconnaissance de l\u2019\u00e9criture. En particulier, les candidats-mot \u00e0 la reconnaissance ne pourraient \u00eatre exploit\u00e9s sans introduire de fausses occurrences de termes dans le document. Dans cet article nous pr\u00e9sentons un nouveau sch\u00e9ma de pond\u00e9ration permettant d\u2019exploiter les listes de candidats-mot. Il permet d\u2019estimer le pouvoir discriminant d\u2019un terme en fonction de la probabilit\u00e9 a posteriori d\u2019un candidat-mot dans une liste de candidats. Les r\u00e9sultats montrent que le taux de classification de documents fortement d\u00e9grad\u00e9s peut \u00eatre am\u00e9lior\u00e9 en utilisant le sch\u00e9ma propos\u00e9.","translation":["","The traditional weighting schemes used in information retrieval, and especially in text categorization cannot exploit information intrinsic to texts obtained through an on-line handwriting recognition process. In particular, top n (n > 1) candidates could not be used without introducing false occurrences of spurious terms thus making the resulting text noisier. In this paper, we propose an improved weighting scheme for text categorization, that estimates a term importance from the posterior probabilities of the top n candidates. The experimental results show that the categorization rate of poorly recognized texts increases when our weighting model is applied.","Text categorization, on-line handwriting, n-best candidates, weighting"],"keyphrases":["pond\u00e9ration","Cat\u00e9gorisation de textes","\u00e9criture en-ligne","n-best candidats"],"prmu":["P","P","M","M"]} {"id":"taln-2009-court-044","title":"Un syst\u00e8me de traduction automatique param\u00e9tr\u00e9 par des atlas dialectologiques","abstract":"Contrairement \u00e0 la plupart des syst\u00e8mes de traitement du langage, qui s\u2019appliquent \u00e0 des langues \u00e9crites et standardis\u00e9es, nous pr\u00e9sentons ici un syst\u00e8me de traduction automatique qui prend en compte les sp\u00e9cificit\u00e9s des dialectes. En g\u00e9n\u00e9ral, les dialectes se caract\u00e9risent par une variation continue et un manque de donn\u00e9es textuelles en qualit\u00e9 et quantit\u00e9 suffisantes. En m\u00eame temps, du moins en Europe, les dialectologues ont \u00e9tudi\u00e9 en d\u00e9tail les caract\u00e9ristiques linguistiques des dialectes. Nous soutenons que des donn\u00e9es provenant d\u2019atlas dialectologiques peuvent \u00eatre utilis\u00e9es pour param\u00e9trer un syst\u00e8me de traduction automatique. Nous illustrons cette id\u00e9e avec le prototype d\u2019un syst\u00e8me de traduction bas\u00e9 sur des r\u00e8gles, qui traduit de l\u2019allemand standard vers les diff\u00e9rents dialectes de Suisse allemande. Quelques exemples linguistiquement motiv\u00e9s serviront \u00e0 exposer l\u2019architecture de ce syst\u00e8me.","translation":["","Most natural language processing systems apply to written, standardized language varieties. In contrast, we present a machine translation system that takes into account some specificites of dialects : dialect areas show continuous variation along all levels of linguistic analysis, and textual data is often not available in sufficient quality and quantity. At the same time, many European dialect areas are well studied by dialectologists. We argue that data from dialectological atlases can be used to parametrize a machine translation system. We illustrate this idea by presenting the prototype of a rule-based machine translation system that translates from Standard German into the Swiss German dialect continuum. Its architecture is explained with some linguistically motivated examples.","Machine translation, dialects, closely related languages, Germanic languages"],"keyphrases":["Traduction automatique","dialectes","langues proches","langues germaniques"],"prmu":["P","P","M","M"]} {"id":"taln-2009-court-046","title":"Utiliser des sens de mots pour la segmentation th\u00e9matique ?","abstract":"La segmentation th\u00e9matique est un domaine de l\u2019analyse discursive ayant donn\u00e9 lieu \u00e0 de nombreux travaux s\u2019appuyant sur la notion de coh\u00e9sion lexicale. La plupart d\u2019entre eux n\u2019exploitent que la simple r\u00e9currence lexicale mais quelques uns ont n\u00e9anmoins explor\u00e9 l\u2019usage de connaissances rendant compte de cette coh\u00e9sion lexicale. Celles-ci prennent g\u00e9n\u00e9ralement la forme de r\u00e9seaux lexicaux, soit construits automatiquement \u00e0 partir de corpus, soit issus de dictionnaires \u00e9labor\u00e9s manuellement. Dans cet article, nous examinons dans quelle mesure une ressource d\u2019une nature un peu diff\u00e9rente peut \u00eatre utilis\u00e9e pour caract\u00e9riser la coh\u00e9sion lexicale des textes. Il s\u2019agit en l\u2019occurrence de sens de mots induits automatiquement \u00e0 partir de corpus, \u00e0 l\u2019instar de ceux produits par la t\u00e2che \u00abWord Sense Induction and Discrimination \u00bb de l\u2019\u00e9valuation SemEval 2007. Ce type de ressources apporte une structuration des r\u00e9seaux lexicaux au niveau s\u00e9mantique dont nous \u00e9valuons l\u2019apport pour la segmentation th\u00e9matique.","translation":["","Many topic segmenters rely on lexical cohesion. Most of them only exploit lexical recurrence but some of them makes use of knowledge sources about lexical cohesion. These sources are generally lexical networks built either by hand or automatically from corpora. In this article, we study to what extent a new source of knowledge about lexical cohesion can be used for topic segmentation. This source is a set of word senses that were automatically discriminated from corpora, as the word senses resulting from the Word Sense Induction and Discrimination task of the SemEval 2007 evaluation. Such a resource is a way to structurate lexical networks at a semantic level. The impact of this structuring on topic segmentation is evaluated in this article.","Topic segmentation, word sense disambiguation"],"keyphrases":["Segmentation th\u00e9matique","d\u00e9sambigu\u00efsation s\u00e9mantique"],"prmu":["P","M"]} {"id":"taln-2008-long-002","title":"R\u00e9\u00e9criture et D\u00e9tection d\u2019Implication Textuelle","abstract":"Nous pr\u00e9sentons un syst\u00e8me de normalisation de la variation syntaxique qui permet de mieux reconna\u00eetre la relation d\u2019implication textuelle entre deux phrases. Le syst\u00e8me est \u00e9valu\u00e9 sur une suite de tests comportant 2 520 paires test et les r\u00e9sultats montrent un gain en pr\u00e9cision par rapport \u00e0 un syst\u00e8me de base variant entre 29.8 et 78.5 points la complexit\u00e9 des cas consid\u00e9r\u00e9s.","translation":["","We present a system for dealing with syntactic variation which significantly improves the treatment of textual implication. The system is evaluated on a testsuite of 2 520 sentence pairs and the results show an improvment in precision over the baseline which varies between 29.8 and 78.5 points depending on the complexity of the cases being considered.","Syntactic normalisation, Recognising Textual Entailment, Graph rewriting"],"keyphrases":["D\u00e9tection d\u2019implication textuelle","Normalisation syntaxique","R\u00e9\u00e9criture de graphe"],"prmu":["P","R","M"]} {"id":"taln-2008-long-003","title":"Repr\u00e9sentation alg\u00e9brique des expressions calendaires et vue calendaire d\u2019un texte","abstract":"Cet article aborde l\u2019\u00e9tude des expressions temporelles qui font r\u00e9f\u00e9rence directement \u00e0 des unit\u00e9s de temps relatives aux divisions courantes des calendriers, que nous qualifions d\u2019expressions calendaires (EC). Nous proposons une mod\u00e9lisation de ces expressions en d\u00e9finissant une alg\u00e8bre d\u2019op\u00e9rateurs qui sont li\u00e9s aux classes de marqueurs linguistiques qui apparaissent dans les EC. A partir de notre mod\u00e9lisation, une vue calendaire est construite dans la plate-forme de visualisation et navigation textuelle NaviTexte, visant le support \u00e0 la lecture de textes. Enfin, nous concluons sur les perspectives offertes par le d\u00e9veloppement d\u2019une premi\u00e8re application de navigation temporelle.","translation":["","In this paper we address the study of temporal expressions that refer directly to text units concerning common calendar divisions, that we name \u201ccalendar expressions\u201d (EC). We propose to model these expressions by defining an operator algebra, the operators being related to different linguistics marker classes that occur in the EC. Based on our model, a calendar view is built up into the text visualization and navigation framework NaviTexte, aiming the support of text reading. Finally, we discuss the perspectives offered by the development of a first temporal navigation application.","temporal calendar expressions, algebraic modelization, vizualisation"],"keyphrases":["visualisation","expressions temporelles calendaires","mod\u00e9lisation alg\u00e9brique"],"prmu":["P","R","R"]} {"id":"taln-2008-long-004","title":"Annotation d\u2019expressions temporelles et d\u2019\u00e9v\u00e9nements en fran\u00e7ais","abstract":"Dans cet article, nous proposons une m\u00e9thode pour identifier, dans un texte en fran\u00e7ais, l\u2019ensemble des expressions adverbiales de localisation temporelle, ainsi que tous les verbes, noms et adjectifs d\u00e9notant une \u00e9ventualit\u00e9 (\u00e9v\u00e9nement ou \u00e9tat). Cette m\u00e9thode, en plus d\u2019identifier ces expressions, extrait certaines informations s\u00e9mantiques : la valeur de la localisation temporelle selon la norme TimeML et le type des \u00e9ventualit\u00e9s. Pour les expressions adverbiales de localisation temporelle, nous utilisons une cascade d\u2019automates, alors que pour l\u2019identification des \u00e9v\u00e9nements et \u00e9tats nous avons recours \u00e0 une analyse compl\u00e8te de la phrase. Nos r\u00e9sultats sont proches de travaux comparables sur l\u2019anglais, en l\u2019absence d\u2019\u00e9valuation quantitative similaire sur le fran\u00e7ais.","translation":["","We propose a method to extract expressions of temporal location in French texts, and all verbs, nouns and adjectived that denote an event or a state. This method also computes some semantic information : the value of the temporal location according to the TimeML standard and the types of eventualities. For temporal location expression, we use a cascade of transducers, wheras event identification is based on full syntactic parsing. Our result are compared to similar work on English, as no other empirical evaluation has been done on French before.","Temporal information extraction, TimeML"],"keyphrases":["TimeML","Extraction d\u2019informations temporelle"],"prmu":["P","M"]} {"id":"taln-2008-long-005","title":"Un mod\u00e8le multi-sources pour la segmentation en sujets de journaux radiophoniques","abstract":"Nous pr\u00e9sentons une m\u00e9thode de segmentation de journaux radiophoniques en sujets, bas\u00e9e sur la prise en compte d\u2019indices lexicaux, syntaxiques et acoustiques. Partant d\u2019un mod\u00e8le statistique existant de segmentation th\u00e9matique, exploitant la notion de coh\u00e9sion lexicale, nous \u00e9tendons le formalisme pour y inclure des informations d\u2019ordre syntaxique et acoustique. Les r\u00e9sultats exp\u00e9rimentaux montrent que le seul mod\u00e8le de coh\u00e9sion lexicale ne suffit pas pour le type de documents \u00e9tudi\u00e9 en raison de la taille variable des segments et de l\u2019absence d\u2019un lien direct entre segment et th\u00e8me. L\u2019utilisation d\u2019informations syntaxiques et acoustiques permet une am\u00e9lioration substantielle de la segmentation obtenue.","translation":["","We present a method for story segmentation of radio broadcast news, based on lexical, syntactic and audio cues. Starting from an existing statistical topic segmentation model which exploits the notion of lexical cohesion, we extend the formalism to include syntactic and acoustic knwoledge sources. Experimental results show that the sole use of lexical cohesion is not efficient for the type of documents under study because of the variable size of the segments and the lack of direct relation between topics and stories. The use of syntactics and acoustics enables a consequent improvement of the quality of the segmentation.","story segmentation, spoken documents, lexical cohesion, acoustic cues, syntactic cues"],"keyphrases":["segmentation en sujets","coh\u00e9sion lexicale","corpus oraux","indices acoustiques","indices syntaxiques"],"prmu":["P","P","U","R","R"]} {"id":"taln-2008-long-006","title":"Extraction automatique d'informations \u00e0 partir de micro-textes non structur\u00e9s","abstract":"Nous pr\u00e9sentons dans cet article une m\u00e9thode d'extraction automatique d'informations sur des textes de tr\u00e8s petite taille, faiblement structur\u00e9s. Nous travaillons sur des textes dont la r\u00e9daction n'est pas normalis\u00e9e, avec tr\u00e8s peu de mots pour caract\u00e9riser chaque information. Les textes ne contiennent pas ou tr\u00e8s peu de phrases. Il s'agit le plus souvent de morceaux de phrases ou d'expressions compos\u00e9es de quelques mots. Nous comparons plusieurs m\u00e9thodes d'extraction, dont certaines sont enti\u00e8rement automatiques. D'autres utilisent en partie une connaissance du domaine que nous voulons r\u00e9duite au minimum, de fa\u00e7on \u00e0 minimiser le travail manuel en amont. Enfin, nous pr\u00e9sentons nos r\u00e9sultats qui d\u00e9passent ce dont il est fait \u00e9tat dans la litt\u00e9rature, avec une pr\u00e9cision \u00e9quivalente et un rappel sup\u00e9rieur.","translation":["","In this article, we present a method of automatic extraction of informations on very small-sized and weakly structured texts. We work on texts whose drafting is not normalised, with very few words to characterize each information. Texts does not contain sentences, or only few. There are mostly about fragments of sentences or about expressions of some words. We compare several extracting methods, some completely automatic and others using an small domain knowledge. We want this knowledge to be minimalistic to reduce as much as possible any manual work. Then, we present our results, witch are better than those published in the literature, with an equivalent precision and a greater recall.","automatique extraction, micro-text, unstructured text, adds"],"keyphrases":["extraction automatique","micro-texte","texte non structur\u00e9","petites annonces"],"prmu":["P","P","R","M"]} {"id":"taln-2008-long-007","title":"Quelles combinaisons de scores et de crit\u00e8res num\u00e9riques pour un syst\u00e8me de Questions\/R\u00e9ponses ?","abstract":"Dans cet article, nous pr\u00e9sentons une discussion sur la combinaison de diff\u00e9rents scores et crit\u00e8res num\u00e9riques pour la s\u00e9lection finale d\u2019une r\u00e9ponse dans la partie en charge des questions factuelles du syst\u00e8me de Questions\/R\u00e9ponses d\u00e9velopp\u00e9 au LIA. Ces scores et crit\u00e8res num\u00e9riques sont d\u00e9riv\u00e9s de ceux obtenus en sortie de deux composants cruciaux pour notre syst\u00e8me : celui de s\u00e9lection des passages susceptibles de contenir une r\u00e9ponse et celui d\u2019extraction et de s\u00e9lection d\u2019une r\u00e9ponse. Ils sont \u00e9tudi\u00e9s au regard de leur expressivit\u00e9. Des comparaisons sont faites avec des approches de s\u00e9lection de passages mettant en oeuvre des scores conventionnels en recherche d\u2019information. Parall\u00e8lement, l\u2019influence de la taille des contextes (en nombre de phrases) est \u00e9valu\u00e9e. Cela permet de mettre en \u00e9vidence que le choix de passages constitu\u00e9s de trois phrases autour d\u2019une r\u00e9ponse candidate, avec une s\u00e9lection des r\u00e9ponses bas\u00e9e sur une combinaison entre un score de passage de type Lucene ou Cosine et d\u2019un score de compacit\u00e9 appara\u00eet comme un compromis int\u00e9ressant.","translation":["","This article discusses combinations of scores for selecting the best answer in a factual question answering system. Two major components of our QA system: (i) relevant passage selection, and (ii) answer extraction, produce a variety of scores. Here we study the expressivity of these scores, comparing our passage density score (i) to more conventional ranking techniques in information retrieval. In addition, we study varying the length (in number of sentences) of context retained in the relevant passages. We find that a three sentences window, and a mixing of Lucene or Cosine ranking with our compactness score (ii) provides the best results.","Question Answering, compactness, density, combination of scores"],"keyphrases":["combinaison de scores","Syst\u00e8me de Questions\/R\u00e9ponses","compacit\u00e9","densit\u00e9"],"prmu":["P","P","P","U"]} {"id":"taln-2008-long-008","title":"Contr\u00f4le rh\u00e9torique de la g\u00e9n\u00e9ration des connecteurs concessifs en dialogue homme-machine","abstract":"Les connecteurs discursifs ont on r\u00f4le important dans l\u2019interpr\u00e9tation des discours (dialogiques ou pas), donc lorsqu\u2019il s\u2019agit de produire des \u00e9nonc\u00e9s, le choix des mots qui relient les \u00e9nonc\u00e9s (par exemple, en dialogue oral) s\u2019av\u00e8re essentiel pour assurer la compr\u00e9hension des vis\u00e9es illocutoires des locuteurs. En linguistique computationnelle, le probl\u00e8me a \u00e9t\u00e9 abord\u00e9 surtout au niveau de l\u2019interpr\u00e9tation des discours monologiques, tandis que pour le dialogue, les recherches se sont limit\u00e9es en g\u00e9n\u00e9ral \u00e0 \u00e9tablir une correspondance quasiment biunivoque entre relations rh\u00e9toriques et connecteurs. Dans ce papier nous proposons un m\u00e9canisme pour guider la g\u00e9n\u00e9ration des connecteurs concessifs en dialogue, \u00e0 la fois du point de vue discursif et s\u00e9mantique ; chaque connecteur consid\u00e9r\u00e9 sera contraint par un ensemble de conditions qui prennent en compte la coh\u00e9rence du discours et la pertinence s\u00e9mantique de chaque mot concern\u00e9. Les contraintes discursives, exprim\u00e9es dans un formalisme d\u00e9riv\u00e9 de la SDRT (\u00ab Segmented Discourse Representation Theory \u00bb) seront plong\u00e9es dans des contraintes s\u00e9mantiques sur les connecteurs, propos\u00e9es par l\u2019\u00e9cole genevoise (Moeschler), pour enfin \u00e9valuer la coh\u00e9rence du discours r\u00e9sultant de l\u2019emploi de ces connecteurs.","translation":["","Cue words play an important part in discourse interpretation (whether dialogues are concerned or not), hence when utterances have to be produced, the choice of the words that connect these utterances (for example, in spoken dialogue) is essential for ensuring the comprehension of the illocutionary goals of the speakers. In computational linguistics, the issue has been mitigated particularly in the context of monologue discourse interpretation, whereas for dialogues, research is usually limited to establishing an almost one-to-one mapping between rhetorical relations and cue words. In this paper we propose a mechanism for guiding concessive connectors in dialogue, at the same time from a discourse and from a semantic point of view; each considered connector will be constrained via a set of conditions that take into account discourse coherence and the semantic relevance of each word concerned. Discourse constraints, expressed in a formalism derived from SDRT (\u201cSegmented Discourse Representation Theory\u201d) will be mapped to semantic constraints on the connectors ; these semantic constraints are proposed by the Geneve linguistics school (Moeschler). Finally, the coherence of the discourse resulted from the use of these connectors will be assessed.","Human-computer dialogue, discourse coherence, concessive connectors, semantics, pragmatics"],"keyphrases":["connecteurs concessifs","Dialogue homme-machine","s\u00e9mantique","coh\u00e9rence discursive","pragmatique"],"prmu":["P","P","P","R","U"]} {"id":"taln-2008-long-009","title":"Mod\u00e9lisation du principe d\u2019ancrage pour la robustesse des syst\u00e8mes de dialogue homme-machine finalis\u00e9s","abstract":"Cet article pr\u00e9sente une mod\u00e9lisation du principe d\u2019ancrage (grounding) pour la robustesse des syst\u00e8mes de dialogue finalis\u00e9s. Ce principe, d\u00e9crit dans (Clark & Schaefer, 1989), sugg\u00e8re que les participants \u00e0 un dialogue fournissent des preuves de compr\u00e9hension afin d\u2019atteindre la compr\u00e9hension mutuelle. Nous explicitons une d\u00e9finition computationnelle du principe d\u2019ancrage fond\u00e9e sur des jugements de compr\u00e9hension qui, contrairement \u00e0 d\u2019autres mod\u00e8les, conserve une motivation pour l\u2019expression de la compr\u00e9hension. Nous d\u00e9roulons enfin le processus d\u2019ancrage sur un exemple tir\u00e9 de l\u2019impl\u00e9mentation du mod\u00e8le.","translation":["","This paper presents a grounding model for robustness in dialogue systems. The grounding process (Clark & Schaefer, 1989) suggests that dialogue participants provide evidence of understanding in order to reach mutual understanding. We propose here a computational definition of the grounding criterion based on understanding judgments that keeps a motivation for providing evidence of understanding, as opposed to some existing models. Eventually, we detail the grounding process on a dialogue generated by the actual implementation.","human-machine dialogue, robustness, grounding, mutual understanding"],"keyphrases":["ancrage","robustesse","dialogue homme-machine","compr\u00e9hension mutuelle"],"prmu":["P","P","P","P"]} {"id":"taln-2008-long-010","title":"Enertex : un syst\u00e8me bas\u00e9 sur l\u2019\u00e9nergie textuelle","abstract":"Dans cet article, nous pr\u00e9sentons des applications du syst\u00e8me Enertex au Traitement Automatique de la Langue Naturelle. Enertex est bas\u00e9 sur l\u2019\u00e9nergie textuelle, une approche par r\u00e9seaux de neurones inspir\u00e9e de la physique statistique des syst\u00e8mes magn\u00e9tiques. Nous avons appliqu\u00e9 cette approche aux probl\u00e8mes du r\u00e9sum\u00e9 automatique multi-documents et de la d\u00e9tection de fronti\u00e8res th\u00e9matiques. Les r\u00e9sultats, en trois langues : anglais, espagnol et fran\u00e7ais, sont tr\u00e8s encourageants.","translation":["","In this paper we present Enertex applications to study fundamental problems in Natural Language Processing. Enertex is based on textual energy, a neural networks approach, inspired by statistical physics of magnetic systems.We obtained good results on the application of this method to automatic multi-document summarization and thematic border detection in three languages : English, Spanish and French.","Textual Energy, Neural Networks, Hopfield Model, Automatic Summarization, Thematic Boundaries"],"keyphrases":["\u00c9nergie textuelle","R\u00e9seaux de neurones","R\u00e9sum\u00e9 automatique","Fronti\u00e8res th\u00e9matiques","Mod\u00e8le de Hopfield"],"prmu":["P","P","P","P","M"]} {"id":"taln-2008-long-011","title":"Int\u00e9gration d\u2019une \u00e9tape de pr\u00e9-filtrage et d\u2019une fonction multiobjectif en vue d\u2019am\u00e9liorer le syst\u00e8me ExtraNews de r\u00e9sum\u00e9 de documents multiples","abstract":"Dans cet article, nous pr\u00e9sentons les am\u00e9liorations que nous avons apport\u00e9es au syst\u00e8me ExtraNews de r\u00e9sum\u00e9 automatique de documents multiples. Ce syst\u00e8me se base sur l\u2019utilisation d\u2019un algorithme g\u00e9n\u00e9tique qui permet de combiner les phrases des documents sources pour former les extraits, qui seront crois\u00e9s et mut\u00e9s pour g\u00e9n\u00e9rer de nouveaux extraits. La multiplicit\u00e9 des crit\u00e8res de s\u00e9lection d\u2019extraits nous a inspir\u00e9 une premi\u00e8re am\u00e9lioration qui consiste \u00e0 utiliser une technique d\u2019optimisation multi-objectif en vue d\u2019\u00e9valuer ces extraits. La deuxi\u00e8me am\u00e9lioration consiste \u00e0 int\u00e9grer une \u00e9tape de pr\u00e9-filtrage de phrases qui a pour objectif la r\u00e9duction du nombre des phrases des textes sources en entr\u00e9e. Une \u00e9valuation des am\u00e9liorations apport\u00e9es \u00e0 notre syst\u00e8me est r\u00e9alis\u00e9e sur les corpus de DUC\u201904 et DUC\u201907.","translation":["","In this paper, we present the improvements that we brought to the ExtraNews system dedicated for automatic summarisation of multiple documents. This system is based on the use of a genetic algorithm that combines sentences of the source documents to form the extracts. These extracts are crossed and transferred to generate new ones. The multiplicity of the extract selection criteria inspired us the first improvement that consists in the use of a multi-objectif optimization technique to evaluate these extracts. The second improvement consists of the integration of a sentence pre-filtering step which is based on the notion of dominance between sentences. Our objective is to reduce the sentence number of the source texts. An evaluation of the proposed improvements to our system is realized on DUC' 04 and DUC' 07 corpus.","Automatic summarization, sentences pre-filtering, multi-objective optimization, genetic algorithm"],"keyphrases":["R\u00e9sum\u00e9 automatique","algorithme g\u00e9n\u00e9tique","optimisation multi-objectif","pr\u00e9-filtrage de phrases"],"prmu":["P","P","P","P"]} {"id":"taln-2008-long-012","title":"Recherche locale pour la traduction statistique \u00e0 base de segments","abstract":"Dans cette \u00e9tude, nous nous int\u00e9ressons \u00e0 des algorithmes de recherche locale pour la traduction statistique \u00e0 base de segments (phrase-based machine translation). Les algorithmes que nous \u00e9tudions s\u2019appuient sur une formulation compl\u00e8te d\u2019un \u00e9tat dans l\u2019espace de recherche contrairement aux d\u00e9codeurs couramment utilis\u00e9s qui explorent l\u2019espace des pr\u00e9fixes des traductions possibles. Nous montrons que la recherche locale seule, permet de produire des traductions proches en qualit\u00e9 de celles fournies par les d\u00e9codeurs usuels, en un temps nettement inf\u00e9rieur et \u00e0 un co\u00fbt m\u00e9moire constant. Nous montrons \u00e9galement sur plusieurs directions de traduction qu\u2019elle permet d\u2019am\u00e9liorer de mani\u00e8re significative les traductions produites par le syst\u00e8me \u00e0 l\u2019\u00e9tat de l\u2019art Pharaoh (Koehn, 2004).","translation":["","Most phrase-based statistical machine translation decoders rely on a dynamicprogramming technique for maximizing a combination of models, including one or several language models and translation tables. One implication of this choice is the design of a scoring function that can be computed incrementally on partial translations, a restriction a search engine using a complete-state formulation does not have. In this paper, we present experiments we conducted with a simple, yet effective greedy search engine.We report significant improvements in translation quality over a state-of-the-art beam-search decoder, for some configurations.","Statistical Machine Translation, local search, post-processing"],"keyphrases":["recherche locale","Traduction statistique","post-traitement"],"prmu":["P","P","U"]} {"id":"taln-2008-long-013","title":"Transcrire les SMS comme on reconna\u00eet la parole","abstract":"Cet article pr\u00e9sente une architecture inspir\u00e9e des syst\u00e8mes de reconnaissance vocale pour effectuer une normalisation orthographique de messages en \u00ab langage SMS \u00bb. Nous d\u00e9crivons notre syst\u00e8me de base, ainsi que diverses \u00e9volutions de ce syst\u00e8me, qui permettent d\u2019am\u00e9liorer sensiblement la qualit\u00e9 des normalisations produites.","translation":["","This paper presents a system aiming at normalizing the orthography of SMS messages, using techniques that are commonly used in automatic speech recognition devices. We describe a baseline system and various evolutions, which are shown to improve significantly the quality of the output normalizations.","SMS, phonetic decoding, language models, finite-state transducers"],"keyphrases":["SMS","d\u00e9codage phon\u00e9tique","mod\u00e8les de langage","transducteurs finis"],"prmu":["P","U","M","U"]} {"id":"taln-2008-long-014","title":"Convertir des grammaires d\u2019arbres adjoints \u00e0 composantes multiples avec tuples d\u2019arbres (TT-MCTAG) en grammaires \u00e0 concat\u00e9nation d\u2019intervalles (RCG)","abstract":"Cet article \u00e9tudie la relation entre les grammaires d\u2019arbres adjoints \u00e0 composantes multiples avec tuples d\u2019arbres (TT-MCTAG), un formalisme utilis\u00e9 en linguistique informatique, et les grammaires \u00e0 concat\u00e9nation d\u2019intervalles (RCG). Les RCGs sont connues pour d\u00e9crire exactement la classe PTIME, il a en outre \u00e9t\u00e9 d\u00e9montr\u00e9 que les RCGs \u00ab simples \u00bb sont m\u00eame \u00e9quivalentes aux syst\u00e8mes de r\u00e9\u00e9criture hors-contextes lin\u00e9aires (LCFRS), en d\u2019autres termes, elles sont l\u00e9g\u00e8rement sensibles au contexte. TT-MCTAG a \u00e9t\u00e9 propos\u00e9 pour mod\u00e9liser les langages \u00e0 ordre des mots libre. En g\u00e9n\u00e9ral ces langages sont NP-complets. Dans cet article, nous d\u00e9finissons une contrainte additionnelle sur les d\u00e9rivations autoris\u00e9es par le formalisme TT-MCTAG. Nous montrons ensuite comment cette forme restreinte de TT-MCTAG peut \u00eatre convertie en une RCG simple \u00e9quivalente. Le r\u00e9sultat est int\u00e9ressant pour des raisons th\u00e9oriques (puisqu\u2019il montre que la forme restreinte de TT-MCTAG est l\u00e9g\u00e8rement sensible au contexte), mais \u00e9galement pour des raisons pratiques (la transformation propos\u00e9e ici a \u00e9t\u00e9 utilis\u00e9e pour implanter un analyseur pour TT-MCTAG).","translation":["","This paper investigates the relation between TT-MCTAG, a formalism used in computational linguistics, and RCG. RCGs are known to describe exactly the class PTIME ; \u00ab simple \u00bb RCG even have been shown to be equivalent to linear context-free rewriting systems, i.e., to be mildly context-sensitive. TT-MCTAG has been proposed to model free word order languages. In general, it is NP-complete. In this paper, we will put an additional limitation on the derivations licensed in TT-MCTAG. We show that TT-MCTAG with this additional limitation can be transformed into equivalent simple RCGs. This result is interesting for theoretical reasons (since it shows that TT-MCTAG in this limited form is mildly context-sensitive) and also for practical reasons (the proposed transformation has been used for implementing a parser for TT-MCTAG).","Multicomponent Tree Adjoining Grammars, Range Concatenation Grammars, mild context-sensitivity"],"keyphrases":["grammaires \u00e0 concat\u00e9nation d\u2019intervalles","Grammaires d\u2019arbres adjoints \u00e0 composantesmultiples","l\u00e9g\u00e8re sensibilit\u00e9 au contexte"],"prmu":["P","M","M"]} {"id":"taln-2008-long-015","title":"Factorisation des contraintes syntaxiques dans un analyseur de d\u00e9pendance","abstract":"Cet article d\u00e9crit un analyseur syntaxique pour grammaires de d\u00e9pendance lexicalis\u00e9es. Le formalisme syntaxique se caract\u00e9rise par une factorisation des contraintes syntaxiques qui se manifeste dans la s\u00e9paration entre d\u00e9pendance et ordre lin\u00e9aire, la sp\u00e9cification fonctionnelle (plut\u00f4t que syntagmatique) des d\u00e9pendants, la distinction entre d\u00e9pendants valenciels (la sous-cat\u00e9gorisation) et non valenciels (les circonstants) et la saturation progressive des arbres. Ceci r\u00e9sulte en une formulation concise de la grammaire \u00e0 un niveau tr\u00e8s abstrait et l\u2019\u00e9limination de la reduplication redondante des informations due aux r\u00e9alisations alternatives des d\u00e9pendants ou \u00e0 leur ordre. Les arbres \u00e9l\u00e9mentaires (obtenus \u00e0 partir des formes dans l\u2019entr\u00e9e) et d\u00e9riv\u00e9s sont combin\u00e9s entre eux par adjonction d\u2019un arbre d\u00e9pendant satur\u00e9 \u00e0 un arbre r\u00e9gissant, moyennant l\u2019unification des noeuds et des relations. La d\u00e9rivation est r\u00e9alis\u00e9e gr\u00e2ce \u00e0 un analyseur chart bi-directionnel.","translation":["","We describe a parser for lexicalized dependency grammar. The formalism is characterized by a factorization of the syntactic constraints, based on the separation between dependency and word order, the functional (rather than phrasal) specification of dependents, the distinction between valency and non valency dependents, and the incremental saturation of the trees. These features enable a concise formulation of the grammar at a very abstract level and eliminate syntactic information redundancy due to alternative forms of dependents and word order. Each word form produces one or more elementary dependency trees. Trees, both elementary and derived, are combined by adjoining a saturated dependent to a governing tree, after unification of shared nodes and relations. This is achieved using a bi-directional chart parser.","Syntactic parser, dependency"],"keyphrases":["d\u00e9pendance","Analyseur syntaxique"],"prmu":["P","P"]} {"id":"taln-2008-long-016","title":"Grammaires factoris\u00e9es pour des dialectes apparent\u00e9s","abstract":"Pour la formalisation du lexique et de la grammaire de dialectes \u00e9troitement apparent\u00e9s, il peut se r\u00e9v\u00e9ler utile de factoriser une partie du travail de mod\u00e9lisation. Les soussyst\u00e8mes linguistiques isomorphes dans les diff\u00e9rents dialectes peuvent alors faire l\u2019objet d\u2019une description commune, les diff\u00e9rences \u00e9tant sp\u00e9cifi\u00e9es par ailleurs. Cette d\u00e9marche aboutit \u00e0 un mod\u00e8le de grammaire \u00e0 couches : le noyau est commun \u00e0 la famille de dialectes, et une couche superficielle d\u00e9termine les caract\u00e9ristiques de chacun. Nous appliquons ce proc\u00e9d\u00e9 \u00e0 la famille des langues cr\u00e9oles \u00e0 base lexicale fran\u00e7aise de l\u2019aire am\u00e9ricano-cara\u00efbe.","translation":["","The task of writing formal lexicons and grammars for closely related dialects can benefit from factoring part of the modelling. Isomorphic linguistic subsystems from the different dialectsmay have a common description, while the differences are specified aside. This process leads to a layered grammar model: a kernel common to the whole family of dialects, and a superficial skin specifying the particular properties of each one of them. We apply this principle to the family of French-lexifier creole languages of the American-Caribbean area.","TAG, grammar, modelling, dialectal variation"],"keyphrases":["grammaire","mod\u00e9lisation","TAG","variation dialectale"],"prmu":["P","P","U","U"]} {"id":"taln-2008-long-017","title":"Exp\u00e9riences d\u2019analyse syntaxique statistique du fran\u00e7ais","abstract":"Nous montrons qu\u2019il est possible d\u2019obtenir une analyse syntaxique statistique satisfaisante pour le fran\u00e7ais sur du corpus journalistique, \u00e0 partir des donn\u00e9es issues du French Treebank du laboratoire LLF, \u00e0 l\u2019aide d\u2019un algorithme d\u2019analyse non lexicalis\u00e9.","translation":["","We show that we can acquire satisfactory parsing results for French from data induced from the French Treebank using an unlexicalised parsing algorithm.","Statistical parser, Unlexicalised parsing, French parsing"],"keyphrases":["Analyseur syntaxique statistique","Analyse syntaxique non lexicalis\u00e9e","Analyse du fran\u00e7ais"],"prmu":["M","R","R"]} {"id":"taln-2008-long-018","title":"Construction d\u2019un wordnet libre du fran\u00e7ais \u00e0 partir de ressources multilingues","abstract":"Cet article d\u00e9crit la construction d\u2019un Wordnet Libre du Fran\u00e7ais (WOLF) \u00e0 partir du Princeton WordNet et de diverses ressources multilingues. Les lex\u00e8mes polys\u00e9miques ont \u00e9t\u00e9 trait\u00e9s au moyen d\u2019une approche reposant sur l\u2019alignement en mots d\u2019un corpus parall\u00e8le en cinq langues. Le lexique multilingue extrait a \u00e9t\u00e9 d\u00e9sambigu\u00efs\u00e9 s\u00e9mantiquement \u00e0 l\u2019aide des wordnets des langues concern\u00e9es. Par ailleurs, une approche bilingue a \u00e9t\u00e9 suffisante pour construire de nouvelles entr\u00e9es \u00e0 partir des lex\u00e8mes monos\u00e9miques. Nous avons pour cela extrait des lexiques bilingues \u00e0 partir deWikip\u00e9dia et de th\u00e9saurus. Le wordnet obtenu a \u00e9t\u00e9 \u00e9valu\u00e9 par rapport au wordnet fran\u00e7ais issu du projet EuroWordNet. Les r\u00e9sultats sont encourageants, et des applications sont d\u2019ores et d\u00e9j\u00e0 envisag\u00e9es.","translation":["","This paper describes the construction of a freely-available wordnet for French (WOLF) based on Princeton WordNet by using various multilingual resources. Polysemous words were dealt with an approach in which a parallel corpus for five languages was wordaligned and the extracted multilingual lexicon was disambiguated with the existing wordnets for these languages. On the other hand, a bilingual approach sufficed to acquire equivalents for monosemous words. Bilingual lexicons were extracted from Wikipedia and thesauri. The merged wordnet was evaluated against the French WordNet. The results are promising, and applications are already intended.","Wordnet, aligned corpora, Wikipedia, lexical semantics"],"keyphrases":["Wordnet","corpus align\u00e9s","Wikip\u00e9dia","s\u00e9mantique lexicale"],"prmu":["P","R","U","M"]} {"id":"taln-2008-long-019","title":"D\u00e9termination des sens d\u2019usage dans un r\u00e9seau lexical construit \u00e0 l\u2019aide d\u2019un jeu en ligne","abstract":"Les informations lexicales, indispensables pour les t\u00e2ches r\u00e9alis\u00e9es en TALN, sont difficiles \u00e0 collecter. En effet, effectu\u00e9e manuellement, cette t\u00e2che n\u00e9cessite la comp\u00e9tence d\u2019experts et la dur\u00e9e n\u00e9cessaire peut \u00eatre prohibitive, alors que r\u00e9alis\u00e9e automatiquement, les r\u00e9sultats peuvent \u00eatre biais\u00e9s par les corpus de textes retenus. L\u2019approche pr\u00e9sent\u00e9e ici consiste \u00e0 faire participer un grand nombre de personnes \u00e0 un projet contributif en leur proposant une application ludique accessible sur le web. A partir d\u2019une base de termes pr\u00e9existante, ce sont ainsi les joueurs qui vont construire le r\u00e9seau lexical, en fournissant des associations qui ne sont valid\u00e9es que si elles sont propos\u00e9es par au moins une paire d\u2019utilisateurs. De plus, ces relations typ\u00e9es sont pond\u00e9r\u00e9es en fonction du nombre de paires d\u2019utilisateurs qui les ont propos\u00e9es. Enfin, nous abordons la question de la d\u00e9termination des diff\u00e9rents sens d\u2019usage d\u2019un terme, en analysant les relations entre ce terme et ses voisins imm\u00e9diats dans le r\u00e9seau lexical, avant de pr\u00e9senter bri\u00e8vement la r\u00e9alisation et les premiers r\u00e9sultats obtenus.","translation":["","Lexical information is indispensable for the tasks realized in NLP, but collecting lexical information is a difficult work. Indeed, when done manually, it requires the competence of experts and the duration can be prohibitive. When done automatically, the results can be biased by the corpus of texts. The approach we present here consists in having people take part in a collective project by offering them a playful application accessible on the web. From an already existing base of terms, the players themselves thus build the lexical network, by supplying associations which are validated only if they are suggested by a pair of users. Furthermore, these typed relations are weighted according to the number of pairs of users who provide them. Finally, we approach the question of the word usage determination for a term, by searching relations between this term and its neighbours in the network, before briefly presenting the realization and the first obtained results.","Natural Language Processing, lexical network, typed and weighted relations, word usage, webbased game"],"keyphrases":["r\u00e9seau lexical","jeu en ligne","sens d\u2019usage d\u2019un terme","Traitement Automatique du Langage Naturel","relations typ\u00e9es pond\u00e9r\u00e9es"],"prmu":["P","P","P","M","R"]} {"id":"taln-2008-long-020","title":"Mod\u00e9lisation normalis\u00e9e LMF des dictionnaires \u00e9lectroniques \u00e9ditoriaux de l\u2019arabe","abstract":"Le pr\u00e9sent papier s\u2019int\u00e9resse \u00e0 l\u2019\u00e9laboration des dictionnaires \u00e9lectroniques arabes \u00e0 usage \u00e9ditorial. Il propose un mod\u00e8le unifi\u00e9 et normalis\u00e9 de ces dictionnaires en se r\u00e9f\u00e9rant \u00e0 la future norme LMF (Lexical Markup Framework) ISO 24613. Ce mod\u00e8le permet de construire des dictionnaires extensibles, sur lesquels on peut r\u00e9aliser, gr\u00e2ce \u00e0 une structuration fine et standard, des fonctions de consultation g\u00e9n\u00e9riques adapt\u00e9es aux besoins des utilisateurs. La mise en oeuvre du mod\u00e8le propos\u00e9 est test\u00e9e sur des dictionnaires existants de la langue arabe en utilisant, pour la consultation, le syst\u00e8me ADIQTO (Arabic DIctionary Query TOols) que nous avons d\u00e9velopp\u00e9 pour l\u2019interrogation g\u00e9n\u00e9rique des dictionnaires normalis\u00e9s de l\u2019arabe.","translation":["","This paper is interested in the development of the Arabic electronic dictionaries of human use. It proposes a unified and standardized model for these dictionaries according to the future standard LMF (Lexical Markup Framework) ISO 24613. Thanks to its subtle and standardized structure, this model allows the development of extendable dictionaries on which generic interrogation functions adapted to the user\u2019s needs can be implemented. This model has already been carried out on some existing Arabic dictionaries using the ADIQTQ (Arabic DIctionary Query Tool) system, which we developed for the generic interrogation of standardized dictionaries of Arabic.","Arabic electronic dictionary, human use, standardized model, LMF, generic interrogation"],"keyphrases":["LMF","Dictionnaire \u00e9lectronique Arabe","usage \u00e9ditorial","interrogation g\u00e9n\u00e9rique","mod\u00e8le normalis\u00e9"],"prmu":["P","P","P","P","R"]} {"id":"taln-2008-long-021","title":"La polys\u00e9mie r\u00e9guli\u00e8re dans WordNet","abstract":"Cette \u00e9tude propose une analyse et une mod\u00e9lisation des relations de polys\u00e9mie dans le lexique \u00e9lectronique anglais WordNet. Elle exploite pour cela la hi\u00e9rarchie des concepts (repr\u00e9sent\u00e9s par des synsets), et la d\u00e9finition associ\u00e9e \u00e0 chacun de ces concepts. Le r\u00e9sultat est constitu\u00e9 d'un ensemble de r\u00e8gles qui nous ont permis d'identifier d\u2019une fa\u00e7on largement automatis\u00e9e, avec une pr\u00e9cision voisine de 91%, plus de 2100 paires de synsets li\u00e9s par une relation de polys\u00e9mie r\u00e9guli\u00e8re. Notre m\u00e9thode permet aussi une d\u00e9sambigu\u00efsation lexicale partielle des mots de la d\u00e9finition associ\u00e9e \u00e0 ces synsets.","translation":["","This paper presents an analysis and modeling of polysemy in the WordNet English lexical database. It exploits the concepts hierarchy (constituted by synsets), and the gloss defining each of these concepts. The result consists of rules set which enabled us to identify in a largely automated way, with a precision close to 91%, more than 2100 synsets pairs, connected by a regular polysemy relation. Our method also allows a partial word sense disambiguation of the definition associated with these synsets.","regular polysemy, metaphor, metonymy, WordNet, word sense disambiguation"],"keyphrases":["polys\u00e9mie r\u00e9guli\u00e8re","WordNet","d\u00e9sambigu\u00efsation lexicale","m\u00e9taphore","m\u00e9tonymie"],"prmu":["P","P","P","U","U"]} {"id":"taln-2008-long-022","title":"Une alternative aux mod\u00e8les de traduction statistique d\u2019IBM: Les triggers inter-langues","abstract":"Dans cet article, nous pr\u00e9sentons une nouvelle approche pour la traduction automatique fond\u00e9e sur les triggers inter-langues. Dans un premier temps, nous expliquons le concept de triggers inter-langues ainsi que la fa\u00e7on dont ils sont d\u00e9termin\u00e9s. Nous pr\u00e9sentons ensuite les diff\u00e9rentes exp\u00e9rimentations qui ont \u00e9t\u00e9 men\u00e9es \u00e0 partir de ces triggers afin de les int\u00e9grer au mieux dans un processus complet de traduction automatique. Pour cela, nous construisons \u00e0 partir des triggers inter-langues des tables de traduction suivant diff\u00e9rentes m\u00e9thodes. Nous comparons par la suite notre syst\u00e8me de traduction fond\u00e9 sur les triggers interlangues \u00e0 un syst\u00e8me \u00e9tat de l\u2019art reposant sur le mod\u00e8le 3 d\u2019IBM (Brown & al., 1993). Les tests men\u00e9s ont montr\u00e9 que les traductions automatiques g\u00e9n\u00e9r\u00e9es par notre syst\u00e8me am\u00e9liorent le score BLEU (Papineni & al., 2001) de 2, 4% compar\u00e9 \u00e0 celles produites par le syst\u00e8me \u00e9tat de l\u2019art.","translation":["","In this paper, we present an original approach for machine translation based on inter-lingual triggers. First, we describe the idea of inter-lingual triggers and how to determine them. Then, we present the way to make good use of them in order to integrate them in an entire translation process. We used inter-lingual triggers to estimate different translation tables. Then we compared our translation system based on triggers to a state-of-the-art system based on IBM model 3 (Brown & al., 1993). The experiments showed that automatic translations generated by our system outperform model 3 of IBM by 2.4% in terms of BLEU (Papineni & al., 2001).","StatisticalMachine Translation, Inter-Lingual Triggers,Mutual Information, Parallel corpus, Decoding process"],"keyphrases":["Triggers Inter-Langues","Traduction Automatique Statistique","Information Mutuelle","Corpus parall\u00e8le","D\u00e9codage"],"prmu":["P","R","U","U","U"]} {"id":"taln-2008-long-023","title":"G\u00e9n\u00e9ration de reformulations locales par pivot pour l\u2019aide \u00e0 la r\u00e9vision","abstract":"Cet article pr\u00e9sente une approche pour obtenir des paraphrases pour de courts segments de texte qui peuvent aider un r\u00e9dacteur \u00e0 reformuler localement des textes. La ressource principale utilis\u00e9e est une table d\u2019alignements bilingues de segments d\u2019un syst\u00e8me de traduction automatique statistique. Un segment marqu\u00e9 par le r\u00e9dacteur est tout d\u2019abord traduit dans une langue pivot avant d\u2019\u00eatre traduit \u00e0 nouveau dans la langue d\u2019origine, ce qui est permis par la nature m\u00eame de la ressource bilingue utilis\u00e9e sans avoir recours \u00e0 un processus de traduction complet. Le cadre propos\u00e9 permet l\u2019int\u00e9gration et la combinaison de diff\u00e9rents mod\u00e8les d\u2019estimation de la qualit\u00e9 des paraphrases. Des mod\u00e8les linguistiques tentant de prendre en compte des caract\u00e9ristiques des paraphrases de courts segments de textes sont propos\u00e9s, et une \u00e9valuation est d\u00e9crite et ses r\u00e9sultats analys\u00e9s. Les domaines d\u2019application possibles incluent, outre l\u2019aide \u00e0 la reformulation, le r\u00e9sum\u00e9 et la r\u00e9\u00e9criture des textes pour r\u00e9pondre \u00e0 des conventions ou \u00e0 des pr\u00e9f\u00e9rences stylistiques. L\u2019approche est critiqu\u00e9e et des perspectives d\u2019am\u00e9lioration sont propos\u00e9es.","translation":["","In this article, we present a method to obtain paraphrases for short text spans that can be useful to help a writer in reformulating text. The main resource used is a bilingual phrase table containing aligned phrases, a common resource in statistical machine translation. The writer can mark a segment for paraphrasing, and this segment is first translated into a pivot language before being back-translated into the original language, which is possible without performing a full translation of the input. Our proposed framework allows integrating and combining various models for estimating paraphrase quality. We propose linguistic models which permits to conduct empirical experiments about the characteristics of paraphrases for short text spans. Application domains include, in addition to paraphrasing aids, summarization and rephrasing of text for conforming to conventional or stylistic guidelines. We finally discuss the limitations of our work and describe possible ways of improvement.","Paraphrasing, Phrase-Based Statistical Machine Translation (PBSMT), Authoring aids"],"keyphrases":["Paraphrase","Traduction Automatique Statistique bas\u00e9e sur les segments","Aide \u00e0 la r\u00e9daction"],"prmu":["P","M","M"]} {"id":"taln-2008-long-024","title":"Les architectures linguistiques et computationnelles en traduction automatique sont ind\u00e9pendantes","abstract":"Contrairement \u00e0 une id\u00e9e r\u00e9pandue, les architectures linguistiques et computationnelles des syst\u00e8mes de traduction automatique sont ind\u00e9pendantes. Les premi\u00e8res concernent le choix des repr\u00e9sentations interm\u00e9diaires, les secondes le type d'algorithme, de programmation et de ressources utilis\u00e9s. Il est ainsi possible d'utiliser des m\u00e9thodes de calcul \u00ab expertes \u00bb ou \u00ab empiriques \u00bb pour construire diverses phases ou modules de syst\u00e8mes d'architectures linguistiques vari\u00e9es. Nous terminons en donnant quelques \u00e9l\u00e9ments pour le choix de ces architectures en fonction des situations traductionnelles et des ressources disponibles, en termes de dictionnaires, de corpus, et de comp\u00e9tences humaines.","translation":["","Contrary to a wide-spread idea, the linguistic and computational architectures of MT systems are independent. The former concern the choice of the intermediate representations, the latter the type of algorithm, programming, and resources used. It is thus possible to use \"expert\" or \"empirical\" computational methods to build various phases or modules of systems having various linguistic architectures. We finish by giving some elements for choosing these architectures depending on the translational situations and the available resources, in terms of dictionaries, corpora, and human competences.","Machine Translation, MT, linguistic architecture, computational architecture, expert MT, rule-based MT, empirical MT, statistical MT, example-based MT"],"keyphrases":["architecture linguistique","Traduction Automatique","TA","TAO","architecture computationnelle","TA experte","TA par r\u00e8gles","TA empirique","TA statistique","TA par l'exemple"],"prmu":["P","P","U","U","R","M","U","M","U","U"]} {"id":"taln-2008-long-025","title":"V\u00e9rification s\u00e9mantique pour l\u2019annotation d\u2019entit\u00e9s nomm\u00e9es","abstract":"Dans cet article, nous proposons une m\u00e9thode visant \u00e0 corriger et \u00e0 associer dynamiquement de nouveaux types s\u00e9mantiques dans le cadre de syst\u00e8mes de d\u00e9tection automatique d\u2019entit\u00e9s nomm\u00e9es (EN). Apr\u00e8s la d\u00e9tection des entit\u00e9s nomm\u00e9es et aussi de mani\u00e8re plus g\u00e9n\u00e9rale des noms propres dans les textes, une v\u00e9rification de compatibilit\u00e9 de types s\u00e9mantiques est effectu\u00e9e non seulement pour confirmer ou corriger les r\u00e9sultats obtenus par le syst\u00e8me de d\u00e9tection d\u2019EN, mais aussi pour associer de nouveaux types non couverts par le syst\u00e8me de d\u00e9tection d\u2019EN. Cette v\u00e9rification est effectu\u00e9e en utilisant l\u2019information syntaxique associ\u00e9e aux EN par un syst\u00e8me d\u2019analyse syntaxique robuste et en confrontant ces r\u00e9sultats avec la ressource s\u00e9mantique WordNet. Les r\u00e9sultats du syst\u00e8me de d\u00e9tection d\u2019EN sont alors consid\u00e9rablement enrichis, ainsi que les \u00e9tiquettes s\u00e9mantiques associ\u00e9es aux EN, ce qui est particuli\u00e8rement utile pour l\u2019adaptation de syst\u00e8mes de d\u00e9tection d\u2019EN \u00e0 de nouveaux domaines.","translation":["","In this paper we propose a new method that enables to correct and to associate new semantic types in the context of Named Entity (NE) Recognition Systems. After named entities (and more generally proper nouns) have been detected in texts, a semantic compatibility checking is performed. This checking can not only confirm or correct previous results of the NER system but also associate new NE types that have not been previously foreseen. This checking is performed using information associated to the NE by a robust syntactic analyzer and confronting this information to WordNet. After this checking is performed, final results of the NER system are better and new NE semantic tags are created. This second point is particularly useful when adapting existing NER systems to new domains.","Named Entities, Robust Parsing, Semantic Types"],"keyphrases":["Entit\u00e9s nomm\u00e9es","Types s\u00e9mantiques","Analyse syntaxique robuste"],"prmu":["P","P","P"]} {"id":"taln-2008-long-026","title":"Exploitation de treillis de Galois en d\u00e9sambigu\u00efsation non supervis\u00e9e d\u2019entit\u00e9s nomm\u00e9es","abstract":"Nous pr\u00e9sentons une m\u00e9thode non supervis\u00e9e de d\u00e9sambigu\u00efsation d\u2019entit\u00e9s nomm\u00e9es, bas\u00e9e sur l\u2019exploitation des treillis de Galois. Nous r\u00e9alisons une analyse de concepts formels \u00e0 partir de relations entre des entit\u00e9s nomm\u00e9es et leurs contextes syntaxiques extraits d\u2019un corpus d\u2019apprentissage. Le treillis de Galois r\u00e9sultant fournit des concepts qui sont utilis\u00e9s comme des \u00e9tiquettes pour annoter les entit\u00e9s nomm\u00e9es et leurs contextes dans un corpus de test. Une \u00e9valuation en cascade montre qu\u2019un syst\u00e8me d\u2019apprentissage supervis\u00e9 am\u00e9liore la classification des entit\u00e9s nomm\u00e9es lorsqu\u2019il s\u2019appuie sur l\u2019annotation r\u00e9alis\u00e9e par notre syst\u00e8me de d\u00e9sambigu\u00efsation non supervis\u00e9e.","translation":["","We present an unsupervised method for named entities disambiguation, based on concept lattice mining.We perform a formal concept analysis from relations between named entities and their syntactic contexts observed in a training corpora. The resulting lattice produces concepts which are considered as labels for named entities and context annotation. Our approach is validated through a cascade evaluation which shows that supervised named entity classification is improved by using the annotation produced by our unsupervised disambiguation system.","Unsupervised word sense disambiguation, concept lattice, named entities"],"keyphrases":["treillis de Galois","D\u00e9sambigu\u00efsation non supervis\u00e9e","entit\u00e9s nomm\u00e9es"],"prmu":["P","P","P"]} {"id":"taln-2008-long-027","title":"R\u00e9solution de M\u00e9tonymie des Entit\u00e9s Nomm\u00e9es : proposition d\u2019une m\u00e9thode hybride","abstract":"Dans cet article, nous d\u00e9crivons la m\u00e9thode que nous avons d\u00e9velopp\u00e9e pour la r\u00e9solution de m\u00e9tonymie des entit\u00e9s nomm\u00e9es dans le cadre de la comp\u00e9tition SemEval 2007. Afin de r\u00e9soudre les m\u00e9tonymies sur les noms de lieux et noms d\u2019organisation, tel que requis pour cette t\u00e2che, nous avons mis au point un syst\u00e8me hybride bas\u00e9 sur l\u2019utilisation d\u2019un analyseur syntaxique robuste combin\u00e9 avec une m\u00e9thode d\u2019analyse distributionnelle. Nous d\u00e9crivons cette m\u00e9thode ainsi que les r\u00e9sultats obtenus par le syst\u00e8me dans le cadre de la comp\u00e9tition SemEval 2007.","translation":["","In this paper, we describe the method we develop in order to solve Named entity metonymy in the framework of the SemEval 2007 competition. In order to perform Named Entity metonymy resolution on location names and company names, as required for this task, we developed a hybrid system based on the use of a robust parser that extracts deep syntactic relations combined with a non supervised distributional approach, also relying on the relations extracted by the parser.We describe this methodology as well as the results obtained at SemEval 2007.","Named Entities, metonymy, hybrid method, robust parsing, distributional approach"],"keyphrases":["m\u00e9tonymie","Entit\u00e9s Nomm\u00e9es","m\u00e9thode hybride","analyse syntaxique robuste","approche distributionnelle"],"prmu":["P","P","P","R","M"]} {"id":"taln-2008-long-028","title":"Etude de la corr\u00e9lation entre morphosyntaxe et s\u00e9mantique dans une perspective d\u2019\u00e9tiquetage automatique de textes m\u00e9dicaux arabes","abstract":"Cet article se propose d\u2019\u00e9tudier les relations s\u00e9mantiques reliant base et expansion au sein des termes m\u00e9dicaux arabes de type \u00ab N+N \u00bb, particuli\u00e8rement ceux dont la base est un d\u00e9verbal. En \u00e9tudiant les relations s\u00e9mantiques \u00e9tablies par une base d\u00e9verbale, ce travail tente d\u2019attirer l\u2019attention sur l\u2019interp\u00e9n\u00e9tration du s\u00e9mantique et du morphosyntaxique ; il montre que, dans une large mesure, la structure morphosyntaxique de la base d\u00e9termine l\u2019\u00e9ventail des possibilit\u00e9s relationnelles. La d\u00e9couverte de r\u00e9gularit\u00e9s dans le comportement de la base d\u00e9verbale permet de pr\u00e9dire le type de relations que peut \u00e9tablir cette base avec son expansion pavant ainsi la voie \u00e0 un traitement automatique et un travail d\u2019\u00e9tiquetage s\u00e9mantique des textes m\u00e9dicaux arabes.","translation":["","This paper examines the semantic relations existing in Arabic medical texts between the head and its extension in a two-noun compound, particularly when the head is a deverbal noun or a nominalization. By studying semantic relations encoded by nominalizations, this research work aims at underlining the correlation between morphosyntax and semantics notably the influence of the head noun structure on the set of semantic relations that can be established. The discovery of regularities in the functioning of the head noun allows thus to predict the type of relation that will be encoded. Such data are a pre-requisite for natural language processing and automatic part-to-speech tagging of medical Arabic texts.","Part-of-speech tagging, Arabic medical terminology, morphosyntax, semantics"],"keyphrases":["morphosyntaxe","s\u00e9mantique","\u00e9tiquetage automatique","terminologie m\u00e9dicale arabe"],"prmu":["P","P","P","M"]} {"id":"taln-2008-long-029","title":"Influence de la qualit\u00e9 de l\u2019\u00e9tiquetage sur le chunking : une corr\u00e9lation d\u00e9pendant de la taille des chunks","abstract":"Nous montrons dans cet article qu\u2019il existe une corr\u00e9lation \u00e9troite existant entre la qualit\u00e9 de l\u2019\u00e9tiquetage morpho-syntaxique et les performances des chunkers. Cette corr\u00e9lation devient lin\u00e9aire lorsque la taille des chunks est limit\u00e9e. Nous appuyons notre d\u00e9monstration sur la base d\u2019une exp\u00e9rimentation conduite suite \u00e0 la campagne d\u2019\u00e9valuation Passage 2007 (de la Clergerie et al., 2008). Nous analysons pour cela les comportements de deux analyseurs ayant particip\u00e9 \u00e0 cette campagne. L\u2019interpr\u00e9tation des r\u00e9sultats montre que la t\u00e2che de chunking, lorsqu\u2019elle vise des chunks courts, peut \u00eatre assimil\u00e9e \u00e0 une t\u00e2che de \u201csuper-\u00e9tiquetage\u201d.","translation":["","We show in this paper that a strong correlation exists between the performance of chunk parsers and the quality of the tagging task in input. This dependency becomes linear when the size of the chunks is small. Our demonstration is based on an experiment conducted at the end of the Passage 2007 shared task evaluation initiative (de la Clergerie et al., 2008). The performance of two parsers which took part in this evaluation has been investigated. The results indicate that the chunking task, for sufficiently short chunks, is similar to a super-tagging task.","Parsing, tagging, stochastic parser, symbolic shallow parser, chunker"],"keyphrases":["chunker","Analyse syntaxique","\u00e9tiquetage morphosyntaxique","analyseur stochastique","analyseur symbolique superficiel"],"prmu":["P","U","M","M","M"]} {"id":"taln-2008-long-030","title":"Apprentissage artificiel de r\u00e8gles d\u2019indexation pour MEDLINE","abstract":"L\u2019indexation est une composante importante de tout syst\u00e8me de recherche d\u2019information. Dans MEDLINE, la base documentaire de r\u00e9f\u00e9rence pour la litt\u00e9rature du domaine biom\u00e9dical, le contenu des articles r\u00e9f\u00e9renc\u00e9s est index\u00e9 \u00e0 l\u2019aide de descripteurs issus du th\u00e9saurus MeSH. Avec l\u2019augmentation constante de publications \u00e0 indexer pour maintenir la base \u00e0 jour, le besoin d\u2019outils automatiques se fait pressant pour les indexeurs. Dans cet article, nous d\u00e9crivons l\u2019utilisation et l\u2019adaptation de la Programmation Logique Inductive (PLI) pour d\u00e9couvrir des r\u00e8gles d\u2019indexation permettant de g\u00e9n\u00e9rer automatiquement des recommandations d\u2019indexation pour MEDLINE. Les r\u00e9sultats obtenus par cette approche originale sont tr\u00e8s satisfaisants compar\u00e9s \u00e0 ceux obtenus \u00e0 l\u2019aide de r\u00e8gles manuelles lorsque celles-ci existent. Ainsi, les jeux de r\u00e8gles obtenus par PLI devraient \u00eatre prochainement int\u00e9gr\u00e9s au syst\u00e8me produisant les recommandations d\u2019indexation automatique pour MEDLINE.","translation":["","Indexing is a crucial step in any information retrieval system. In MEDLINE, a widely used database of the biomedical literature, the indexing process involves the selection of Medical Subject Headings in order to describe the subject matter of articles. The need for automatic tools to assist human indexers in this task is growing with the increasing amount of publications to be referenced in MEDLINE. In this paper, we describe the use and the customization of Inductive Logic Programming (ILP) to infer indexing rules that may be used to produce automatic indexing recommendations for MEDLINE indexers. Our results show that this original ILP-based approach overperforms manual rules when they exist. We expect the sets of ILP rules obtained in this experiment to be integrated in the system producing automatic indexing recommendations for MEDLINE.","Abstracting and Indexing\/methods, Medical Subject Headings, Machine Learning, Inductive Logic Programming"],"keyphrases":["Apprentissage Artificiel","Programmation Logique Inductive","Analyse et Indexation\/m\u00e9thodes","Medical Subject Headings"],"prmu":["P","P","M","U"]} {"id":"taln-2008-court-001","title":"Y a-t-il une v\u00e9ritable \u00e9quivalence entre les propositions syntaxiques du fran\u00e7ais et du japonais ?","abstract":"La pr\u00e9sente contribution part de nos constats r\u00e9alis\u00e9s \u00e0 partir des r\u00e9sultats d\u2019\u00e9valuation de notre syst\u00e8me d\u2019alignement des propositions de textes fran\u00e7ais-japonais. La pr\u00e9sence importante de structures fondamentalement difficiles \u00e0 aligner et les r\u00e9sultats peu satisfaisants de diff\u00e9rentes m\u00e9thodes de mise en correspondance des mots nous ont finalement amen\u00e9s \u00e0 remettre en cause l\u2019existence m\u00eame d\u2019\u00e9quivalence au niveau des propositions syntaxiques entre le fran\u00e7ais et le japonais. Afin de compenser les d\u00e9fauts que nous avons d\u00e9couverts, nous proposons des op\u00e9rations permettant de restaurer l\u2019\u00e9quivalence des propositions align\u00e9es et d\u2019am\u00e9liorer la qualit\u00e9 des corpus align\u00e9s.","translation":["","This paper is based on our observations obtained from the results of our French-Japanese clause alignment system. Structures fundamentally difficult to align were so numerous and results obtained by various word-matching methods were so unsatisfactory that we questioned the existence of equivalence at the syntactic clause level between French and Japanese. In order to compensate the defect that we discovered, we propose some operations to restore aligned clause equivalence to improve the quality of aligned corpora.","Alignment, syntactic clause, French-Japanese contrastive study, lexical similarty"],"keyphrases":["proposition syntaxique","Alignement","\u00e9tudes contrastives fran\u00e7ais-japonais","similarit\u00e9 lexicale"],"prmu":["P","P","M","U"]} {"id":"taln-2008-court-002","title":"Calculs d\u2019unification sur les arbres de d\u00e9rivation TAG","abstract":"Nous d\u00e9finissons un formalisme, les grammaires rationnelles d\u2019arbres avec traits, et une traduction des grammaires d\u2019arbres adjoints avec traits vers ce nouveau formalisme. Cette traduction pr\u00e9serve les structures de d\u00e9rivation de la grammaire d\u2019origine en tenant compte de l\u2019unification de traits. La construction peut \u00eatre appliqu\u00e9e aux r\u00e9alisateurs de surface qui se fondent sur les arbres de d\u00e9rivation.","translation":["","The derivation trees of a tree adjoining grammar provide a first insight into the sentence semantics, and are thus prime targets for generation systems. We define a formalism, feature based regular tree grammars, and a translation from feature based tree adjoining grammars into this new formalism. The translation preserves the derivation structures of the original grammar, and accounts for feature unification.","Unification, tree adjoining grammar, derivation tree, regular tree grammar"],"keyphrases":["Unification","arbre de d\u00e9rivation","grammaire rationnelle d\u2019arbres","grammaire d\u2019arbres adjoints"],"prmu":["P","P","P","P"]} {"id":"taln-2008-court-003","title":"Comparaison de m\u00e9thodes lexicales et syntaxico-s\u00e9mantiques dans la segmentation th\u00e9matique de texte non supervis\u00e9e","abstract":"Cet article pr\u00e9sente une m\u00e9thode bas\u00e9e sur des calculs de distance et une analyse s\u00e9mantique et syntaxique pour la segmentation th\u00e9matique de texte. Pour \u00e9valuer cette m\u00e9thode nous la comparons \u00e0 un un algorithme lexical tr\u00e8s connu : c99. Nous testons les deux m\u00e9thodes sur un corpus de discours politique fran\u00e7ais et comparons les r\u00e9sultats. Les deux conclusions qui ressortent de notre exp\u00e9rience sont que les approches sont compl\u00e9mentaires et que les protocoles d\u2019\u00e9valuation actuels sont inadapt\u00e9s.","translation":["","This paper present a semantic and syntactic distance based method in topic text segmentation and compare it to a very well known text segmentation algorithm : c99. To do so we ran the two algorithms on a corpus of twenty two French political discourses and compared their results. Our two conclusions are that the two approaches are complementary and that evaluation methods in this domain should be revised.","Evaluation methods, text segmentation, topic segmentation"],"keyphrases":["segmentation th\u00e9matique","M\u00e9thodes d\u2019\u00e9valuation","segmentation de texte"],"prmu":["P","R","R"]} {"id":"taln-2008-court-004","title":"Un mod\u00e8le de langage pour le DHM : la Grammaire S\u00e9mantique R\u00e9versible","abstract":"Cet article propose un mod\u00e8le de langage d\u00e9di\u00e9 au dialogue homme-machine, ainsi que des algorithmes d\u2019analyse et de g\u00e9n\u00e9ration. L\u2019originalit\u00e9 de notre approche est de faire reposer l\u2019analyse et la g\u00e9n\u00e9ration sur les m\u00eames connaissances, essentiellement s\u00e9mantiques. Celles-ci sont structur\u00e9es sous la forme d\u2019une biblioth\u00e8que de concepts, et de formes d\u2019usage associ\u00e9es aux concepts. Les algorithmes, quant \u00e0 eux, sont fond\u00e9s sur un double principe de correspondance entre des offres et des attentes, et d\u2019un calcul heuristique de score.","translation":["","In this paper we present a language model for man-machine dialogue, as well as algorithms for analysis and text generation. The originality of our approach is to base analysis and generation on the same knowledge. These one is structured like a library of concepts and syntactic patterns. The algorithms are based on a principle of correspondence between offers and expectations, and calculation of a heuristic scoring.","Semantic Grammar, Reversibility, Analysis, Generation, Dialogue"],"keyphrases":["Grammaire S\u00e9mantique","Dialogue","Analyse","G\u00e9n\u00e9ration","R\u00e9versibilit\u00e9"],"prmu":["P","P","P","P","U"]} {"id":"taln-2008-court-005","title":"Discourse Representation Theory et graphes s\u00e9mantiques : formalisation s\u00e9mantique en contexte industriel","abstract":"Ces travaux pr\u00e9sentent une extension des repr\u00e9sentations formelles pour la s\u00e9mantique, de l\u2019outil de traitement automatique des langues de Orange Labs1. Nous abordons ici uniquement des questions relatives \u00e0 la construction des repr\u00e9sentations s\u00e9mantiques, dans le cadre de l\u2019analyse linguistique. Afin d\u2019obtenir des repr\u00e9sentations plus fines de la structure argumentale des \u00e9nonc\u00e9s, nous incluons des concepts issus de la DRT dans le syst\u00e8me de repr\u00e9sentation bas\u00e9 sur les graphes s\u00e9mantiques afin de rendre compte de la notion de port\u00e9e.","translation":["","This works present an extension of the formal representation of semantic for the natural language processing tool developped at Orange Labs. We cover here only issues relating to build the semantic representations, based on linguistic parsing. To obtain more detailed representations of the argumental structure statements, we include insights from the DRT in the system of representation based on the semantic graphs to give an account of scope.","Semantic modelling, parsing, DRT"],"keyphrases":["DRT","Mod\u00e8le s\u00e9mantique","analyse syntaxique en d\u00e9pendance"],"prmu":["P","M","M"]} {"id":"taln-2008-court-006","title":"Sylva : plate-forme de validation multi-niveaux de lexiques","abstract":"La production de lexiques est une activit\u00e9 indispensable mais complexe, qui n\u00e9cessite, quelle que soit la m\u00e9thode de cr\u00e9ation utilis\u00e9e (acquisition automatique ou manuelle), une validation humaine. Nous proposons dans ce but une plate-forme Web librement disponible, appel\u00e9e Sylva (Systematic lexicon validator). Cette plate-forme a pour caract\u00e9ristiques principales de permettre une validation multi-niveaux (par des validateurs, puis un expert) et une tra\u00e7abilit\u00e9 de la ressource. La t\u00e2che de l\u2019expert(e) linguiste en est all\u00e9g\u00e9e puisqu\u2019il ne lui reste \u00e0 consid\u00e9rer que les donn\u00e9es sur lesquelles il n\u2019y a pas d\u2019accord inter-validateurs.","translation":["","Lexicon production is essential but complex and all creation methods (automatic acquisition or manual creation) require human validation. For this purpose, we propose a freely available Web-based framework, named Sylva (Systematic lexicon validator). The main point of our framework is that it handles multi-level validations and keeps track of the resource\u2019s history. The expert linguist task is made easier : (s)he has only to consider data on which validators disagree.","Lexicons, validation framework, subcategorization frames"],"keyphrases":["plate-forme de validation","Lexiques","cadres de sous-cat\u00e9gorisation"],"prmu":["P","P","M"]} {"id":"taln-2008-court-007","title":"E-Gen : Profilage automatique de candidatures","abstract":"La croissance exponentielle de l\u2019Internet a permis le d\u00e9veloppement de sites d\u2019offres d\u2019emploi en ligne. Le syst\u00e8me E-Gen (Traitement automatique d\u2019offres d\u2019emploi) a pour but de permettre l\u2019analyse et la cat\u00e9gorisation d\u2019offres d\u2019emploi ainsi qu\u2019une analyse et classification des r\u00e9ponses des candidats (Lettre de motivation et CV). Nous pr\u00e9sentons les travaux r\u00e9alis\u00e9s afin de r\u00e9soudre la seconde partie : on utilise une repr\u00e9sentation vectorielle de texte pour effectuer une classification des pi\u00e8ces jointes contenus dans le mail \u00e0 l\u2019aide de SVM. Par la suite, une \u00e9valuation de la candidature est effectu\u00e9e \u00e0 l\u2019aide de diff\u00e9rents classifieurs (SVM et n-grammes de mots).","translation":["","The exponential growth of the Internet has allowed the development of a market of on-line job search sites. This paper presents the E-Gen system (Automatic Job Offer Processing system for Human Resources). E-Gen will perform two complex tasks : an analysis and categorisation of job postings, which are unstructured text documents, an analysis and a relevance ranking of the candidate answers (cover letter and curriculum vitae). Here we present the work related to the second task : we use vectorial representation before generating a classification with SVM to determine the type of the attachment. In the next step, we try to classify the candidate answers with different classifiers (SVM and ngrams of words).","Text Classification, Probabilistic Model, Human Ressources, Job Offer"],"keyphrases":["Offres d\u2019emploi","Classification de textes","Mod\u00e8le probabiliste","Ressources humaines"],"prmu":["P","R","U","U"]} {"id":"taln-2008-court-008","title":"Typage, produit cart\u00e9sien et unit\u00e9s d\u2019analyse pour les mod\u00e8les \u00e0 \u00e9tats finis","abstract":"Dans cet article, nous pr\u00e9sentons un nouveau langage permettant d\u2019\u00e9crire des relations rationnelles compil\u00e9es en automates finis. Les deux caract\u00e9ristiques innovantes de ce langage sont de pourvoir d\u00e9crire des relations \u00e0 plusieurs niveaux, pas n\u00e9cessairement deux et d\u2019utiliser diverses unit\u00e9s d\u2019analyse pour exprimer les liens entre niveaux. Cela permet d\u2019aligner de fa\u00e7on fine des repr\u00e9sentations multiples.","translation":["","In this paper, we present a new language to write rational relations compiled into finite state automata. There are two main novelties in the language. Firstly, the descriptions may have more than two levels. Secondly, various units may be used to express the relationships between the levels. Using these features, it is possible to align finely multiple representations.","Finite-state machine, two-level morphology"],"keyphrases":["Machine finie \u00e0 \u00e9tats","morphologie \u00e0 deux niveau"],"prmu":["M","M"]} {"id":"taln-2008-court-009","title":"Vers l\u2019\u00e9valuation de syst\u00e8mes de dialogue homme-machine : de l\u2019oral au multimodal","abstract":"L\u2019\u00e9valuation pour le dialogue homme-machine ne se caract\u00e9rise pas par l\u2019efficacit\u00e9, l\u2019objectivit\u00e9 et le consensus que l\u2019on observe dans d\u2019autres domaines du traitement automatique des langues. Les syst\u00e8mes de dialogue oraux et multimodaux restent cantonn\u00e9s \u00e0 des domaines applicatifs restreints, ce qui rend difficiles les \u00e9valuations comparatives ou norm\u00e9es. De plus, les avanc\u00e9es technologiques constantes rendent vite obsol\u00e8tes les paradigmes d\u2019\u00e9valuation et ont pour cons\u00e9quence une multiplication de ceux-ci. Des solutions restent ainsi \u00e0 trouver pour am\u00e9liorer les m\u00e9thodes existantes et permettre des diagnostics plus automatis\u00e9s des syst\u00e8mes. Cet article se veut un ensemble de r\u00e9flexions autour de l\u2019\u00e9valuation de la multimodalit\u00e9 dans les syst\u00e8mes \u00e0 forte composante linguistique. Des extensions des paradigmes existants sont propos\u00e9es, en particulier DQR\/DCR, sachant que certains sont mieux adapt\u00e9s que d\u2019autres au dialogue multimodal. Des conclusions et perspectives sont tir\u00e9es sur l\u2019avenir de l\u2019\u00e9valuation pour le dialogue homme-machine.","translation":["","Evaluating human-machine dialogue systems is not so efficient, objective, and consensual than evaluating other natural language processing systems. Oral and multimodal dialogue systems are still working within reduced applicative domains. Comparative and normative evaluations are then difficult. Moreover, the continuous technological progress makes obsolete and numerous the evaluating paradigms. Some solutions are still to be identified to improve existing methods and to allow a more automatic diagnosis of systems. The aim of this paper is to provide a set of remarks dealing with the evaluation of multimodal spoken language dialogue systems. Some extensions of existing paradigms are presented, in particular DQR\/DCR, considering that some paradigms fit better multimodal issues than others. Some conclusions and perspectives are then drawn on the future of the evaluation of human-machine dialogue systems.","Task-driven dialogue, multimodality, evaluating human-machine dialogue, evaluation paradigm, user test, diagnosis"],"keyphrases":["multimodalit\u00e9","paradigme d\u2019\u00e9valuation","diagnostic","Dialogue finalis\u00e9","\u00e9valuation pour le dialogue hommemachine","test utilisateur","paraphrase multimodale"],"prmu":["P","P","P","M","M","U","M"]} {"id":"taln-2008-court-010","title":"POLYMOTS : une base de donn\u00e9es de constructions d\u00e9rivationnelles en fran\u00e7ais \u00e0 partir de radicaux phonologiques","abstract":"Cet article pr\u00e9sente POLYMOTS, une base de donn\u00e9es lexicale contenant huit mille mots communs en fran\u00e7ais. L\u2019originalit\u00e9 de l\u2019approche propos\u00e9e tient \u00e0 l'analyse des mots. En effet, \u00e0 la diff\u00e9rence d\u2019autres bases lexicales repr\u00e9sentant la morphologie d\u00e9rivationnelle des mots \u00e0 partir d\u2019affixes, ici l\u2019id\u00e9e a \u00e9t\u00e9 d\u2019isoler un radical commun \u00e0 un ensemble de mots d\u2019une m\u00eame famille. Nous avons donc analys\u00e9 les formes des mots et, par comparaison phonologique (forme phonique comparable) et morphologique (continuit\u00e9 de sens), nous avons regroup\u00e9 les mots par familles, selon le type de radical phonologique. L\u2019article pr\u00e9sente les fonctionnalit\u00e9s de la base et inclut une discussion sur les applications et les perspectives d\u2019une telle ressource.","translation":["","In this paper we present POLYMOTS, a lexical database containing eight thousand common nouns in French. Whereas most of the existing lexicons for derivational morphology take affixes as starting point for producing paradigms of words, we defend here the idea that it is possible to isolate a morpho-phonological stem and produce a paradigm of words belonging to the same family. This point leads us to describe three types of stems according to their phonological and morphological form. The article presents the different features of such a lexical database and discusses the applications and future work using and enriching this resource.","lexical resource, derivational morphology, word families processing"],"keyphrases":["morphologie d\u00e9rivationnelle","ressource lexicale","traitement automatique des familles de mots"],"prmu":["P","R","M"]} {"id":"taln-2008-court-011","title":"Mesure de l\u2019alternance entre pr\u00e9fixes pour la g\u00e9n\u00e9ration en traduction automatique","abstract":"La g\u00e9n\u00e9ration de n\u00e9ologismes construits pose des probl\u00e8mes dans un syst\u00e8me de traduction automatique, notamment au moment de la s\u00e9lection du pr\u00e9fixe dans les formations pr\u00e9fix\u00e9es, quand certains pr\u00e9fixes paraissent pouvoir alterner. Nous proposons une \u00e9tude \u00ab extensive \u00bb, qui vise \u00e0 rechercher dans de larges ressources textuelles (l\u2019Internet) des formes pr\u00e9fix\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement, dans le but d\u2019individualiser les param\u00e8tres qui favorisent l\u2019un des pr\u00e9fixes ou qui, au contraire, permettent cette alternance. La volatilit\u00e9 de cette ressource textuelle n\u00e9cessite certaines pr\u00e9cautions dans la m\u00e9thodologie de d\u00e9compte des donn\u00e9es extraites.","translation":["","Generating constructed neologisms in a machine translation system is confronted to the issue of selecting the right affixes, especially when some affixes can be used alternately. We propose here an \u201cextensive\u201d study that looks into large textual data collections (web) for prefixed forms that have been automatically generated, in order to find out parameters that allow the use of both prefixes or, on the contrary, that prevent one or the other prefixation. The volatility of web resources requires methodological precautions, especially in data counting.","morphology, machine translation, generation, neologism, empirical studies"],"keyphrases":["g\u00e9n\u00e9ration","traduction automatique","n\u00e9ologisme","morphologie","\u00e9tudes empiriques"],"prmu":["P","P","P","U","M"]} {"id":"taln-2008-court-012","title":"Cascades de transducteurs pour le chunking de la parole conversationnelle : l\u2019utilisation de la plateforme CasSys dans le projet EPAC","abstract":"Cet article pr\u00e9sente l\u2019utilisation de la plate-forme CasSys pour la segmentation de la parole conversationnelle (chunking) \u00e0 l\u2019aide de cascades de transducteurs Unitex. Le syst\u00e8me que nous pr\u00e9sentons est utilis\u00e9 dans le cadre du projet ANR EPAC. Ce projet a pour objectif l\u2019indexation et l\u2019annotation automatique de grands flux de parole issus d\u2019\u00e9missions t\u00e9l\u00e9vis\u00e9es ou radiophoniques. Cet article pr\u00e9sente tout d\u2019abord l\u2019adaptation \u00e0 ce type de donn\u00e9es d\u2019un syst\u00e8me ant\u00e9rieur de chunking (Romus) qui avait \u00e9t\u00e9 d\u00e9velopp\u00e9 pour le dialogue oral homme-machine. Il d\u00e9crit ensuite les principaux probl\u00e8mes qui se posent \u00e0 l\u2019analyse : traitement des disfluences de l\u2019oral spontan\u00e9, mais \u00e9galement gestion des erreurs dues aux \u00e9tapes ant\u00e9rieures de reconnaissance de la parole et d\u2019\u00e9tiquetage morphosyntaxique.","translation":["","This paper describes the use of the CasSys platform in order to achieve the chunking of conversational speech transcripts by means of cascades of Unitex transducers. Our system is involved in the EPAC project of the French National Agency of Research (ANR). The aim of this project is to develop robust methods for the annotation of audio\/multimedia document collections which contains conversational speech sequences such as TV or radio programs. At first, this paper presents the adaptation of a former chunking system (Romus) which was developed in the restricted framework of dedicated spoken manmachine dialogue. Then, it describes the problems that are arising due to 1) spontaneous speech disfluencies and 2) errors for the previous stages of processing (automatic speech recognition and POS tagging).","Spoken Language Processing, chunking, conversational speech, transducers, Unitex"],"keyphrases":["transducteurs","parole conversationnelle","segmentation","Unitex","Traitement Automatique du Langage Parl\u00e9 (TALP)","chunks"],"prmu":["P","P","P","P","M","U"]} {"id":"taln-2008-court-013","title":"Regroupement automatique de documents en classes \u00e9v\u00e9nementielles","abstract":"Cet article porte sur le regroupement automatique de documents sur une base \u00e9v\u00e9nementielle. Apr\u00e8s avoir pr\u00e9cis\u00e9 la notion d\u2019\u00e9v\u00e9nement, nous nous int\u00e9ressons \u00e0 la repr\u00e9sentation des documents d\u2019un corpus de d\u00e9p\u00eaches, puis \u00e0 une approche d\u2019apprentissage pour r\u00e9aliser les regroupements de mani\u00e8re non supervis\u00e9e fond\u00e9e sur k-means. Enfin, nous \u00e9valuons le syst\u00e8me de regroupement de documents sur un corpus de taille r\u00e9duite et nous discutons de l\u2019\u00e9valuation quantitative de ce type de t\u00e2che.","translation":["","This paper analyses the problem of automatic document clustering based on events. We first specify the notion of event. Then, we detail the document modelling method and the learning approach for document clustering based on k-means. We finally evaluate our document clustering system on a small corpus and discuss the quantitative evaluation for this kind of task.","Document clustering, Event tracking"],"keyphrases":["Regroupement de documents","Suivi d\u2019\u00e9v\u00e9nement"],"prmu":["P","M"]} {"id":"taln-2008-court-015","title":"Rep\u00e9rage de citations, classification des styles de discours rapport\u00e9 et identification des constituants citationnels en \u00e9crits journalistiques","abstract":"Dans le contexte de la recherche de plagiat, le rep\u00e9rage de citations et de ses constituants est primordial puisqu\u2019il peut amener \u00e0 \u00e9valuer le caract\u00e8re licite ou illicite d\u2019une reprise (source cit\u00e9e ou non). Nous proposons ici une comparaison de m\u00e9thodes automatiques pour le rep\u00e9rage de ces informations et rapportons une \u00e9valuation quantitative de celles-ci. Un corpus d\u2019\u00e9crits journalistiques fran\u00e7ais a \u00e9t\u00e9 manuellement annot\u00e9 pour nous servir de base d\u2019apprentissage et de test.","translation":["","In the application context of reported content, that includes plagiarism and impact of textual information searched, citations finding and its fundamentals is essential as it may help estimating legal value of a citation (with or without specifying original source). We propose here a comparison between automatic methods for finding up those elements and we quantitatively evaluate them. A French journalistic corpus has been manually annotated to be used as learning base and for testing.","detection of citations, reported speech style classification, source identification, machine learning and rules-based techniques, news corpus"],"keyphrases":["classification des styles de discours rapport\u00e9","\u00e9crits journalistiques","d\u00e9tection de citations","identification du locuteur","techniques par apprentissage et base de r\u00e8gles"],"prmu":["P","P","M","M","M"]} {"id":"taln-2008-court-016","title":"Vers l\u2019identification et le traitement des actes de dialogue composites","abstract":"Il peut \u00eatre difficile d\u2019attribuer une seule valeur illocutoire \u00e0 un \u00e9nonc\u00e9 dans un dialogue. En premier lieu, un \u00e9nonc\u00e9 peut comporter plusieurs segments de discours ayant chacun leur valeur illocutoire sp\u00e9cifique. De plus, un seul segment peut s\u2019analyser en tant qu\u2019acte de langage composite, regroupant par exemple la formulation d\u2019une question et l\u2019\u00e9mission simultan\u00e9e d\u2019une information. Enfin, la structure du dialogue en termes d\u2019\u00e9changes et de s\u00e9quences peut \u00eatre d\u00e9terminante dans l\u2019identification de l\u2019acte, et peut \u00e9galement apporter une valeur illocutoire suppl\u00e9mentaire, comme celle de clore la s\u00e9quence en cours. Dans le but de d\u00e9terminer la r\u00e9action face \u00e0 un tel acte de dialogue composite, nous pr\u00e9sentons une approche th\u00e9orique pour l\u2019analyse des actes de dialogue en fonction du contexte de t\u00e2che et des connaissances des interlocuteurs. Nous illustrons sur un exemple nos choix de segmentation et d\u2019identification des actes composites, et nous pr\u00e9sentons les grandes lignes d\u2019une strat\u00e9gie pour d\u00e9terminer la r\u00e9action qui semble \u00eatre la plus pertinente.","translation":["","Attributing one illocutionary value to a utterance in a dialogue can be difficult. First, a utterance can include several discourse segments, each one with a specific illocutionary value. Moreover, one discourse segment can be linked to a complex speech act that groups for instance a question together with the assertion of new information. Finally, the dialogue structure with the various exchanges and sequences can be decisive when identifying the dialogue act, and can also bring an additional illocutionary value, for instance the one consisting of closing the current sequence. With the aim to determine how to react to such a composite dialogue act, we present a theoretical approach to dialogue act analysis considering the task context and the dialogue participants\u2019 knowledge. We illustrate our choices in terms of segmentation and identification of composite acts, and we present the main features of a strategy for determining the most relevant reaction.","Complex speech acts, dialogue structure, common ground"],"keyphrases":["structure du dialogue","Actes de langage complexes","terrain commun"],"prmu":["P","M","U"]} {"id":"taln-2008-court-017","title":"Repr\u00e9sentation \u00e9v\u00e8nementielle des d\u00e9placements dans des d\u00e9p\u00eaches \u00e9pid\u00e9miologiques","abstract":"La repr\u00e9sentation \u00e9v\u00e8nementielle des d\u00e9placements de personnes dans des d\u00e9p\u00eaches \u00e9pid\u00e9miologiques est d\u2019une grande importance pour une compr\u00e9hension d\u00e9taill\u00e9e du sens de ces d\u00e9p\u00eaches. La diss\u00e9mination des composants d\u2019une telle repr\u00e9sentation dans les d\u00e9p\u00eaches rend difficile l\u2019acc\u00e8s \u00e0 leurs contenus. Ce papier d\u00e9crit un syst\u00e8me d\u2019extraction d\u2019information utilisant des cascades de transducteurs \u00e0 nombre d\u2019\u00e9tats fini qui ont permis la r\u00e9alisation de trois t\u00e2ches : la reconnaissance des entit\u00e9s nomm\u00e9es, l\u2019annotation et la repr\u00e9sentation des composants ainsi que la repr\u00e9sentation des structures \u00e9v\u00e8nementielles. Nous avons obtenu une moyenne de rappel de 80, 93% pour la reconnaissance des entit\u00e9s nomm\u00e9es et de 97, 88% pour la repr\u00e9sentation des composants. Ensuite, nous avons effectu\u00e9 un travail de normalisation de cette repr\u00e9sentation par la r\u00e9solution de certaines anaphores pronominales. Nous avons obtenu une valeur moyenne de pr\u00e9cision de 81, 72% pour cette r\u00e9solution.","translation":["","The representation of motion events is important for an automatic comprehension of disease outbreak reports. The dispersion of components in this type of reports makes it difficult to have such a representation. This paper describes an automatic extraction of event structures representation of these texts.We built an information extraction system by using cascaded finite state transducers which allowed the realization of three tasks : the named entity recognition, the component annotation and representation and the event structure representation. We obtained a recall of 80, 93% for the named entity recognition task and a recall of 97, 88% for argument representation task. Thereafter, we worked in anaphoric pronouns resolution where we obtained a precision of 81.83%.","Sublanguage, event structure representation, information extraction, predicative structure, predicate-arguments structure"],"keyphrases":["repr\u00e9sentation \u00e9v\u00e8nementielle","extraction d\u2019information","Sous-langage","structure pr\u00e9dicative","structure predicate-arguments"],"prmu":["P","P","U","M","M"]} {"id":"taln-2008-court-018","title":"Traduction multilingue : le projet MulTra","abstract":"L\u2019augmentation rapide des \u00e9changes et des communications pluriculturels, en particulier sur internet, intensifie les besoins d\u2019outils multilingues y compris de traduction. Cet article d\u00e9crit un projet en cours au LATL pour le d\u00e9veloppement d\u2019un syst\u00e8me de traduction multilingue bas\u00e9 sur un mod\u00e8le linguistique abstrait et largement g\u00e9n\u00e9rique, ainsi que sur un mod\u00e8le logiciel bas\u00e9 sur la notion d\u2019objet. Les langues envisag\u00e9es dans la premi\u00e8re phase de ce projet sont l\u2019allemand, le fran\u00e7ais, l\u2019italien, l\u2019espagnol et l\u2019anglais.","translation":["","The increase of cross-cultural communication triggered notably by the Internet intensifies the needs for multilingual linguistic tools, in particular translation systems for several languages. The LATL has developed an efficient multilingual parsing technology based on an abstract and generic linguistic model and on object-oriented software design. The proposed project intends to apply a similar approach to the problem of multilingual translation (German, French, Italian and English).","Multilingual machine translation, object design, bilingual dictionary derivation"],"keyphrases":["Traduction automatique multilingue","approche par objets","g\u00e9n\u00e9ration de lexiques bilingues"],"prmu":["M","M","M"]} {"id":"taln-2008-court-019","title":"Appariement d\u2019entit\u00e9s nomm\u00e9es cor\u00e9f\u00e9rentes : combinaisons de mesures de similarit\u00e9 par apprentissage supervis\u00e9","abstract":"L\u2019appariement d\u2019entit\u00e9s nomm\u00e9es consiste \u00e0 regrouper les diff\u00e9rentes formes sous lesquelles appara\u00eet une entit\u00e9. Pour cela, des mesures de similarit\u00e9 textuelle sont g\u00e9n\u00e9ralement utilis\u00e9es. Nous proposons de combiner plusieurs mesures afin d\u2019am\u00e9liorer les performances de la t\u00e2che d\u2019appariement. \u00c0 l\u2019aide d\u2019exp\u00e9riences men\u00e9es sur deux corpus, nous montrons la pertinence de l\u2019apprentissage supervis\u00e9 dans ce but, particuli\u00e8rement avec l\u2019algorithme C4.5.","translation":["","Matching named entities consists in grouping the different forms under which an entity may occur. Textual similarity measures are the usual tools for this task. We propose to combine several measures in order to improve the performance. We show the relevance of supervised learning in this objective through experiences with two corpora, especially in the case of the C4.5 algorithm.","Named entities,Matching, Textual similaritymeasures, Supervised learning"],"keyphrases":["Appariement","Entit\u00e9s nomm\u00e9es","Apprentissage supervis\u00e9","Mesures de similarit\u00e9 textuelle"],"prmu":["P","P","P","P"]} {"id":"taln-2008-court-020","title":"Un sens logique pour les graphes s\u00e9mantiques","abstract":"Nous discutons du sens des graphes s\u00e9mantiques, notamment de ceux utilis\u00e9s en Th\u00e9orie Sens-Texte. Nous leur donnons un sens pr\u00e9cis, \u00e9ventuellement sous-sp\u00e9cifi\u00e9, gr\u00e2ce \u00e0 une traduction simple vers une formule de Minimal Recursion Semantics qui couvre les cas de pr\u00e9dications multiples sur plusieurs entit\u00e9s, de pr\u00e9dication d\u2019ordre sup\u00e9rieur et de modalit\u00e9s.","translation":["","We discuss the meaning of semantic graphs, in particular of those used in Meaning-Text Theory. We provide a precise, possibly underspecified, meaning to such graphs through a simple translation into a Minimal Recursion Semantics formula. This translation covers cases of multiple predications over several entities, higher order predication and modalities.","Semantic graph, logic, quantification, Meaning-Text Theory (MTT)"],"keyphrases":["logique","Graphe s\u00e9mantique","quantification","Th\u00e9orie Sens-Texte (TST)"],"prmu":["P","P","U","M"]} {"id":"taln-2008-court-021","title":"Annotation en Frames S\u00e9mantiques du corpus de dialogue MEDIA","abstract":"Cet article pr\u00e9sente un formalisme de repr\u00e9sentation des connaissances qui a \u00e9t\u00e9 utilis\u00e9 pour fournir des annotations s\u00e9mantiques de haut niveau pour le corpus de dialogue oral MEDIA. Ces annotations en structures s\u00e9mantiques, bas\u00e9es sur le paradigme FrameNet, sont obtenues de mani\u00e8re incr\u00e9mentale et partiellement automatis\u00e9e. Nous d\u00e9crivons le processus d\u2019interpr\u00e9tation automatique qui permet d\u2019obtenir des compositions s\u00e9mantiques et de g\u00e9n\u00e9rer des hypoth\u00e8ses de frames par inf\u00e9rence. Le corpus MEDIA est un corpus de dialogues en langue fran\u00e7aise dont les tours de parole de l\u2019utilisateur ont \u00e9t\u00e9 manuellement transcrits et annot\u00e9s (niveaux mots et constituants s\u00e9mantiques de base). Le processus propos\u00e9 utilise ces niveaux pour produire une annotation de haut niveau en frames s\u00e9mantiques. La base de connaissances d\u00e9velopp\u00e9e (d\u00e9finitions des frames et r\u00e8gles de composition) est pr\u00e9sent\u00e9e, ainsi que les r\u00e9sultats de l\u2019annotation automatique.","translation":["","This paper introduces a knowledge representation formalism, used for incremental and partially automated annotation of the French MEDIA dialogue corpus in terms of semantic structures. We describe an automatic interpretation process for composing semantic structures from basic semantic constituents using patterns involving constituents and words. The process has procedures for obtaining semantic compositions and generating frame hypotheses by inference. This process is applied to MEDIA, a dialogue corpus manually annotated at the word and semantic constituent levels, and thus produces a higher level semantic frame annotation. The Knowledge Source defined and the results obtained on the automatically-derived annotation are reported.","spoken language understanding, spoken dialogue system, semantic structures, semantic frames, conceptual decoding, semantic annotation, semantic inference"],"keyphrases":["frames s\u00e9mantiques","annotation s\u00e9mantique","compr\u00e9hension automatique de la parole","syst\u00e8me de dialogue oral","d\u00e9codage conceptuel","inf\u00e9rence s\u00e9mantique"],"prmu":["P","P","M","M","U","R"]} {"id":"taln-2008-court-022","title":"Dissym\u00e9trie entre l'indexation des documents et le traitement des requ\u00eates pour la recherche d\u2019information en langue arabe","abstract":"Les moteurs de recherches sur le web produisent des r\u00e9sultats comparables et assez satisfaisants pour la recherche de documents \u00e9crits en caract\u00e8res latins. Cependant, ils pr\u00e9sentent de s\u00e9rieuses lacunes d\u00e8s que l'ont s'int\u00e9resse \u00e0 des langues peu dot\u00e9es ou des langues s\u00e9mitiques comme l'arabe. Dans cet article nous pr\u00e9sentons une \u00e9tude analytique et qualitative de la recherche d\u2019information en langue arabe en mettant l'accent sur l'insuffisance des outils de recherche actuels, souvent mal adapt\u00e9s aux sp\u00e9cificit\u00e9s de la langue arabe. Pour argumenter notre analyse, nous pr\u00e9sentons des r\u00e9sultats issus d\u2019observations et de tests autour de certains ph\u00e9nom\u00e8nes linguistiques de l\u2019arabe \u00e9crit. Pour la validation des ces observations, nous avons test\u00e9 essentiellement le moteur de recherche Google.","translation":["","Web search engines provide quite good results for Latin characters-based languages. However, they still show many weaknesses when searching in other languages such as Arabic. This paper discusses a qualitative analysis of information retrieval in Arabic language, highlighting some of the numerous limitations of available search engines, mainly when they are not properly adapted to the Arabic language specificities. To argue our analysis, we present some results based on quite sufficient observations and tests on various Arabic linguistic phenomena. To validate these observations, we essentially have tested the Google search engine.","information retrieval, Arabic, indexation, lemmatization, Google"],"keyphrases":["indexation","recherche d\u2019information","langue arabe","Google","lemmatisation"],"prmu":["P","P","P","P","U"]} {"id":"taln-2006-invite-001","title":"Les nouveaux outils de correction linguistique de Microsoft","abstract":"De nouveaux outils de correction linguistique sont disponibles pour le fran\u00e7ais depuis quelques mois. Mis \u00e0 la disposition des utilisateurs de Microsoft Office 2003, un nouveau correcteur orthographique et un nouveau correcteur grammatical permettent d\u2019am\u00e9liorer le processus de r\u00e9daction de documents. En partant d\u2019\u00e9valuations externes effectu\u00e9es r\u00e9cemment, nous pr\u00e9sentons les diverses facettes de ces am\u00e9liorations et de ces outils, en abordant la question de l\u2019\u00e9valuation des outils de correction linguistique (qu\u2019\u00e9valuer ? quels crit\u00e8res appliquer ? pourquoi d\u00e9velopper une nouvelle version ?). La r\u00e9forme de l\u2019orthographe, la f\u00e9minisation des noms de m\u00e9tier, l\u2019\u00e9volution de la langue figurent parmi les th\u00e8mes abord\u00e9s dans cet article.","translation":["","New French proofing tools were recently made available to Microsoft Office 2003 users. A new spell-checker and a new grammar checker make it possible to improve the document creation process. Based on recent external evaluations, we present specific aspects of these improved tools and discuss the more fundamental issue of how to evaluate proofing tools (What do we need to evaluate? Which criteria should be applied? Why develop a new version?). Current language changes including the spelling reform, and such innovations as feminine job titles are among the themes we discuss in this paper.","spell-checker, grammar checker, French, proofing tools, Microsoft, spelling reform, feminine job titles"],"keyphrases":["outils de correction linguistique","Microsoft","fran\u00e7ais","correcteur orthographique","correcteur grammatical","r\u00e9forme de l\u2019orthographe","f\u00e9minisation des noms de m\u00e9tier"],"prmu":["P","P","P","P","P","P","P"]} {"id":"taln-2006-long-002","title":"Traitement de la polys\u00e9mie lexicale dans un but de traduction","abstract":"La d\u00e9sambigu\u00efsation lexicale a une place centrale dans les applications de Traitement Automatique des Langues relatives \u00e0 la traduction. Le travail pr\u00e9sent\u00e9 ici fait partie d\u2019une \u00e9tude sur les recouvrements et les divergences entre les espaces s\u00e9mantiques occup\u00e9s par des unit\u00e9s polys\u00e9miques de deux langues. Les correspondances entre ces unit\u00e9s sont rarement biunivoques et l\u2019\u00e9tude de ces correspondances aide \u00e0 tirer des conclusions sur les possibilit\u00e9s et les limites d\u2019utilisation d\u2019une autre langue pour la d\u00e9sambigu\u00efsation des unit\u00e9s d\u2019une langue source. Le but de ce travail est l\u2019\u00e9tablissement de correspondances d\u2019une granularit\u00e9 optimale entre les unit\u00e9s de deux langues entretenant des relations de traduction. Ces correspondances seraient utilisables pour la pr\u00e9diction des \u00e9quivalents de traduction les plus ad\u00e9quats de nouvelles occurrences des \u00e9l\u00e9ments polys\u00e9miques.","translation":["","Word Sense Disambiguation has a central role in NLP applications relevant to translation. The work presented in this article is a part of a study on the overlaps and divergences between the semantic spaces occupied by the polysemous items of two languages. Correspondences between these items are rarely biunivocal and their study provides insights into the possibilities and limits of using a second language for the disambiguation of polysemous items of a source language. The aim of this work is to establish correspondences of optimal granularity between the items of two languages in translation. Such correspondences could be used for the prediction of the most adequate translation equivalents for new occurrences of the polysemous source language items.","polysemy, cooccurrences, translation correspondences, translation prediction"],"keyphrases":["polys\u00e9mie","cooccurrences","correspondances de traduction","pr\u00e9diction de traduction"],"prmu":["P","U","R","R"]} {"id":"taln-2006-long-003","title":"Un analyseur morphologique multi-niveaux utilisant la jointure","abstract":"Dans cet article nous pr\u00e9sentons un analyseur morphologique pour le verbe akkadien. Cette langue est de la famille des langues s\u00e9mitiques. Les flexions du verbe font intervenir des changements internes \u00e0 la racine. L\u2019analyseur pr\u00e9sent\u00e9 ici illustre l\u2019utilisation d\u2019un formalisme multi-niveaux et d\u2019op\u00e9rateurs relationnels puissants, notamment la jointure. La multiplicit\u00e9 de niveaux interm\u00e9diaires entre les formes profondes et de surface, ainsi que les op\u00e9rateurs de compositions permettent de diviser la description en contraintes relativement simples qui sont ensuite rassembl\u00e9es pour s\u2019exercer soit simultan\u00e9ment, soit en cascade, soit encore d\u2019une fa\u00e7on mixte, c\u2019est-\u00e0-dire simultan\u00e9ment pour certains des niveaux et en cascade pour d\u2019autres. Ce m\u00e9canisme nous permet de d\u00e9crire la vocalisation du radical comme un processus d\u2019insertions successives de voyelles. Cela pr\u00e9sente l\u2019int\u00e9r\u00eat d\u2019\u00eatre plus simple que l\u2019utilisation d\u2019un sch\u00e9ma vocalique fig\u00e9 soumis \u00e0 interdigitation. De plus, cela semble expliquer de fa\u00e7on plus \u00e9conomique les formes des verbes faibles.","translation":["","In this paper, we present a morphological analyzer for the Akkadian verb. This language belongs to the semitic family. Verb inflection involves modifications within the root. The analyzer is an example of the use of a multilevel formalism having powerful relational operators, notably the join. The morphology is described using relatively simple constraints which are composed together in three possible ways : they apply simultaneously or sequentially, or even in a mixed way, where the constraints apply simultaneously on some levels and sequentially on others. This mechanism is used to describe the vocalization of verbal roots as successive vowels insertions. This process is simpler than the use of fixed vocalic patterns which implies interdigitation. Moreover, it conveniently explains the forms of weak verbs.","morphological analyzer, two-level morphology"],"keyphrases":["analyseur morphologique","morphologie \u00e0 deux niveaux"],"prmu":["P","M"]} {"id":"taln-2006-long-004","title":"Analyse quantitative et statistique de la s\u00e9mantique dans un corpus technique","abstract":"Cet article pr\u00e9sente la m\u00e9thodologie et les r\u00e9sultats d\u2019une analyse s\u00e9mantique quantitative d\u2019environ 5000 sp\u00e9cificit\u00e9s dans le domaine technique des machines-outils pour l\u2019usinage des m\u00e9taux. Les sp\u00e9cificit\u00e9s seront identifi\u00e9es avec la m\u00e9thode des mots-cl\u00e9s (KeyWords Method). Ensuite, elles seront soumises \u00e0 une analyse s\u00e9mantique quantitative, \u00e0 partir du recouvrement des cooccurrences des cooccurrences, permettant de d\u00e9terminer le degr\u00e9 de monos\u00e9mie des sp\u00e9cificit\u00e9s. Finalement, les donn\u00e9es quantitatives de sp\u00e9cificit\u00e9 et de monos\u00e9mie feront l\u2019objet d\u2019analyses de r\u00e9gression. Nous avan\u00e7ons l\u2019hypoth\u00e8se que les mots (les plus) sp\u00e9cifiques du corpus technique ne sont pas (les plus) monos\u00e9miques. Nous pr\u00e9senterons ici les r\u00e9sultats statistiques, ainsi qu\u2019une interpr\u00e9tation linguistique. Le but de cette \u00e9tude est donc de v\u00e9rifier si et dans quelle mesure les sp\u00e9cificit\u00e9s du corpus technique sont monos\u00e9miques ou polys\u00e9miques et quels sont les facteurs d\u00e9terminants.","translation":["","This article discusses the methodology and results of a quantitative semantic analysis of about 5000 keywords (pivotal terms) in the domain of French machining terminology. The KeyWords Method is used in order to identify the most typical words. Next, a quantitative semantic analysis of the keywords determines their degree of monosemy, which is implemented in terms of degree of overlap between co-occurrents of co-occurrents of keywords. Finally, the quantitative data is submitted to various regression analyses, in order to check the hypothesis that the most typical terms are not always the most monosemous terms. This article presents the statistical results of this semantic analysis and provides linguistic interpretation. Building on corpus data, the investigation attempts to establish in how far keywords are polysemous and which factors are most predictive.","lexical semantics, quantitative semantics, keywords, polysemy, co-occurrences, regression analysis"],"keyphrases":["s\u00e9mantique quantitative","sp\u00e9cificit\u00e9s","cooccurrences","analyse de r\u00e9gression","polys\u00e9mie","s\u00e9mantique lexicale"],"prmu":["P","P","P","P","P","M"]} {"id":"taln-2006-long-005","title":"Outilex, plate-forme logicielle de traitement de textes \u00e9crits","abstract":"La plate-forme logicielle Outilex, qui sera mise \u00e0 la disposition de la recherche, du d\u00e9veloppement et de l\u2019industrie, comporte des composants logiciels qui effectuent toutes les op\u00e9rations fondamentales du traitement automatique du texte \u00e9crit : traitements sans lexiques, exploitation de lexiques et de grammaires, gestion de ressources linguistiques. Les donn\u00e9es manipul\u00e9es sont structur\u00e9es dans des formats XML, et \u00e9galement dans d\u2019autres formats plus compacts, soit lisibles soit binaires, lorsque cela est n\u00e9cessaire ; les convertisseurs de formats n\u00e9cessaires sont inclus dans la plate-forme ; les formats de grammaires permettent de combiner des m\u00e9thodes statistiques avec des m\u00e9thodes fond\u00e9es sur des ressources linguistiques. Enfin, des lexiques du fran\u00e7ais et de l\u2019anglais issus du LADL, construits manuellement et d\u2019une couverture substantielle seront distribu\u00e9s avec la plate-forme sous licence LGPL-LR.","translation":["","The Outilex software platform, soon available to research, development and industry, comprises software components implementing all the fundamental operations of written text processing, including processing without lexicons, exploitation of lexicons and grammars, and language resource management. All data are structured in XML formats, and more compact readable or binary formats, if required. The required format converters are included in the platform ; the grammar formats allow for statistical approaches to be combined with resource-based approaches. Manually constructed lexicons for French and English, originating from the LADL, with substantial coverage, will be distributed with the platform under LGPL-LR license.","syntactic parsing, lexico-syntactic patterns, lexical analysis, language resources, exchange formats, finite-state automata, recursive transition networks"],"keyphrases":["ressources linguistiques","analyse syntaxique","motifs lexico-syntaxiques","analyse lexicale","formats d\u2019\u00e9change","automates finis","r\u00e9seaux de transitions r\u00e9cursifs"],"prmu":["P","U","U","U","M","M","M"]} {"id":"taln-2006-long-006","title":"Une grammaire multilingue partag\u00e9e pour la traduction automatique de la parole","abstract":"Aujourd\u2019hui, l\u2019approche la plus courante en traitement de la parole consiste \u00e0 combiner un reconnaisseur statistique avec un analyseur robuste. Pour beaucoup d\u2019applications cependant, les reconnaisseurs linguistiques bas\u00e9s sur les grammaires offrent de nombreux avantages. Dans cet article, nous pr\u00e9sentons une m\u00e9thodologie et un ensemble de logiciels libres (appel\u00e9 Regulus) pour d\u00e9river rapidement des reconnaisseurs linguistiquement motiv\u00e9s \u00e0 partir d\u2019une grammaire g\u00e9n\u00e9rale partag\u00e9e pour le catalan et le fran\u00e7ais.","translation":["","Today, the most common architecture for speech understanding consists of a combination of statistical recognition and robust semantic analysis. For many applications, however, grammar-based recognisers can offer significant advantages. In this paper, we present a methodology and an Open Source platform (Regulus), which together permit rapid derivation of linguistically motivated recognisers, in either language, from a bilingual grammar of Catalan and French.","speech to speech translation, language modelling, unification grammar, grammar-based recognition, multilingual grammars"],"keyphrases":["grammaires multilingues","traduction automatique de la parole","mod\u00e9lisation du langage","grammaire d\u2019unification","reconnaissance linguistique"],"prmu":["P","P","U","M","M"]} {"id":"taln-2006-long-007","title":"Prise en compte des disfluences dans un syst\u00e8me d\u2019analyse syntaxique automatique de l\u2019oral","abstract":"Nous pr\u00e9sentons dans cette \u00e9tude un essai de prise en compte des disfluences dans un syst\u00e8me d\u2019analyse linguistique initialement pr\u00e9vu pour l\u2019\u00e9crit, en vue de la r\u00e9alisation d\u2019un prototype de traduction parole-parole. \u00c0 partir d\u2019une \u00e9tude approfondie sur corpus, nous montrons comment des modifications du lexique et de la grammaire ont permis de traiter les cas les plus simples (pauses remplies, r\u00e9p\u00e9titions de mots isol\u00e9s, etc.). D\u2019autres cas plus complexes comme r\u00e9p\u00e9titions et auto-corrections de syntagmes ont n\u00e9cessit\u00e9 la mise au point d\u2019un m\u00e9canisme de contr\u00f4le s\u00e9mantique permettant de limiter la combinatoire. Cette \u00e9tude a mis \u00e9galement en \u00e9vidence la difficult\u00e9 de traitement de ph\u00e9nom\u00e8nes tels que les amorces (mots interrompus) et les constructions inachev\u00e9es, qui pour l\u2019instant restent sans solution satisfaisante.","translation":["","In this paper we describe an attempt to take speech disfluencies into account in a linguistic analysis system initially designed for written data. Using a detailed corpus analysis, we show how the lexicon and grammar can be modified to solve the simplest cases (such as filled pauses, single-word repeats, and so forth). More difficult cases such as phrasal repeats and self-repairs required the development of a semantic control mechanism in order to avoid combinatorial explosion. This study also reveals the difficulty of processing word fragments and aborted constructs, which receive no satisfactory solution in the current state of the art.","disfluencies, parsing, automatic speech processing"],"keyphrases":["disfluences","analyse syntaxique en d\u00e9pendances","traitement automatique de l\u2019oral"],"prmu":["P","M","R"]} {"id":"taln-2006-long-008","title":"Acquisition de concepts bilingues \u00e0 partir du Web","abstract":"Nous montrons une utilisation du Web, corpus multilingue de grande taille, pour effectuer une acquisition supervis\u00e9e de concepts bilingue fran\u00e7ais\/anglais. Cette acquisition utilise comme point initial un verbe fran\u00e7ais. Nous apparions ensuite des phrases provenant des deux langues \u00e0 partir de couples de noms propres poss\u00e9dant la m\u00eame forme dans les deux langues. Cet appariement automatique mais sommaire ne garantit pas l\u2019alignement des phrases. Nous montrons qu\u2019il nous permet cependant d\u2019extraire des termes fran\u00e7ais et anglais \u00e9quivalents dans leur contexte d\u2019utilisation. Ces termes constituent des ressources multilingues particuli\u00e8rement adapt\u00e9es au Web, notamment pour les applications question r\u00e9ponse \u00ab crosslingue \u00bb.","translation":["","This article describes a way of using the Web as a huge multilingual corpus to perform supervised acquisition of bilingual French\/English concepts. Such acquisition is initialized with a French verb. Sentences expressed in both languages are then matched by using couples of proper nouns which are unchanged in these two languages. Such matching is automatic, highly succinct, but does not prevent sentences from being wrongly aligned. However, we show that it makes it possible to extract French and English terms that are equivalent in their context of use. These terms constitute multilingual resources that are particularly adapted to the Web, especially for cross-lingual question answering.","acquisition, bilingual concepts, shallow alignment, Web"],"keyphrases":["acquisition","concepts bilingue","Web","alignement superficiel"],"prmu":["P","P","P","M"]} {"id":"taln-2006-long-009","title":"Extraction de relations s\u00e9mantiques entre noms et verbes au-del\u00e0 des liens morphologiques","abstract":"Nous \u00e9tudions les relations de proximit\u00e9 s\u00e9mantique entre les noms et les verbes \u00e0 partir de donn\u00e9es calcul\u00e9es sur un corpus de 200 millions de mots par un programme d\u2019analyse distributionnelle automatique. Nous exposons les r\u00e9sultats d\u2019une m\u00e9thode d\u2019extraction de couples Nom\/Verbe, qui combine un indice de proximit\u00e9 distributionnelle et un indice de cooccurrence : un couple est extrait si le nom et le verbe apparaissent avec les m\u00eames arguments sur l\u2019ensemble du corpus, d\u2019une part, et s\u2019ils apparaissent au moins une fois dans un m\u00eame paragraphe munis du m\u00eame argument, d\u2019autre part. L\u2019article \u00e9labore une typologie des 1441 couples extraits et d\u00e9montre l\u2019int\u00e9r\u00eat de prendre en compte les couples non li\u00e9s morphologiquement, qui constituent 70 % des donn\u00e9es.","translation":["","In this paper, we study the semantic relations that hold between nouns and verbs. We benefit from the data provided by Upery, a program that automatically extracts word associations from a 200 million words corpus by means of distributional analysis. We present the results of an experiment in which noun-verb associations are extracted by crossing two criteria : distributional proximity and cooccurrence. The 1441 couples share the same arguments in the corpus and appear at least once with the same argument within the same paragraph. We present a typology of these noun-verb couples, showing the necessity to take into account non-mophologically related couples which amounts to 70 % of the data.","semantic relations, lexical resources, distributional analysis"],"keyphrases":["relations s\u00e9mantiques","analyse distributionnelle","ressources lexicales"],"prmu":["P","P","U"]} {"id":"taln-2006-long-010","title":"R\u00e9sum\u00e9 multidocuments orient\u00e9 par une requ\u00eate complexe","abstract":"Nous pr\u00e9sentons un syst\u00e8me de synth\u00e8se d\u2019information pour la production de r\u00e9sum\u00e9s multidocuments orient\u00e9s par une requ\u00eate complexe. Apr\u00e8s une analyse du profil de l\u2019utilisateur exprim\u00e9 par des questions complexes, nous comparons la similarit\u00e9 entre les documents \u00e0 r\u00e9sumer avec les questions \u00e0 deux niveaux : global et d\u00e9taill\u00e9. Cette \u00e9tude d\u00e9montre l\u2019importance d\u2019\u00e9tudier pour une requ\u00eate la pertinence d\u2019une phrase \u00e0 l\u2019int\u00e9rieur de la structure th\u00e9matique du document. Cette m\u00e9thodologie a \u00e9t\u00e9 appliqu\u00e9e lors de notre participation \u00e0 la campagne d\u2019\u00e9valuation DUC 2005 o\u00f9 notre syst\u00e8me a \u00e9t\u00e9 class\u00e9 parmi les meilleurs.","translation":["","We present an information synthesis system for the production of multidocument summaries tailored by a complex query.We first analyze the user profile expressed by complex questions and we then compare the similarity between the documents and the questions at two levels : global and detailed. This research shows the importance of the study of the relevance of a sentence in the thematic structure of the document. This methodology has been applied for our participation in the DUC 2005 evaluation conference where our system was judged to be among of the best ones.","information synthesis, multi-document summarization, evaluation of the summary"],"keyphrases":["r\u00e9sum\u00e9s multidocuments","synth\u00e8se d\u2019information","\u00e9valuation du r\u00e9sum\u00e9"],"prmu":["P","P","R"]} {"id":"taln-2006-long-011","title":"Extraction d\u2019information de sous-cat\u00e9gorisation \u00e0 partir des tables du LADL","abstract":"Les tables du LADL (Laboratoire d\u2019Automatique Documentaire et Linguistique) contiennent des donn\u00e9es \u00e9lectroniques extensives sur les propri\u00e9t\u00e9s morphosyntaxiques et syntaxiques des foncteurs syntaxiques du fran\u00e7ais (verbes, noms, adjectifs). Ces donn\u00e9es, dont on sait qu\u2019elles sont n\u00e9cessaires pour le bon fonctionnement des syst\u00e8mes de traitement automatique des langues, ne sont cependant que peu utilis\u00e9es par les syst\u00e8mes actuels. Dans cet article, nous identifions les raisons de cette lacune et nous proposons une m\u00e9thode de conversion des tables vers un format mieux appropri\u00e9 au traitement automatique des langues.","translation":["","Maurice Gross\u2019 grammar lexicon contains rich and exhaustive information about the morphosyntactic and syntactic properties of French syntactic functors (verbs, adjectives, nouns). Yet its use within natural language processing systems is hampered both by its non standard encoding and by a structure that is partly implicit and partly underspecified. In this paper, we present a method for translating this information into a format more amenable for use by NLP systems, we discuss the results obtained so far, we compare our approach with related work and we identify the possible further uses that can be made of the reformatted information.","Grammar Lexicon, M. Gross, subcategorisation"],"keyphrases":["sous-cat\u00e9gorisation","lexique-grammaire","M. Gross"],"prmu":["P","U","U"]} {"id":"taln-2006-long-012","title":"Int\u00e9gration d\u2019une dimension s\u00e9mantique dans les grammaires d\u2019arbres adjoints","abstract":"Dans cet article, nous consid\u00e9rons un formalisme linguistique pour lequel l\u2019int\u00e9gration d\u2019information s\u00e9mantique dans une grammaire \u00e0 large couverture n\u2019a pas encore \u00e9t\u00e9 r\u00e9alis\u00e9e \u00e0 savoir, les grammaires d\u2019arbres adjoints (Tree Adjoining Grammar ou TAG). Nous proposons une m\u00e9thode permettant cette int\u00e9gration et d\u00e9crivons sa mise en oeuvre dans une grammaire noyau pour le fran\u00e7ais. Nous montrons en particulier que le formalisme de sp\u00e9cification utilis\u00e9, XMG, (Duchier et al., 2004) permet une factorisation importante des donn\u00e9es s\u00e9mantiques facilitant ainsi le d\u00e9veloppement, la maintenance et le d\u00e9boggage de la grammaire.","translation":["","In this paper, we consider a linguistic formalism for which the integration of semantic information within a large scale grammar has not yet been realised, namely, Tree Adjoining Grammar (TAG). We propose a method for integrating this information and describe its implementation within a core TAG for French called FRAG. Furthermore, we show that the formalism used to specify the grammar, XMG, (Duchier et al., 2004) allows for a strong factorisation of the semantic data, thus giving better support for the development, maintenance and debugging of the grammar.","Tree Adjoining Grammar, Semantic Construction"],"keyphrases":["grammaire d\u2019arbres adjoints","calcul s\u00e9mantique"],"prmu":["P","M"]} {"id":"taln-2006-long-013","title":"Questions Bool\u00e9ennes : Oui ou Non, des Questions et des R\u00e9ponses","abstract":"Dans cet article, nous pr\u00e9sentons une approche afin de traiter les questions bool\u00e9ennes, c\u2019est-\u00e0-dire des questions dont la r\u00e9ponse peut \u00eatre un Oui ou un Non, cela, dans le cadre d\u2019un syst\u00e8me de Questions-R\u00e9ponses. En effet, la campagne Technolangue-EQueR, premi\u00e8re campagne francophone de Questions-R\u00e9ponses (QR) utilisant des questions et un corpus en fran\u00e7ais, a \u00e9galement \u00e9t\u00e9 la premi\u00e8re campagne QR \u00e0 introduire une \u00e9valuation pour ce type de questions. Nous d\u00e9taillons, parall\u00e8lement \u00e0 notre approche, des pistes de r\u00e9flexion sur les aspects sous-jacents \u00e0 ces questions bool\u00e9ennes, notamment au travers d\u2019une analyse des r\u00e9sultats obtenus par notre syst\u00e8me dans un contexte similaire \u00e0 celui de notre participation \u00e0 la campagne officielle.","translation":["","In this paper, we propose a method to answer Yes\/No questions from a Questions-Answering System point of view. These questions were called \u201cBoolean question\u201d during the first Technolangue French question answering campaign called EQueR which used a French corpus and questions. It was also the first campaign to introduce an evaluation for this particular kind of question. We discuss some key points related to these Yes\/No questions as well as report on our system used in the EQueR evaluation campaign.","question answering, yes\/no questions, boolean question"],"keyphrases":["questions bool\u00e9ennes","syst\u00e8me de questions-r\u00e9ponses"],"prmu":["P","P"]} {"id":"taln-2006-long-014","title":"Productivit\u00e9 quantitative des suffixations par -it\u00e9 et -Able dans un corpus journalistique moderne","abstract":"Dans ce travail, nous \u00e9tudions en corpus la productivit\u00e9 quantitative des suffixations par -Able et par -it\u00e9 du fran\u00e7ais, d\u2019abord ind\u00e9pendamment l\u2019une de l\u2019autre, puis lorsqu\u2019elles s\u2019encha\u00eenent d\u00e9rivationnellement (la suffixation en -it\u00e9 s\u2019applique \u00e0 des bases en -Able dans environ 15 % des cas). Nous estimons la productivit\u00e9 de ces suffixations au moyen de mesures statistiques dont nous suivons l\u2019\u00e9volution par rapport \u00e0 la taille du corpus. Ces deux suffixations sont productives en fran\u00e7ais moderne : elles forment de nouveaux lex\u00e8mes tout au long des corpus \u00e9tudi\u00e9s sans qu\u2019on n\u2019observe de saturation, leurs indices de productivit\u00e9 montrent une \u00e9volution stable bien qu\u2019\u00e9tant d\u00e9pendante des calculs qui leur sont appliqu\u00e9s. On note cependant que, de fa\u00e7on g\u00e9n\u00e9rale, de ces deux suffixations, c\u2019est la suffixation par -it\u00e9 qui est la plus fr\u00e9quente en corpus journalistique, sauf pr\u00e9cis\u00e9ment quand -it\u00e9 s\u2019applique \u00e0 un adjectif en -Able. \u00c9tant entendu qu\u2019un adjectif en -Able et le nom en -it\u00e9 correspondant expriment la m\u00eame propri\u00e9t\u00e9, ce r\u00e9sultat indique que la complexit\u00e9 de la base est un param\u00e8tre \u00e0 prendre en consid\u00e9ration dans la formation du lexique possible.","translation":["","In this paper, we study the quantitative productivity of French suffixes -Able and -it\u00e9 in corpora. We first analyze them independently and then when they belong to the same derivational chain (the suffix -it\u00e9 chooses bases with -Able in about 15 % of its formations). The productivity of these suffixations is statisticallly estimated in relation to the corpus size. Both these affixes are productive in modern French : they continue to form new lexemes throughout the corpora and are not saturated, their productivity indexes show a stable evolution although this is dependent on applied calculations. Nevertheless, -it\u00e9 is more frequent in the journalistic corpora except when it is applied to adjectives suffixed with -Able. Knowing that both -Able adjective and its -it\u00e9 noun convey the same property, this finding indicates that the base complexity has to be taken into account in the formation of possible lexicon.","morphology, newspaper corpus, -Able, -it\u00e9, quantitative morphological productivity"],"keyphrases":["-it\u00e9","-Able","corpus journalistique","morphologie","productivit\u00e9 morphologique quantitative"],"prmu":["P","P","P","U","M"]} {"id":"taln-2006-long-015","title":"La coordination consid\u00e9r\u00e9e comme un entassement paradigmatique : description, repr\u00e9sentation et int\u00e9gration","abstract":"Nous proposons de traiter la coordination comme un entassement paradigmatique, \u00e9tablissant une relation de parataxe entre ses constituants. Par cette consid\u00e9ration et ses implications sur la description et l\u2019analyse, on s\u2019\u00e9loigne des assomptions les plus fr\u00e9quentes en linguistique formelle sur le traitement de la coordination. Nous introduisons une description des caract\u00e9ristiques syntaxiques de cette proposition, ainsi que sa repr\u00e9sentation formelle et son int\u00e9gration au sein d\u2019une grammaire du fran\u00e7ais qui a pour objet d\u2019\u00eatre utilis\u00e9e en traitement automatique. Cette description strictement syntaxique a vocation \u00e0 \u00eatre compl\u00e9t\u00e9e par des informations provenant d\u2019autres domaines, ce qui nous permet d\u2019illustrer quelques sp\u00e9cificit\u00e9s notables de notre mod\u00e8le.","translation":["","We propose to treat coordination phenomena as syntagmatic accumulations, establishing a parataxis relation among their constituents. This consideration and its implications on description and analysis represent a departure from orthodox assumptions of formal linguistics about this question. We propose a description of the syntactic characteristics of coordination, then its formal representation and its integration into a grammar for french which is used for natural language processing. This strictly syntactic description is meant to be completed by information coming from other linguistic domains, which allows us to illustrate some notable specificities of our model.","syntax, coordination, grammar development, property grammars (PG), construction grammars (CxG)"],"keyphrases":["coordination","syntaxe","d\u00e9veloppement de grammaire","grammaires de propri\u00e9t\u00e9s (GP)","grammaires de construction (CxG)"],"prmu":["P","P","M","M","M"]} {"id":"taln-2006-long-016","title":"Syst\u00e8mes question-r\u00e9ponse et EuroWordNet","abstract":"Pour am\u00e9liorer l\u2019efficacit\u00e9 des syst\u00e8mes de recherche d\u2019informations pr\u00e9cises, l\u2019utilisation de connaissances s\u00e9mantiques est n\u00e9cessaire. Cependant pour le fran\u00e7ais, les outils de connaissances s\u00e9mantiques telles les thesaurus sur domaine ouvert ne sont d\u2019une part pas tr\u00e8s nombreux et d\u2019autre part pas suffisamment complets. Dans cet article, nous expliquons premi\u00e8rement, l\u2019int\u00e9r\u00eat de l\u2019utilisation de connaissances s\u00e9mantiques pour un syst\u00e8me de question r\u00e9ponse. Puis, nous pr\u00e9sentons le thesaurus EuroWordNet, notamment ses limites et les am\u00e9liorations que nous avons effectu\u00e9es pour la base fran\u00e7aise dans un souci de le rendre plus satisfaisant pour notre application par l\u2019ajout de relations inexistantes entre concepts et de d\u00e9finitions par le biais de l\u2019encyclop\u00e9dieWikipedia (2006).","translation":["","In order to improve question answering systems, the use of semantic knowledge is essential. However for French, such knowledge is not easily available. Indeed, French thesauruses are scarse and under-developed. In this paper, we firstly explain the reason why semantic knowledge should be used in a question answering system. Then, we present the EuroWordnet thesaurus, focussing on its limitations and the improvements we have made. We add undefined relationships with the help of the English base by using Wikipedia (2006).","thesaurus, question answering system, similarity"],"keyphrases":["thesaurus","syst\u00e8me de question-r\u00e9ponse","similarit\u00e9"],"prmu":["P","R","U"]} {"id":"taln-2006-long-017","title":"Reconnaissance automatique de formes d\u00e9riv\u00e9es dans les textes grecs","abstract":"Notre objectif est la reconnaissance automatique de certaines formes d\u00e9riv\u00e9es, i.e. des diminutifs et des augmentatifs des noms et des adjectifs simples, ainsi que des comparatifs et des superlatifs des adjectifs simples du grec moderne. Il s\u2019agit de formes qui sont g\u00e9n\u00e9ralement produites par l\u2019adjonction d\u2019un suffixe \u00e0 la forme standard correspondante. Nous justifions notre choix de les ajouter dans le dictionnaire \u00e9lectronique. Leur traitement a n\u00e9cessit\u00e9 une nouvelle repr\u00e9sentation du dictionnaire qui utilise d\u00e9sormais un syst\u00e8me de r\u00e8gles permettant de g\u00e9n\u00e9rer ais\u00e9ment les formes fl\u00e9chies d\u00e9riv\u00e9es, de les \u00e9tiqueter en tant que telles, et de les mettre en relation avec leur forme de base. Il en r\u00e9sulte une meilleure structuration des ressources lexicales et une production de dictionnaires flexible.","translation":["","Our study concerns the automatic recognition of certain derived forms, i.e. the diminutives and the augmentatives of simple nouns and adjectives, as well as the comparatives and the superlatives of simple adjectives of Modern Greek. These forms are generally produced by the adjunction of a suffix to the corresponding standard form. We justify our choice to add them to the electronic dictionary of Modern Greek. Their processing implies an evolution of the representation of the dictionary which now uses a system of rules in order to easily generate the derived inflected forms, to label them as such, and to clearly put them in relation to their base form. We achieve better structuring of the lexical resources and flexible modular dictionary production.","electronic dictionary, inflection, derived forms"],"keyphrases":["formes d\u00e9riv\u00e9es","dictionnaire \u00e9lectronique","flexion"],"prmu":["P","P","U"]} {"id":"taln-2006-long-018","title":"Influence de la situation lors de la r\u00e9solution des anaphores dans le dialogue","abstract":"La r\u00e9solution des anaphores dans les syst\u00e8mes de dialogue homme-machine s\u2019inspire g\u00e9n\u00e9ralement des mod\u00e8les et des algorithmes d\u00e9velopp\u00e9s pour le texte. Or le dialogue met en jeu une situation, c\u2019est-\u00e0-dire un environnement physique imm\u00e9diat et des \u00e9v\u00e9nements dont la perception est partag\u00e9e par les interlocuteurs. Cette situation peut servir d\u2019ancrage \u00e0 des expressions r\u00e9f\u00e9rentielles dites \u00ab anaphores \u00e0 ant\u00e9c\u00e9dents non linguistiques \u00bb. L\u2019attribution de r\u00e9f\u00e9rents \u00e0 de telles expressions s\u2019av\u00e8re difficile pour deux raisons : premi\u00e8rement les facteurs situationnels sont nombreux et peu explicites ; deuxi\u00e8mement des ambigu\u00eft\u00e9s peuvent appara\u00eetre entre de possibles ant\u00e9c\u00e9dents situationnels et de possibles ant\u00e9c\u00e9dents linguistiques. Nous proposons ici un mod\u00e8le clarifiant l\u2019intervention des facteurs situationnels et permettant leur prise en compte lors de la compr\u00e9hension des expressions r\u00e9f\u00e9rentielles potentiellement anaphoriques. En int\u00e9grant la notion de saillance valable \u00e0 la fois pour les aspects situationnels et linguistiques, nous montrons comment utiliser des scores num\u00e9riques pour g\u00e9rer les interf\u00e9rences entre hypoth\u00e8ses situationnelles et linguistiques.","translation":["","Anaphora resolution in human-machine dialogue systems is often based on models and algorithms that were designed for text. But dialogue happens in a situation, i.e., an immediate physical environment and events that are perceived simultaneously by the participants. This situation can be at the origin of referential expressions called \u201canaphora without linguistic antecedents\u201d. Attributing some referents to such expressions is difficult for two reasons. First, because situational factors are numerous and implicit. Second, because ambiguities can appear between a potential situational antecedent and a potential linguistic antecedent. In this paper we propose a model that clarifies how situational factors work and how they can be taken into account when interpreting anaphoric expressions. By integrating the notion of salience that is common to both situational and linguistic aspects, we show with numeric scores how the interference between the situation and the language can be solved.","coreference, anaphora, context, visual perception, salience"],"keyphrases":["anaphore","saillance","co-r\u00e9f\u00e9rence","contexte","perception visuelle"],"prmu":["P","P","U","U","M"]} {"id":"taln-2006-long-019","title":"De la Chambre des communes \u00e0 la chambre d\u2019isolement : adaptabilit\u00e9 d\u2019un syst\u00e8me de traduction bas\u00e9 sur les segments de phrases","abstract":"Nous pr\u00e9sentons notre participation \u00e0 la deuxi\u00e8me campagne d\u2019\u00e9valuation de CESTA, un projet EVALDA de l\u2019action Technolangue. Le but de cette campagne consistait \u00e0 tester l\u2019aptitude des syst\u00e8mes de traduction \u00e0 s\u2019adapter rapidement \u00e0 une t\u00e2che sp\u00e9cifique. Nous analysons la fragilit\u00e9 d\u2019un syst\u00e8me de traduction probabiliste entra\u00een\u00e9 sur un corpus hors-domaine et dressons la liste des exp\u00e9riences que nous avons r\u00e9alis\u00e9es pour adapter notre syst\u00e8me au domaine m\u00e9dical.","translation":["","We present our participation in the second evaluation campaign of CESTA, an EVALDA project within the framework of Technolangue. The goal of this task consisted in testing the adaptability of translation systems.We analyze the inadequacy of a statistical phrase-based system trained on legislative texts to translate medical corpora. We describe the experiments we conducted in order to adapt our engine to the new task.","statistical translation, adaptation, Web crawling, memory-based translation"],"keyphrases":["adaptabilit\u00e9","traduction probabiliste","aspiration de bitextes","m\u00e9moire de traduction"],"prmu":["P","P","M","M"]} {"id":"taln-2006-long-020","title":"L\u2019extraction des r\u00e9ponses dans un syst\u00e8me de question-r\u00e9ponse","abstract":"Les syst\u00e8mes de question-r\u00e9ponse sont la plupart du temps compos\u00e9s de trois grands modules : l\u2019analyse de la question, la s\u00e9lection des documents et l\u2019extraction de la r\u00e9ponse. Dans cet article, nous nous int\u00e9ressons au troisi\u00e8me module, plus particuli\u00e8rement dans le cas plus d\u00e9licat o\u00f9 la r\u00e9ponse attendue n\u2019est pas du type entit\u00e9e nomm\u00e9e. Nous d\u00e9crivons comment l\u2019analyseur Cass est employ\u00e9 pour marquer la r\u00e9ponse dans les phrases candidates et nous \u00e9valuons les r\u00e9sultats de cette approche. Au pr\u00e9alable, nous d\u00e9crivons et \u00e9valuons le module d\u00e9di\u00e9 \u00e0 l\u2019analyse de la question, car les informations qui en sont issues sont n\u00e9cessaires \u00e0 notre \u00e9tape finale d\u2019extraction.","translation":["","Question-answering systems are usually composed of three main modules, namely, question analysis, document selection and answer extraction. In this paper, we focus on the third module, more specifically when the expected answer is not a named entity because this kind of answer is more difficult to extract. We describe how the parser Cass is employed to tag the answer in the candidate sentence. Then, we evaluate the results of this approach. Beforehand, we describe and evaluate the question analysis module, as the information it produces is used during our final answer extraction step.","question answering systems"],"keyphrases":["syst\u00e8mes de question-r\u00e9ponse"],"prmu":["P"]} {"id":"taln-2006-long-021","title":"Les transducteurs \u00e0 sorties variables","abstract":"Dans le traitement automatique du langage naturel, les dictionnaires \u00e9lectroniques associent \u00e0 chaque mot de l\u2019information. La repr\u00e9sentation informatique la plus efficace de ces dictionnaires utilise des machines \u00e0 nombre fini d\u2019\u00e9tats (automates ou transducteurs). Dans cet article, nous nous inspirons des algorithmes de construction directe d\u2019un automate d\u00e9terministe minimal pour proposer une nouvelle forme de transducteur. Cette nouvelle forme permet un calcul rapide des sorties associ\u00e9es aux mots, tout en \u00e9tant plus compacte quant au nombre de transitions et de sorties distinctes, comme le montrent nos exp\u00e9rimentations.","translation":["","In natural language processing, dictionaries usually associate additional information with lexical entries. The most effective representation of dictionaries makes use of finite-state machines \u2013 either automata (recognizers) or transducers. In this paper, we draw our inspiration from algorithms to directly build the minimal deterministic automaton and we propose a new form of a transducer. This new form outperforms existing transducers in terms of speed while computing outputs and in terms of size calculated on the basis of the number of transitions and different outputs, as shown in our experiments.","finite state automata, transducers, electronic dictionaries"],"keyphrases":["transducteurs","dictionnaires \u00e9lectroniques","automates \u00e0 nombre fini d\u2019\u00e9tats"],"prmu":["P","P","R"]} {"id":"taln-2006-long-022","title":"Une exp\u00e9rience de s\u00e9mantique inf\u00e9rentielle","abstract":"Nous d\u00e9veloppons un syst\u00e8me qui doit \u00eatre capable d\u2019effectuer les m\u00eames inf\u00e9rences que le lecteur humain d\u2019un constat d\u2019accident de la route, et plus particuli\u00e8rement de d\u00e9terminer les causes apparentes de l\u2019accident. Nous d\u00e9crivons les niveaux linguistiques et s\u00e9mantiques de l\u2019analyse, et les r\u00e8gles d\u2019inf\u00e9rence utilis\u00e9es par ce syst\u00e8me.","translation":["","We are developing a system that aims to perform the same inferences as a human reader, on car-crash reports. More precisely, we expect it to determine the causes of the accident as they appear from the text. We describe the linguistic and semantic levels of analysis, and the inference rules used by the system.","inferential semantics, non monotonic reasoning, causation"],"keyphrases":["s\u00e9mantique inf\u00e9rentielle","raisonnement non monotone","causalit\u00e9"],"prmu":["P","U","U"]} {"id":"taln-2006-long-023","title":"R\u00e9solution des r\u00e9f\u00e9rences aux documents dans un corpus de dialogues humains","abstract":"Cet article \u00e9tudie la r\u00e9solution des r\u00e9f\u00e9rences \u00e0 des entit\u00e9s lorsqu\u2019une repr\u00e9sentation informatique de ces entit\u00e9s est disponible. Nous nous int\u00e9ressons \u00e0 un corpus de dialogues entre humains, portant sur les grands titres de la presse francophone du jour, et proposons une m\u00e9thode pour d\u00e9tecter et r\u00e9soudre les r\u00e9f\u00e9rences faites par les locuteurs aux articles des journaux. La d\u00e9tection des expressions nominales qui r\u00e9f\u00e8rent \u00e0 ces documents est r\u00e9alis\u00e9e gr\u00e2ce \u00e0 une grammaire, alors que le probl\u00e8me de la d\u00e9tection des pronoms qui r\u00e9f\u00e8rent aux documents est abord\u00e9 par des moyens statistiques. La r\u00e9solution de ces expressions, \u00e0 savoir l\u2019attribution des r\u00e9f\u00e9rents, fait quant \u00e0 elle l\u2019objet d\u2019un algorithme inspir\u00e9 de la r\u00e9solution des cor\u00e9f\u00e9rences. Ces propositions sont \u00e9valu\u00e9es par le biais de mesures quantitatives sp\u00e9cifiques.","translation":["","This article studies the resolution of references to entities in cases when a computational representation of the entities is available. Our data is a corpus of human dialogues about the front pages of one or more daily francophone newspapers. The main goal is to propose a method for the detection and resolution of references made by speakers to newspaper articles. A grammar is used to detect the nominal expressions referring to documents, while statistical methods are used to detect the pronouns referring to documents. An algorithm inspired from coreference resolution is used to solve all these expressions, i.e. to find the documents and articles they refer to. Specific quantitative metrics are applied to evaluate these proposals.","reference resolution, human dialogue, quantitative evaluation"],"keyphrases":["r\u00e9solution des r\u00e9f\u00e9rences","dialogue humain","\u00e9valuation quantitative"],"prmu":["P","P","R"]} {"id":"taln-2006-long-024","title":"Mise au jour semi-automatique de nuances s\u00e9mantiques entre mots de sens proches","abstract":"L\u2019acquisition automatique sur corpus d\u2019informations lexicales s\u00e9mantiques donne une place importante \u00e0 la constitution de classes s\u00e9mantiques rassemblant des mots de sens proches. Or, l\u2019int\u00e9r\u00eat pratique de celles-ci reste limit\u00e9 en l\u2019absence d\u2019information sur les distinctions individualisant les sens des mots qu\u2019elles rassemblent. Nous pr\u00e9sentons dans cet article un premier syst\u00e8me permettant de mettre au jour, de mani\u00e8re semi-automatique et \u00e0 partir des seules donn\u00e9es textuelles rassembl\u00e9es dans un corpus, des \u00e9l\u00e9ments de distinction s\u00e9mantique fine entre mots appartenant \u00e0 une m\u00eame classe, atteignant ainsi un degr\u00e9 de d\u00e9finition du sens encore in\u00e9dit en acquisition automatique d\u2019informations s\u00e9mantiques lexicales. La technique mise au point regroupe, en s\u2019appuyant sur l\u2019\u00e9tude de grands voisinages autour des occurrences des mots compar\u00e9s, des paires de mots distingu\u00e9s par des nuances similaires. Cette approche pr\u00e9sente la faiblesse de ne permettre qu\u2019une repr\u00e9sentation implicite des nuances d\u00e9couvertes : les listes de paires de mots rapproch\u00e9es doivent \u00eatre interpr\u00e9t\u00e9es afin de \u00ab comprendre \u00bb l\u2019\u00e9l\u00e9ment de distinction commun. En revanche, elle permet une automatisation importante du processus de recherche de nuances, suffisante pour assurer que le travail humain de validation des r\u00e9sultats n\u2019introduise dans ceux-ci de biais interpr\u00e9tatif trop important.","translation":["","The corpus-based acquisition of lexical semantic information has given rise to numerous studies on the automatic constitution of semantic classes, clustering words with similar meanings. However, the practical interest of these classes remains limited in the absence of knowledge about the nuances of meaning differentiating the words of a same class. We present a first system to make explicit such semantic nuances, in a semi-automatic way, using data from a text corpus, thus reaching a degree of word meaning definition, to our knowledge, never attained before by automatic means, This technique exploits large contexts around word occurrences to bring together pairs of words characterised by a similar meaning nuance. The limitation of this approach is that it only provides an implicit representation of the discovered distinctions : human interpretation is still required to name them. However, it enables an important level of automation, so that the human validation work can only introduce a limited bias in the results.","semantic classes, nuances, corpus-based acquisition"],"keyphrases":["classes s\u00e9mantiques","nuances de sens","acquisition sur corpus"],"prmu":["P","R","R"]} {"id":"taln-2006-long-025","title":"Groupes Nominaux Pr\u00e9dicatifs : utilisation d\u2019une grammaire de liens pour l\u2019extraction d\u2019information","abstract":"L\u2019identification des structures pr\u00e9dicatives pr\u00e9sente un grand int\u00e9r\u00eat quand on se situe dans une probl\u00e9matique d\u2019extraction d\u2019information. Si une litt\u00e9rature abondante existe \u00e0 ce sujet, particuli\u00e8rement dans le domaine de la g\u00e9nomique, la plupart des travaux portent sur les relations autour du verbe. Peu s\u2019int\u00e9ressent \u00e0 la relation qui peut unir une nominalisation et ses actants dans un groupe nominal \u00e0 t\u00eate pr\u00e9dicative (GNP). Nous montrons la complexit\u00e9 des diff\u00e9rents types de GNP et des relations paraphrastiques qui les unissent avec les formes verbales, afin de donner une vue unifi\u00e9e des structures pr\u00e9dicatives nomino-verbales. Nous montrons ensuite comment nous avons con\u00e7u une grammaire de liens permettant l\u2019identification de chacun des actants dans les GNP. Nous en d\u00e9crivons la mise en oeuvre avec le Link Parser, pour l\u2019extraction d\u2019information dans des articles scientifiques du domaine de la Biologie.","translation":["","The identification of predicative structures is of great interest in information extraction. Although there is abundant literature on this subject, particularly in the genomic field, the majority relates to the relations around the verb. Few are interested in the relation which can link a nominalization and its actants in a noun phrase with predicative head (NPP). Our work involves firstly showing the complexity of different types of NPPs and the paraphrastic relations which link them with the verbal forms, followed by a unified view of the nomino-verbal predicative structures. We further show how we designed a link grammar allowing the identification of each actant in the NNPs. We describe the implementation with Link Parser for information extraction in scientific articles in the field of Biology.","nominalization, predicative noun phrase, prepositional markers, information extraction"],"keyphrases":["groupe nominal pr\u00e9dicatif","extraction d\u2019information","nominalisation","marqueurs pr\u00e9positionnels"],"prmu":["P","P","P","U"]} {"id":"taln-2006-long-026","title":"Trouver le coupable : Fouille d\u2019erreurs sur des sorties d\u2019analyseurs syntaxiques","abstract":"Nous pr\u00e9sentons une m\u00e9thode de fouille d\u2019erreurs pour d\u00e9tecter automatiquement des erreurs dans les ressources utilis\u00e9es par les syst\u00e8mes d\u2019analyse syntaxique. Nous avons mis en oeuvre cette m\u00e9thode sur le r\u00e9sultat de l\u2019analyse de plusieurs millions de mots par deux syst\u00e8mes d\u2019analyse diff\u00e9rents qui ont toutefois en commun le lexique syntaxique et la cha\u00eene de traitement pr\u00e9-syntaxique. Nous avons pu identifier ainsi des inexactitudes et des incompl\u00e9tudes dans les ressources utilis\u00e9es. En particulier, la comparaison des r\u00e9sultats obtenus sur les sorties des deux analyseurs sur un m\u00eame corpus nous a permis d\u2019isoler les probl\u00e8mes issus des ressources partag\u00e9es de ceux issus des grammaires.","translation":["","We introduce an error mining technique for automatically detecting errors in resources used in parsing systems.We applied this technique on parsing results produced on several millions of words by two distinct parsing systems, which share a common syntactic lexicon and pre-parsing processing chain.We were thus able to identify errors and missing elements in the resources. In particular, by comparing both systems\u2019 results, we were able to differentiate between problems stemming from shared resources and those resulting from grammars.","parsing, error mining"],"keyphrases":["fouille d\u2019erreurs","analyse syntaxique"],"prmu":["P","P"]} {"id":"taln-2006-long-027","title":"V1\u03a9 a=able ou Normaliser des lexiques syntaxiques est d\u00e9lectable","abstract":"Partant des lexiques TAL syntaxiques existants, cet article propose une repr\u00e9sentation lexicale unifi\u00e9e et normalis\u00e9e, pr\u00e9alable et n\u00e9cessaire \u00e0 toute exploitation des lexiques syntaxiques hors de leur propre contexte de conception. Ce travail s\u2019inscrit dans un cadre de mod\u00e9lisation privil\u00e9gi\u00e9 \u2212 le Lexical Markup Framework \u2212 qui a \u00e9t\u00e9 con\u00e7u d\u00e8s le d\u00e9part comme un mod\u00e8le lexicographique int\u00e9grant les diff\u00e9rents niveaux de description. Ce mod\u00e8le permet d\u2019articuler des descriptions extensionnelles et intensionnelles et fait r\u00e9f\u00e9rence \u00e0 un jeu de descripteurs normalis\u00e9s, garantissant la rigueur de la description des faits linguistiques et assurant, \u00e0 terme, la compatibilit\u00e9 avec des formats de donn\u00e9es utilis\u00e9s pour l\u2019annotation de corpus.","translation":["","Based on existing lexical resources for NLP, in particular inflected form and subcategorization lexica, this paper proposes a unified and normalized representation, required for any further use of the data out of their original context. As a starting point for our model, we chose the Lexical Markup Framework, for three reasons. Firstly, it covers various layers of linguistic description including morphology, syntax and semantics. Secondly, it allows for combining extensional (i.e. lists of forms or constructions) and intensional (i.e. reference to paradigms) lexical descriptions. Thirdly, it makes use of externally defined data categories, ensuring linguistic soundness and, ultimately, compatibility with standardized corpus annotation formats.","lexicon, NLP, syntax, lexicon-grammar, normalization, subcategorization"],"keyphrases":["lexique","syntaxe","TAL","lexique-grammaire","sous-cat\u00e9gorisation","standardisation"],"prmu":["P","P","P","U","U","U"]} {"id":"taln-2006-long-030","title":"D\u00e9codage conceptuel et apprentissage automatique : application au corpus de dialogue Homme-Machine MEDIA","abstract":"Cette \u00e9tude pr\u00e9sente les travaux du LIA effectu\u00e9s sur le corpus de dialogue homme-machine MEDIA et visant \u00e0 proposer des m\u00e9thodes d\u2019analyse robuste permettant d\u2019extraire d\u2019un message audio une s\u00e9quence de concepts \u00e9l\u00e9mentaires. Le mod\u00e8le de d\u00e9codage conceptuel pr\u00e9sent\u00e9 est bas\u00e9 sur une approche stochastique qui int\u00e8gre directement le processus de compr\u00e9hension au processus de Reconnaissance Automatique de la Parole (RAP). Cette approche permet de garder l\u2019espace probabiliste des phrases produit en sortie du module de RAP et de le projeter vers un espace probabiliste de s\u00e9quences de concepts. Les exp\u00e9riences men\u00e9es sur le corpus MEDIA montrent que les performances atteintes par notre mod\u00e8le sont au niveau des meilleurs syst\u00e8mes ayant particip\u00e9 \u00e0 l\u2019\u00e9valuation sur des transcriptions manuelles de dialogues. En d\u00e9taillant les performances du syst\u00e8me en fonction de la taille du corpus d\u2019apprentissage on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues n\u00e9cessaires \u00e0 l\u2019apprentissage des mod\u00e8les. Enfin nous montrons comment des connaissances a priori peuvent \u00eatre int\u00e9gr\u00e9es dans nos mod\u00e8les afin d\u2019augmenter significativement leur couverture en diminuant, \u00e0 performance \u00e9gale, l\u2019effort de constitution et d\u2019annotation du corpus d\u2019apprentissage.","translation":["","Within the framework of the French evaluation program MEDIA on spoken dialogue systems, this paper presents the methods developed at the LIA lab for the robust extraction of basic conceptual constituents or concepts from an audio message. The conceptual decoding model proposed follows a stochastic paradigm and is directly integrated into the Automatic Speech Recognition (ASR) process. This approach allows us to both keep the probabilistic search space on sequences of words produced by the ASR module and project it to a probabilistic search space of sequences of concepts. The experiments carried on on the MEDIA corpus show that the performance reached by our approach is state of the art on manual transcriptions of dialogues. By partitioning the training corpus according to different sizes, one can measure the impact of the training corpus on the decoding performance, therefore estimate both the minimal and optimal number of dialogue examples required. Finally we detail how a priori knowledge can be integrated in our models in order to increase their coverage and therefore lowering, for the same level of performance, the amount of training corpus required.","spoken dialogue, automatic speech recognition, corpus-based methods"],"keyphrases":["dialogue homme-machine","reconnaissance automatique de la parole","apprentissage automatique \u00e0 base de corpus"],"prmu":["P","P","R"]} {"id":"taln-2006-long-031","title":"Vers une pr\u00e9diction automatique de la difficult\u00e9 d\u2019une question en langue naturelle","abstract":"Nous proposons et testons deux m\u00e9thodes de pr\u00e9diction de la capacit\u00e9 d\u2019un syst\u00e8me \u00e0 r\u00e9pondre \u00e0 une question factuelle. Une telle pr\u00e9diciton permet de d\u00e9terminer si l\u2019on doit initier un dialogue afin de pr\u00e9ciser ou de reformuler la question pos\u00e9e par l\u2019utilisateur. La premi\u00e8re approche que nous proposons est une adaptation d\u2019une m\u00e9thode de pr\u00e9diction dans le domaine de la recherche documentaire, bas\u00e9e soit sur des machines \u00e0 vecteurs supports (SVM) soit sur des arbres de d\u00e9cision, avec des crit\u00e8res tels que le contenu des questions ou des documents, et des mesures de coh\u00e9sion entre les documents ou passages de documents d\u2019o\u00f9 sont extraits les r\u00e9ponses. L\u2019autre approche vise \u00e0 utiliser le type de r\u00e9ponse attendue pour d\u00e9cider de la capacit\u00e9 du syst\u00e8me \u00e0 r\u00e9pondre. Les deux approches ont \u00e9t\u00e9 test\u00e9es sur les donn\u00e9es de la campagne Technolangue EQUER des syst\u00e8mes de questions-r\u00e9ponses en fran\u00e7ais. L\u2019approche \u00e0 base de SVM est celle qui obtient les meilleurs r\u00e9sultats. Elle permet de distinguer au mieux les questions faciles, celles auxquelles notre syst\u00e8me apporte une bonne r\u00e9ponse, des questions difficiles, celles rest\u00e9es sans r\u00e9ponses ou auxquelles le syst\u00e8me a r\u00e9pondu de mani\u00e8re incorrecte. A l\u2019oppos\u00e9 on montre que pour notre syst\u00e8me, le type de r\u00e9ponse attendue (personnes, quantit\u00e9s, lieux...) n\u2019est pas un facteur d\u00e9terminant pour la difficult\u00e9 d\u2019une question.","translation":["","This paper presents two methods for automatically predicting the ability for a question answering system to automatically reply to a factoid question. The context of this prediction is the determination of the need to initiate a dialog with the user in order to focus or reformulate the question. The first method is an adaptation of a document retrieval prediction system based on SVM and decision trees. The features involved include question or document text, and cohesion measures between documents or extracts from which the answer is extracted. The second method uses only expected answer type to predict the answer validity. Both methods have been evaluated with data from the participation of our QA engine in the Technolangue EQUER campaign. On the one hand, the SVM based method leads to the best results. It correctly determines which are easy questions, namely, those to which our system gives the right answer, and which are hard questions, those to which our system gives bad or no answer. On the other hand, we show that for our system, the expected answer type (proper nouns, numbers, locations ...) is not a determining factor in defining question hardness.","question-answering, difficulty prediction, SVM, decision trees"],"keyphrases":["SVM","arbres de d\u00e9cision","questions-r\u00e9ponses","pr\u00e9diction de la difficult\u00e9"],"prmu":["P","P","P","R"]} {"id":"taln-2006-long-032","title":"Variation terminologique et analyse diachronique","abstract":"Cet article pr\u00e9sente un travail destin\u00e9 \u00e0 automatiser l\u2019\u00e9tude de l\u2019\u00e9volution terminologique \u00e0 partir de termes dat\u00e9s extraits de corpus diachroniques de textes scientifiques ou techniques. Les apparitions et disparitions d\u2019attestations de termes au cours du temps constituent la manifestation la plus simple de l\u2019\u00e9volution. Mais la prise en compte des formes variantes apporte une information de meilleure qualit\u00e9 sur le suivi des termes. Une distance entre termes complexes permet de rendre op\u00e9rationnelle l\u2019int\u00e9gration de la variation terminologique \u00e0 l\u2019analyse diachronique. Des r\u00e9sultats montrant la prise en compte des variantes sont pr\u00e9sent\u00e9s et comment\u00e9s \u00e0 la fin de l\u2019article.","translation":["","This paper presents a work about terminological evolution of dated terms, extracted from diachronic corpora of scientific or technical texts. Disappearance and appearances of terms attestations are the most obvious evidence of change. Nonetheless taking into account the variant forms of terms helps describe their historic development. A distance between complex terms allows terminological variation to be integrated into diachronic analysis. Some results and comments are given at the end of the paper.","terminological evolution, diachronic corpus, complex term, terminological variation, distance"],"keyphrases":["variation terminologique","\u00e9volution terminologique","corpus diachronique","distance","terme complexe"],"prmu":["P","P","P","P","P"]} {"id":"taln-2006-long-033","title":"\u00c9l\u00e9ments pour la g\u00e9n\u00e9ration de classes s\u00e9mantiques \u00e0 partir de d\u00e9finitions lexicographiques Pour une approche s\u00e9mique du sens","abstract":"Ce papier expose une exp\u00e9rience de classification men\u00e9e sur un corpus de d\u00e9finitions dictionnairiques. Le cadre g\u00e9n\u00e9ral de cette recherche est la constitution d\u2019une ressource lexico-s\u00e9mantique fond\u00e9e sur une conception structuraliste du sens (le contenu s\u00e9mantique d\u2019une unit\u00e9 lexicale est structur\u00e9 en s\u00e8mes ; le sens d\u2019un texte \u00e9merge de faisceaux de regroupements s\u00e9miques stabilis\u00e9s). L\u2019objectif de l\u2019exp\u00e9rience rapport\u00e9e est de d\u00e9couvrir des classes s\u00e9mantiques \u00e0 partir de d\u00e9finitions dictionnairiques avec la m\u00e9thode CAH. Les classes s\u00e9mantiques regroupent des unit\u00e9s lexicales en fonction de s\u00e8mes g\u00e9n\u00e9riques (i.e. communs \u00e0 toutes les unit\u00e9s lexicales de la classe) et s\u2019organisent diff\u00e9rentiellement en fonction de s\u00e8mes sp\u00e9cifiques. \u00c0 partir d\u2019une s\u00e9lection d\u2019entr\u00e9es dictionnairiques partageant le s\u00e8me g\u00e9n\u00e9rique \/arbre\/, nous \u00e9tudions la distribution et l\u2019organisation d\u2019une hypoth\u00e9tique classe s\u00e9mantique li\u00e9e au domaine de la sylviculture.","translation":["","This paper describes an experiment of classification, based on a corpus of dictionary definitions. Underlying this research is the building of a lexico-semantic resource based on a structuralist approach to meaning. The semantic content of a lexical item is made up of semes; the meaning of a text emerges from groupings of stabilised seme sets. The purpose of the experiment is to make up semantic classes (or clusters) with dictionary definitions by using the HCA method. Semantic classes are built from lexical items according to generic semes in that they are shared by all lexical items of the class. They are differentiated according to their specific semes. From a selection of dictionary entries sharing generic seme \/arbre\/ (\u201ctree\u201d), the distribution and the organisation of an assumed semantic class linked to the domain of Forestry will be studied.","lexico-semantic resources, seme dictionary, text semantics, clustering, HCA, Jaccard, UPGM"],"keyphrases":["ressources lexico-s\u00e9mantiques","CAH","dictionnaire s\u00e9mique","s\u00e9mantique textuelle","classification automatique","Jaccard"],"prmu":["P","P","R","M","M","U"]} {"id":"taln-2006-long-034","title":"Analyse par contraintes de l\u2019organisation du discours","abstract":"Nous abordons ici la question de l\u2019analyse de la structure du discours, du point de vue de sa description formelle et de son traitement automatique. Nous envisageons l\u2019hypoth\u00e8se selon laquelle une approche par contraintes pourrait permettre la prise en charge de structures discursives vari\u00e9es d\u2019une part, et de diff\u00e9rents types d\u2019indices de leur manifestation d\u2019autre part. Le formalisme CDML que nous introduisons vise pr\u00e9cis\u00e9ment une telle approche.","translation":["","We focus on the problem of discourse structure analysis from the point of view of its formal description and automatic processing.We intend to test the hypothesis that constraint-based approaches could enable various structures and cues of their presence to be taken into account. The CDML formalism which is here introduced allows such an approach.","discourse analysis, discourse formalisation, constraint-based approach"],"keyphrases":["approche par contraintes","analyse du discours","formalisation du discours"],"prmu":["P","R","M"]} {"id":"taln-2006-poster-001","title":"\u00c9tude et analyse de la phrase nominale arabe en HPSG","abstract":"Dans cet article, nous proposons une d\u00e9marche d\u2019analyse syntaxique pour les phrases nominales arabes \u00e0 l\u2019aide du formalisme des grammaires syntagmatiques guid\u00e9es par les t\u00eates HPSG. Pour ce faire, nous commen\u00e7ons par \u00e9tudier la typologie de la phrase nominale arabe en pr\u00e9cisant ses diff\u00e9rentes formes. Puis, nous \u00e9laborons une grammaire HPSG traitant ce type de phrase et qui respecte la sp\u00e9cificit\u00e9 de la langue arabe. Ensuite, nous pr\u00e9sentons une d\u00e9marche d\u2019analyse syntaxique se basant sur une approche ascendante et sur le m\u00e9canisme d\u2019unification. Enfin, nous donnons une id\u00e9e sur l\u2019impl\u00e9mentation et l\u2019exp\u00e9rimentation du prototype r\u00e9alis\u00e9.","translation":["","In this paper, we propose a parsing approach for Arabic nominal sentences using the Head-Driven Phrase Grammar formalism HPSG. To elaborate this approach, we begin by studying the typology of the Arabic nominal sentence specifying its different forms. Then, we elaborate a HPSG grammar for this type of sentence. The elaborated grammar respects the Arabic language specificity. Next, we present a parsing approach based on a bottom-up unification process. Finally, we illustrate the implementation and experimentation of the realised prototype.","arabic nominal sentence, HPSG grammar, parsing"],"keyphrases":["phrase nominale arabe","analyse syntaxique","grammaire HPSG","sch\u00e9ma adapt\u00e9"],"prmu":["P","P","P","U"]} {"id":"taln-2006-poster-004","title":"Comment \u00e9valuer les algorithmes de segmentation automatique ? Essai de construction d\u2019un mat\u00e9riel de r\u00e9f\u00e9rence.","abstract":"L\u2019objectif de cette recherche est d\u2019\u00e9valuer l\u2019efficacit\u00e9 d\u2019algorithmes lors de l\u2019identification des ruptures th\u00e9matiques dans des textes. Pour ce faire, 32 articles de journaux ont \u00e9t\u00e9 segment\u00e9s par des groupes de 15 juges. L\u2019analyse de leurs r\u00e9ponses indique que chaque juge, pris individuellement, est peu fiable contrairement \u00e0 l\u2019indice global de segmentation, qui peut \u00eatre d\u00e9riv\u00e9 des r\u00e9ponses de l\u2019ensemble des juges. Si les deux algorithmes test\u00e9s sont capables de retrouver le d\u00e9but des articles lorsque ceux-ci sont concat\u00e9n\u00e9s, ils \u00e9chouent dans la d\u00e9tection des changements de th\u00e8me per\u00e7us par la majorit\u00e9 des juges. Il faut toutefois noter que les juges, pris individuellement, sont eux-m\u00eames inefficaces dans l\u2019identification des changements de th\u00e8me. Dans la conclusion, nous \u00e9valuons diff\u00e9rentes explications du faible niveau de performance observ\u00e9.","translation":["","The objective of this research is to evaluate the efficacy of algorithms in identifying thematic breaks in texts. With this aim, 32 newspaper articles were segmented by groups of 15 judges. The analysis of their answers indicates that each judge, taken individually, is not very reliable, unlike the global index of segmentation derived from all the judges. If two algorithms tested are able to find the beginning of the articles when those are concatenated, they fail in the detection of the changes of topic perceived by the majority of the judges. It should however be noted that the judges, taken individually, are themselves largely ineffective in the identification of the changes of topic. In conclusion, we examine various explanations for the low level of performance observed.","automatic segmentation, evaluation, interrater agreement"],"keyphrases":["\u00e9valuation","segmentation automatique","accord interjuges"],"prmu":["P","P","U"]} {"id":"taln-2006-poster-005","title":"M\u00e9canismes de contr\u00f4le pour l\u2019analyse en Grammaires de Propri\u00e9t\u00e9s","abstract":"Les m\u00e9thodes d\u2019analyse syntaxiques hybrides, reposant \u00e0 la fois sur des techniques statistiques et symboliques, restent peu exploit\u00e9es. Dans la plupart des cas, les informations statistiques sont int\u00e9gr\u00e9es \u00e0 un squelette contextfree et sont utilis\u00e9es pour contr\u00f4ler le choix des r\u00e8gles ou des structures. Nous proposons dans cet article une m\u00e9thode permettant de calculer un indice de corr\u00e9lation entre deux objets linguistiques (cat\u00e9gories, propri\u00e9t\u00e9s). Nous d\u00e9crivons une utilisation de cette notion dans le cadre de l\u2019analyse des Grammaires de Propri\u00e9t\u00e9s. L\u2019indice de corr\u00e9lation nous permet dans ce cas de contr\u00f4ler \u00e0 la fois la s\u00e9lection des constituants d\u2019une cat\u00e9gorie, mais \u00e9galement la satisfaction des propri\u00e9t\u00e9s qui la d\u00e9crivent.","translation":["","Hybrid parsing techniques based both on statistical and symbolic methods remain rare. In general, they integrate statistical information into a context-free skeleton, in order to control the selection of rules and structures. We propose a statistical method which allows the evaluation of a correlation index between two linguistic objects, namely, category, and property. We describe how to integrate this statistical information into the framework of Property Grammars. The correlation index is used for controling both the selection process of category constituents and the evaluation of properties satisfaction.","parsing, patterns model, correlation index, Property Grammars, hybrid parsing techniques"],"keyphrases":["Grammaires de Propri\u00e9t\u00e9s","indice de corr\u00e9lation","analyseur syntaxique","mod\u00e8le des patrons","technique d\u2019analyse hybride"],"prmu":["P","P","M","M","R"]} {"id":"taln-2006-poster-006","title":"Exploration et utilisation d\u2019informations distantes dans les mod\u00e8les de langage statistiques","abstract":"Dans le cadre de la mod\u00e9lisation statistique du langage, nous montrons qu\u2019il est possible d\u2019utiliser un mod\u00e8le n-grammes avec un historique qui n\u2019est pas n\u00e9cessairement celui avec lequel il a \u00e9t\u00e9 appris. Par exemple, un adverbe pr\u00e9sent dans l\u2019historique peut ne pas avoir d\u2019importance pour la pr\u00e9diction, et devrait donc \u00eatre ignor\u00e9 en d\u00e9calant l\u2019historique utilis\u00e9 pour la pr\u00e9diction. Notre \u00e9tude porte sur les mod\u00e8les n-grammes classiques et les mod\u00e8les n-grammes distants et est appliqu\u00e9e au cas des bigrammes. Nous pr\u00e9sentons quatre cas d\u2019utilisation pour deux mod\u00e8les bigrammes : distants et non distants. Nous montrons que la combinaison lin\u00e9aire d\u00e9pendante de l\u2019historique de ces quatre cas permet d\u2019am\u00e9liorer de 14 % la perplexit\u00e9 du mod\u00e8le bigrammes classique. Par ailleurs, nous nous int\u00e9ressons \u00e0 quelques cas de combinaison qui permettent de mettre en valeur les historiques pour lesquels les mod\u00e8les que nous proposons sont performants.","translation":["","In the framework of statistical language modeling, we show that it is possible to use n-gram models with a history different to the one used during training. Our study deals with classical and distant n-gram models and is restricted to bigram models. We present four use cases for two bigram models : distant and non distant. By using the linear combination, we show an improvement of 14 % in terms of perplexity compared to the classic bigram model. Moreover, a study has been performed in order to emphasize the histories for which our models are efficient.","statistical language modeling, distant models, linear combination"],"keyphrases":["mod\u00e9lisation statistique du langage","combinaison lin\u00e9aire","mod\u00e8les distants"],"prmu":["P","P","R"]} {"id":"taln-2006-poster-007","title":"Cr\u00e9ation d\u2019une base terminologique juridique multilingue \u00e0 l\u2019aide de la plateforme g\u00e9n\u00e9rique Jibiki : le projet LexALP","abstract":"Cet article pr\u00e9sente l\u2019utilisation de \u00ab Jibiki \u00bb (la plateforme de d\u00e9veloppement du serveur Web Papillon) dans le cadre du projet LexALP1. Le but de ce projet est d\u2019harmoniser la terminologie des quatre langues (fran\u00e7ais, allemand, italien et slov\u00e8ne) de la Convention Alpine2 de sorte que les \u00e9tats membres puissent coop\u00e9rer efficacement. Pour cela, le projet utilise la plateforme Jibiki afin de construire une banque terminologique permettant de comparer la terminologie sp\u00e9cialis\u00e9e de sept syst\u00e8mes l\u00e9gaux dans quatre langues, et de l\u2019harmoniser, optimisant ainsi la compr\u00e9hension entre les \u00e9tats alpins sur des questions environnementales au niveau supranational. Dans cet article, nous pr\u00e9sentons comment peut \u00eatre employ\u00e9e la plateforme g\u00e9n\u00e9rique Jibiki afin de g\u00e9rer un dictionnaire particulier.","translation":["","This paper presents the particular use of \u00ab Jibiki \u00bb (Papillon\u2019s Web server development platform) for the LexALP1 project. LexALP\u2019s goal is to harmonize the terminology of the Alpine Convention\u2019s2 four languages (French, German, Italian and Slovenian) so that member states are able to cooperate effectively. For this, the project uses the Jibiki platform in order to build a term bank used to compare the specialized terminology of seven different national legal systems in four different languages, and to harmonize it, optimizing the understanding between various alpine states in environmental matters at a supranational level. We describe how a generic platform like Jibiki is used to cope with a new kind of dictionary.","multilingual dictionary, legal term bank, term editing"],"keyphrases":["dictionnaire multilingue","banque terminologique juridique","\u00e9dition de terme"],"prmu":["R","R","M"]} {"id":"taln-2006-poster-008","title":"Traitement des incompr\u00e9hensions et des malentendus en dialogue homme-machine","abstract":"Traiter les erreurs en dialogue homme-machine est un probl\u00e8me difficile compte-tenu des multiples sources possibles depuis la reconnaissance de la parole jusqu\u2019\u00e0 la g\u00e9n\u00e9ration en passant par d\u2019autres modules comme l\u2019analyse s\u00e9mantique, l\u2019interpr\u00e9tation pragmatique ou la gestion du dialogue. Dans cet article, ce probl\u00e8me est envisag\u00e9 dans le but d\u2019apporter de la g\u00e9n\u00e9ricit\u00e9 et de la robustesse au syst\u00e8me ; il est trait\u00e9 au niveau du contr\u00f4leur de dialogue. Les diff\u00e9rents types d\u2019erreurs sont d\u2019abord identifi\u00e9s et regroup\u00e9s en deux cat\u00e9gories qui seules ont un sens vis-\u00e0-vis de l\u2019utilisateur : les incompr\u00e9hensions et les malentendus. Puis, ces deux cat\u00e9gories d\u2019erreur sont trait\u00e9es de mani\u00e8re sp\u00e9cifique pour que le syst\u00e8me puisse g\u00e9n\u00e9rer une r\u00e9ponse convenable et intelligente \u00e0 l\u2019utilisateur, sans rupture de dialogue. L\u2019exp\u00e9rimentation effectu\u00e9e en appliquant cette approche au syst\u00e8me de dialogue M\u00e9lina pr\u00e9sente des r\u00e9sultats prometteurs pour traiter les erreurs en dialogue.","translation":["","Miscommunication causes inconvenience within a spoken dialogue system. In this paper, we investigate this problem with regard to achieving genericity and robustness within dialogue management. Therefore, different error types occurring in a spoken dialogue system were first identified. Two markers were then proposed to detect and to trigger misunderstanding to the dialogue manager that should then choose an adequate strategy so as to generate an intelligent and suitable answer to the user. Moreover, several issues are investigated in order to process misinterpretations in the dialogue manager. An experiment performed using our approach to the spoken dialogue system M\u00e9lina shows promising results in processing miscommunication and proves the value of our approach.","misunderstanding, misinterpretation, dialogue act, dialogue goal, dialogue strategy, humancomputer dialogue"],"keyphrases":["incompr\u00e9hension","dialogue homme-machine","malentendu","acte de dialogue","but de dialogue","strat\u00e9gie de dialogue"],"prmu":["P","P","U","M","R","M"]} {"id":"taln-2006-poster-009","title":"Un mod\u00e8le pour unifier la gestion de ressources linguistiques en contexte multilingue","abstract":"Le bon fonctionnement d\u2019Intuition, plate-forme de recherche d\u2019information, repose sur le d\u00e9veloppement et l\u2019int\u00e9gration d\u2019un grand nombre de ressources linguistiques. Dans un souci de coh\u00e9rence et de meilleure gestion, l\u2019unification de ressources contenant des connaissances h\u00e9t\u00e9rog\u00e8nes s\u2019impose. Comme Intuition est disponible dans la plupart des langues europ\u00e9ennes, cette unification se heurte au facteur multilingue. Pour surmonter les probl\u00e8mes caus\u00e9s par les diff\u00e9rences structurelles entre les langues, une nouvelle architecture linguistique a \u00e9t\u00e9 con\u00e7ue et exprim\u00e9e en UML. Ce m\u00e9ta-mod\u00e8le est le point de d\u00e9part pour la nouvelle base de donn\u00e9es qui sera le noyau d\u2019un nouvel environnement de travail centr\u00e9 sur son utilisateur, l\u2019expert linguistique. Cet environnement centralisera la gestion de toutes les ressources linguistiques d\u2019Intuition.","translation":["","The proper functioning of Intuition, Sinequa\u2019s platform for information retrieval, depends on the development and integration of a large number of linguistic resources. To improve their coherence and management, these resources which contain very diverse knowledge, need to be unified. As Intuition is available in most European languages, the multilingual factor complicates this unification. To overcome the problems caused by the structural differences among languages, a new linguistic architecture has been designed and modelled using UML. This meta-model is the starting point for a new database that will be the core component of a new workbench, centred on its user, the linguistic expert. This workbench will provide a centralised management of all the linguistic resources within Intuition.","lexicon management, linguistic database, linguistic resources, multilinguism, linguistic architecture"],"keyphrases":["ressources linguistiques","multilinguisme","architecture linguistique","gestion de lexiques","base de donn\u00e9es linguistique"],"prmu":["P","P","P","M","R"]} {"id":"taln-2006-poster-010","title":"Reconnaissance de la m\u00e9trique des po\u00e8mes arabes par les r\u00e9seaux de neurones artificiels","abstract":"Nous avons construit un syst\u00e8me capable de reconna\u00eetre les modes de composition pour les po\u00e8mes arabes, nous d\u00e9crivons dans cet article les diff\u00e9rents modules du syst\u00e8me. Le recours \u00e0 une technique d\u2019apprentissage artificiel pour classer une s\u00e9quence phon\u00e9tique de syllabes est justifiable par le fait que nous avons imit\u00e9 le processus d\u2019apprentissage naturel humain suivi par les po\u00e8tes pendant des si\u00e8cles. Les r\u00e9seaux de neurones artificiels de type Perceptron multicouches ont montr\u00e9 un pouvoir tr\u00e8s puissant de classification.","translation":["","We have created a new system to recognize the different composition modes of Arab poetry. In this article we describe the different modules of this system. The use of an artificial learning technique for grouping a phonetic sequence of syllables is explained by the fact that we imitate the human process learning.","artificial neural networks, multi layer perceptron, classification, arabic poetry, syllabes, phonetic analysis"],"keyphrases":["po\u00e8mes arabes","r\u00e9seau de neurones","syllabes","classification","perceptron multi couches","analyse phon\u00e9tique"],"prmu":["P","P","P","P","M","M"]} {"id":"taln-2006-poster-011","title":"Annotation automatique de relations de contr\u00f4le dans des sp\u00e9cifications des besoins informatiques","abstract":"La conception de logiciels est un processus technologique complexe, qui n\u00e9cessite d\u2019\u00eatre assist\u00e9 par des outils de traitement automatique des langues. Cet article pr\u00e9sente une m\u00e9thode pour l\u2019annotation de relations discursives de contr\u00f4le dans des textes de sp\u00e9cification de besoins informatiques (SBI). La m\u00e9thode vise \u00e0 distinguer les actions contr\u00f4l\u00e9es par le syst\u00e8me de celles contr\u00f4l\u00e9es par son environnement, ce qui permet d\u2019\u00e9tablir de fa\u00e7on claire les limites et les responsabilit\u00e9s d\u2019un syst\u00e8me informatique. Notre m\u00e9thode fait appel \u00e0 la s\u00e9mantique discursive pour analyser les moyens d\u2019expression du contr\u00f4le dans un corpus de SBI industrielles ; l\u2019expression du contr\u00f4le est identifiable par la pr\u00e9sence, dans un certain contexte, de marqueurs linguistiques exprim\u00e9s par des r\u00e8gles dites d\u2019Exploration Contextuelle. La derni\u00e8re partie montre le processus d\u2019annotation automatique de la notion de contr\u00f4le par le syst\u00e8me EXCOM et termine par la pr\u00e9sentation d\u2019un d\u00e9but d\u2019\u00e9valuation de cette m\u00e9thodologie.","translation":["","This paper presents a technique for the automatic extraction of control sentences from software requirements specifications (SRS). Our aim is to annotate action sentences from an SRS document, and to recognize if those actions are machine controlled or user controlled, in order to better understand the limits and responsibilities of a software system and to support the Requirements Engineering process. We present a linguistic analysis of control markers and a technique to automatically annotate control sentences by means of contextual exploration rules. These rules are implemented in the contextual exploration engine Excom and applied to a set of commercial SRS.","semantic filtering, natural language requirements, requirements engineering, control"],"keyphrases":["annotation automatique","relations de contr\u00f4le","contr\u00f4le","sp\u00e9cifications des besoins","s\u00e9mantique","extraction d\u2019information"],"prmu":["P","P","P","P","P","M"]} {"id":"taln-2006-poster-012","title":"Vers l\u2019int\u00e9gration du contexte dans une m\u00e9moire de traduction sous-phrastique : d\u00e9tection du domaine de traduction","abstract":"Nous pr\u00e9sentons dans cet article une m\u00e9moire de traduction sous-phrastique sensible au domaine de traduction, une premi\u00e8re \u00e9tape vers l\u2019int\u00e9gration du contexte. Ce syst\u00e8me est en mesure de recycler les traductions d\u00e9j\u00e0 \u00ab vues \u00bb par la m\u00e9moire, non seulement pour des phrases compl\u00e8tes, mais \u00e9galement pour des sous-s\u00e9quences contigu\u00ebs de ces phrases, via un aligneur de mots. Les s\u00e9quences jug\u00e9es int\u00e9ressantes sont propos\u00e9es au traducteur. Nous expliquons \u00e9galement la cr\u00e9ation d\u2019un utilisateur artificiel, indispensable pour tester les performances du syst\u00e8me en l\u2019absence d\u2019intervention humaine. Nous le testons lors de la traduction d\u2019un ensemble disparate de corpus. Ces performances sont exprim\u00e9es par un ensemble de m\u00e9triques que nous d\u00e9finissons. Enfin, nous d\u00e9montrons que la d\u00e9tection automatique du contexte de traduction peut s\u2019av\u00e9rer b\u00e9n\u00e9fique et prometteuse pour am\u00e9liorer le fonctionnement d\u2019une telle m\u00e9moire, en agissant comme un filtre sur le mat\u00e9riel cible sugg\u00e9r\u00e9.","translation":["","In this article, we present a sub-sentential translation memory sensitive to the translation topic, a first step towards a full-fledged context-sensitive memory. This system is able to recycle previous translations indexed into the memory, not only for full sentences, but also for contiguous subsegments of these sentences, through word alignment information. Interesting segments are proposed to the translator. We also describe the creation of an artificial user (a simulator), necessary to test the system performances when no human intervention is possible, as is the case for these experiments. We test it when translating a set of disparate bilingual corpora. These performances are reflected in different metrics which we define. Finally, we show that a first attempt to automatically detect the translation context can be beneficial and promises to improve such a memory, by acting as a filter on the target material proposed to the user.","computer assisted machine translation, sub-sentential translation memory, context-sensitive retrieval, translation topic detection"],"keyphrases":["m\u00e9moire de traduction sous-phrastique","d\u00e9tection du domaine de traduction","traduction assist\u00e9e par ordinateur","r\u00e9cup\u00e9ration sensible au contexte"],"prmu":["P","P","M","M"]} {"id":"taln-2006-poster-013","title":"Analyse et d\u00e9sambigu\u00efsation morphologiques de textes arabes non voyell\u00e9s","abstract":"Dans ce papier nous proposons d\u2019abord une m\u00e9thode d\u2019analyse et de d\u00e9sambigu\u00efsation morphologiques de textes arabes non voyell\u00e9s permettant de lever l\u2019ambigu\u00eft\u00e9 morphologique due \u00e0 l\u2019absence des marques de voyelles et aussi \u00e0 l\u2019irr\u00e9gularit\u00e9 des formes d\u00e9riv\u00e9es de certains mots arabes (e.g. formes irr\u00e9guli\u00e8res du pluriel des noms et des adjectifs). Ensuite, nous pr\u00e9sentons le syst\u00e8me MORPH2, un analyseur morphologique de textes arabes non voyell\u00e9s bas\u00e9 sur la m\u00e9thode propos\u00e9e. Ce syst\u00e8me est \u00e9valu\u00e9 sur un livre scolaire et des articles de journaux. Les r\u00e9sultats obtenus son et tr\u00e8s encourageants. En effet, les mesures de rappel et de pr\u00e9cision globales sont respectivement de 69,77 % et 68,51 %.","translation":["","In this paper we first propose a morphological disambiguation and analysis method of non voweled Arabic texts. This method could handle morphological ambiguities, caused by both the absence of the vowel marks and the irregularity of certain words (e.g. irregularity of the plural form for nouns and adjectives). Then, we present the MORPH2 system, a morphological analyser of non voweled Arabic texts, based on the proposed method. This system is evaluated on a school book and newspaper articles. The obtained results are very encouraging. Indeed, the global measures of recall and precision are 69,77 % and 68,51 % respectively.","morphological analysis, morphological disambiguation, arabic NLP"],"keyphrases":["d\u00e9sambigu\u00efsation morphologique","analyse morphologique","TALN arabe"],"prmu":["P","R","M"]} {"id":"taln-2006-poster-014","title":"G\u00e9n\u00e9ration automatique des repr\u00e9sentations ontologiques","abstract":"Depuis la conception du Web s\u00e9mantique une t\u00e2che importante se pose au niveau de traitement automatique du langage : rendre accessible le contenu existant duWeb dit classique aux traitements et raisonnements ontologiques. Comme la plupart du contenu est compos\u00e9 de textes, on a besoin de g\u00e9n\u00e9rer des repr\u00e9sentations ontologiques de ces informations textuelles. Dans notre article nous proposons une m\u00e9thode afin d\u2019automatiser cette traduction en utilisant des ontologies et une analyse syntaxico-s\u00e9mantique profonde.","translation":["","Since the conception of the semantic Web an important challenge faces natural language processing: i.e. making the existing textual contents of the \u00ab classic \u00bbWeb available for ontology based applications, reasoning and finally for the semantic Web. Since the majority of Web sites contain textual information, the creation of ontological representations of these will be useful if not necessary. In our article we propose a method to automate this task by using domain ontologies and a deep syntactic-semantic analysis.","syntactic and semantic analysis, ontologies, ontological representations, semantic Web"],"keyphrases":["repr\u00e9sentations ontologiques","ontologies","Web s\u00e9mantique","analyse syntaxico-s\u00e9mantique"],"prmu":["P","P","P","P"]} {"id":"taln-2006-poster-015","title":"Approche \u00e9volutive des notions de base pour une repr\u00e9sentation th\u00e9matique des connaissances g\u00e9n\u00e9rales","abstract":"Dans le domaine du Traitement Automatique du Langage Naturel, pour \u00e9laborer un syst\u00e8me de repr\u00e9sentation th\u00e9matique des connaissances g\u00e9n\u00e9rales, des m\u00e9thodes s\u2019appuyant sur des th\u00e9saurus sont utilis\u00e9es depuis une quinzaine d\u2019ann\u00e9es. Un th\u00e9saurus est constitu\u00e9 d\u2019un ensemble de concepts qui d\u00e9finissent un syst\u00e8me g\u00e9n\u00e9rateur d\u2019un espace vectoriel mod\u00e9lisant les connaissances g\u00e9n\u00e9rales. Ces concepts, souvent organis\u00e9s en une hi\u00e9rarchie arborescente, constituent un instrument fondamental, mais totalement fig\u00e9. M\u00eame si les notions \u00e9voluent (nous pensons par exemple aux domaines techniques), un th\u00e9saurus ne peut quant \u00e0 lui \u00eatre modifi\u00e9 que lors d\u2019un processus particuli\u00e8rement lourd, car n\u00e9cessitant la collaboration d\u2019experts humains. C\u2019est \u00e0 ce probl\u00e8me que nous nous attaquons ici. Apr\u00e8s avoir d\u00e9taill\u00e9 les caract\u00e9ristiques que doit poss\u00e9der un syst\u00e8me g\u00e9n\u00e9rateur de l\u2019espace vectoriel de mod\u00e9lisation des connaissances, nous d\u00e9finissons les \u00ab notions de base \u00bb. Celles-ci, dont la construction s\u2019appuie initialement sur les concepts d\u2019un th\u00e9saurus, constituent un autre syst\u00e8me g\u00e9n\u00e9rateur de cet espace vectoriel. Nous abordons la d\u00e9termination des acceptions exprimant les notions de base, ce qui nous am\u00e8ne naturellement \u00e0 nous poser la question de leur nombre. Enfin, nous explicitons comment, s\u2019affranchissant des concepts du th\u00e9saurus, ces notions de base \u00e9voluent par un processus it\u00e9ratif au fur et \u00e0 mesure de l\u2019analyse de nouveaux textes.","translation":["","In the field of Natural Language Processing, in order to arrive at a thematic representation system of general knowledge, methods leaning on thesaurus have been widely used for about fifteen years. A thesaurus consists of a set of concepts defining a system generating a vector space to model general knowledge. These concepts, often organized as a hierarchy, constitute a fundamental, but fixed tool. When concepts evolve (as in technical fields), a thesaurus can evolve, but only as a result of an arduous process, requiring the collaboration of human experts. After detailing the desired characteristics of knowledge modelling systems, we define the \u00ab basic notions \u00bb. Their construction is initially based on the concepts of a thesaurus. They constitute another generating system of this vector space. We discuss the establishment of these basic notions, which naturally leads us to the question of their number. Lastly, we clarify how, being freed from the concepts of the thesaurus, the basic notions evolve progressively in an iterative process as new texts are being analysed.","thesaurus, conceptual vectors, basic notions, evolution"],"keyphrases":["\u00e9volutivit\u00e9","notions de base","th\u00e9saurus","vecteurs conceptuels"],"prmu":["P","P","P","U"]} {"id":"taln-2006-poster-016","title":"Relever des crit\u00e8res pour la distinction automatique entre les documents m\u00e9dicaux scientifiques et vulgaris\u00e9s en russe et en japonais","abstract":"Dans cet article, nous cherchons \u00e0 affiner la notion de comparabilit\u00e9 des corpus. Nous \u00e9tudions en particulier la distinction entre les documents scientifiques et vulgaris\u00e9s dans le domaine m\u00e9dical. Nous supposons que cette distinction peut apporter des informations importantes, par exemple en recherche d\u2019information. Nous supposons par l\u00e0 m\u00eame que les documents, \u00e9tant le reflet de leur contexte de production, fournissent des crit\u00e8res n\u00e9cessaires \u00e0 cette distinction. Nous \u00e9tudions plusieurs crit\u00e8res linguistiques, typographiques, lexicaux et autres pour la caract\u00e9risation des documents m\u00e9dicaux scientifiques et vulgaris\u00e9s. Les r\u00e9sultats pr\u00e9sent\u00e9s sont acquis sur les donn\u00e9es en russe et en japonais. Certains des crit\u00e8res \u00e9tudi\u00e9s s\u2019av\u00e8rent effectivement pertinents. Nous faisons \u00e9galement quelques r\u00e9flexions et propositions quant \u00e0 la distinction des cat\u00e9gories scientifique et vulgaris\u00e9e et aux questionnements th\u00e9oriques.","translation":["","In this paper, we aim to ripen the notion of corpora comparability. We study especially the distinction between scientific and popularized documents in the medical domain. We suppose that this distinction can give important informations, for instance in information retrieval. In the same time, we suppose that documents reflect the context of their production and provide features necessary for this distinction. We study and present several features, linguistic, typographic, lexical and other, for the characterization of medical documents as scientific or popularized. The results presented are acquired on data in Russian and Japanese. Some of analyzed features turn out to be relevant.We give then some remarks and suggestions as for the distinction of scientific and popularized documents and their theoretical issues.","translingual information retrieval, comparable corpora, document typology, categorisation, scientific document, popularized document"],"keyphrases":["document scientifique","recherche d\u2019information translangue","corpus comparables","typologie de documents","cat\u00e9gorisation","document vulgaris\u00e9"],"prmu":["P","M","R","M","U","R"]} {"id":"taln-2006-poster-017","title":"Graphes param\u00e9tr\u00e9s et outils de lexicalisation","abstract":"La lexicalisation des grammaires r\u00e9duit le nombre des erreurs d\u2019analyse syntaxique et am\u00e9liore les r\u00e9sultats des applications. Cependant, cette modification affecte un syst\u00e8me d\u2019analyse syntaxique dans tous ses aspects. Un de nos objectifs de recherche est de mettre au point un mod\u00e8le r\u00e9aliste pour la lexicalisation des grammaires. Nous avons r\u00e9alis\u00e9 des exp\u00e9riences en ce sens avec une grammaire tr\u00e8s simple par son contenu et son formalisme, et un lexique syntaxique tr\u00e8s informatif, le lexique-grammaire du fran\u00e7ais \u00e9labor\u00e9 au LADL. La m\u00e9thode de lexicalisation est celle des graphes param\u00e9tr\u00e9s. Nos r\u00e9sultats tendent \u00e0 montrer que la plupart des informations contenues dans le lexique-grammaire peuvent \u00eatre transf\u00e9r\u00e9es dans une grammaire et exploit\u00e9es avec succ\u00e8s dans l\u2019analyse syntaxique de phrases.","translation":["","Shifting to a lexicalized grammar reduces the number of parsing errors and improves application results. However, such an operation affects a syntactic parser in all its aspects. One of our research objectives is to design a realistic model for grammar lexicalization. We carried out experiments for which we used a grammar with very simple content and formalism, and a very informative syntactic lexicon, namely the lexicon-grammar of French elaborated by the LADL. Lexicalization was performed by applying the parameterized-graph approach. Our results suggest that most information in the lexicon-grammar can be transferred into a grammar and exploited successfully for the syntactic parsing of sentences.","grammar, syntax, lexicalization, recursive transition networks"],"keyphrases":["lexicalisation","grammaires","syntaxe","r\u00e9seaux de transitions r\u00e9cursifs"],"prmu":["P","P","P","M"]} {"id":"taln-2006-poster-018","title":"Traitement des clitiques dans un environnement multilingue","abstract":"Cet article d\u00e9crit le traitement automatique des pronoms clitiques en espagnol et en grec moderne, deux langues de familles distinctes, dans le cadre de l\u2019analyseur syntaxique FIPS multilingue, d\u00e9velopp\u00e9 au Laboratoire d\u2019Analyse et de Technologie de Langage (LATL). Nous abordons la distribution des pronoms clitiques, leurs similarit\u00e9s ainsi que leurs particularit\u00e9s par rapport \u00e0 leur usage g\u00e9n\u00e9ral. Ensuite nous pr\u00e9sentons la m\u00e9thode appliqu\u00e9e pour leur traitement, commune aux deux langues. Nous montrons que l\u2019algorithme propos\u00e9 peut facilement s\u2019\u00e9tendre \u00e0 d\u2019autres langues trait\u00e9es par Fips qui partagent le ph\u00e9nom\u00e8ne de la cliticisation.","translation":["","In this article we present an algorithm for the computational processing of clitic pronouns in Spanish and Modern Greek by the multilingual syntactic parser Fips that has been developed at the Laboratory For Language Analysis And Technology, LATL. We provide an overview of the distribution of clitic pronouns, their similarities and particular behaviour compared to general use. Then we present a common method of processing clitics for both languages. Finally, we show that the algorithm developed can be easily extended to other languages with clitics, when treated by Fips.","syntactic parser, clitics, multilingual processing"],"keyphrases":["clitiques","analyseur syntaxique","traitement multilingue"],"prmu":["P","P","R"]} {"id":"taln-2006-poster-019","title":"D\u00e9tection des propositions syntaxiques du fran\u00e7ais en vue de l\u2019alignement des propositions de textes parall\u00e8les fran\u00e7ais-japonais","abstract":"Nous pr\u00e9sentons dans cet article SIGL\u00e9 (Syst\u00e8me d\u2019Identification de propositions avec Grammaire L\u00e9g\u00e8re), un syst\u00e8me r\u00e9alisant la d\u00e9tection des propositions fran\u00e7aises. Ce syst\u00e8me d\u00e9tecte les propositions \u2013 \u00e0 partir de phrases en entr\u00e9e s\u00e9gment\u00e9es et \u00e9tiquet\u00e9es en chunk par un analyseur ext\u00e9rieur \u2013, analyse leurs relations et leur attribue une \u00e9tiquette indiquant leur nature syntaxique. Il est caract\u00e9ris\u00e9 d\u2019une part par sa grammaire de type CFG proposant un ensemble d\u2019\u00e9tiquettes adapt\u00e9es \u00e0 notre analyse pour les mots dits en \u00ab qu- \u00bb, et d\u2019autre part par l\u2019utilisation du formalisme DCG et du langage PROLOG.","translation":["","In this paper we present SIGL\u00e9 (Clauses Identification System with Light Grammar), which is a system recognizing French clauses. Sentences are divided into chunks and tagged by an external analyzer. The system then identifies the clauses, analyzes their relations and assigns them a tag indicating their syntactic nature. The system is characterized by its context-free grammar, proposing a set of tags for the \"qu-\" words adapted to our analysis, and by the use of the DCG formalism and the PROLOG language.","partial syntactic analysis, syntactic clause, subordination, Prolog, CFG, DCG"],"keyphrases":["proposition syntaxique","CFG","DCG","Prolog","analyse syntaxique partielle","subordination"],"prmu":["P","P","P","P","M","U"]} {"id":"taln-2006-poster-021","title":"Extraction de grammaires TAG lexicalis\u00e9es avec traits \u00e0 partir d\u2019un corpus arbor\u00e9 pour le cor\u00e9en","abstract":"Nous pr\u00e9sentons, ici, une impl\u00e9mentation d\u2019un syst\u00e8me qui n\u2019extrait pas seulement une grammaire lexicalis\u00e9e (LTAG), mais aussi une grammaire LTAG avec traits (FB-LTAG) \u00e0 partir d\u2019un corpus arbor\u00e9. Nous montrons les exp\u00e9rimentations pratiques o\u00f9 nous extrayons les grammaires TAG \u00e0 partir du Sejong Treebank pour le cor\u00e9en. Avant tout, les 57 \u00e9tiquettes syntaxiques et les analyses morphologiques dans le corpus SJTree nous permettent d\u2019extraire les traits syntaxiques automatiquement. De plus, nous modifions le corpus pour l\u2019extraction d\u2019une grammaire lexicalis\u00e9e et convertissons les grammaires lexicalis\u00e9es en sch\u00e9mas d\u2019arbre pour r\u00e9soudre le probl\u00e8me de la couverture lexicale limit\u00e9e des grammaires lexicalis\u00e9es extraites.","translation":["","We present the implementation of a system which extracts not only lexicalized grammars but also feature-based lexicalized grammars from Sejong Treebank for Korean. We report on some practical experiments, in which we extract TAG grammars. Above all, full-scale syntactic tags and well-formed morphological analysis in Sejong Treebank allow us to extract syntactic features. In addition, we modify the Treebank to extract lexicalized grammars and convert them into tree schemata to resolve limited lexical coverage problems related to extracted lexicalized grammars.","lexicalized tree adjoining grammar, LTAG, feature-based LTAG, feature structure, treebank, automatic grammar extraction, Korean"],"keyphrases":["corpus arbor\u00e9","cor\u00e9en","LTAG","LTAG avec traits","FB-LTAG","grammaire d\u2019arbre d\u2019adjoint lexicalis\u00e9e","structure des traits","extraction automatique d\u2019une grammaire"],"prmu":["P","P","P","P","P","M","M","R"]} {"id":"taln-2006-poster-022","title":"\u00c9tude de m\u00e9taphores conceptuelles \u00e0 l\u2019aide de vues globales et temporelles sur un corpus","abstract":"Cet article pr\u00e9sente des exp\u00e9riences r\u00e9centes men\u00e9es dans le cadre d\u2019un projet de recherche consacr\u00e9 \u00e0 l\u2019\u00e9tude de m\u00e9taphores conceptuelles. Ces exp\u00e9riences consistent \u00e0 appr\u00e9hender visuellement la r\u00e9partition de trois domaines pouvant \u00eatre \u00e0 l\u2019origine de m\u00e9taphores conceptuelles dans un corpus d\u2019articles boursiers. Les trois domaines \u00e9tudi\u00e9s sont la m\u00e9t\u00e9orologie, la guerre et la sant\u00e9, un grand nombre d\u2019emplois m\u00e9taphoriques du lexique de ces trois domaines ayant \u00e9t\u00e9 observ\u00e9s dans le corpus d\u2019\u00e9tude. Afin de visualiser la r\u00e9partition de ces domaines en corpus, nous exploitons la plate-forme ProxiDocs d\u00e9di\u00e9e \u00e0 la cartographie et \u00e0 la cat\u00e9gorisation de corpus. Les cartes construites \u00e0 partir du corpus et des domaines d\u2019\u00e9tude nous ont ainsi permis de localiser certaines m\u00e9taphores conceptuelles dans des articles et des groupes d\u2019articles du corpus. Des articles contenant des emplois non m\u00e9taphoriques des domaines \u00e9tudi\u00e9s ont \u00e9galement \u00e9t\u00e9 distingu\u00e9s sur les cartes. Des repr\u00e9sentations cartographiques du corpus mettant dynamiquement en \u00e9vidence l\u2019\u00e9volution des trois domaines d\u2019\u00e9tude au fil du temps nous ont permis d\u2019amorcer une \u00e9tude sur le lien entre la pr\u00e9sence de certaines m\u00e9taphores conceptuelles et des faits d\u2019actualit\u00e9.","translation":["","This article presents the results of recent experiments achieved within the framework of a research project dedicated to the study of conceptual metaphors. These experiments comprise in a visual study of the distribution of three source domains of conceptual metaphors in a corpus of stock exchange articles. The three domains studied are meteorology, war and health, a large number of metaphorical uses of the lexicon of these three domains has been noted in the corpus. In order to visualize the distribution of these domains in the corpus, we use the ProxiDocs cartography tool and categorization. Maps of the corpus allow us to locate some conceptual metaphors in articles and sets of articles in the corpus. Articles containing non-metaphorical uses of studied domains are also differentiated on maps. Graphic representations of the corpus showing the temporal evolution of the three domains allow us to study the bond between some conceptual metaphors and the topic.","conceptual metaphors, corpus visualization, corpus linguistics"],"keyphrases":["m\u00e9taphores conceptuelles","visualisation de corpus","linguistique de corpus"],"prmu":["P","R","M"]} {"id":"taln-2006-poster-023","title":"Syst\u00e8me de traduction automatique statistique combinant diff\u00e9rentes ressources","abstract":"Cet article d\u00e9crit une approche combinant diff\u00e9rents mod\u00e8les statistiques pour la traduction automatique bas\u00e9e sur les segments. Pour ce faire, diff\u00e9rentes ressources sont utilis\u00e9es, dont deux corpus parall\u00e8les aux caract\u00e9ristiques diff\u00e9rentes et un dictionnaire de terminologie bilingue et ce, afin d\u2019am\u00e9liorer la performance quantitative et qualitative du syst\u00e8me de traduction. Nous \u00e9valuons notre approche sur la paire de langues fran\u00e7ais-anglais et montrons comment la combinaison des ressources propos\u00e9es am\u00e9liore de fa\u00e7on significative les r\u00e9sultats.","translation":["","This paper describes an approach combining different statistical models for phrase-based machine translation. Different knowledge resources are used, such as two parallel corpora with different characteristics and a bilingual dictionary of terminology, in order to improve the qualitative and quantitative performance of the translation system. We evaluate our approach on the French-English language pair and show how combining the proposed resources significantly improves results.","statistical phrase-based machine translation, parallel corpora, bilingual dictionary of terminology"],"keyphrases":["corpus parall\u00e8le","dictionnaire de terminologie bilingue","traduction automatique statistique bas\u00e9e sur les segments"],"prmu":["P","P","R"]} {"id":"taln-2006-poster-025","title":"Mod\u00e9lisation et analyse des coordinations elliptiques par l\u2019exploitation dynamique des for\u00eats de d\u00e9rivation","abstract":"Nous pr\u00e9sentons dans cet article une approche g\u00e9n\u00e9rale pour la mod\u00e9lisation et l\u2019analyse syntaxique des coordinations elliptiques. Nous montrons que les lex\u00e8mes \u00e9lid\u00e9s peuvent \u00eatre remplac\u00e9s, au cours de l\u2019analyse, par des informations qui proviennent de l\u2019autre membre de la coordination, utilis\u00e9 comme guide au niveau des d\u00e9rivations. De plus, nous montrons comment cette approche peut \u00eatre effectivement mise en oeuvre par une l\u00e9g\u00e8re extension des Grammaires d\u2019Arbres Adjoints Lexicalis\u00e9es (LTAG) \u00e0 travers une op\u00e9ration dite de fusion. Nous d\u00e9crivons les algorithmes de d\u00e9rivation n\u00e9cessaires pour l\u2019analyse de constructions coordonn\u00e9es pouvant comporter un nombre quelconque d\u2019ellipses.","translation":["","In this paper, we introduce a generic approach to elliptic coordination modelization and parsing.We show that the erased lexical items can be replaced during parsing, by information gathered from the other member of the coordination, used as a guide at the derivation level. Moreover, we show how this approach can indeed be implemented as a light extension of the LTAG formalism through a fusion operation.We provide the derivation algorithms required to parse coordination constructions which can have an arbitrary number of elisions.","parsing, TAG, coordination, ellipsis, shared forest, derivation forest"],"keyphrases":["coordination","for\u00eat de d\u00e9rivation","analyse syntaxique","ellipses","TAG","for\u00eat partag\u00e9e"],"prmu":["P","P","P","P","U","M"]} {"id":"taln-2006-poster-026","title":"Analyse spectrale des textes : d\u00e9tection automatique des fronti\u00e8res de langue et de discours","abstract":"Nous proposons un cadre th\u00e9orique qui permet, \u00e0 partir de matrices construites sur la base des donn\u00e9es statistiques d\u2019un corpus, d\u2019extraire par des proc\u00e9d\u00e9s math\u00e9matiques simples des informations sur les mots du vocabulaire de ce corpus, et sur la syntaxe des langues qui l\u2019ont engendr\u00e9. \u00c0 partir des m\u00eames donn\u00e9es initiales, on peut construire une matrice de similarit\u00e9 syntagmatique (probabilit\u00e9s de transition d\u2019un mot \u00e0 un autre), ou une matrice de similarit\u00e9 paradigmatique (probabilit\u00e9 de partager des contextes identiques). Pour ce qui concerne la premi\u00e8re de ces deux possibilit\u00e9s, les r\u00e9sultats obtenus sont interpr\u00e9t\u00e9s dans le cadre d\u2019une mod\u00e9lisation du processus g\u00e9n\u00e9ratif par cha\u00eenes de Markov. Nous montrons que les r\u00e9sultats d\u2019une analyse spectrale de la matrice de transition peuvent \u00eatre interpr\u00e9t\u00e9s comme des probabilit\u00e9s d\u2019appartenance de mots \u00e0 des classes. Cette m\u00e9thode nous permet d\u2019obtenir une classification continue des mots du vocabulaire dans des sous-syst\u00e8mes g\u00e9n\u00e9ratifs contribuant \u00e0 la g\u00e9n\u00e9ration de textes composites. Une application pratique est la segmentation de textes h\u00e9t\u00e9rog\u00e8nes en segments homog\u00e8nes d\u2019un point de vue linguistique, notamment dans le cas de langues proches par le degr\u00e9 de recouvrement de leurs vocabulaires.","translation":["","We propose a theoretical framework within which information on the vocabulary of a given corpus can be inferred on the basis of statistical information gathered on that corpus. Inferences can be made on the categories of the words in the vocabulary, and on their syntactic properties within particular languages. Based on the same statistical data, it is possible to build matrices of syntagmatic similarity (bigram transition matrices) or paradigmatic similarity (probability for any pair of words to share common contexts). When clustered with respect to their syntagmatic similarity, words tend to group into sublanguage vocabularies, and when clustered with respect to their paradigmatic similarity, into syntactic or semantic classes. Experiments have explored the first of these two possibilities. Their results are interpreted in the frame of a Markov chain modelling of the corpus\u2019 generative processe(s).We show that the results of a spectral analysis of the transition matrix can be interpreted as probability distributions of words within clusters. This method yields a soft clustering of the vocabulary into sublanguages which contribute to the generation of heterogeneous corpora. As an application, we show how multilingual texts can be visually segmented into linguistically homogeneous segments. Our method is specifically useful in the case of related languages which happen to be mixed in corpora.","soft spectral clustering, text segmentation, language identification"],"keyphrases":["segmentation de textes","classification spectrale continue","identification de langue"],"prmu":["P","R","M"]} {"id":"taln-2006-poster-027","title":"Adaptation de mod\u00e8les de langage \u00e0 l\u2019utilisateur et au registre de langage : exp\u00e9rimentations dans le domaine de l\u2019aide au handicap","abstract":"Les mod\u00e8les markoviens de langage sont tr\u00e8s d\u00e9pendants des donn\u00e9es d\u2019entra\u00eenement sur lesquels ils sont appris. Cette d\u00e9pendance, qui rend difficile l\u2019interpr\u00e9tation des performances, a surtout un fort impact sur l\u2019adaptation \u00e0 chaque utilisateur de ces mod\u00e8les. Cette question a d\u00e9j\u00e0 \u00e9t\u00e9 largement \u00e9tudi\u00e9e par le pass\u00e9. En nous appuyant sur un domaine d\u2019application sp\u00e9cifique (pr\u00e9diction de texte pour l\u2019aide \u00e0 la communication pour personnes handicap\u00e9es), nous voudrions l\u2019\u00e9tendre \u00e0 la probl\u00e9matique de l\u2019influence du registre de langage. En consid\u00e9rant des corpus relevant de cinq genres diff\u00e9rents, nous avons \u00e9tudi\u00e9 la r\u00e9duction de cette influence par trois mod\u00e8les adaptatifs diff\u00e9rents : (a) un mod\u00e8le cache classique favorisant les n derniers mots rencontr\u00e9s, (b) l\u2019int\u00e9gration au mod\u00e8le d\u2019un dictionnaire dynamique de l\u2019utilisateur et enfin (c) un mod\u00e8le de langage interpol\u00e9 combinant un mod\u00e8le g\u00e9n\u00e9ral et un mod\u00e8le utilisateur mis \u00e0 jour dynamiquement au fil des saisies. Cette \u00e9valuation porte un syst\u00e8me de pr\u00e9diction de texte bas\u00e9 sur un mod\u00e8le trigramme.","translation":["","Statistical language models (LM) are highly dependent on their training resources. This makes it not only difficult to interpret evaluation results, it also has a strong impact on users of a LM-based application. This question has already been studied by others. Focussing on a specific domain (text prediction in a communication aid for handicapped persons) we want to extend it to the influence of the language register. Considering corpora from five different registers, we discuss three methods to adapt a language model to its actual language resource hereby reducing the effect of training dependency: (a) a simple cache model augmenting the probability of the n last inserted words, (b) a dynamic user dictionary, keeping every unseen word and (c) an interpolated LM combining a base model with a currently updated user model. Our evaluation is based on the results obtained from a text prediction system working on a trigram LM.","language model, dynamic adaptation, user, theme, AAC systems"],"keyphrases":["adaptation","mod\u00e8les de langage","utilisateur","aide au handicap","th\u00e8me"],"prmu":["P","P","P","P","U"]} {"id":"taln-2006-poster-028","title":"L\u2019influence du contexte sur la compr\u00e9hension de la parole arabe spontan\u00e9e","abstract":"Notre travail s\u2019int\u00e8gre dans le cadre du projet intitul\u00e9 \u00ab Or\u00e9odule \u00bb : un syst\u00e8me de reconnaissance, de traduction et de synth\u00e8se de la langue arabe. L\u2019objectif de cet article est d\u2019essayer d\u2019am\u00e9liorer le mod\u00e8le probabiliste sur lequel est bas\u00e9 notre d\u00e9codeur s\u00e9mantique de la parole arabe spontan\u00e9e. Pour atteindre cet objectif, nous avons d\u00e9cid\u00e9 de tester l\u2019influence de l\u2019utilisation du contexte pertinent, et de l\u2019int\u00e9gration de diff\u00e9rents types de donn\u00e9es contextuelles sur la performance du d\u00e9codeur s\u00e9mantique employ\u00e9. Les r\u00e9sultats sont satisfaisants.","translation":["","This work is part of a larger research project entitled \u00ab Or\u00e9odule \u00bb aiming to develop tools for automatic speech recognition, translation, and synthesis for the Arabic language. The core of our interest in this work is in improving the probabilistic model on which our semantic decoder rests. To achieve this goal, we tested the influence of the pertinent context use, and of the contextual data integration of different types, on the effectiveness of the semantic decoder. The results are satisfactory.","semantic analysis, probabilistic model, automatic extraction, pertinent context, overage mutual information"],"keyphrases":["mod\u00e8le probabiliste","contexte pertinent","analyse s\u00e9mantique","extraction automatique","information mutuelle moyenne"],"prmu":["P","P","M","U","U"]} {"id":"taln-2006-tutoriel-001","title":"Analogie en traitement automatique des langues. Application \u00e0 la traduction automatique","abstract":"On se place ici dans la tendance actuelle en traitement automatique des langues, celle \u00e0 base de corpus et aussi dans une perspective que l\u2019on peut qualifier d\u2019approche \u00e0 moindre effort : il s\u2019agit d\u2019examiner les limites des possibilit\u00e9s de traitement \u00e0 partir de donn\u00e9es textuelles brutes, c\u2019est-\u00e0-dire non pr\u00e9-trait\u00e9es. L\u2019interrogation th\u00e9orique pr\u00e9sente en arri\u00e8re-plan est la suivante : quelles sont les op\u00e9rations fondamentales en langue ? L\u2019analogie proportionnelle a \u00e9t\u00e9 mentionn\u00e9e par de nombreux grammairiens et linguistes. On se propose de montrer l\u2019efficacit\u00e9 d\u2019une telle op\u00e9ration en la testant sur une t\u00e2che dure du traitement automatique des langues : la traduction automatique. On montrera aussi les bonnes cons\u00e9quences de la formalisation d\u2019une telle op\u00e9ration avec des r\u00e9sultats th\u00e9oriques en th\u00e9orie des langages en relation avec leur ad\u00e9quation \u00e0 la description des langues. De cette fa\u00e7on, une op\u00e9ration fondamentale en langue, l\u2019analogie proportionnelle, se verra illustr\u00e9e tant par ses aspects th\u00e9oriques que par ses performances en pratique.","translation":["","We position ourselves in the current trend of Natural Language Processing, i.e., corpus-based approach and \u201cleast effort\u201d approach.We shall inquire how far it is possible to go without any preprocessing of raw data. The theoretical question in the background is: which operations are fundamental in language? Proportional analogy has been mentionned by many grammarians and linguists. We shall inspect the efficiency of such an operation by testing it against a difficult task of NLP: machine translation. We shall also show some good properties brought by the formalisation of such an operation with theoretical results in formal language theory and the adequacy of analogy with the description of natural languages. To summarize, we shall illustrate an operation that is fundamental in language in its theoretical aspects as well as in its practical peformance.","Analogy, proportion, strings of symbols, machine translation,divergences across languages"],"keyphrases":["Analogie","traduction automatique","proportion","cha\u00eeness de symboles","divergences entre langues"],"prmu":["P","P","U","M","M"]} {"id":"taln-2001-long-001","title":"Un corpus fran\u00e7ais arbor\u00e9 : quelques interrogations","abstract":"Dans cet article nous pr\u00e9sentons les premiers r\u00e9sultats de l\u2019exploitation d\u2019un Corpus fran\u00e7ais arbor\u00e9 (Abeill\u00e9 et al., 2001). Le corpus comprend 1 million de mots enti\u00e8rement annot\u00e9s et valid\u00e9 pour les parties du discours, la morphologie, les mots compos\u00e9s et les lemmes, et partiellement annot\u00e9s pour les constituants syntaxiques. Il comprend des extraits de journaux parus entre 1989 et 1993 et \u00e9crits par divers auteurs, et couvre diff\u00e9rents th\u00e8mes (\u00e9conomie, litt\u00e9rature, politique, etc.). Apr\u00e8s avoir expliqu\u00e9 comment ce corpus a \u00e9t\u00e9 construit, et comment l\u2019exploiter \u00e0 l\u2019aide d\u2019un outil de recherche sp\u00e9cifique, nous exposerons quelques r\u00e9sultats linguistiques concernant les fr\u00e9quences et les pr\u00e9f\u00e9rences lexicales et syntaxiques. Nous expliquerons pourquoi nous pensons que certains de ces r\u00e9sultats sont pertinents en linguistique th\u00e9orique et en psycholinguistique.","translation":["","This paper presents the first linguistic results exploiting a new treebank for French (Abeill\u00e9 et al., 2001). The corpus comprises 1 million words fully annotated and disambiguated for parts of speech, inflectional morphology, compounds and lemmas, and partially annotated with syntactic constituents. It is made of extracts from newspapers ranging from 1989 to 1993 and written by different authors, and covers a variety of subjects (economy, literature, politics, etc.). After explaining how this corpus was built, and how it can be used with a specific search tool, we present some linguistic results obtained when searching the corpus for lexical or syntactic frequencies and preferences, and explain why we think some of these results are relevant both for theoretical linguistics and psycholinguistics.","Treebank, French, Newspaper corpora, syntax"],"keyphrases":["fran\u00e7ais","syntaxe","Corpus arbor\u00e9","corpus journalistique"],"prmu":["P","P","R","M"]} {"id":"taln-2001-long-002","title":"Repr\u00e9senter le temps en langue dans le formalisme des graphes conceptuels une approche bas\u00e9e sur les sch\u00e8mes s\u00e9mantico-cognitifs","abstract":"L\u2019objectif de notre travail est de construire une repr\u00e9sentation s\u00e9mantique d\u2019un corpus de textes fran\u00e7ais au sein des graphes conceptuels simples. Notre conceptualisation est fond\u00e9e sur les Sch\u00e8mes S\u00e9mantico-Cognitifs et la th\u00e9orie aspecto-temporelle introduits par J. P. Descl\u00e9s. Un texte est repr\u00e9sent\u00e9 par deux structures. La premi\u00e8re mod\u00e9lise la repr\u00e9sention semanticocognitive des propositions du texte, et la seconde le diagramme temporel exprimant les contraintes temporelles entre les diff\u00e9rentes situations d\u00e9crites dans le texte. La prise en compte de ces deux structures et des liens qu\u2019elles entretiennent nous a amen\u00e9s \u00e0 modifier le mod\u00e8le des graphes conceptuels simples et \u00e0 envisager les modes d\u2019interaction entre temps, aspect (grammatical) et significations des lex\u00e8mes verbaux.","translation":["","We propose here a system which deals with time, aspect and verbal meanings in natural language processing within Simple Conceptual Graphs on the basis of the Semantico-Cognitive Schemes and the aspecto-temporal theory both introduced by J-P. Descl\u00e9s. Our work bears on French texts. A text is represented by two different structures both represented within the SCG model. The first one models the semantico-cognitive representation while the second one is the temporal diagram representing the temporal constraints between the situations described in the text. Linking these structures leads us to slightly extend the original SCG model.","Linguistic time, Aspectual values, Semantico-Cognitive Schemes, Conceptual graphs"],"keyphrases":["Graphes Conceptuels","Sch\u00e8mes S\u00e9mantico-Cognitifs","Temps linguistique","Valeurs Aspectuelles"],"prmu":["P","P","M","U"]} {"id":"taln-2001-long-003","title":"Aides \u00e0 l'analyse pour la construction de banque d\u2019arbres : \u00e9tude de l'effort","abstract":"La construction de banque d\u2019arbres est une entreprise lourde qui prend du temps. Pour faciliter cette construction, nous voyons la construction de banques d\u2019arbres comme une s\u00e9rie d\u2019op\u00e9rations d\u2019\u00e9dition et de recherche. Le but de cet article est d\u2019estimer l\u2019effort, en nombre d\u2019op\u00e9rations d\u2019\u00e9ditions, n\u00e9cessaire pour ajouter une nouvelle phrase dans la banque d\u2019arbres. Nous avons propos\u00e9 un outil, Boardedit, qui inclut un \u00e9diteur d\u2019arbres et des aides a l\u2019analyse. Comme l\u2019effort n\u00e9cessaire d\u00e9pend bien s\u00fbr de la qualit\u00e9 des r\u00e9ponses fournies par les aides a l\u2019analyse, il peut \u00eatre vue comme une mesure de la qualit\u00e9 de ces aides. L\u2019\u00e9diteur d\u2019arbres restant indispensable a notre outil pendant l\u2019eXp\u00e9rience, les aides a l\u2019analyse seront donc toujours associ\u00e9es a l\u2019\u00e9diteur d\u2019arbres. Dans l\u2019eXp\u00e9rience propos\u00e9e, nous augmentons une banque d\u2019arbres de 5 000 phrases par l 553 nouvelles phrases. La r\u00e9duction obtenue est sup\u00e9rieure auX 4\/5 de l\u2019effort.","translation":["","The construction of a treebank is a Very cumbersome and time-comsuming process. To speed up this process, we see the process of building a treebank as a sequence of edition and search operations. Our purpose is to assess the effort, measured by operations (cliks and keystrokes), needed to augment a treebank. We have proposed a tool, Boardedit, which incorporates a tree editor and parsing aids. However, the effort needed will depend on the quality of the answer of the parsing aids, this can be seen as a measure of the quality of the parsing aids. Our tree editor is essential for our tools during this experiment, parsing aids will be always used with the tree editor. In the experiment, we augment a tree-bank of 5 000 sentences with 1 553 new sentences. We show that the reduction in the number of operations is more than 4\/5 of the effort.","Treebank, analogy, approximate matching, tree editor, tree-banking assessment"],"keyphrases":["Banque d\u2019arbres","\u00e9diteur d\u2019arbres","analogie","filtrage tol\u00e9rant","mesure de l\u2019effort"],"prmu":["P","P","U","U","R"]} {"id":"taln-2001-long-004","title":"Atelier ATOLL pour les grammaires d\u2019arbres adjoints","abstract":"Cet article pr\u00e9sente l\u2019environnement de travail que nous d\u00e9veloppons au sein de l\u2019\u00e9quipe ATOLL pour les grammaires d\u2019arbres adjoints. Cet environnement comprend plusieurs outils et ressources fond\u00e9s sur l\u2019emploi du langage de balisage XML. Ce langage facilite la mise en forme et l\u2019\u00e9change de ressources linguistiques.","translation":["","This paper presents the ATOLL workbench for Tree Adjoining Grammars. This workbench provides several tools and resources based on the use of the markup language XML which eases the construction and the exchange of linguistic resources.",""],"keyphrases":["XML","Ressources linguistiques","TAG"],"prmu":["P","P","U"]} {"id":"taln-2001-long-006","title":"Int\u00e9gration probabiliste de sens dans la repr\u00e9sentation de textes","abstract":"Le sujet du pr\u00e9sent article est l\u2019int\u00e9gration des sens port\u00e9s par les mots en contexte dans une repr\u00e9sentation vectorielle de textes, au moyen d\u2019un mod\u00e8le probabiliste. La repr\u00e9sentation vectorielle consid\u00e9r\u00e9e est le mod\u00e8le DSIR, qui \u00e9tend le mod\u00e8le vectoriel (VS) standard en tenant compte \u00e0 la fois des occurrences et des co-occurrences de mots dans les documents. L\u2019int\u00e9gration des sens dans cette repr\u00e9sentation se fait \u00e0 l\u2019aide d\u2019un mod\u00e8le de Champ de Markov avec variables cach\u00e9es, en utilisant une information s\u00e9mantique d\u00e9riv\u00e9e de relations de synonymie extraites d\u2019un dictionnaire de synonymes.","translation":["","The present contribution focuses on the integration of word senses in a vector representation of texts, using a probabilistic model. The vector representation under consideration is the DSIR model, that extends the standard Vector Space (VS) model by taking into account both occurrences and co-occurrences of words. The integration of word senses into the co-occurrence model is done using a Markov Random Field model with hidden variables, using semantic information derived from synonymy relations extracted from a synonym dictionary.","Word Sense Disambiguation, Distributional Semantics, Vector Space Representation, Information Retrieval, Markov Random Fields, EM algorithm"],"keyphrases":["Repr\u00e9sentation Vectorielle","Champs de Markov","D\u00e9sambigu\u00efsation","S\u00e9mantique Distributionnelle","Recherche Documentaire","algorithme EM"],"prmu":["P","P","U","M","U","U"]} {"id":"taln-2001-long-007","title":"Les n-grams de caract\u00e8res pour l'aide \u00e0 l\u2019extraction de connaissances dans des bases de donn\u00e9es textuelles multilingues","abstract":"Une v\u00e9ritable classification num\u00e9rique multilingue est impossible si on consid\u00e8re seulement le mot comme unit\u00e9 d\u2019information privil\u00e9gi\u00e9e. En traitant les mots comme jetons, la tokenisation s\u2019av\u00e8re relativement simple pour le fran\u00e7ais et l\u2019anglais, mais tr\u00e8s difficile pour des langues comme l\u2019allemand ou l\u2019arabe. D\u2019autre part, la lemmatisation utilis\u00e9e comme moyen de normalisation et de r\u00e9duction du lexique constitue un \u00e9cueil non moins n\u00e9gligeable. La notion de n-grams, qui depuis une d\u00e9cennie donne de bons r\u00e9sultats dans Pidentification de la langue ou dans l\u2019analyse de l\u2019oral, est, par les recherches r\u00e9centes, devenue un axe privil\u00e9gi\u00e9 dans l\u2019acquisition et l\u2019extraction des connaissances dans les textes. Dans cet article, nous pr\u00e9senterons un outil de classification num\u00e9rique bas\u00e9 sur le concept de n-grams de caract\u00e8res. Nous \u00e9valuons aussi les r\u00e9sultats de cet outil que nous comparons \u00e0 des r\u00e9sultats obtenus au moyen d\u2019une classification fond\u00e9e sur des mots.","translation":["","Real multilingual numerical classification is impossible if only words are treated as the privileged unit of information. Although it makes tokenisation (in which words are considered as tokens) relatively easy in English or French, it makes it much more difficult for other languages such as German or Arabic. Moreover, lemmatisation, typically used to normalise and reduce the size of the lexicon, poses another challenge. The notion of n-grams which, for the last ten years, seems to have produced good results both in language identification and speech analysis, has recently become a privileged research axis in several areas of knowledge acquisition and extraction from text. In this paper, we present a text classification tool based on n-grams of characters and evaluate its results and compare them with those obtained from a different classification tool based solely on the processing of words.",""],"keyphrases":["n-grams","multilinguisme","classification num\u00e9rique de textes"],"prmu":["P","P","R"]} {"id":"taln-2001-long-009","title":"L'interrogation de bases de donn\u00e9es comme application des classes d'objets","abstract":"En travaillant sur l'interrogation de bases de donn\u00e9es en langue naturelle, nous sommes amen\u00e9s \u00e0 exploiter les propositions du Laboratoire de Linguistique Informatique (LLI) en mati\u00e8re de repr\u00e9sentation de la langue : les classes d'objets. Un outil d'interrogation d\u00e9finit une application du langage vers le mod\u00e8le de l'information stock\u00e9e. Ici les classes d'objets et leurs pr\u00e9dicats appropri\u00e9s mod\u00e9lisent le langage source, tandis que le mod\u00e8le relationnel sert pour les donn\u00e9es interrog\u00e9es. Nous pr\u00e9sentons d'abord ce contexte d'application, puis comment nous utilisons les classes d'objets et pr\u00e9dicats appropri\u00e9s dans ce cadre.","translation":["","We investigate how to use natural language to query a database from both the linguistic and database points of view (but without AI considerations). In order to achieve this goal, we need a natural language model which we can map on to a relational database model. We have chosen to use the word classification called \u00ab classes d'objets \u00bb as proposed by the Laboratoire de Linguistique Informatique (LLI). We present here the first results of this work.","natural language database query, relational model, \u00ab classes d'objets \u00bb"],"keyphrases":["classes d'objets","mod\u00e8le relationnel","interrogation de BD en langage naturel"],"prmu":["P","P","M"]} {"id":"taln-2001-long-010","title":"Etiquetage prosodique semi-automatique des corpus oraux","abstract":"La transcription manuelle de la prosodie est une t\u00e2che extr\u00eamement co\u00fbteuse en temps, qui requiert des annotateurs tr\u00e8s sp\u00e9cialis\u00e9s, et qui est sujette \u00e0 de multiples erreurs et une grande part de subjectivit\u00e9. Une automatisation compl\u00e8te n\u2019est pas envisageable dans l\u2019\u00e9tat actuel de la technologie, mais nous pr\u00e9sentons dans cette communication des outils et une m\u00e9thodologie qui permettent une r\u00e9duction substantielle du temps d\u2019intervention manuelle, et am\u00e9liorent l\u2019objectivit\u00e9 et la coh\u00e9rence du r\u00e9sultat. De plus, les \u00e9tapes manuelles n\u00e9cessaires ne demandent pas une expertise phon\u00e9tique pouss\u00e9e et peuvent \u00eatre men\u00e9es \u00e0 bien par des \u00e9tudiants et des \"linguistes de corpus\".","translation":["","The manual transcription of prosody is an extremely time-consuming activity, which requires highly specialised experts, and is prone to errors and subjectivity. Full automation is not achievable in the current state of the technology, but we present in this paper a technique that automates critical steps in the process, which results in a substantial annotation time reduction, and improves the objectivity and coherence of the annotation. In addition, the necessary human phases do not require a highly specific training in phonetics, and can be achieved by syntax students and corpus workers.","corpus, prosody, tagging"],"keyphrases":["prosodie","corpus","\u00e9tiquetage"],"prmu":["P","P","U"]} {"id":"taln-2001-long-013","title":"Utilisation des entit\u00e9s nomm\u00e9es et des variantes terminologiques dans un syst\u00e8me de question-r\u00e9ponse","abstract":"Nous pr\u00e9sentons dans cet article le syst\u00e8me QALC qui a particip\u00e9 \u00e0 la t\u00e2che Question Answering de la conf\u00e9rence d\u2019\u00e9valuation TREC. Ce syst\u00e8me repose sur un ensemble de modules de Traitement Automatique des Langues (TAL) intervenant essentiellement en aval d\u2019un moteur de recherche op\u00e9rant sur un vaste ensemble de documents : typage des questions, reconnaissance des entit\u00e9s nomm\u00e9es, extraction et reconnaissance de termes, simples et complexes, et de leurs variantes. Ces traitements permettent soit de mieux s\u00e9lectionner ces documents, soit de d\u00e9cider quelles sont les phrases susceptibles de contenir la r\u00e9ponse \u00e0 une question.","translation":["","We developed a system, QALC, that participated to the Question Answering track of the TREC evaluation conference. QALC exploits an analysis of documents, selected by a search engine, based on the search for multi-words terms and their variations both to select a minimal number of documents to be processed and to give indices for comparing question and sentence representations. This comparison also takes advantage of a question analysis module and a recognition of numeric and named entities in the documents.",""],"keyphrases":["entit\u00e9 nomm\u00e9e","variante terminologique","Syst\u00e8me de question-r\u00e9ponse","recherche d'information"],"prmu":["P","P","P","M"]} {"id":"taln-2001-long-014","title":"Rep\u00e9rage de structures th\u00e9matiques dans des textes","abstract":"Afin d\u2019am\u00e9liorer les performances des syst\u00e8mes de r\u00e9sum\u00e9 automatique ou de filtrage s\u00e9mantique concernant la prise en charge de la coh\u00e9rence th\u00e9matique, nous proposons un mod\u00e8le faisant collaborer une m\u00e9thode d'analyse statistique qui identifie les ruptures th\u00e9matiques avec un syst\u00e8me d'analyse linguistique qui identifie les cadres de discours.","translation":["","To improve the results of automatic summarization or semantic filtering systems concerning thematic coherence, we propose a model which combines a statistic analysis system identifying thematic breaks and a linguistic analysis system identifying discourse frames.",""],"keyphrases":["coh\u00e9rence th\u00e9matique","Cadre th\u00e9matique","exploration contextuelle"],"prmu":["P","R","U"]} {"id":"taln-2001-long-015","title":"Influence de facteurs stylistiques, syntaxiques et lexicaux sur la r\u00e9alisation de la liaison en fran\u00e7ais","abstract":"Les nombreuses recherches portant sur le ph\u00e9nom\u00e8ne de la liaison en fran\u00e7ais ont pu mettre en \u00e9vidence l\u2019influence de divers param\u00e8tres linguistiques et para-linguistiques sur la r\u00e9alisation des liaisons. Notre contribution vise \u00e0 d\u00e9terminer la contribution relative de certains de ces facteurs en tirant parti d\u2019une m\u00e9thodologie robuste ainsi que d\u2019outils de traitement automatique du langage. A partir d\u2019un corpus de 5h de parole produit par 10 locuteurs, nous \u00e9tudions les effets du style de parole (lecture oralis\u00e9e\/parole spontan\u00e9e), du d\u00e9bit de parole (lecture normale\/rapide), ainsi que la contribution de facteurs syntaxiques et lexicaux (longueur et fr\u00e9quence lexicale) sur la r\u00e9alisation de la liaison. Les r\u00e9sultats montrent que si plusieurs facteurs \u00e9tudi\u00e9s pr\u00e9disent certaines liaisons, ces facteurs sont souvent interd\u00e9pendants et ne permettent pas de mod\u00e9liser avec exactitude la r\u00e9alisation des liaisons.","translation":["","Various studies on liaison phenomena in French have shown the influence of several linguistics as well as para-linguistics factors on liaison realization. In this study we aim at determining the relative contribution of certain of these factors by using a robust methodology and tools used in automatic language processing. In a 5 hours speech corpus, produced by 10 speakers, we study the effect of speech style (oral reading\/spontaneous speech), speech rate, as well as the contribution of syntactic and lexical (word length and frequency) factors on liaison realization. Results show that even if several factors can contribute to predict some liaisons, these factors are often interdependant and do not allow a sufficient prediction of liaison realization.",""],"keyphrases":["liaison","lecture","spontan\u00e9","d\u00e9bit de parole","longueur","fr\u00e9quence lexicale"],"prmu":["P","P","P","P","P","P"]} {"id":"taln-2001-long-016","title":"Elaboration d'une cascade de transducteurs pour l'extraction des noms de personnes dans les textes","abstract":"Cet article d\u00e9crit une cascade de transducteurs pour l'extraction de noms propres dans des textes. Apr\u00e8s une phase de pr\u00e9-traitement (d\u00e9coupage du texte en phrases, \u00e9tiquetage \u00e0 l'aide de dictionnaires), une s\u00e9rie de transducteurs sont appliqu\u00e9s les uns apr\u00e8s les autres sur le texte et permettent de rep\u00e9rer, dans les contextes gauches et droits des \u00e9l\u00e9ments \"d\u00e9clencheurs\" qui signalent la pr\u00e9sence d'un nom de personne. Une \u00e9valuation sur un corpus journalistique (journal Le Monde) fait appara\u00eetre un taux de pr\u00e9cision de 98,7% pour un taux de rappel de 91,9%.","translation":["","This article describes a fmite-state cascade for proper nouns extraction in texts. After a preprocessing (division of the text in sentences, tagging with dictionaries, etc.), a series of finite state transducers cascade is applied one after the other to the text and locate left and right contexts which indicate presence of a person name. An evaluation on a journalistic corpus (Le Monde) gives a rate of precision of 98,7% for a rate of recall of 91,9%.","Transducer, proper nouns, pattern extraction"],"keyphrases":["Transducteur","noms propres","extraction de motifs"],"prmu":["P","P","M"]} {"id":"taln-2001-long-017","title":"Extraction automatique de motifs syntaxiques","abstract":"Cet article pr\u00e9sente un nouvel algorithme de d\u00e9tection de motifs syntaxiques r\u00e9currents dans les textes \u00e9crits en langage naturel. Il d\u00e9crit d\u2019abord l\u2019algorithme d\u2019extraction fond\u00e9 sur un mod\u00e8le d\u2019\u00e9dition g\u00e9n\u00e9ralis\u00e9 \u00e0 des arbres stratifi\u00e9s ordonn\u00e9s (ASO). Il d\u00e9crit ensuite les exp\u00e9rimentations qui valident l\u2019approche pr\u00e9conis\u00e9e sur des textes de la litt\u00e9rature fran\u00e7aise classique des XVIIIe et XIXe si\u00e8cle. Une sous-partie est consacr\u00e9e \u00e0 l\u2019\u00e9valuation empirique de la complexit\u00e9 algorithmique. La derni\u00e8re sous-partie donnera quelques exemples de motifs r\u00e9currents typiques d\u2019un auteur du XVIIIe si\u00e8cle, Madame de Lafayette.","translation":["","This paper presents a new algorithm designed to detect recurrent syntactical patterns in natural language texts. It first describes the pattern extraction algorithm which is based on an edit model generalized to Stratified Ordered Trees (SOT). Then it focuses on experiments with french classical literature of the 18th and 19th century. One section is dedicated to the efficiency evaluation. The last provides some examples of such recurrent patterns that are typical of an 18th century author, Madame de Lafayette.","Pattern extraction, stratified ordered trees, edit distance, sequences"],"keyphrases":["arbres stratifi\u00e9s ordonn\u00e9s","Extraction de motifs","distances d'\u00e9dition","s\u00e9quences"],"prmu":["P","R","M","U"]} {"id":"taln-2001-long-018","title":"Compr\u00e9hension Automatique de la Parole combinant syntaxe locale et s\u00e9mantique globale pour une CHM portant sur des t\u00e2ches relativement complexes","abstract":"Nous pr\u00e9sentons dans cet article un syst\u00e8me de Compr\u00e9hension Automatique de la Parole (CAP) tentant de concilier les contraintes antinomiques de robustesse et d\u2019analyse d\u00e9taill\u00e9e de la parole spontan\u00e9e. Dans une premi\u00e8re partie, nous montrons l\u2019importance de la mise en oeuvre d\u2019une CAP fine dans l\u2019optique d\u2019une Communication Homme-Machine (CHM) sur des t\u00e2ches moyennement complexes. Nous pr\u00e9sentons ensuite l\u2019architecture de notre syst\u00e8me qui repose sur une analyse en deux \u00e9tapes : une premi\u00e8re \u00e9tape d\u2019analyse syntaxique de surface (Shallow Parsing) g\u00e9n\u00e9rique suivie d\u2019une seconde \u00e9tape d\u2019analyse s\u00e9mantico-pragmatique \u2013 d\u00e9pendante du domaine d\u2019application \u2013 de la structure profonde de l\u2019\u00b4enonc\u00e9 complet.","translation":["","This paper presents a spoken french understanding system which aims at providing a detailed linguistic analysis as well as preserving the robustness of standard methods. The first part focusses on the importance of a richer analysis for applications that are not dedicated to a very restricted task. We then present our two-level architecture system : a robust independant-domain shallow parsing step followed by a task based analysis of the whole structure of the utterance.","Man Machine Dialogue, speech understanding, robustness, shallow parsing, dependency grammars"],"keyphrases":["Compr\u00e9hension Automatique de la Parole","robustesse","Communication Homme-Machine","analyse syntaxique partielle","grammaires de d\u00e9pendances"],"prmu":["P","P","P","M","M"]} {"id":"taln-2001-long-019","title":"Exploitation de l\u2019expertise humaine dans un processus de constitution de terminologie","abstract":"Le processus de construction de terminologie ne peut \u00eatre enti\u00e8rement automatis\u00e9. Les m\u00e9thodes et des outils de la terminologie computationnelle permettent de prendre en charge une partie de la t\u00e2che, mais l\u2019expertise humaine garde une place pr\u00e9pond\u00e9rant. Le d\u00e9fi pour les outils terminologiques est de d\u00e9grossir les t\u00e2ches qui sont soit trop longues soit trop complexes pour l\u2019utilisateur tout en permettant \u00e0 ce dernier d\u2019int\u00e9grer ses propres connaissances sp\u00e9cialis\u00e9es et en lui laissant le contr\u00f4le sur la terminologie \u00e0 construire. Nous montrons ici comment le r\u00f4le de cette expertise est pris en compte dans SynoTerm, l\u2019outil d\u2019acquisition de relation de synonymie entre termes que nous avons d\u00b4evelopp\u00e9.","translation":["","The terminology building process cannot be fully automatized. Various terminological tools have been designed but human expert knoxledge is still required. This paper shows how SynoTerm, our system for the discovery of synonymy relations between terms, deals with human knowledge. The challenge for terminological tools is to complete the time-consuming tasks under human control and to combine the algorithmic results with human specific information.",""],"keyphrases":["synonymie","Structuration de terminologie","aide \u00e0 la validation"],"prmu":["P","M","M"]} {"id":"taln-2001-long-020","title":"Analogies morpho-synonymiques. Une m\u00e9thode d\u2019acquisition automatique de liens morphologiques \u00e0 partir d\u2019un dictionnaire de synonymes","abstract":"Cet article pr\u00e9sente une m\u00e9thode de construction automatique de liens morphologiques \u00e0 partir d\u2019un dictionnaire de synonymes. Une analyse de ces liens met en lumi\u00e8re certains aspects de la structure morphologique du lexique dont on peut tirer partie pour identifier les variations allomorphiques des suffixations extraites.","translation":["","We present a method to extract morphological links from a synonym dictionary without supervision. The analysis of these links brings somes aspects of the morphological structure of the lexicon to light. We have then taken advantage of this structure to identify allomorphic variations of the extracted suffixations.","derivational morphology, analogy, structure of the lexicon"],"keyphrases":["analogie","morphologie d\u00e9rivationnelle","structure du lexique"],"prmu":["P","M","R"]} {"id":"taln-2001-long-021","title":"Synonymies et vecteurs conceptuels","abstract":"La synonymie est une relation importante en TAL mais qui reste probl\u00e9matique. La distinction entre synonymie relative et synonymie subjective permet de contourner certaines difficult\u00e9s. Dans le cadre des vecteurs conceptuels, il est alors possible de d\u00e9finir formellement des fonctions de test de synonymie et d\u2019en exp\u00e9rimenter l\u2019usage.","translation":["","Synonymy is a pivot relation in NLP but remains problematic. Putting forward, the distinction between relative and subjective synonymy, allows us to circunvent some difficulties. In the framework of conceptual vectors, it is then possible to formalize test functions for synonymy and to experiment their use.","Relative synonymy, subjective synonymy, statistical approaches, thematic distances"],"keyphrases":["Synonymie relative","synonymie subjective","approches statistiques","distances th\u00e9matiques"],"prmu":["P","P","U","U"]} {"id":"taln-2001-long-022","title":"R\u00e9cup\u00e9ration de segments sous-phrastiques dans une m\u00e9moire de traduction","abstract":"L\u2019utilit\u00e9 des outils d\u2019aide \u00e0 la traduction reposant sur les m\u00e9moires de traduction est souvent limit\u00e9e par la nature des segments que celles-ci mettent en correspondance, le plus souvent des phrases enti\u00e8res. Cet article examine le potentiel d\u2019un type de syst\u00e8me qui serait en mesure de r\u00e9cup\u00e9rer la traduction de s\u00e9quences de mots de longueur arbitraire.","translation":["","The usefullness of translation support tools based on translation memories is often limited by the nature of the text segments that they connect, generally whole sentences. This article examines the potential of a type of system that would be able to recuperate the translation of arbitrary sequences of words.",""],"keyphrases":["m\u00e9moire de traduction sous-phrastique","traduction assist\u00e9e par ordinateur","traduction automatique \u00e0 base d\u2019exemples"],"prmu":["R","M","M"]} {"id":"taln-2001-long-023","title":"Vers une plate-forme multi-agents pour l\u2019exploration et le traitement linguistiques","abstract":"Dans cet article, nous proposons une plate-forme multi-agents pour l\u2019exp\u00e9rimentation et le traitement linguistique. Apr\u00e8s une description du mod\u00e8le d\u2019agent APA, nous pr\u00e9sentons l\u2019\u00e9tat actuel de nos travaux: une impl\u00e9mentation en syst\u00e8me multi-agents de l\u2019analyse syntaxique selon le paradigme des grammaires de d\u00e9pendances en chunk. Nous montrons ensuite d\u2019autres possibilit\u00e9s d\u2019impl\u00e9mentation selon d\u2019autres paradigmes syntaxiques mais aussi au del\u00e0 de la simple syntaxe.","translation":["","In this article, we present un multi-agent plateform for natural language experimentation and processing. After describing the APA agent model, we present the advancement in our work: an agent-based implementation of a syntactic parser according to the chunk dependency paradigm. We then show other potential implementations according to other syntactic paradigms but also further than mere syntax.",""],"keyphrases":["syst\u00e8me multi-agents","analyse syntaxique","syntaxe","environnement"],"prmu":["P","P","P","U"]} {"id":"taln-2001-long-024","title":"Une typologie des \u00e9num\u00e9rations bas\u00e9e sur les structures rh\u00e9toriques et architecturales du texte","abstract":"Cet article concerne la caract\u00e9risation et la repr\u00e9sentation de la structure interne des \u00e9num\u00e9rations. Pour ce faire, nous utilisons deux mod\u00e8les de texte : d\u2019une part la Th\u00e9orie des Structures Rh\u00e9toriques (RST) qui fournit un cadre d\u2019interpr\u00e9tation pour la structure discursive des textes et d\u2019autre part le mod\u00e8le de repr\u00e9sentation de l\u2019architecture textuelle qui est principalement d\u00e9di\u00e9 \u00e0 l\u2019\u00e9tude et \u00e0 la repr\u00e9sentation des structures visuelles des textes. Apr\u00e8s une br\u00e8ve pr\u00e9sentation des mod\u00e8les, nous nous concentrons sur l\u2019\u00e9tude de l\u2019objet \u201c\u00e9num\u00e9rations\u201d. Nous exhibons et commentons trois exemples d\u2019\u00e9num\u00e9rations sp\u00e9cifiques que nous appelons des \u00e9num\u00e9rations non-parall\u00e8les. Nous analysons la structure de ces \u00e9num\u00e9rations et proposons un principe de composition des mod\u00e8les de r\u00e9f\u00e9rence pour repr\u00e9senter ces \u00e9num\u00e9rations. Enfin, nous pr\u00e9sentons une classification des \u00e9num\u00e9rations s\u2019appuyant sur les caract\u00e9ristiques de ces mod\u00e8les.","translation":["","This paper is related to the study and the representation of the internal structure of enumerations. We use two types of text structure: on one hand, the Rhetorical Structure Theory (RST) which provides a framework for interpreting and representing the discursive structures of texts and on the other hand, the model of text architecture which is is mainly dedicated to the study and representation of visuo-spatial structures of texts. After a brief presentation of the theories and models, we focus the paper on the study of enumerations. We exhibit three significant examples of particular enumerations which are called non-parallel enumerations. We analyse these examples and their characteristics and we propose a general principle for the representation of these structures with these two reference models. Then, we present a classification of the different types of enumeration in the light of these models.","Text structures, enumerations, representation, classification, text models"],"keyphrases":["\u00e9num\u00e9rations","repr\u00e9sentation","mod\u00e8les de texte","classification","structures textuelles"],"prmu":["P","P","P","P","R"]} {"id":"taln-2001-long-025","title":"D\u00e9sambigu\u00efsation syntaxique des groupes nominaux en anglais m\u00e9dical : \u00e9tude des structures adjectivales \u00e0 partir d'un corpus bilingue","abstract":"L'ambigu\u00eft\u00e9 syntaxique constitue un probl\u00e8me particuli\u00e8rement d\u00e9licat \u00e0 r\u00e9soudre pour les analyseurs morphosyntaxiques des logiciels d'aide \u00e0 la traduction, en particulier dans le cas des longs groupes nominaux typiques des langues de sp\u00e9cialit\u00e9. En utilisant un corpus bilingue d'articles m\u00e9dicaux anglais traduits vers le fran\u00e7ais, nous examinons divers moyens de r\u00e9soudre l'ambigu\u00eft\u00e9 du rattachement de l'adjectif \u00e0 l'un des deux noms qui le suivent dans les tournures anglaises de forme adjectif-nom-nom.","translation":["","Syntactic ambiguity is a particularly difficult problem to solve for the morpho-syntactic analysis programs of machine translation software, especially in the case of the long noun phrases that are typical of technical or scientific writing. Using a bilingual corpus of medical research articles translated into French, we examine various ways in which disambiguation can be achieved in English adj ective-noun-noun structures, where the adjective may modify either of the following nouns.","adjective, bilingual corpus, machine translation, medical English, noun clause, syntactic ambiguity, syntactic structure, translation"],"keyphrases":["groupe nominal","anglais m\u00e9dical","adjectif","corpus bilingue","ambigu\u00eft\u00e9 syntaxique","traduction","d\u00e9coupage","traduction automatique"],"prmu":["P","P","P","P","P","P","U","M"]} {"id":"taln-2001-long-027","title":"Extraction d\u2019information dans les bases de donn\u00e9es textuelles en g\u00e9nomique au moyen de transducteurs \u00e0 nombre fini d\u2019\u00e9tats","abstract":"Cet article d\u00e9crit un syst\u00e8me d\u2019extraction d\u2019information sur les interactions entre g\u00e8nes \u00e0 partir de grandes bases de donn\u00e9es textuelles. Le syst\u00e8me est fond\u00e9 sur une analyse au moyen de transducteurs \u00e0 nombre fini d\u2019\u00e9tats. L\u2019article montre comment une partie des ressources (verbes d\u2019interaction) peut \u00eatre acquise de mani\u00e8re semi-automatique. Une \u00e9valuation d\u00e9taill\u00e9e du syst\u00e8me est fournie.","translation":["","This papers describes a system extracting information about interactions between genes or proteins, from large textual databases. The system is based on a set of linguistic finite-state transducers. The paper shows how a part of the resources (namely the set of verbs expressing the notion of interaction) can be acquired semi-automatically from the corpus. A detailed evaluation is provided.",""],"keyphrases":["extraction d\u2019information","g\u00e9nomique","transducteurs linguistiques"],"prmu":["P","P","M"]} {"id":"taln-2001-poster-001","title":"Mod\u00e8les de langage hi\u00e9rarchiques pour les applications de dialogue en parole spontan\u00e9e","abstract":"Le cadre de cette \u00e9tude concerne les syst\u00e8mes de dialogue via le t\u00e9l\u00e9phone entre un serveur de donn\u00e9es et un utilisateur. Nous nous int\u00e9resserons au cas de dialogues non contraints o\u00f9 l\u2019utilisateur \u00e0 toute libert\u00e9 pour formuler ses requ\u00eates. G\u00e9n\u00e9ralement, le module de Reconnaissance Automatique de la Parole (RAP) de tels serveurs utilise un seul Mod\u00e8le de Langage (ML) de type bigramme ou trigramme pour mod\u00e9liser l\u2019ensemble des interventions possibles de l\u2019utilisateur. Ces ML sont appris sur des corpus de phrases retranscrites \u00e0 partir de sessions entre le serveur et plusieurs utilisateurs. Nous proposons dans cette \u00e9tude une m\u00e9thode de segmentation de corpus d\u2019apprentissage de dialogue utilisant une strat\u00e9gie mixte bas\u00e9e \u00e0 la fois sur des connaissances explicites mais aussi sur l\u2019optimisation d\u2019un crit\u00e8re statistique. Nous montrons qu\u2019un gain en terme de perplexit\u00e9 et de taux d\u2019erreurs\/mot peut \u00eatre constat\u00e9 en utilisant un ensemble de sous mod\u00e8les de langage issus de la segmentation plut\u00f4t qu\u2019un mod\u00e8le unique appris sur l\u2019ensemble du corpus.","translation":["","Within the framework of Human-Computer dialogue in spontaneous speech, we propose in this paper a method which automatically builds, from a training corpus, a set of Language Models (LMs) organized as a binary tree. Each LM correspond to a specific dialogue state, where the general LM is attached to the root node and the more specialized ones are represented by the leaves. Such LMs can be used to automatically adapt the decoding process to the dialog situation performed. We propose a two-pass decoding strategy, which implements this idea by dynamically selecting a set of LMs according to the dialog situation detected.",""],"keyphrases":["Reconnaissance Automatique de la Parole","Mod\u00e8les de Langage statistique","Serveurs de Dialogue","Arbre de D\u00e9cision"],"prmu":["P","R","R","M"]} {"id":"taln-2001-poster-002","title":"Ressources linguistiques informatis\u00e9es de l\u2019ATILF","abstract":"Cette contribution pr\u00e9sente les ressources linguistiques informatis\u00e9es du laboratoire ATILF (Analyses et Traitements Informatiques du Lexique Fran\u00e7ais) disponibles sur la toile et sert de support aux d\u00e9monstrations pr\u00e9vues dans le cadre de TALN 2001. L\u2019ATILF est la nouvelle U1\\\/[R cr\u00e9\u00e9e en association entre le CNRS et l\u2019Universit\u00e9 Nancy 2 qui, depuis le 2 janvier 2001, a succ\u00e9d\u00e9 \u00e0 la composante nanc\u00e9ienne de l\u2019INaLF. Ces importantes ressources sur la langue fran\u00e7aise regroupent un ensemble de plus de 3500 textes r\u00e9unis dans Frantext et divers dictionnaires, lexiques et autres bases de donn\u00e9es. Ces ressources exploitent les fonctionnalit\u00e9s du logiciel Stella, qui correspond \u00e0 un v\u00e9ritable moteur de recherche d\u00e9di\u00e9 aux bases textuelles s\u2019appuyant sur une nouvelle th\u00e9orie des objets textuels. La politique du laboratoire consiste \u00e0 ouvrir tr\u00e8s largement ses ressources en particulier au monde de la recherche et de l\u2019enseignement.","translation":["","This paper presents the computerized linguistic resources of the Research Laboratory ATILF (Analyses et Traitements Informatiques du Lexique Francais) available via the Web, and will serve as a helping document for demonstrations planned within the framework of TALN 2001. The Research Laboratory ATEF is the new IHVIR (Unit\u00e9 Mixte de Recherche) created in association between the CNRS and the University of Nancy 2 since January 2nd, and succeeds to the local component of the INaLF situated in Nancy. This considerable amount of resources concerning French language consists in a set of more than 3500 literary works grouped together in Frantext, plus a number of dictionaries, lexis and other databases. These web available resources are operated and run through the potentialities and powerful capacities of a software called Stella, a search engine specially dedicated to textual databases and relying on a new theory of textual objects. The general policy of our laboratory is to welcome and give the research and teaching world the widest access to all our resources.",""],"keyphrases":["Ressources linguistiques","Dictionnaires","Bases de donn\u00e9es textuelles","Web"],"prmu":["P","P","R","U"]} {"id":"taln-2001-poster-004","title":"Cartographie de Textes: Une aide \u00e0 l\u2019utilisateur dans le cadre de la d\u00e9couverte de nouveaux domaines","abstract":"Nous pr\u00e9sentons les avanc\u00e9es d\u2019un projet dans un th\u00e8me que nous qualifions de Cartographie de Textes qui permet \u00e0 l\u2019utilisateur novice d\u2019explorer un nouveau domaine par navigation au sein d\u2019un corpus homog\u00e8ne gr\u00e2ce \u00e0 des cartes conceptuelles interactives. Une carte est compos\u00e9e de concepts pertinents relativement \u00e0 la requ\u00eate initiale et \u00e0 son \u00e9volution, au sein du corpus; des relations extraites du corpus les lient aux mots de la requ\u00eate. Des techniques d\u2019apprentissage automatique sont combin\u00e9es avec des heuristiques statistiques de Traitement Automatique des Langues pour la mise en \u00e9vidence de collocations afin de construire les cartes.","translation":["","We present an ongoing research project on the new field of Text Mapping that allows a novice user to explore a new domain by navigation through an homogeneous corpus thanks to interactive conceptual maps. A map is composed of concepts (the nodes) depending on the user\u2019s request and its evolution, and semantic\/lexical relations (the links). Machine Learning techniques are combined with Natural Language Processing methodologies to build the maps.","Text Mapping, Information Retrieval, Information Extraction, Machine Learning"],"keyphrases":["Cartographie de Textes","Apprentissage Automatique","Recherche d\u2019Information","Extraction d\u2019Information"],"prmu":["P","P","M","M"]} {"id":"taln-2001-poster-005","title":"Un Mod\u00e8le Cognitif pour la R\u00e9solution de la R\u00e9f\u00e9rence dans le Dialogue Homme-Machine","abstract":"Dans cette \u00e9tude, nous proposons un mod\u00e8le pour la r\u00e9solution de la r\u00e9f\u00e9rence dans le cadre du dialogue homme machine. Partant de consid\u00e9rations psychologiques sur la n\u00e9cessit\u00e9 d'un partage du syst\u00e8me inf\u00e9renciel pour permettre la communication, nous d\u00e9finissons un alisme bas\u00e9 sur des r\u00e8gles de production associ\u00e9es \u00e0 des co\u00fbts cognitifs. Au travers d'exemples, nous montrons comment ce formalisme peut \u00eatre utilis\u00e9 comme cadre pour int\u00e9grer le traitement de diff\u00e9rents ph\u00e9nom\u00e8nes li\u00e9s \u00e0 la r\u00e9f\u00e9rence, et comment cette t\u00e9gration peut conduire \u00e0 des interfaces en langue naturelle plus efficaces.","translation":["","ln this study, we propose a model for reference resolution in the context of human computer interaction. Starting from psychological consi erations on the necessity of a common system of inferential strategies in order to allow communication, we define a forma ism based on production rules associated with cognitive costs. Through examples, we will show how this malism can be used as a framework to integrate the processing of various reference nomena, and how this integration can lead to more efficient interactive systems.",""],"keyphrases":["Dialogue Homme-Machine","traitement de la r\u00e9f\u00e9rence"],"prmu":["P","R"]} {"id":"taln-2001-poster-006","title":"Crit\u00e8res de s\u00e9lection d\u2019une approche pour le suivi automatique du courriel","abstract":"Cet article discute de diff\u00e9rentes approches pour faire le suivi automatique du courrier-\u00e9lectronique. Nous pr\u00e9sentons tout d\u2019abord les m\u00e9thodes de traitement automatique de la langue (TAL) les plus utilis\u00e9es pour cette t\u00e2che, puis un ensemble de crit\u00e8res influen\u00e7ant le choix d\u2019une approche. Ces crit\u00e8res ont \u00e9t\u00e9 d\u00e9velopp\u00e9s gr\u00e2ce \u00e0 une \u00e9tude de cas sur un corpus fourni par Bell Canada Entreprises. Avec notre corpus, il est apparu que si aucune m\u00e9thode n\u2019est compl\u00e8tement satisfaisante par elle-m\u00eame, une approche combin\u00e9e semble beaucoup plus prometteuse.","translation":["","This paper discusses the strengths and weaknesses of different NLP techniques applied to the automatic follow-up of e-mail. First, we present the most widely-used methods, then we present a set of criteria for selecting the method to be used in particular circumstances. These criteria have been developed through a case study of a corpus provided by Bell Canada Enterprises. With our corpus, it appears that although no individual method is completely satisfactory, an approach combining several techniques is more appropriate.",""],"keyphrases":["R\u00e9ponse au courriel","Analyse de texte","Analyse de corpus"],"prmu":["M","M","M"]} {"id":"taln-2001-poster-007","title":"Extraction de noms propres \u00e0 partir de textes vari\u00e9s: probl\u00e9matique et enjeux","abstract":"Cet article porte sur l\u2019identification de noms propres \u00e0 partir de textes \u00e9crits. Les strat\u00e9gies \u00e0 base de r\u00e8gles d\u00e9velopp\u00e9es pour des textes de type journalistique se r\u00e9v\u00e8lent g\u00e9n\u00e9ralement insuffisantes pour des corpus compos\u00e9s de textes ne r\u00e9pondant pas \u00e0 des crit\u00e8res r\u00e9dactionnels stricts. Apr\u00e8s une br\u00e8ve revue des travaux effectu\u00e9s sur des corpus de textes de nature journalistique, nous pr\u00e9sentons la probl\u00e9matique de l\u2019analyse de textes vari\u00e9s en nous basant sur deux corpus compos\u00e9s de courriers \u00e9lectroniques et de transcriptions manuelles de conversations t\u00e9l\u00e9phoniques. Une fois les sources d\u2019erreurs pr\u00e9sent\u00e9es, nous d\u00e9crivons l\u2019approche utilis\u00e9e pour adapter un syst\u00e8me d\u2019extraction de noms propres d\u00e9velopp\u00e9 pour des textes journalistiques \u00e0 l\u2019analyse de messages \u00e9lectroniques.","translation":["","This paper discusses the influence of the corpus on the automatic identification of proper names in texts. Rule-based techniques developed for the newswire genre are generally not sufficient to deal with larger corpora containing texts that do not follow strict writing constraints. After a brief review of the research performed on news texts, we present some of the problems involved in the analysis of informal texts by using two different corpora (the first one composed of electronic mails, the second one of hand-transcribed telephone conversations). Once the sources of errors have been presented, we then describe an approach to adapt a proper name extraction system developed for newspaper texts to the analysis of e-mail messages.",""],"keyphrases":["Extraction d\u2019information","Entit\u00e9s nomm\u00e9es"],"prmu":["M","U"]} {"id":"taln-2001-poster-008","title":"D\u00e9fense et illustration de l'analogie","abstract":"L'argumentation g\u00e9n\u00e9rativiste contre l\u2019analogie tenait en trois points: l\u2019hypoth\u00e8se de l\u2019inn\u00e9, celle du hors-contexte et la surproduction. Des r\u00e9sultats th\u00e9oriques et exp\u00e9rimen- taux reposant sur une formulation calculatoire nouvelle de l\u2019analogie contribuent de fa\u00e7on constructive a la r\u00e9futation de ces points.","translation":["","The generativists had three arguments against analogy: the innate hypothesis and the conteXt-free hypothesis, and overgeneration. Theoretical and experimental results, based on a recently obtained cornputational expression of analogy, contribute to the refutation of these three points in a constructive Way.","Formalisation of analogy, languages of analogical strings, mapping of analogical spaces"],"keyphrases":["Formalisation de l\u2019analogie","langages de mots analogiques","mise en correspondance d\u2019espaces analogiques"],"prmu":["M","M","M"]} {"id":"taln-2001-poster-009","title":"Identification, interpr\u00e9tation et repr\u00e9sentation de relations s\u00e9mantiques entre concepts","abstract":"SEEK-JAVA est un syst\u00e8me permettant Pidentification, l\u2019interpr\u00e9tation et la repr\u00e9sentation de connaissances \u00e0 partir de textes. Il attribue une \u00e9tiquette aux relations et identifie automatiquement les concepts arguments des relations. Les r\u00e9sultats, capitalis\u00e9s dans une base de donn\u00e9es, sont propos\u00e9s, par le biais d\u2019une interface, soit sous forme de graphes soit sous forme de tables. Ce syst\u00e8me, int\u00e9gr\u00e9 dans la plate-forme FilText, s\u2019appuie sur la m\u00e9thode d\u2019 exploration contextuelle.","translation":["","SEEK-JAVA is a identification, interpretation and representation system of knowledge extracted from texts. It gives label to the relation between concepts and automatically identify arguments of the relations. The results, capitalized in a data base, are proposed by an interface, either in the form of graphs or in the form of tables. This system, integrated in the FilText platform, is based on contextual exploration method.",""],"keyphrases":["Identification","interpr\u00e9tation","repr\u00e9sentation des connaissances","base de donn\u00e9es","graphes","exploration contextuelle"],"prmu":["P","P","P","P","P","P"]} {"id":"taln-2001-poster-010","title":"Gestionnaire de dialogue pour un syst\u00e8me d\u2019informations \u00e0 reconnaissance vocale","abstract":"Dans cet article, nous pr\u00e9sentons un gestionnaire de dialogue pour un syst\u00e8me de demande d\u2019informations \u00e0 reconnaissance vocale. Le gestionnaire de dialogue dispose de diff\u00e9rentes sources de connaissance, des connaissances statiques et des connaissances dynamiques. Ces connaissances sont g\u00e9r\u00e9es et utilis\u00e9es par le gestionnaire de dialogue via des strat\u00e9gies. Elles sont mises en oeuvre et organis\u00e9es en fonction des objectifs concernant le syst\u00e8me de dialogue et en fonction des choix ergonomiques que nous avons retenus. Le gestionnaire de dialogue utilise un mod\u00e8le de dialogue fond\u00e9 sur la d\u00e9termination de phases et un mod\u00e8le de la t\u00e2che dynamique. Il augmente les possibilit\u00e9s d\u2019adaptation de la strat\u00e9gie en fonction des historiques et de l\u2019\u00e9tat du dialogue. Ce gestionnaire de dialogue, impl\u00e9ment\u00e9 et \u00e9valu\u00e9 lors de la derni\u00e8re campagne d\u2019\u00e9valuation du projet LE-3 ARISE, a permi une am\u00e9lioration du taux de succ\u00e8s de dialogue (de 53% \u00e0 85%).","translation":["","In this paper we describe the dialog manager of a spoken language dialog system for information retrieval. The dialog manager maintains both static and dynamic knowledge sources, which are used according to the dialog strategies. These strategies have been developed so as to obtain the overall system objectives while taking into consideration the desired ergonomic choices. Dialog management is based on a dialog model which divides the interaction into phases and a dynamic model of the task. This allows the dialog strategy to be adapted as a function of the history and the dialog state. The dialog manager was evaluated in the context of the LE3-ARISE project, where in the last user tests the dialog success improved from 53% to 85%.","spoken language dialog, dialog management, dialog model, task model"],"keyphrases":["gestionnaire de dialogue","mod\u00e8le de dialogue","mod\u00e8le de la t\u00e2che","dialogue oral homme-machine"],"prmu":["P","P","P","M"]} {"id":"taln-2001-poster-013","title":"L\u2019apport de connaissances morphologiques pour la projection de requ\u00eates sur une terminologie normalis\u00e9e","abstract":"L\u2019apport de connaissances linguistiques \u00e0 la recherche d\u2019information reste un sujet de d\u00e9bat. Nous examinons ici l\u2019influence de connaissances morphologiques (flexion, d\u00e9rivation) sur les r\u00e9sultats d\u2019une t\u00e2che sp\u00e9cifique de recherche d\u2019information dans un domaine sp\u00e9cialis\u00e9. Cette influence est \u00e9tudi\u00e9e \u00e0 l\u2019aide d\u2019une liste de requ\u00eates r\u00e9elles recueillies sur un serveur op\u00e9rationnel ne disposant pas de connaissances linguistiques. Nous observons que pour cette t\u00e2che, flexion et d\u00e9rivation apportent un gain mod\u00e9r\u00e9 mais r\u00e9el.","translation":["","",""],"keyphrases":["Morphologie","terminologie","recherche d\u2019information","variantes de termes","m\u00e9decine","Doc\u2019CISMeF","MeSH"],"prmu":["P","P","P","M","U","U","U"]} {"id":"taln-2001-tutoriel-001","title":"Extraction de collocations \u00e0 partir de textes","abstract":"Les collocations sont int\u00e9ressantes dans de nombreuses applications du TALN comme la l'analyse ou la g\u00e9n\u00e9ration de textes ou encore la lexicographie monolingue ou bilingue. Les premi\u00e8res tentatives d'extraction automatique de collocations \u00e0 partir de textes ou de dictionnaires ont vu le jour dans les ann\u00e9es 1970. Il s'agissait principalement de m\u00e9thodes \u00e0 base de statistiques lexicales. Aujourd'hui, les m\u00e9thodes d'identification automatique font toujours appel \u00e0 des statistiques mais qu'elles combinent avec des analyses linguistiques. Nous examinons quelques m\u00e9thodes d'identification des collocations en corpus en soulignant pour chaque m\u00e9thode les propri\u00e9t\u00e9s linguistiques des collocations qui ont \u00e9t\u00e9 prises en compte.","translation":["","Collocations are interesting for several NLP applications such as language generation or analysis and monolingual or bilingual lexicography. The first approaches to finding collocations appeared in 1970's and were statistically based. Today, the methods adopted for the identification of collocations still include statistics but also linguistic processing. We introduce a few approaches to finding collocations in corpora. For each method, we precise the linguistic characteristic of collocation which as been taken into account.","collocations, automatic identification, lexical statistics"],"keyphrases":["collocations","extraction automatique","statistiques lexicales"],"prmu":["P","P","P"]} {"id":"taln-2012-long-001","title":"Simplification de phrases pour l'extraction de relations","abstract":"L\u2019extraction de relations par apprentissage n\u00e9cessite un corpus annot\u00e9 de tr\u00e8s grande taille pour couvrir toutes les variations d\u2019expressions des relations. Pour contrer ce probl\u00e8me, nous proposons une m\u00e9thode de simplification de phrases qui permet de r\u00e9duire la variabilit\u00e9 syntaxique des relations. Elle n\u00e9cessite l\u2019annotation d\u2019un petit corpus qui sera par la suite augment\u00e9 automatiquement. La premi\u00e8re \u00e9tape est l\u2019annotation des simplifications gr\u00e2ce \u00e0 un classifieur \u00e0 base de CRF, puis l\u2019extraction des relations, et ensuite une compl\u00e9tion automatique du corpus d\u2019entra\u00eenement des simplifications gr\u00e2ce aux r\u00e9sultats de l\u2019extraction des relations. Les premiers r\u00e9sultats que nous avons obtenus pour la t\u00e2che d\u2019extraction de relations d\u2019i2b2 2010 sont tr\u00e8s encourageants.","translation":["Automatic Information Extraction in the Medical Domain by Cross-Lingual Projection","Machine learning based relation extraction requires large annotated corpora to take into account the variability in the expression of relations. To deal with this problem, we propose a method for simplifying sentences, i.e. for reducing the syntactic variability of the relations. Simplification requires the annotation of a small corpus, which will be automatically augmented. The process starts with the annotation of the simplification thanks to a CRF classifier, then the relation extraction, and lastly the automatic completion of the training corpus for the simplification through the results of the relation extraction. The first results we obtained for the task of relation extraction of the i2b2 2010 challenge are encouraging.","Relation extraction, sentence simplification, machine learning"],"keyphrases":["simplification de phrases","Extraction de relations","apprentissage automatique"],"prmu":["P","P","R"]} {"id":"taln-2012-long-002","title":"Extraction d'information automatique en domaine m\u00e9dical par projection inter-langue : vers un passage \u00e0 l'\u00e9chelle","abstract":"Cette recherche est issue de notre volont\u00e9 de tester de nouvelles m\u00e9thodes automatiques d\u2019annotation ou d\u2019extraction d\u2019information \u00e0 partir d\u2019une langue L1 en exploitant des ressources et des outils disponibles pour une autre langue L2. Cette approche repose sur le passage par un corpus parall\u00e8le (L1-L2) align\u00e9 au niveau des phrases et des mots. Pour faire face au manque de corpus m\u00e9dicaux fran\u00e7ais annot\u00e9s, nous nous int\u00e9ressons au couple de langues (fran\u00e7aisanglais) dans le but d\u2019annoter automatiquement des textes m\u00e9dicaux en fran\u00e7ais. En particulier, nous nous int\u00e9ressons dans cet article \u00e0 la reconnaissance des entit\u00e9s m\u00e9dicales. Nous \u00e9valuons dans un premier temps notre m\u00e9thode de reconnaissance d\u2019entit\u00e9s m\u00e9dicales sur le corpus anglais. Dans un second temps, nous \u00e9valuons la reconnaissance des entit\u00e9s m\u00e9dicales du corpus fran\u00e7ais par projection des annotations du corpus anglais. Nous abordons \u00e9galement le probl\u00e8me de l\u2019h\u00e9t\u00e9rog\u00e9n\u00e9it\u00e9 des donn\u00e9es en exploitant un corpus extrait du Web et nous proposons une m\u00e9thode statistique pour y pallier.","translation":["Automatic Information Extraction in the Medical Domain by Cross-Lingual Projection","This research stems from our willingness to test new methods for automatic annotation or information extraction from one language L1 by exploiting resources and tools available to another language L2. This approach involves the use of a parallel corpus (L1-L2) aligned at the level of sentences and words. To address the lack of annotated medical French corpus, we focus on the French-English language pair to annotate automatically medical French texts. In particular, we focus in this article on medical entity recognition. We evaluate our medical entity recognition method on the English corpus and the projection of the annotations on the French corpus. We also discuss the problem of scalability since we use a parallel corpus extracted from the Web and propose a statistical method to handle heterogeneous corpora.","Automatic Information Extraction, Annotation Projection, Medical Entity Recognition, Machine Learning"],"keyphrases":["Extraction d\u2019information","reconnaissance des entit\u00e9s m\u00e9dicales","projection d\u2019annotation","apprentissage"],"prmu":["P","P","R","U"]} {"id":"taln-2012-long-003","title":"Une m\u00e9thode d'extraction d'information fond\u00e9e sur les graphes pour le remplissage de formulaires","abstract":"Dans les syst\u00e8mes d\u2019extraction d\u2019information sur des \u00e9v\u00e9nements, une t\u00e2che importante est le remplissage automatique de formulaires regroupant les informations sur un \u00e9v\u00e9nement donn\u00e9 \u00e0 partir d\u2019un texte non structur\u00e9. Ce remplissage de formulaire peut s\u2019av\u00e9rer difficile lorsque l\u2019information est dispers\u00e9e dans tout le texte et m\u00e9lang\u00e9e \u00e0 des \u00e9l\u00e9ments d\u2019information li\u00e9s \u00e0 un autre \u00e9v\u00e9nement similaire. Nous proposons dans cet article une approche en deux \u00e9tapes pour ce probl\u00e8me : d\u2019abord une segmentation du texte en \u00e9v\u00e9nements pour s\u00e9lectionner les phrases relatives au m\u00eame \u00e9v\u00e9nement ; puis une m\u00e9thode de s\u00e9lection dans les phrases s\u00e9lectionn\u00e9es des entit\u00e9s li\u00e9es \u00e0 l\u2019\u00e9v\u00e9nement. Une \u00e9valuation de cette approche sur un corpus annot\u00e9 de d\u00e9p\u00eaches dans le domaine des \u00e9v\u00e9nements sismiques montre un F-score de 72% pour la t\u00e2che de remplissage de formulaires.","translation":["A Graph-Based Method for Template Filling in Information Extraction","In event-based Information Extraction systems, a major task is the automated filling from unstructured texts of a template gathering information related to a particular event. Such template filling may be a hard task when the information is scattered throughout the text and mixed with similar pieces of information relative to a different event. We propose in this paper a two-step approach for template filling : first, an event-based segmentation is performed to select the parts of the text related to the target event ; then, a graph-based method is applied to choose the most relevant entities in these parts for characterizing the event. Using an evaluation of this model based on an annotated corpus for earthquake events, we achieve a 72% F-measure for the template-filling task.","Information Extraction, Text Segmentation, Template Filling"],"keyphrases":["remplissage de formulaires","Extraction d\u2019information","segmentation de texte"],"prmu":["P","P","R"]} {"id":"taln-2012-long-004","title":"Traitement automatique sur corpus de r\u00e9cits de voyages pyr\u00e9n\u00e9ens : Une analyse syntaxique, s\u00e9mantique et temporelle","abstract":"Cet article pr\u00e9sente notre utilisation de la th\u00e9orie des types dans laquelle nous nous situons pour l\u2019analyse syntaxique, s\u00e9mantique et pour la construction du lexique. Notre outil, Grail permet de traiter le discours automatiquement \u00e0 partir du texte brut et nous le testons sur un corpus de r\u00e9cit de voyages pyr\u00e9n\u00e9ens, Ititpy. Nous expliquons donc notre usage des grammaires cat\u00e9gorielles et plus particuli\u00e8rement du calcul de Lambek et la correspondance entre ces cat\u00e9gories et le lambda-calcul simplement typ\u00e9 dans le cadre de la DRT. Une flexibilit\u00e9 du typage doit \u00eatre autoris\u00e9e dans certains cas et bloqu\u00e9e dans d\u2019autres. Quelques ph\u00e9nom\u00e8nes linguistiques participant \u00e0 une forme de glissement de sens provocant des conflits de types sont pr\u00e9sent\u00e9s. Nous expliquons ensuite nos motivations d\u2019ordre pragmatique \u00e0 utiliser un syst\u00e8me \u00e0 sortes et types variables en s\u00e9mantique lexicale puis notre traitement compositionnel du temps des \u00e9v\u00e8nements inspir\u00e9 du Binary Tense de (Verkuyl, 2008).","translation":["Processing of a Pyrenees travel novels corpus : a syntactical, semantical and temporal analysis","In this article, we present a type theoretical framework which we apply to the syntactic analysis and the computation of DRS semantics. Our tool, Grail, is used for the automatic treatment of French text and we use a Pyren\u00e9es travel novels corpus, Itipy, as a test case. We explain our use of categorial grammars and specifically the Lambek calculus and its connection to the simply typed lambda-calculus in connection with DRT. Flexible typing has to be allowed in some cases and forbidden in others. Some linguistic phenomena presenting some kind of meaning shifts inducing typing conflicts will be introduced. We then present our motivations in the pragmatic field to use a system with sorts and variable types in lexical semantics and then we present how we process events temporality, in the light of Verkuyl\u2019s Binary Tense (Verkuyl, 2008).","compositionality, syntax-semantics interface, semantics-pragmatics interface, categorial grammar, type theory, travel novel"],"keyphrases":["th\u00e9orie des types","r\u00e9cit de voyage","grammaire cat\u00e9gorielle","compositionalit\u00e9","interface syntaxe-s\u00e9mantique","interface s\u00e9mantique-pragmatique"],"prmu":["P","P","P","U","U","U"]} {"id":"taln-2012-long-005","title":"La reconnaissance des mots compos\u00e9s \u00e0 l'\u00e9preuve de l'analyse syntaxique et vice-versa : \u00e9valuation de deux strat\u00e9gies discriminantes","abstract":"Nous proposons deux strat\u00e9gies discriminantes d\u2019int\u00e9gration des mots compos\u00e9s dans un processus r\u00e9el d\u2019analyse syntaxique : (i) pr\u00e9-segmentation lexicale avant analyse, (ii) post-segmentation lexicale apr\u00e8s analyse au moyen d\u2019un r\u00e9ordonnanceur. Le segmenteur de l\u2019approche (i) se fonde sur un mod\u00e8le CRF et permet d\u2019obtenir un reconnaisseur de mots compos\u00e9s \u00e9tat-de-l\u2019art. Le r\u00e9ordonnanceur de l\u2019approche (ii) repose sur un mod\u00e8le MaxEnt int\u00e9grant des traits d\u00e9di\u00e9s aux mots compos\u00e9s. Nous montrons que les deux approches permettent de combler jusqu\u2019\u00e0 18% de l\u2019\u00e9cart entre un analyseur baseline et un analyseur avec segmentation parfaite et jusqu\u2019\u00e0 25% pour la reconnaissance des mots compos\u00e9s.","translation":["Recognition of compound words tested against parsing and vice-versa : evaluation of two discriminative approaches","We propose two discriminative strategies to integrate compound word recognition in a real parsing context : (i) state-of-the-art compound pregrouping with Conditional Random Fields before parsing, (ii) reranking parses with features dedicated to compounds after parsing. We show that these two approaches help reduce up to 18% of the gap between a baseline parser and parser with golden segmentation and up to 25% for compound recognition.","Multiword expressions, parsing, Conditional random Fields, reranker"],"keyphrases":["Mots compos\u00e9s","analyse syntaxique","r\u00e9ordonnanceur","champs markoviens al\u00e9atoires"],"prmu":["P","P","P","U"]} {"id":"taln-2012-long-006","title":"Calcul des cadres de sous cat\u00e9gorisation des noms d\u00e9verbaux fran\u00e7ais (le cas du g\u00e9nitif)","abstract":"L\u2019analyse syntaxique fine en d\u00e9pendances n\u00e9cessite la connaissance des cadres de souscat\u00e9gorisation des unit\u00e9s lexicales. Le cas des verbes \u00e9tant bien \u00e9tudi\u00e9, nous nous int\u00e9ressons dans cet article au cas des noms communs d\u00e9riv\u00e9s de verbes. Notre int\u00e9r\u00eat principal est de calculer le cadre de sous-cat\u00e9gorisation des noms d\u00e9verbaux \u00e0 partir de celui du verbe d\u2019origine pour le fran\u00e7ais. Or, pour ce faire il faut disposer d\u2019une liste repr\u00e9sentative de noms d\u00e9verbaux fran\u00e7ais. Pour calculer cette liste nous utilisons un algorithme simplifi\u00e9 de rep\u00e9rage des noms d\u00e9verbaux, l\u2019appliquons \u00e0 un corpus et comparons la liste obtenue avec la liste Verbaction des d\u00e9verbaux exprimant l\u2019action ou l\u2019activit\u00e9 du verbe. Pour les noms d\u00e9verbaux ainsi obtenus et attest\u00e9s ensuite par une expertise linguistique, nous analysons la provenance des groupes pr\u00e9positionnels subordonn\u00e9s des d\u00e9verbaux dans des contextes diff\u00e9rents en tenant compte du verbe d\u2019origine. L\u2019analyse est effectu\u00e9e sur le corpus Paris 7 et est limit\u00e9e au cas le plus fr\u00e9quent du g\u00e9nitif, c\u2019est-\u00e0-dire des groupes pr\u00e9positionnels introduits par de, des, etc.","translation":["On Computing Subcategorization Frames of French Deverbal Nouns (Case of Genitive)","Fine dependency analysis needs exact information on the subcategoriziation frames of lexical units. These frames being well studied for the verbs, we are interested in this paper by the case of the noun deverbals. Our main goal is to calculate the subcategoriziation frame of deverbals in French from that of the source verb. However, this task needs a representative list of French deverbal nouns. To obtain such a list, we use a simplified algorithm detecting deverbal nouns in texts. The obtained list attested by linguists is compared with the existing list Verbaction of deverbals expressing the action\/activity of French verbs. For these deverbal nouns, we analyse the origin of their subordinate prepositional phrases in different contexts relative to their source verbs. This analysis is carried out over the corpus Paris 7 and is limited to the most frequent cases of the genitive, i.e. to the prepositional phrases headed by the prepositions de, des, etc.","Deverbal Noun, Subcategorization Frame, Prepositional Phrase, Dependency Tree"],"keyphrases":["nom d\u00e9verbal","cadre de sous-cat\u00e9gorisation","groupe pr\u00e9positionnel","analyse en d\u00e9pendances"],"prmu":["P","P","P","R"]} {"id":"taln-2012-long-007","title":"Vectorisation, Okapi et calcul de similarit\u00e9 pour le TAL : pour oublier enfin le TF-IDF","abstract":"Dans cette prise de position, nous nous int\u00e9ressons au calcul de similarit\u00e9 (ou distances) entre textes, probl\u00e9matique pr\u00e9sente dans de nombreuses t\u00e2ches de TAL. Nous nous effor\u00e7ons de montrer que ce qui n\u2019est souvent qu\u2019un composant dans des syst\u00e8mes plus complexes est parfois n\u00e9glig\u00e9 et des solutions sous-optimales sont employ\u00e9es. Ainsi, le calcul de similarit\u00e9 par TF-IDF\/cosinus est souvent pr\u00e9sent\u00e9 comme \u00ab \u00e9tat-de-l\u2019art \u00bb, alors que des alternatives souvent plus performantes sont employ\u00e9es couramment dans le domaine de la Recherche d\u2019Information (RI). Au travers de quelques exp\u00e9riences concernant plusieurs t\u00e2ches, nous montrons combien ce simple calcul de similarit\u00e9 peut influencer les performances d\u2019un syst\u00e8me. Nous consid\u00e9rons plus particuli\u00e8rement deux alternatives. La premi\u00e8re est le sch\u00e9ma de pond\u00e9ration Okapi-BM25, bien connu en RI et directement interchangeable avec le TF-IDF. L\u2019autre, la vectorisation, est une technique de calcul de similarit\u00e9 que nous avons d\u00e9velopp\u00e9e et qui offrent d\u2019int\u00e9ressantes propri\u00e9t\u00e9s.","translation":["Vectorization, Okapi and computing similarity for NLP : say goodbye to TF-IDF","In this position paper, we review a problem very common for many NLP tasks: computing similarity (or distances) between texts. We aim at showing that what is often considered as a small component in a broader complex system is very often overlooked, leading to the use of sub-optimal solutions. Indeed, computing similarity with TF-IDF weighting and cosine is often presented as \u201cstate-of-theart\u201d, while more effective alternatives are in the Information Retrieval (IR) community. Through some experiments on several tasks, we show how this simple calculation of similarity can influence system performance. We consider two particular alternatives. The first is the weighting scheme Okapi-BM25, well known in IR and directly interchangeable with TF-IDF. The other, called vectorization, is a technique for calculating text similarities that we have developed which offers some interesting properties.","Calculating similarities, vector space model, TF-IDF, Okapi BM-25, vectorization"],"keyphrases":["vectorisation","Calcul de similarit\u00e9","TF-IDF","mod\u00e8le vectoriel","Okapi BM-25"],"prmu":["P","P","P","U","M"]} {"id":"taln-2012-long-008","title":"TCOF-POS : un corpus libre de fran\u00e7ais parl\u00e9 annot\u00e9 en morphosyntaxe","abstract":"Nous pr\u00e9sentons dans cet article un travail portant sur la cr\u00e9ation d\u2019un corpus de fran\u00e7ais parl\u00e9 spontan\u00e9 annot\u00e9 en morphosyntaxe. Nous d\u00e9taillons la m\u00e9thodologie suivie afin d\u2019assurer le contr\u00f4le de la qualit\u00e9 de la ressource finale. Ce corpus est d\u2019ores et d\u00e9j\u00e0 librement diffus\u00e9 pour la recherche et peut servir aussi bien de corpus d\u2019apprentissage pour des logiciels que de base pour des descriptions linguistiques. Nous pr\u00e9sentons \u00e9galement les r\u00e9sultats obtenus par deux \u00e9tiqueteurs morphosyntaxiques entrain\u00e9s sur ce corpus.","translation":["TCOF-POS : A Freely Available POS-Tagged Corpus of Spoken French","This article details the creation of TCOF-POS, the first freely available corpus of spontaneous spoken French. We present here the methodology that was followed in order to obtain the best possible quality in the final resource. This corpus already is freely available and can be used as a training\/validation corpus for NLP tools, as well as a study corpus for linguistic research. We also present the results obtained by two POS-taggers trained on the corpus.","Etiquetage morpho-syntaxique, fran\u00e7ais parl\u00e9, ressources langagi\u00e8res"],"keyphrases":["fran\u00e7ais parl\u00e9","Etiquetage morpho-syntaxique","ressources langagi\u00e8res"],"prmu":["P","U","M"]} {"id":"taln-2012-long-009","title":"Alignement sous-phrastique hi\u00e9rarchique avec Anymalign","abstract":"Nous pr\u00e9sentons un algorithme d\u2019alignement sous-phrastique permettant d\u2019aligner tr\u00e8s facilement un couple de phrases \u00e0 partir d\u2019une matrice d\u2019alignement pr\u00e9-remplie. Cet algorithme s\u2019inspire de travaux ant\u00e9rieurs sur l\u2019alignement par segmentation binaire r\u00e9cursive ainsi que de travaux sur le clustering de documents. Nous \u00e9valuons les alignements produits sur des t\u00e2ches de traduction automatique et montrons qu\u2019il est possible d\u2019atteindre des r\u00e9sultats du niveau de l\u2019\u00e9tat de l\u2019art, affichant des gains tr\u00e8s cons\u00e9quents allant jusqu\u2019\u00e0 plus de 4 points BLEU par rapport \u00e0 nos travaux ant\u00e9rieurs, \u00e0 l\u2019aide une m\u00e9thode tr\u00e8s simple, ind\u00e9pendante de la taille du corpus \u00e0 traiter, et produisant directement des alignements sym\u00e9triques. En utilisant cette m\u00e9thode en tant qu\u2019extension \u00e0 l\u2019outil d\u2019extraction de traductions Anymalign, nos exp\u00e9riences nous permettent de cerner certaines limitations de ce dernier et de d\u00e9finir des pistes pour son am\u00e9lioration.","translation":["Hierarchical sub-sentential alignment with Anymalign","We present a sub-sentential alignment algorithm that aligns sentence pairs from an existing alignment matrix in a very easy way. This algorithm is inspired by previous work on alignment by recursive binary segmentation and on document clustering. We evaluate the alignments produced on machine translation tasks and show that we can obtain state-of-the-art results, with gains up to more than 4 BLEU points compared to our previous work, with a method that is very simple, independent of the size of the corpus to be aligned, and can directly produce symmetric alignments. When using this method as an extension of the translation extraction tool Anymalign, our experiments allow us to determine some of its limitations and to define possible leads for further improvements.","parallel corpus, sub-sentential alignment, statistical machine translation"],"keyphrases":["alignement sous-phrastique","corpus parall\u00e8le","traduction automatique statistique"],"prmu":["P","M","M"]} {"id":"taln-2012-long-010","title":"Utilisation de la translitt\u00e9ration arabe pour l\u2019am\u00e9lioration de l\u2019alignement de mots \u00e0 partir de corpus parall\u00e8les fran\u00e7ais-arabe","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 l\u2019utilisation de la translitt\u00e9ration arabe pour l\u2019am\u00e9lioration des r\u00e9sultats d\u2019une approche linguistique d\u2019alignement de mots simples et compos\u00e9s \u00e0 partir de corpus de textes parall\u00e8les fran\u00e7ais-arabe. Cette approche utilise, d\u2019une part, un lexique bilingue et les caract\u00e9ristiques linguistiques des entit\u00e9s nomm\u00e9es et des cognats pour l\u2019alignement de mots simples, et d\u2019autre part, les relations de d\u00e9pendance syntaxique pour aligner les mots compos\u00e9s. Nous avons \u00e9valu\u00e9 l\u2019aligneur de mots simples et compos\u00e9s int\u00e9grant la translitt\u00e9ration arabe en utilisant deux proc\u00e9d\u00e9s : une \u00e9valuation de la qualit\u00e9 d\u2019alignement \u00e0 l\u2019aide d\u2019un alignement de r\u00e9f\u00e9rence construit manuellement et une \u00e9valuation de l\u2019impact de cet alignement sur la qualit\u00e9 de la traduction en faisant appel au syst\u00e8me de traduction automatique statistique Moses. Les r\u00e9sultats obtenus montrent que la translitt\u00e9ration am\u00e9liore aussi bien la qualit\u00e9 de l\u2019alignement que celle de la traduction.","translation":["Using Arabic transliteration to improve word alignment from French-Arabic parallel corpora","In this paper, we focus on the use of Arabic transliteration to improve the results of a linguistic word alignment approach from parallel text corpora. This approach uses, on the one hand, a bilingual lexicon, named entity and cognates linguistic properties to align single words, and on the other hand, syntactic dependency relations to align compound words. We have evaluated the word aligner integrating Arabic transliteration using two methods: A manual evaluation of the alignment quality and an evaluation of the impact of this alignment on the translation quality by using the statistical machine translation system Moses. The obtained results show that Arabic transliteration improves the quality of both alignment and translation.","Transliteration, word alignment, multilingual lexicons construction, machine translation, cross-language information retrieval"],"keyphrases":["Translitt\u00e9ration","alignement de mots","traduction automatique","construction de dictionnaires multilingues","recherche d\u2019information interlingue"],"prmu":["P","P","P","M","M"]} {"id":"taln-2012-long-011","title":"Compositionnalit\u00e9 et contextes issus de corpus comparables pour la traduction terminologique","abstract":"Dans cet article, nous cherchons \u00e0 mettre en correspondance de traduction des termes extraits de chaque partie monolingue d\u2019un corpus comparable. Notre objectif concerne l\u2019identification et la traduction de termes sp\u00e9cialis\u00e9s. Pour ce faire, nous mettons en oeuvre une approche compositionnelle dop\u00e9e avec des informations contextuelles issues du corpus comparable. Notre \u00e9valuation montre que cette approche am\u00e9liore significativement l\u2019approche compositionnelle de base pour la traduction de termes complexes extraits de corpus comparables.","translation":["Compositionality and Context for Bilingual Lexicon Extraction from Comparable Corpora","In this article, we study the possibilities of improving the alignment of equivalent terms monolingually acquired from bilingual comparable corpora. Our overall objective is to identify and to translate highly specialised terminology. We applied a compositional approach enhanced with pre-processed context information. Our evaluation demonstrates that our alignment method outperforms the compositional approach for translationally equivalent term discovery from comparable corpora.","Comparable Corpora, compositionality, context information, bilingual lexicon"],"keyphrases":["compositionnalit\u00e9","Corpus comparable","information contextuelle","lexique bilingue"],"prmu":["P","P","P","U"]} {"id":"taln-2012-long-012","title":"Raffinement du Lexique des Verbes Fran\u00e7ais","abstract":"Nous pr\u00e9sentons dans cet article les am\u00e9liorations apport\u00e9es \u00e0 la ressource \u00ab Les Verbes Fran\u00e7ais \u00bb afin de la rendre plus formelle et utilisable pour le traitement automatique des langues naturelles. Les informations syntaxiques et s\u00e9mantiques ont \u00e9t\u00e9 corrig\u00e9es, restructur\u00e9es, unifi\u00e9es puis int\u00e9gr\u00e9es \u00e0 la version XML de cette ressource, afin de pouvoir \u00eatre utilis\u00e9e par un syst\u00e8me d\u2019\u00e9tiquetage de r\u00f4les s\u00e9mantiques.","translation":["Resource Refining : \u00ab Les Verbes Fran\u00e7ais \u00bb","This paper introduce the impovements we made to the resource \u00ab Les Verbes Fran\u00e7ais \u00bb in order to make it more usable in the field of natural language processing. Syntactic and semantic information is corrected, restructured, unified and then integrated to the XML version of this resource, in order to be used by a semantic role labelling system.","resource, lexicon, verbs, refinement, semantic roles labeling"],"keyphrases":["raffinement","lexique","verbes","ressource","\u00e9tiquetage de r\u00f4les s\u00e9mantiques"],"prmu":["P","P","P","P","P"]} {"id":"taln-2012-long-013","title":"\u00c9tude des manifestations de la relation de m\u00e9ronymie dans une ressource distributionnelle","abstract":"Cette \u00e9tude vise \u00e0 \u00e9tudier les manifestations de la relation de m\u00e9ronymie dans une ressource lexicale g\u00e9n\u00e9r\u00e9e automatiquement \u00e0 partir d\u2019un corpus de langue g\u00e9n\u00e9rale. La d\u00e9marche que nous adoptons consiste \u00e0 recueillir un jeu de couples de m\u00e9ronymes issus d\u2019une ressource externe que nous croisons avec une base distributionnelle calcul\u00e9e \u00e0 partir d\u2019un corpus de textes encyclop\u00e9diques. Une annotation s\u00e9mantique des mots qui entrent dans ces couples de m\u00e9ronymes montre que la prise en compte de la nature s\u00e9mantique des mots composant les couples de m\u00e9ronymes permet de mettre au jour des in\u00e9galit\u00e9s au niveau du rep\u00e9rage de la relation par la m\u00e9thode d\u2019analyse distributionnelle.","translation":["Study of meronymy in a distribution-based lexical resource","In this paper, we study the way meronymy behaves in a distribution-based lexical resource. We address the question of the evaluation of such resources through a semantic-based approach. Our method consists in collecting meronyms from a resource which we cross with a distributionbased lexical resource made from an encyclopedic corpus. Meronyms are then sub-categorized manually : firstly following the sub-relation they bear (STUFF\/OBJECT, MEMBER\/COLLECTION, etc.), then following the semantic class of their members. Results show that distributional analysis identifies meronymic relations in different proportions according to the semantic classes of the words involved in the meronymic pairs.","distributional analysis, lexical semantics, meronymy, evaluation"],"keyphrases":["m\u00e9ronymie","analyse distributionnelle","s\u00e9mantique lexicale","\u00e9valuation"],"prmu":["P","P","R","U"]} {"id":"taln-2012-long-014","title":"Un crit\u00e8re de coh\u00e9sion th\u00e9matique fond\u00e9 sur un graphe de cooccurrences","abstract":"Dans cet article, nous d\u00e9finissons un nouveau crit\u00e8re de coh\u00e9sion th\u00e9matique permettant de pond\u00e9rer les termes d\u2019un lexique th\u00e9matique en fonction de leur pertinence. Le crit\u00e8re s\u2019inspire des approches Web as corpus pour accumuler des connaissances exog\u00e8nes sur un lexique. Ces connaissances sont ensuite mod\u00e9lis\u00e9es sous forme de graphe et un algorithme de marche al\u00e9atoire est appliqu\u00e9 pour attribuer un score \u00e0 chaque terme. Apr\u00e8s avoir \u00e9tudi\u00e9 les performances et la stabilit\u00e9 du crit\u00e8re propos\u00e9, nous l\u2019\u00e9valuons sur une t\u00e2che d\u2019aide \u00e0 la cr\u00e9ation de lexiques bilingues.","translation":["Topical Cohesion using Graph Random Walks","In this article, we propose a novel metric to weight specialized lexicons terms according to their relevance to the underlying thematic. Our method is inspired by Web as corpus approaches and accumulates exogenous knowledge about a specialized lexicon from the web. Terms cooccurrences are modelled as a graph and a random walk algorithm is applied to compute terms relevance. Finally, we study the performance and stability of the metric and evaluate it in a bilingual lexicon creation context.","Thematic relevance, cooccurrence graph, random walk"],"keyphrases":["Coh\u00e9sion th\u00e9matique","graphe de cooccurrences","marche al\u00e9atoire"],"prmu":["P","P","P"]} {"id":"taln-2012-long-015","title":"Validation sur le Web de reformulations locales: application \u00e0 la Wikip\u00e9dia","abstract":"Ce travail pr\u00e9sente des exp\u00e9riences initiales en validation de paraphrases en contexte. Les r\u00e9visions de Wikip\u00e9dia nous servent de domaine d\u2019\u00e9valuation : pour un \u00e9nonc\u00e9 ayant connu une courte r\u00e9vision dans l\u2019encyclop\u00e9die, nous disposons d\u2019un ensemble de r\u00e9\u00e9critures possibles, parmi lesquelles nous cherchons \u00e0 identifier celles qui correspondent \u00e0 des paraphrases valides. Nous abordons ce probl\u00e8me comme une t\u00e2che de classification fond\u00e9e sur des informations issues du Web, et parvenons \u00e0 am\u00e9liorer la performance de plusieurs techniques simples de r\u00e9f\u00e9rence.","translation":["Assisted rephrasing for Wikipedia contributors through Web-based validation","This works describes initial experiments on the validation of paraphrases in context. Wikipedia\u2019s revisions are used : we assume that a set of possible rewritings are available for a given phrase that has been rewritten in the encyclopedia\u2019s revision history, and we attempt to find the subset of those rewritings that can be considered as valid paraphrases. We tackle this problem as a classication task which we provide with features obtained from Web data. Our experiments show that our system improves performance over a set of simple baselines.","paraphrasing, Wikipedia, authoring aids"],"keyphrases":["Wikip\u00e9dia","paraphrase","aide \u00e0 la r\u00e9daction"],"prmu":["P","P","M"]} {"id":"taln-2012-long-016","title":"Simplification syntaxique de phrases pour le fran\u00e7ais","abstract":"Cet article pr\u00e9sente une m\u00e9thode de simplification syntaxique de textes fran\u00e7ais. La simplification syntaxique a pour but de rendre des textes plus abordables en simplifiant les \u00e9l\u00e9ments qui posent probl\u00e8me \u00e0 la lecture. La m\u00e9thode mise en place \u00e0 cette fin s\u2019appuie tout d\u2019abord sur une \u00e9tude de corpus visant \u00e0 \u00e9tudier les ph\u00e9nom\u00e8nes linguistiques impliqu\u00e9s dans la simplification de textes en fran\u00e7ais. Nous avons ainsi constitu\u00e9 un corpus parall\u00e8le \u00e0 partir d\u2019articles de Wikip\u00e9dia et Vikidia, ce qui a permis d\u2019\u00e9tablir une typologie de simplifications. Dans un second temps, nous avons impl\u00e9ment\u00e9 un syst\u00e8me qui op\u00e8re des simplifications syntaxiques \u00e0 partir de ces observations. Des r\u00e8gles de simplification ont \u00e9t\u00e9 d\u00e9crites afin de g\u00e9n\u00e9rer des phrases simplifi\u00e9es. Un module s\u00e9lectionne ensuite le meilleur ensemble de phrases. Enfin, nous avons men\u00e9 une \u00e9valuation de notre syst\u00e8me montrant qu\u2019environ 80% des phrases g\u00e9n\u00e9r\u00e9es sont correctes.","translation":["Syntactic Simplification for French Sentences","This paper presents a method for the syntactic simplification of French texts. Syntactic simplification aims at making texts easier to understand by simplifying the elements that hinder reading. It is based on a corpus study that aimed at investigating the linguistic phenomena involved in the manual simplification of French texts. We have first gathered a parallel corpus of articles from Wikipedia and Vikidia, that we used to establish a typology of simplifications. In a second step, we implemented a system that carries out syntactic simplifications based on these corpus observations. We described simplification rules in order to generate simplified sentences. A module subsequently selects the best subset of sentences. The evaluation of our system shows that about 80% of the sentences produced by our system are accurate.","automatic simplification, readability, syntactic analysis"],"keyphrases":["simplification automatique","lisibilit\u00e9","analyse syntaxique"],"prmu":["M","U","M"]} {"id":"taln-2012-long-017","title":"\u00c9tude comparative entre trois approches de r\u00e9sum\u00e9 automatique de documents arabes","abstract":"Dans cet article, nous proposons une \u00e9tude comparative entre trois approches pour le r\u00e9sum\u00e9 automatique de documents arabes. Ainsi, nous avons propos\u00e9 trois m\u00e9thodes pour l\u2019extraction des phrases les plus repr\u00e9sentatives d'un document. La premi\u00e8re m\u00e9thode se base sur une approche symbolique, la deuxi\u00e8me repose sur une approche num\u00e9rique et la troisi\u00e8me se base sur une approche hybride. Ces m\u00e9thodes sont impl\u00e9ment\u00e9es respectivement par le syst\u00e8me ARSTResume, le syst\u00e8me R.I.A et le syst\u00e8me HybridResume. Nous pr\u00e9sentons, par la suite, les r\u00e9sultats obtenus par les trois syst\u00e8mes et nous proc\u00e9dons \u00e0 une \u00e9tude comparative entre les r\u00e9sultats obtenus afin de souligner les avantages et les limites de chaque m\u00e9thode. Les r\u00e9sultats de l\u2019\u00e9valuation ont montr\u00e9 que l\u2018approche num\u00e9rique est plus performante que l\u2019approche symbolique au niveau des textes longs. Mais, l\u2019int\u00e9gration de ces deux approches en une approche hybride aboutit aux r\u00e9sultats les plus performants dans notre corpus de textes.","translation":["Comparative study of three approaches to automatic summarization of Arabic documents","In this paper, we propose a comparative study between three approaches for automatic summarization of Arabic documents. Thus, we proposed three methods for extracting most representative sentences of a document. The first method is based on a symbolic approach, the second is relied on a numerical approach and the third is based on a hybrid approach. These methods are implemented respectively by the ARSTResume, R.I.A and HybridResume systems. Then, we present the results obtained by the three systems and we conduct a comparative study between the obtained results in order to highlight the advantages and limitations of each method. The evaluation results showed that the numerical approach has better performances than the symbolic approach. But, combining into a hybrid approach achieved the best results for our text corpus.","Automatic summarization, symbolic approach, numerical approach, hybrid approach, Arabic document"],"keyphrases":["R\u00e9sum\u00e9 automatique","document arabe","approche symbolique","approche num\u00e9rique","approche hybride"],"prmu":["P","P","P","P","P"]} {"id":"taln-2012-long-018","title":"Etude s\u00e9mantique des mots-cl\u00e9s et des marqueurs lexicaux stables dans un corpus technique","abstract":"Cet article pr\u00e9sente les r\u00e9sultats d\u2019une analyse s\u00e9mantique quantitative des unit\u00e9s lexicales sp\u00e9cifiques dans un corpus technique, relevant du domaine des machines-outils pour l\u2019usinage des m\u00e9taux. L\u2019\u00e9tude vise \u00e0 v\u00e9rifier si et dans quelle mesure les mots-cl\u00e9s du corpus technique sont monos\u00e9miques. A cet effet, nous proc\u00e9dons \u00e0 une analyse statistique de r\u00e9gression simple, qui permet d\u2019\u00e9tudier la corr\u00e9lation entre le rang de sp\u00e9cificit\u00e9 des mots-cl\u00e9s et leur rang de monos\u00e9mie, mais qui soul\u00e8ve des probl\u00e8mes statistiques et m\u00e9thodologiques, notamment un biais de fr\u00e9quence. Pour y rem\u00e9dier, nous adoptons une approche alternative pour le rep\u00e9rage des unit\u00e9s lexicales sp\u00e9cifiques, \u00e0 savoir l\u2019analyse des marqueurs lexicaux stables ou Stable Lexical Marker Analysis (SLMA). Nous discutons les r\u00e9sultats quantitatifs et statistiques de cette approche dans la perspective de la corr\u00e9lation entre le rang de sp\u00e9cificit\u00e9 et le rang de monos\u00e9mie.","translation":["Semantic analysis of keywords and stable lexical markers in a technical corpus","This article presents the results of a quantitative semantic analysis of typical lexical units in a specialised technical corpus of metalworking machinery in French. The study aims to find out whether and to what extent the keywords of the technical corpus are monosemous. A simple regression analysis, used to examine the correlation between typicality rank and monosemy rank of the keywords, points out some statistical and methodological problems, notably a frequency bias. In order to overcome these problems, we adopt an alternative approach for the identification of typical lexical units, called Stable Lexical Marker Analysis (SLMA). We discuss the quantitative and statistical results of this approach with respect to the correlation between typicality rank and monosemy rank.","typical lexical units, Keyword Analysis, Stable Lexical Marker Analysis (SLMA), quantitative semantics, regression analysis"],"keyphrases":["s\u00e9mantique quantitative","unit\u00e9s lexicales sp\u00e9cifiques","analyse des marqueurs lexicaux stables","analyse des mots-cl\u00e9s","analyse de r\u00e9gression"],"prmu":["P","P","P","R","R"]} {"id":"taln-2012-long-019","title":"Fouille de graphes sous contraintes linguistiques pour l'exploration de grands textes","abstract":"Dans cet article, nous proposons une approche pour explorer des textes de taille importante en mettant en \u00e9vidence des sous-parties coh\u00e9rentes. Cette m\u00e9thode d\u2019exploration s\u2019appuie sur une repr\u00e9sentation en graphe du texte, en utilisant le mod\u00e8le linguistique de Hoey pour s\u00e9lectionner et apparier les phrases dans le graphe. Notre contribution porte sur l\u2019utilisation de techniques de fouille de graphes sous contraintes pour extraire des sous-parties pertinentes du texte (c\u2019est-\u00e0-dire des collections de sous-r\u00e9seaux phrastiques homog\u00e8nes). Nous avons r\u00e9alis\u00e9 des exp\u00e9rimentations sur deux textes anglais de taille cons\u00e9quente pour montrer l\u2019int\u00e9r\u00eat de l\u2019approche que nous proposons.","translation":["Graph Mining Under Linguistic Constraints to Explore Large Texts","In this paper, we propose an approach to explore large texts by highlighting coherent sub-parts. The exploration method relies on a graph representation of the text according to the Hoey linguistic model which allows the selection and the binding of sentences in the graph. Our contribution relates to using graph mining techniques under constraints to extract relevant subparts of the text (i.e., collections of homogeneous sentence sub-networks). We have conducted some experiments on two large English texts to show the interest of the proposed approach.","Graph Mining, sentence networks, textual analysis, textual navigation"],"keyphrases":["Fouille de graphes","r\u00e9seaux phrastiques","analyse textuelle","navigation textuelle"],"prmu":["P","M","U","U"]} {"id":"taln-2012-long-020","title":"Une \u00e9tude en 3D de la paraphrase: types de corpus, langues et techniques","abstract":"Cet article pr\u00e9sente une \u00e9tude d\u00e9taill\u00e9e de l\u2019impact du type du corpus sur la t\u00e2che d\u2019acquisition de paraphrases sous-phrastiques. Nos exp\u00e9riences sont men\u00e9es sur deux langues et quatre types de corpus, et incluent une combinaison efficace de quatre syst\u00e8mes d\u2019acquisition de paraphrases. Nous obtenons une am\u00e9lioration relative de plus de 27% en F-mesure par rapport au meilleur syst\u00e8me, en anglais et en fran\u00e7ais, ainsi qu\u2019une am\u00e9lioration relative \u00e0 notre combinaison de syst\u00e8mes de 22% pour l\u2019anglais et de 5% pour le fran\u00e7ais quand tous les types de corpus sont utilis\u00e9s pour l\u2019acquisition depuis le type de corpus le plus couramment disponible.","translation":["A study of paraphrase along 3 dimensions : corpus types, languages and techniques","In this paper, we report a detailed study of the impact of corpus type on the task of sub-sentential paraphrase acquisition. Our experiments are for 2 languages and 4 corpus types, and involve an efficient machine learning-based combination of 4 paraphrase acquisition systems. We obtain relative improvements of more than 27% in F-measure over the best individual system on English and French, and obtain a relative improvement over the combination system of 22% for English and 5% for French when using all other corpus types as additional training data for our most readily available corpus type.","paraphrase acquisition, corpus collection"],"keyphrases":["acquisition de paraphrases","constitution de corpus"],"prmu":["P","M"]} {"id":"taln-2012-long-021","title":"D\u00e9tection et correction automatique d'erreurs d'annotation morpho-syntaxique du French TreeBank","abstract":"La qualit\u00e9 de l\u2019annotation morpho-syntaxique d\u2019un corpus est d\u00e9terminante pour l\u2019entra\u00eenement et l\u2019\u00e9valuation de m\u00e9thodes d\u2019\u00e9tiquetage. Cet article pr\u00e9sente une s\u00e9rie d\u2019exp\u00e9riences que nous avons men\u00e9e sur la d\u00e9tection et la correction automatique des erreurs du French Treebank. Deux m\u00e9thodes sont utilis\u00e9es. La premi\u00e8re consiste \u00e0 identifier les mots sans \u00e9tiquette et leur attribuer celle d\u2019une forme correspondante observ\u00e9e dans le corpus. La seconde m\u00e9thode utilise les variations de n-gramme pour d\u00e9tecter et corriger les anomalies d\u2019annotation. L\u2019\u00e9valuation des corrections apport\u00e9es au corpus est r\u00e9alis\u00e9e de mani\u00e8re extrins\u00e8que en comparant les scores de performance de diff\u00e9rentes m\u00e9thodes d\u2019\u00e9tiquetage morpho-syntaxique en fonction du niveau de correction. Les r\u00e9sultats montrent une am\u00e9lioration significative de la pr\u00e9cision et indiquent que la qualit\u00e9 du corpus peut \u00eatre sensiblement am\u00e9lior\u00e9e par l\u2019application de m\u00e9thodes de correction automatique des erreurs d\u2019annotation.","translation":["Detecting and correcting POS annotation in the French TreeBank","The quality of the Part-Of-Speech (POS) annotation in a corpus has a large impact on training and evaluating POS taggers. In this paper, we present a series of experiments that we have conducted on automatically detecting and correcting annotation errors in the French TreeBank. Two methods are used. The first simply relies on identifying tokens with missing tags and correct them by assigning the tag the same token observed in the corpus. The second method uses n-gram variations to detect and correct conflicting annotations. The evaluation of the automatic correction is performed extrinsically by comparing the performance of different POS taggers in relation to the level of correction. Results show a statistically significant improvement in precision and indicate that the POS annotation quality can be noticeably enhanced by using automatic correction methods.","Part-Of-Speech tagging, automatic correction, annotation quality"],"keyphrases":["correction automatique","\u00c9tiquetage morpho-syntaxique","qualit\u00e9 d\u2019annotation"],"prmu":["P","P","R"]} {"id":"taln-2012-long-022","title":"Annotation s\u00e9mantique du French Treebank \u00e0 l\u2019aide de la r\u00e9\u00e9criture modulaire de graphes","abstract":"Nous proposons d\u2019annoter le French Treebank \u00e0 l\u2019aide de d\u00e9pendances s\u00e9mantiques dans le cadre de la DMRS en partant d\u2019une annotation en d\u00e9pendances syntaxiques de surface et en utilisant la r\u00e9\u00e9criture modulaire de graphes. L\u2019article pr\u00e9sente un certain nombre d\u2019avanc\u00e9es concernant le calcul de r\u00e9\u00e9criture utilis\u00e9 : l\u2019utilisation de r\u00e8gles pour faire le lien avec des lexiques, en particulier le lexique des verbes de Dicovalence, et l\u2019introduction de filtres pour \u00e9carter \u00e0 certaines \u00e9tapes les annotations incoh\u00e9rentes. Il pr\u00e9sente aussi des avanc\u00e9es dans le syst\u00e8me de r\u00e9\u00e9criture lui-m\u00eame, qui a une plus large couverture (constructions causatives, verbes \u00e0 mont\u00e9e, . . .) et dont l\u2019ordre des modules a \u00e9t\u00e9 \u00e9tudi\u00e9 de fa\u00e7on plus syst\u00e9matique. Ce syst\u00e8me a \u00e9t\u00e9 exp\u00e9riment\u00e9 sur l\u2019ensemble du French Treebank \u00e0 l\u2019aide du prototype GREW, qui impl\u00e9mente le calcul de r\u00e9\u00e9criture utilis\u00e9.","translation":["Semantic Annotation of the French Treebank using Modular Graph Rewriting","We propose to annotate the French Treebank with semantic dependencies in the framework of DMRS starting from an annotation with surface syntactic dependencies and using modular graph rewriting. The article presents some new results related to the rewriting calculus: the use of rules to make a link with lexicons, especially with the lexicon of verbs Dicovalence, and the introduction of filters to discard inconsistent annotations at some computation steps. It also presents new results related to the rewriting system itself: the system has a larger coverage (causative constructions, rising verbs, . . .) and the order between modules has been studied in a more systematic way. This system has been experimented on the whole French Treebank with the prototype GREW, which implements the used rewriting calculus.","graph rewriting, syntax-semantics interface, dependencies, DMRS"],"keyphrases":["d\u00e9pendances","DMRS","r\u00e9\u00e9criture de graphes","interface syntaxe-s\u00e9mantique"],"prmu":["P","P","R","U"]} {"id":"taln-2012-long-023","title":"Enrichissement du FTB : un treebank hybride constituants\/propri\u00e9t\u00e9s","abstract":"Cet article pr\u00e9sente les m\u00e9canismes de cr\u00e9ation d\u2019un treebank hybride enrichissant le FTB \u00e0 l\u2019aide d\u2019annotations dans le formalisme des Grammaires de Propri\u00e9t\u00e9s. Ce processus consiste \u00e0 acqu\u00e9rir une grammaire GP \u00e0 partir du treebank source et g\u00e9n\u00e9rer automatiquement les structures syntaxiques dans le formalisme cible en s\u2019appuyant sur la sp\u00e9cification d\u2019un sch\u00e9ma d\u2019encodage adapt\u00e9. Le r\u00e9sultat produit, en partant d\u2019une version du FTB corrig\u00e9e et modifi\u00e9e en fonction de nos besoins, constitue une ressource ouvrant de nouvelles perspectives pour le traitement et la description du fran\u00e7ais.","translation":["Enriching the French Treebank with Properties","We present in this paper the hybridation of the French Treebank with Property Grammars annotations. This process consists in acquiring a PG grammar from the source treebank and generating the new syntactic encoding on top of the original one. The result is a new resource for French, opening the way to new tools and descriptions.","Hybrid treebank, French Treebank, Property Grammars"],"keyphrases":["Treebank hybride","Grammaires de Propri\u00e9t\u00e9s","French Treebank"],"prmu":["P","P","M"]} {"id":"taln-2012-long-024","title":"Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical","abstract":"Nous pr\u00e9sentons dans cet article la m\u00e9thodologie de constitution et les caract\u00e9ristiques du corpus Sequoia, un corpus en fran\u00e7ais, syntaxiquement annot\u00e9 d\u2019apr\u00e8s un sch\u00e9ma d\u2019annotation tr\u00e8s proche de celui du French Treebank (Abeill\u00e9 et Barrier, 2004), et librement disponible, en constituants et en d\u00e9pendances. Le corpus comporte des phrases de quatre origines : Europarl fran\u00e7ais, le journal l\u2019Est R\u00e9publicain, Wikip\u00e9dia Fr et des documents de l\u2019Agence Europ\u00e9enne du M\u00e9dicament, pour un total de 3204 phrases et 69246 tokens. En outre, nous pr\u00e9sentons une application de ce corpus : l\u2019\u00e9valuation d\u2019une technique d\u2019adaptation d\u2019analyseurs syntaxiques probabilistes \u00e0 des domaines et\/ou genres autres que ceux du corpus sur lequel ces analyseurs sont entra\u00een\u00e9s. Cette technique utilise des clusters de mots obtenus d\u2019abord par regroupement morphologique \u00e0 l\u2019aide d\u2019un lexique, puis par regroupement non supervis\u00e9, et permet une nette am\u00e9lioration de l\u2019analyse des domaines cibles (le corpus Sequoia), tout en pr\u00e9servant le m\u00eame niveau de performance sur le domaine source (le FTB), ce qui fournit un analyseur multi-domaines, \u00e0 la diff\u00e9rence d\u2019autres techniques d\u2019adaptation comme le self-training.","translation":["The Sequoia corpus : syntactic annotation and use for a parser lexical domain adaptation method","We present the building methodology and the properties of the Sequoia treebank, a freely available French corpus annotated following the French Treebank guidelines (Abeill\u00e9 et Barrier, 2004). The Sequoia treebank comprises 3204 sentences (69246 tokens), from the French Europarl, the regional newspaper L\u2019Est R\u00e9publicain, the French Wikipedia and documents from the European Medicines Agency. We then provide a method for parser domain adaptation, that makes use of unsupervised word clusters. The method improves parsing performance on target domains (the domains of the Sequoia corpus), without degrading performance on source domain (the French treenbank test set), contrary to other domain adaptation techniques such as self-training.","Treebank, statistical parsing, parser domain adaptation"],"keyphrases":["Corpus arbor\u00e9","analyse syntaxique statistique","adaptation de domaine"],"prmu":["M","M","R"]} {"id":"taln-2012-court-001","title":"ACOLAD Plateforme pour l\u2019\u00e9dition collaborative d\u00e9pendancielle","abstract":"Cet article pr\u00e9sente une plateforme open-source pour l\u2019\u00e9dition collaborative de corpus de d\u00e9pendances. Cette plateforme, nomm\u00e9e ACOLAD (Annotation de COrpus Linguistique pour l\u2019Analyse de D\u00e9pendances), propose des services manuels de segmentation et d\u2019annotation multi-niveaux (segmentation en mots et en syntagmes minimaux (chunks), annotation morphosyntaxique des mots, annotation syntaxique des chunks et annotation syntaxique des d\u00e9pendances entre mots ou entre chunks). Dans cet article, nous pr\u00e9sentons la plateforme ACOLAD, puis nous d\u00e9taillons la repr\u00e9sentation pivot utilis\u00e9e pour g\u00e9rer les annotations concurrentes, enfin d\u00e9crivons le m\u00e9canisme d\u2019importation de ressources linguistiques externes.","translation":["ACOLAD: platform for collaborative dependency annotation","This paper presents an open-source platform for collaborative editing dependency corpora. ACOLAD platform (Annotation of corpus linguistics for the analysis of dependencies) offers manual annotation services such as segmentation and multi-level annotation (segmentation into words and phrases minimum (chunks), morphosyntactic annotation of words, syntactic annotation chunks and annotating syntactic dependencies between words or chunks). In this paper, we present ACOLAD platform, then we detail the representation used to manage concurrent annotations, then we describe the mechanism for importing external linguistic resources.","corpus collaborative annotation, concurrent annotations, dependencies"],"keyphrases":["d\u00e9pendances","annotations concurrentes","annotation collaborative de corpus"],"prmu":["P","P","R"]} {"id":"taln-2012-court-002","title":"Extraction de pr\u00e9f\u00e9rences \u00e0 partir de dialogues de n\u00e9gociation","abstract":"Cet article pr\u00e9sente une approche linguistique pour l\u2019extraction d\u2019expressions de pr\u00e9f\u00e9rence \u00e0 partir de dialogues de n\u00e9gociation. Nous proposons un nouveau sch\u00e9ma d\u2019annotation pour encoder les pr\u00e9f\u00e9rences et les d\u00e9pendances exprim\u00e9es linguistiquement dans deux genres de corpus diff\u00e9rents. Ensuite, nous proposons une m\u00e9thode d\u2019apprentissage qui extrait les expressions de pr\u00e9f\u00e9rence en utilisant une combinaison de traits locaux et discursifs. Finalement, nous \u00e9valuons la fiabilit\u00e9 de notre approche sur chaque genre de corpus.","translation":["Towards Preference Extraction From Negotiation Dialogues","This paper presents an NLP based approach for preference expression extraction from negotiation dialogues. We propose a new annotation schema for preferences and dependencies among them and illustrate on two different corpus genres. We then suggest a learning approach that efficiently extracts preference expressions using a combination of local and discursive features and assess the reliability of our approach on each corpus genre.","Preference, dialogue, machine learning"],"keyphrases":["Pr\u00e9f\u00e9rence","dialogue","apprentissage automatique"],"prmu":["P","P","M"]} {"id":"taln-2012-court-003","title":"D\u00e9tection de conflits dans les communaut\u00e9s \u00e9pist\u00e9miques en ligne","abstract":"La pr\u00e9sence de conflits dans les communaut\u00e9s \u00e9pist\u00e9miques en ligne peut s\u2019av\u00e9rer bloquante pour l\u2019activit\u00e9 de conception. Nous pr\u00e9sentons une \u00e9tude sur la d\u00e9tection automatique de conflit dans les discussions entre contributeurs Wikipedia qui s\u2019appuie sur des traits de surface tels que la subjectivit\u00e9 ou la connotation des \u00e9nonc\u00e9s et \u00e9valuons deux r\u00e8gles de d\u00e9cision : l\u2019une d\u00e9coule d\u2019un mod\u00e8le dialectique en exploitant localement la structure lin\u00e9aire de la discussion, la subjectivit\u00e9 et la connotation ; l\u2019autre, plus globale, ne s\u2019appuie que sur la taille des fils et les marques de subjectivit\u00e9 au d\u00e9triment des marques de connotation. Nous montrons que ces deux r\u00e8gles produisent des r\u00e9sultats similaires mais que la simplicit\u00e9 de la r\u00e8gle globale en fait une approche pr\u00e9f\u00e9r\u00e9e dans la d\u00e9tection des conflits.","translation":["Conflicts detection in online epistemic communities","Conflicts in online epistemic communities can be a blocking factor when producing knowledge. We present a way to automatically detect conflict in Wikipedia discussions, based on subjectivity and connotation marks. Two rules are evaluated : a local rule that uses the structure of the discussion threads, connotation and subjectivity marks and a global rule that takes the whole thread into account and only subjectivity. We show that the two rules produce similar results but that the simplicity of the global rule makes it a preferred approach to detect conflicts.","wikipedia, conflict, syntax, semantics, interaction"],"keyphrases":["conflit","wikipedia","syntaxe","s\u00e9mantique","interaction"],"prmu":["P","P","U","U","U"]} {"id":"taln-2012-court-004","title":"Quel est l'apport de la d\u00e9tection d'entit\u00e9s nomm\u00e9es pour l'extraction d'information en domaine restreint ?","abstract":"Les travaux li\u00e9s \u00e0 la d\u00e9finition et \u00e0 la reconnaissance des entit\u00e9s nomm\u00e9es sont g\u00e9n\u00e9ralement envisag\u00e9s en domaine ouvert, \u00e0 travers la conception de cat\u00e9gories g\u00e9n\u00e9riques (noms de personnes, de lieux, etc.) et leur application \u00e0 des donn\u00e9es textuelles issues de la presse (orale comme \u00e9crite). Par ailleurs, la fouille des donn\u00e9es issues de centres d\u2019appel est strat\u00e9gique pour une entreprise comme EDF, compte tenu du r\u00f4le crucial jou\u00e9 par l\u2019opinion pour les applications marketing, ce qui passe par la d\u00e9finition d\u2019entit\u00e9s d\u2019int\u00e9r\u00eat propres au domaine. Nous comparons les deux types de mod\u00e8les d\u2019entit\u00e9s - g\u00e9n\u00e9riques et sp\u00e9cifiques \u00e0 un domaine pr\u00e9cis - afin d\u2019observer leurs points de recouvrement, via l\u2019annotation manuelle d\u2019un corpus de conversations en centres d\u2019appel. Nous souhaitons ainsi \u00e9tudier l\u2019apport d\u2019une d\u00e9tection en entit\u00e9s nomm\u00e9es g\u00e9n\u00e9riques pour l\u2019extraction d\u2019information m\u00e9tier en domaine restreint.","translation":["What is the contribution of named entities detection for information extraction in restricted domain ?","In the framework of general domain dialog corpora a particular focus is dedicated to Named Entities definition and recognition, which are mostly very generic (personal names, locations, etc.). Moreover, call-centre data mining is strategic for a company like EDF, the public opinion analysis playing a significant role in EDF services quality evaluation and for marketing applications. In this purpose a domain dependant definition of entities of interest is essential. In this primary work we compare two types of entities models (generic and specific to the domain) in order to observe their respective coverage. We annotated manually a sub-corpus extracted from a large corpus of oral dialogs recorded in an EDF call-centre. The respective proportion of generic vs domain-specific Named Entities is then estimated. Impact for future work on building EDF domain-specific entities models is discussed.","named entities, business concept, information extraction, conversational data, annotation"],"keyphrases":["entit\u00e9s nomm\u00e9es","annotation","extraction d\u2019information","concepts m\u00e9tier","donn\u00e9es conversationnelles"],"prmu":["P","P","P","R","M"]} {"id":"taln-2012-court-005","title":"Sur l'application de m\u00e9thodes textom\u00e9triques \u00e0 la construction de crit\u00e8res de classification en analyse des sentiments","abstract":"Depuis une dizaine d'ann\u00e9es, le TAL s'int\u00e9resse \u00e0 la subjectivit\u00e9, notamment dans la perspective d'applications telles que la fouille d'opinion et l'analyse des sentiments. Or, la linguistique de corpus outill\u00e9e par des m\u00e9thodes textom\u00e9triques a souvent abord\u00e9 la question de la subjectivit\u00e9 dans les textes. Notre objectif est de montrer d'une part, ce que pourrait apporter \u00e0 l'analyse des sentiments l'analyse textom\u00e9trique et d'autre part, comment mutualiser les avantages d'une association entre celle-ci et une m\u00e9thode de classification automatique bas\u00e9e sur l'apprentissage supervis\u00e9. En nous appuyant sur un corpus de t\u00e9moignages issus de forums de discussion, nous montrerons que la prise en compte de crit\u00e8res s\u00e9lectionn\u00e9s suivant une analyse textom\u00e9trique permet d'obtenir des r\u00e9sultats de classification satisfaisants par rapport \u00e0 une vision purement lexicale.","translation":["About the application of textometric methods for developing classification criteria in Sentiment analysis","Over the last ten years, NLP has contributed to applied research on subjectivity, especially in applications such as Opinion mining and Sentiment analysis. However, corpus linguistics and textometry have often addressed the issue of subjectivity in text. Our purpose is to show, !rst, what textometric analysis could bring to sentiment analysis, and second, the bene!ts of pooling linguistic\/textometric analysis and automatic classification methods based on supervised learning. By processing a corpus of posts from fora, we will show that the building of criteria from a textometric analysis could improve classification results, compared to a purely lexical approach.","corpus linguistics, textometry, sentiment analysis, supervised learning"],"keyphrases":["textom\u00e9trie","analyse de sentiments","linguistique de corpus","classification automatique supervis\u00e9e"],"prmu":["P","P","P","R"]} {"id":"taln-2012-court-006","title":"M\u00e9thodologie d'exploration de corpus et de formalisation de r\u00e8gles grammaticales pour les langues des signes","abstract":"Cet article pr\u00e9sente une m\u00e9thodologie visant, \u00e0 partir d'une observation de corpus vid\u00e9o de langue des signes, \u00e0 rep\u00e9rer puis formaliser les r\u00e9gularit\u00e9s de structure dans les constructions linguistiques. Cette m\u00e9thodologie est applicable \u00e0 tous les niveaux du langage, du sub-lexical \u00e0 l'\u00e9nonc\u00e9 complet. En s'appuyant sur deux exemples, il pr\u00e9sente une application de cette m\u00e9thodologie ainsi que le mod\u00e8le AZee qui, int\u00e9grant la souplesse n\u00e9cessaire en termes de synchronisation des articulateurs, permet une formalisation des r\u00e8gles rep\u00e9r\u00e9es.","translation":["Methodology for corpus exploration and grammatical rule building in Sign Language","This paper presents a methodology for Sign Language video observation to extract and then formalise observed linguistic structure. This methodology is relevant to all linguistic layers from sub-lexical to discourse as a whole. Relying on two examples, we apply this methodology and describe the AZee model, which integrates the required flexibility for synchronising articulators, hence enables a specification of any new systematic rule observed.","Sign Language, corpus analysis, grammatical models, synchronisation"],"keyphrases":["Langue des signes","synchronisation","analyse de corpus","mod\u00e8le grammatical"],"prmu":["P","P","M","R"]} {"id":"taln-2012-court-007","title":"Annotation manuelle de matchs de foot : Oh la la la ! l'accord inter-annotateurs ! et c'est le but !","abstract":"Cet article pr\u00e9sente une campagne d\u2019annotation de commentaires de matchs de football en fran\u00e7ais. L\u2019annotation a \u00e9t\u00e9 r\u00e9alis\u00e9e \u00e0 partir d\u2019un corpus tr\u00e8s h\u00e9t\u00e9rog\u00e8ne, contenant \u00e0 la fois des comptes-rendus minute par minute et des transcriptions des commentaires vid\u00e9o. Nous montrons ici comment les accords intra- et inter-annotateurs peuvent \u00eatre utilis\u00e9s efficacement, en en proposant une d\u00e9finition adapt\u00e9e \u00e0 notre type de t\u00e2che et en mettant en exergue l\u2019importance de certaines bonnes pratiques concernant leur utilisation. Nous montrons \u00e9galement comment certains indices collect\u00e9s \u00e0 l\u2019aide d\u2019outils statistiques simples peuvent \u00eatre utilis\u00e9s pour indiquer des pistes de corrections des annotations. Ces diff\u00e9rentes propositions nous permettent par ailleurs d\u2019\u00e9valuer l\u2019impact des modalit\u00e9s sources de nos textes (oral ou \u00e9crit) sur le co\u00fbt et la qualit\u00e9 des annotations.","translation":["Manual Annotation of Football Matches : Inter-annotator Agreement ! Gooooal !","We present here an annotation campaign of commentaries of football matches in French. The annotation was done from a very heterogeneous text corpus of both match minutes and video commentary transcripts. We show how the intra- and inter-annotator agreement can be used efficiently during the whole campaign by proposing a definition of the markables suited to our type of task, as well as emphasizing the importance of using it appropriately. We also show how some clues, collected through statistical analyses, could be used to help correcting the annotations. These statistical analyses are then used to assess the impact of the source modality (written or spoken) on the cost and quality of the annotation process.","manual annotation, inter-annotator agreement"],"keyphrases":["annotation manuelle","accords inter-annotateurs"],"prmu":["P","P"]} {"id":"taln-2012-court-008","title":"Etude de diff\u00e9rentes strat\u00e9gies d'adaptation \u00e0 un nouveau domaine en fouille d'opinion","abstract":"Le travail pr\u00e9sent\u00e9 dans cet article se situe dans le contexte de la fouille d\u2019opinion et se focalise sur la d\u00e9termination de la polarit\u00e9 d\u2019un texte en adoptant une approche par apprentissage. Dans ce cadre, son objet est d\u2019\u00e9tudier diff\u00e9rentes strat\u00e9gies d\u2019adaptation \u00e0 un nouveau domaine dans le cas de figure fr\u00e9quent o\u00f9 des donn\u00e9es d\u2019entra\u00eenement n\u2019existent que pour un ou plusieurs domaines diff\u00e9rents du domaine cible. Cette \u00e9tude montre en particulier que l\u2019utilisation d\u2019une forme d\u2019auto-apprentissage par laquelle un classifieur annote un corpus du domaine cible et modifie son corpus d\u2019entra\u00eenement en y incorporant les textes class\u00e9s avec la plus grande confiance se r\u00e9v\u00e8le comme la strat\u00e9gie la plus performante et la plus stable pour les diff\u00e9rents domaines test\u00e9s. Cette strat\u00e9gie s\u2019av\u00e8re m\u00eame sup\u00e9rieure dans un nombre significatif de cas \u00e0 la m\u00e9thode propos\u00e9e par (Blitzer et al., 2007) sur les m\u00eames jeux de test tout en \u00e9tant plus simple.","translation":["Study of various strategies for adapting an opinion classifier to a new domain","The work presented in this article takes place in the field of opinion mining and aims more particularly at finding the polarity of a text by relying on machine learning methods. In this context, it focuses on studying various strategies for adapting a statistical classifier to a new domain when training data only exist for one or several other domains. This study shows more precisely that a self-training procedure consisting in enlarging the initial training corpus with texts from the target domain that were reliably classified by the classifier is the most successful and stable strategy for the tested domains. Moreover, this strategy gets better results in most cases than (Blitzer et al., 2007)\u2019s method on the same evaluation corpus while it is more simple.","opinion mining, domain adaptation, self-training"],"keyphrases":["adaptation \u00e0 un nouveau domaine","fouille d\u2019opinion","auto-apprentissage"],"prmu":["P","P","P"]} {"id":"taln-2012-court-009","title":"Le Lexicoscope : un outil pour l'\u00e9tude de profils combinatoires et l'extraction de constructions lexico-syntaxiques","abstract":"Dans le cadre du projet franco-allemand Emolex, d\u00e9di\u00e9 \u00e0 l'\u00e9tude contrastive de la combinatoire du lexique des \u00e9motions en 5 langues, nous avons d\u00e9velopp\u00e9 des outils et des m\u00e9thodes permettant l'extraction, la visualisation et la comparaison de profls combinatoires pour des expressions simples et complexes. Nous pr\u00e9sentons ici l'architecture d'ensemble de la plate-forme, con\u00e7ue pour efectuer des extractions sur des corpus de grandes dimensions (de l'ordre de la centaine de millions de mots) avec des temps de r\u00e9ponse r\u00e9duits (le corpus \u00e9tant interrogeable en ligne1). Nous d\u00e9crivons comment nous avons introduit la notion de pivots complexes, afn de permettre aux utilisateurs de rafner progressivement leurs requ\u00eates pour caract\u00e9riser des constructions lexico-syntaxiques \u00e9labor\u00e9es. Enfn, nous donnons les premiers r\u00e9sultats d'un module d'extraction automatique d'expressions polylexicales r\u00e9currentes.","translation":["The Lexicoscope : an integrated tool for combinatoric profles observation and lexico-syntactic constructs extraction","The German-French research project Emolex whose aim is the contrastive study of the combinatorial behaviour of emotion lexemes in 5 languages has led to the development of methods and tools to extract, display and compare the combinatorial profles of simple and complex expressions. In this paper, we present the overall architecture of the query platform which has been conceived to ensure efcient processing of huge annotated text corpora (consisting of several hundred millions of word tokens) accessible through a web-based interface. We put forward the concept of \u201ccomplex query nodes\u201d introduced to enable users to carry out progressively elaborated extractions of lexical-syntactic patterns. We fnally give primary results of an automated method for the retrieval of recurrent multi-word expressions, which takes advantage of the complex query nodes implementation.","collocations, combinatorial profles, multi-word expressions"],"keyphrases":["lexique des \u00e9motions","profl combinatoire","expressions polylexicales","collocations","cooccurrences"],"prmu":["P","P","P","U","U"]} {"id":"taln-2012-court-010","title":"Analyse des contextes et des candidats dans l'identification des \u00e9quivalents terminologiques en corpus comparables","abstract":"L\u2019approche standard d\u2019identification d\u2019\u00e9quivalents terminologiques \u00e0 partir de corpus comparables repose sur la comparaison de mots contextuels en langues source et cible et sur l\u2019utilisation d\u2019un lexique bilingue. Nous analysons manuellement, selon des crit\u00e8res linguistiques (parties du discours, sp\u00e9cificit\u00e9 et relations s\u00e9mantiques), les propri\u00e9t\u00e9s des mots contextuels et des erreurs commises par l\u2019approche standard appliqu\u00e9e \u00e0 la terminologie m\u00e9dicale pour sugg\u00e9rer des am\u00e9liorations bas\u00e9es sur la s\u00e9lection de mots contextuels.","translation":["Analysis of contexts and candidates in term-translation spotting in comparable corpora","The standard approach for identifying terminological equivalents from comparable corpora is based on the comparison of source and target language context words using a bilingual lexicon. We cary a manual analysis of the linguistic properties (parts of speech, specificity and semantic relations) of the context words and the inacurrate equivalents given by the standard approach applied to medical terminology, in order to suggest improvements based on the selection of context words.","terminological equivalents, contextual vectors, comparable corpora, medical terminology, qualitative study."],"keyphrases":["\u00e9quivalents terminologiques","corpus comparables","terminologie m\u00e9dicale","vecteurs contextuels","\u00e9tude qualitative"],"prmu":["P","P","P","M","U"]} {"id":"taln-2012-court-011","title":"BiTermEx Un prototype d'extraction de mots compos\u00e9s \u00e0 partir de documents comparables via la m\u00e9thode compositionnelle","abstract":"Nous d\u00e9crivons BiTermEx, un prototype d'exp\u00e9rimentation de l'extraction de terminologie bilingue de mots compos\u00e9s, \u00e0 partir de documents comparables, via la m\u00e9thode compositionnelle. Nous expliquons la variation morphologique et la combinaison des constituants lexicaux des termes compos\u00e9s. Cette permet une pr\u00e9cision TOP1 de 92% et 97,5% en fran\u00e7ais anglais, et de 94% en fran\u00e7ais japonais pour l'alignement de termes compos\u00e9s (textes scientifiques et de vulgarisation scientifique).","translation":["BiTermEx , A prototype for the extraction of multiword terms from comparable documents through the compositional approach","We describe BiTermEx, a prototype for extracting multiword terms from comparable corpora, using the compositional method. We focus on morphology-based variations of multiword constituents and their recombinaison. We experimented our approach on scientific and popular science corpora. We record TOP1 precisions of 92% and 97,5% on French to English alignments and 94% on French to Japanese.","term extraction, prototype, bilingual terminology, comparable documents, compositional method, multiword terms, corpus"],"keyphrases":["prototype","mots compos\u00e9s","documents comparables","m\u00e9thode compositionnelle","terminologie bilingue","extraction terminologique","corpus"],"prmu":["P","P","P","P","P","R","U"]} {"id":"taln-2012-court-012","title":"Combinaison d'approches pour l'extraction automatique d'\u00e9v\u00e9nements","abstract":"Dans cet article, nous pr\u00e9sentons un syst\u00e8me d\u2019extraction automatique d\u2019\u00e9v\u00e9nements fond\u00e9 sur deux approches actuelles en extraction d\u2019information : la premi\u00e8re s\u2019appuie sur des r\u00e8gles linguistiques construites manuellement et la seconde se fonde sur un apprentissage automatique de patrons linguistiques. Les exp\u00e9rimentations r\u00e9alis\u00e9es montrent que combiner ces deux m\u00e9thodes d\u2019extraction permet d\u2019am\u00e9liorer significativement la qualit\u00e9 des \u00e9v\u00e9nements extraits (am\u00e9lioration de pr\u00e8s de 10 points de F-mesure).","translation":["Automatic events extraction by combining multiple approaches","In this paper, we present an automatic system for extracting events based on the combination of two existing information extraction approaches : the first one is made of hand-crafted linguistic rules and the second one is based on an automatic learning of linguistic patterns. We have shown that this mixed approach leads to a significant improvement of extraction performances.","Text mining, events, symbolic extraction, linguistic pattern learning"],"keyphrases":["\u00e9v\u00e9nements","Extraction d\u2019information","approche symbolique","apprentissage de patrons linguistiques"],"prmu":["P","P","M","R"]} {"id":"taln-2012-court-013","title":"Apprentissage automatique d'un chunker pour le fran\u00e7ais","abstract":"Nous d\u00e9crivons dans cet article comment nous avons proc\u00e9d\u00e9 pour apprendre automatiquement un chunker \u00e0 partir du French Tree Bank, en utilisant les CRF (Conditional Random Fields). Nous avons r\u00e9alis\u00e9 diverses exp\u00e9riences, pour reconna\u00eetre soit l\u2019ensemble de tous les chunks possibles, soit les seuls groupes nominaux simples. Nous \u00e9valuons le chunker obtenu aussi bien de mani\u00e8re interne (sur le French Tree Bank lui-m\u00eame) qu\u2019externe (sur un corpus distinct transcrit de l\u2019oral), afin de mesurer sa robustesse.","translation":["Machine Learning of a chunker for French","We describe in this paper how to automatically learn a chunker for French, from the French Tree Bank and CRFs (Conditional Random Fields). We did several experiments, either to recognize every possible kind of chunks, or to focus on simple nominal phrases only. We evaluate the obtained chunker on internal data (i.e. also extracted from the French Tree Bank) as well as on external (i.e from a distinct corpus) ones, to measure its robustness.","chunking, Machine Learning, French Tree Bank, CRF"],"keyphrases":["apprentissage automatique","French Tree Bank","CRF","chunking"],"prmu":["P","P","P","U"]} {"id":"taln-2012-court-014","title":"Effacement de dimensions de similarit\u00e9 textuelle pour l\u2019exploration de collections de rapports d\u2019incidents a\u00e9ronautiques","abstract":"Cet article \u00e9tudie le lien entre la similarit\u00e9 textuelle et une classification extrins\u00e8que dans des collections de rapports d\u2019incidents a\u00e9ronautiques. Nous cherchons \u00e0 compl\u00e9ter les strat\u00e9gies d\u2019analyse de ces collections en \u00e9tablissant automatiquement des liens de similarit\u00e9 entre les documents de fa\u00e7on \u00e0 ce qu\u2019ils ne refl\u00e8tent pas l\u2019organisation des sch\u00e9mas de codification utilis\u00e9s pour leur classement. Afin de mettre en \u00e9vidence les dimensions de variation transversales \u00e0 la classification, nous calculons un score de d\u00e9pendance entre les termes et les classes et excluons du calcul de similarit\u00e9 les termes les plus corr\u00e9l\u00e9s \u00e0 une classe donn\u00e9e. Nous montrons par une application sur 500 documents que cette m\u00e9thode permet effectivement de d\u00e9gager des th\u00e9matiques qui seraient pass\u00e9es inaper\u00e7ues au vu de la trop grande saillance des similarit\u00e9s de haut niveau.","translation":["Deletion of dimensions of textual similarity for the exploration of collections of accident reports in aviation","In this paper we study the relationship between external classification and textual similarity in collections of incident reports. Our goal is to complement the existing classification-based analysis strategies by automatically establishing similarity links between documents in such a way that they do not reflect the dominant organisation of the classification schemas. In order to discover such transversal dimensions of similarity, we compute association scores between terms and classes and exlude the most correlated terms from the similarity calculation. We demonstrate on a 500 document corpus that by using this method, we can isolate topics that would otherwise have been masked by the dominant dimensions of similarity in the collection.","textual simliarity, document classification, specialised corpora"],"keyphrases":["similarit\u00e9 textuelle","classification de documents","corpus sp\u00e9cialis\u00e9"],"prmu":["P","R","U"]} {"id":"taln-2012-court-015","title":"Traduction automatique \u00e0 partir de corpus comparables: extraction de phrases parall\u00e8les \u00e0 partir de donn\u00e9es comparables multimodales","abstract":"Les performances des syst\u00e8mes de traduction automatique statistique d\u00e9pendent de la disponibilit\u00e9 de textes parall\u00e8les bilingues, appel\u00e9s aussi bitextes. Cependant, les corpus parall\u00e8les sont des ressources limit\u00e9es et parfois indisponibles pour certains couples de langues ou domaines. Nous pr\u00e9sentons une technique pour l\u2019extraction de phrases parall\u00e8les \u00e0 partir d\u2019un corpus comparable multimodal (audio et texte). Ces enregistrements sont transcrits avec un syst\u00e8me de reconnaissance automatique de la parole et traduits avec un syst\u00e8me de traduction automatique. Ces traductions sont ensuite utilis\u00e9es comme requ\u00eates d\u2019un syst\u00e8me de recherche d\u2019information pour s\u00e9lectionner des phrases parall\u00e8les sans erreur et g\u00e9n\u00e9rer un bitexte. Plusieurs exp\u00e9riences ont \u00e9t\u00e9 men\u00e9es sur les donn\u00e9es de la campagne IWSLT\u201911 (TED) qui montrent la faisabilit\u00e9 de notre approche.","translation":["Automatic Translation from Comparable corpora : extracting parallel sentences from multimodal comparable corpora","Statistical Machine Translation (SMT) systems depend on the availability of bilingual parallel text, also called bitext. However parallel corpora are a limited resource and are often not available for some domains or language pairs. We present an alternative method for extracting parallel sentences from multimodal comparable corpora. This work extends the use of comparable corpora, in using audio instead of text on the source side. The audio is transcribed by an automatic speech recognition system and translated with a base-line SMT system. We then use information retrieval in a large text corpus of the target language to extract parallel sentences. We have performed a series of experiments on data of the IWSLT\u201911 speech translation task (TED) that shows the feasibility of our approach.","Automatic speech recognition, statistical machine translation, multimodal comparable corpora, extraction of parallel sentences"],"keyphrases":["extraction de phrases parall\u00e8les","traduction automatique statistique","corpus comparables multimodaux","Reconnaissance de la parole"],"prmu":["P","P","P","R"]} {"id":"taln-2012-court-016","title":"La reconnaissance automatique de la fonction des pronoms d\u00e9monstratifs en langue arabe","abstract":"La r\u00e9solution d'anaphores est l'une des t\u00e2ches les plus difficiles du Traitement Automatique du Langage Naturel (TALN). La capacit\u00e9 de classifier les pronoms avant de tenter une t\u00e2che de r\u00e9solution d'anaphores serait importante, puisque pour traiter un pronom cataphorique le syst\u00e8me doit chercher l\u2019ant\u00e9c\u00e9dent dans le segment qui suit le pronom. Alors que, pour le pronom anaphorique, le syst\u00e8me doit chercher l\u2019ant\u00e9c\u00e9dent dans le segment qui pr\u00e9c\u00e8de le pronom. En outre, le nombre des pronoms a \u00e9t\u00e9 jug\u00e9e non-trivial dans la langue arabe. C\u2019est dans ce cadre que se situe notre travail qui consiste \u00e0 proposer une m\u00e9thode pour la classification automatique des pronoms d\u00e9monstratifs arabes, bas\u00e9e sur l\u2019apprentissage. Nous avons \u00e9valu\u00e9 notre approche sur un corpus compos\u00e9 de 365585 mots contenant 14318 pronoms d\u00e9monstratifs et nous avons obtenu des r\u00e9sultats encourageants : 99.3% comme F-Mesure.","translation":["Automatic recognition of demonstrative pronouns function in Arabic","Anaphora resolution is one of the most difficult tasks in NLP. Classifying pronouns before attempting a task of anaphora resolution is important because to handle the cataphoric pronoun, the system should determine the antecedent into the segment following the pronoun. Although, for the anaphoric pronoun, the system should look for the antecedent into the segment before the pronoun. In addition, the number of demonstrative pronouns is very important in Arabic. In this paper, we describe a machine learning method for classifying demonstrative pronouns in Arabic. We have evaluated our approach on a corpus of 365585 words which contain 14318 demonstrative pronouns and we have obtained encouraging results: 99.3% as F-Measure.","Demonstrative pronouns, anaphora resolution, ANLP"],"keyphrases":["Pronoms d\u00e9monstratifs","r\u00e9solution des anaphores","traitement de la langue arabe"],"prmu":["P","R","R"]} {"id":"taln-2012-court-017","title":"Un annotateur automatique d'expressions temporelles du fran\u00e7ais et son \u00e9valuation sur le TimeBank du fran\u00e7ais","abstract":"Dans cet article, nous pr\u00e9sentons un outil d\u2019extraction et de normalisation d\u2019un sous-ensemble d\u2019expressions temporelles d\u00e9velopp\u00e9 pour le fran\u00e7ais. Cet outil est mis au point et utilis\u00e9 dans le cadre du projet ANR Chronolines1 et il est appliqu\u00e9 sur un corpus fourni par l\u2019AFP. Notre but final dans le cadre du projet est de construire semi-automatiquement des chronologies \u00e9v\u00e9nementielles \u00e0 partir de la base de dep\u00eaches de l\u2019AFP. L\u2019une des \u00e9tapes du traitement est l\u2019analyse de l\u2019information temporelle v\u00e9hicul\u00e9e dans les textes. Nous avons donc d\u00e9velopp\u00e9 un annotateur d\u2019expressions temporelles pour le fran\u00e7ais que nous d\u00e9crivons dans cet article. Nous pr\u00e9senterons \u00e9galement les r\u00e9sultats de son \u00e9valuation.","translation":["An Automatic Temporal Expression Annotator and its Evaluation on the French TimeBank","In this article, we present a tool that extracts and normalises a subset of temporal expressions in French. This tool is being developed and used in the ANR (French National Research Agency) project Chronolines, applied to a corpus of provided by the Agence France Presse. The aim of the project is to semi-automatically construct event chronologies from this corpus. To do this, a detailed analysis of the temporal information conveyed by texts, is required. The system we present here is the first version of a temporal annotator that we have developed for French. We describe it in this article and present the results of an evaluation.","Temporal processing, evaluation"],"keyphrases":["\u00e9valuation","Analyse temporelle"],"prmu":["P","R"]} {"id":"taln-2012-court-018","title":"Vers le FDTB : French Discourse Tree Bank","abstract":"Nous pr\u00e9sentons les premiers pas vers la cr\u00e9ation d\u2019un corpus annot\u00e9 en discours pour le fran\u00e7ais : le French Discourse TreeBank enrichissant le FTB. La m\u00e9thodologie adopt\u00e9e s\u2019inspire du Penn Discourse TreeBank (PDTB) mais elle s\u2019en distingue sur au moins deux points \u00e0 caract\u00e8re th\u00e9orique. D\u2019abord, notre objectif est de fournir une couverture totale d\u2019un texte du corpus, tandis que le PDTB ne fournit qu\u2019une couverture partielle, qui ne peut donc pas \u00eatre qualifi\u00e9e d\u2019analyse discursive comme celle faite en RST ou SDRT, deux th\u00e9ories majeures sur le discours. Ensuite, nous avons \u00e9t\u00e9 amen\u00e9s \u00e0 d\u00e9finir une nouvelle hi\u00e9rarchie des relations de discours qui s\u2019inspire de RST, de SDRT et du PDTB.","translation":["Towards the FDTB : French Discourse Tree Bank","We present the first steps towards creating an annotated corpus for discourse in French : the French Discourse Treebank enriching the FTB. Our methodology is based on the Penn Discourse Treebank (PDTB), but it differs in at least two points of a theoretical nature. First, our goal is to provide full coverage of a text, while the PDTB provides only partial coverage, which can not be described as discourse analysis such as the one made in RST or SDRT, two major theories on discourse. Second, we were led to define a new hierarchy of discourse relations which is based on RST, SDRT and PDTB.","Discourse, manually annotated corpus, discourse analysis, PDTB, RST, SDRT"],"keyphrases":["Discours","PDTB","analyse discursive","RST","SDRT","corpus annot\u00e9 manuellement"],"prmu":["P","P","P","P","P","M"]} {"id":"taln-2012-court-019","title":"Combinaison de ressources g\u00e9n\u00e9rales pour une contextualisation implicite de requ\u00eates","abstract":"L\u2019utilisation de sources externes d\u2019informations pour la recherche documentaire a \u00e9t\u00e9 consid\u00e9rablement \u00e9tudi\u00e9e dans le pass\u00e9. Des am\u00e9liorations de performances ont \u00e9t\u00e9 mises en lumi\u00e8re avec des corpus larges ou structur\u00e9s. N\u00e9anmoins, dans ces \u00e9tudes les ressources sont souvent utilis\u00e9es s\u00e9par\u00e9ment mais rarement combin\u00e9es. Nous pr\u00e9sentons une \u00e9valuation de la combinaison de quatre diff\u00e9rentes ressources g\u00e9n\u00e9rales, standards et accessibles. Nous utilisons une mesure de distance informative pour extraire les caract\u00e9ristiques contextuelles des diff\u00e9rentes ressources et am\u00e9liorer la repr\u00e9sentation de la requ\u00eate. Cette \u00e9valuation est men\u00e9e sur une t\u00e2che de recherche d\u2019information sur le Web en utilisant le corpus ClueWeb09 et les topics de la piste Web de TREC. Les meilleurs r\u00e9sultats sont obtenus en combinant les quatre ressources, et sont statistiquement significativement sup\u00e9rieurs aux autres approches.","translation":["Query Contextualization and Reformulation by Combining External Corpora","Improving document retrieval using external sources of information has been extensively studied throughout the past. Improvements with either structured or large corpora have been reported. However, in these studies resources are often used separately and rarely combined together. We present an evaluation of the combination of four different scalable corpora over a web search task. An informative divergence measure is used to extract contextual features from the corpora and improve query representation. We use the ClueWeb09 collection along with TREC\u2019s Web Track topics for the purpose of our evaluation. Best results are achieved when combining all four corpora, and are significantly better than the results of other approaches.","Resources combination, contextual IR, web search."],"keyphrases":["Combinaison de ressources","RI contextuelle","recherche web"],"prmu":["P","M","R"]} {"id":"taln-2012-court-020","title":"Rep\u00e9rage des entit\u00e9s nomm\u00e9es pour l'arabe : adaptation non-supervis\u00e9e et combinaison de syst\u00e8mes","abstract":"La d\u00e9tection des Entit\u00e9s Nomm\u00e9es (EN) en langue arabe est un pr\u00e9traitement potentiellement utile pour de nombreuses applications du traitement des langues, en particulier pour la traduction automatique. Cette t\u00e2che repr\u00e9sente toutefois un s\u00e9rieux d\u00e9fi, compte tenu des sp\u00e9cificit\u00e9s de l\u2019arabe. Dans cet article, nous pr\u00e9sentons un compte-rendu de nos efforts pour d\u00e9velopper un syst\u00e8me de rep\u00e9rage des EN s\u2019appuyant sur des m\u00e9thodes statistiques, en d\u00e9taillant les aspects li\u00e9s \u00e0 la s\u00e9lection des caract\u00e9ristiques les plus utiles pour la t\u00e2che ; puis diverses tentatives pour adapter ce syst\u00e8me d\u2019une mani\u00e8re enti\u00e8rement non supervis\u00e9e.","translation":["Named Entity Recognition for Arabic : Unsupervised adaptation and Systems combination","The recognition of Arabic Named Entities (NE) is a potentially useful preprocessing step for many Natural Language Processing Applications, such as Machine Translation. This task is however made very complex by some peculiarities of the Arabic language. In this paper, we present a summary of our recent efforts aimed at developing a statistical NE recognition system, with a specific focus on feature engineering aspects. We also report several approaches for adapting this system in an entirely unsupervised manner to a new domain.","Unsupervised domain adaptation, named entity recognition"],"keyphrases":["Rep\u00e9rage des entit\u00e9s nomm\u00e9es","Adaptation non supervis\u00e9e"],"prmu":["P","R"]} {"id":"taln-2012-court-021","title":"Propagation de polarit\u00e9s dans des familles de mots : impact de la morphologie dans la construction d'un lexique pour l'analyse de sentiments","abstract":"Les ressources lexicales sont cruciales pour de nombreuses applications de traitement automatique de la langue (par exemple, l'extraction d'opinions \u00e0 partir de corpus). Cependant, leur construction pose des probl\u00e8mes \u00e0 diff\u00e9rents niveaux (co\u00fbt, couverture, etc.). Dans cet article, nous avons voulu v\u00e9rifier si les informations morphologiques li\u00e9es \u00e0 la d\u00e9rivation pouvaient \u00eatre exploit\u00e9es pour l'annotation automatique d'informations s\u00e9mantiques. En partant d'une ressource regroupant les mots en familles morphologiques en fran\u00e7ais, nous avons construit un lexique de polarit\u00e9s pour 4 065 mots, \u00e0 partir d'une liste initiale d'adjectifs annot\u00e9s manuellement. Les r\u00e9sultats obtenus montrent que la propagation des polarit\u00e9s est correcte pour 78,89% des familles avec un seul adjectif. Le lexique ainsi obtenu am\u00e9liore aussi les r\u00e9sultats du syst\u00e8me d'extraction d'opinions.","translation":["Spreading Polarities among Word Families: Impact of Morphology on Building a Lexicon for Sentiment Analysis","Lexical resources are essential for many natural language applications (for example, opinion mining from corpora). However, building them entails different problems (cost, coverage, etc.). In this paper, we wanted to verify whether morphological information about derivation could be used to automatically annotate semantic information. Starting from a resource that groups words into morphological families in French, we have built a lexicon with polarities for 4 065 words from an initial seed set of manual annotated adjectives. The results obtained show that spreading polarities is accurate for 78.89% of the families with a unique adjective. The lexicon obtained also improves the results of the opinion mining system on different corpora.","lexical resources, derivational morphology, opinion mining"],"keyphrases":["analyse de sentiments","ressources lexicales","morphologie d\u00e9rivationnelle"],"prmu":["P","P","M"]} {"id":"taln-2012-court-022","title":"Transitions th\u00e9matiques : Annotation d'un corpus journalistique et premi\u00e8res analyses","abstract":"Le travail pr\u00e9sent\u00e9 dans cet article est centr\u00e9 sur la constitution d\u2019un corpus de textes journalistiques annot\u00e9s au niveau discursif d\u2019un point de vue th\u00e9matique. Le mod\u00e8le d\u2019annotation est une segmentation classique, \u00e0 laquelle nous ajoutons un rep\u00e9rage de zones de transition entre unit\u00e9s th\u00e9matiques. Nous faisons l\u2019hypoth\u00e8se que dans un texte bien construit, le scripteur fournit des indications aidant le lecteur \u00e0 passer d\u2019un sujet \u00e0 un autre, l\u2019identification de ces indices \u00e9tant susceptible d\u2019am\u00e9liorer les proc\u00e9dures de segmentation automatique. Les annotations produites ont fait l\u2019objet d\u2019analyses quantitatives mettant en \u00e9vidence un ensemble de propri\u00e9t\u00e9s des transitions entre th\u00e8mes.","translation":["Manual thematic annotation of a journalistic corpus : first observations and evaluation","The work presented in this paper focuses on the creation of a corpus of journalistic texts annotated at dicourse level, more precisely on a topic level. The annotation model is a classic segmentation one, to which we add transition zones between topical units. We assume that in a well-structured text, the author provides information helping the reader to move from one topic to another, where an identification of these clues is likely to improve automatic segmentation. The produced annotations have been subject of several quantitative analyses showing a set of linguistic properties of topical transitions.","Discourse structure, topical segments, topical transitions, annotation"],"keyphrases":["transitions th\u00e9matiques","annotation","Structure du discours","segments th\u00e9matiques"],"prmu":["P","P","U","R"]} {"id":"taln-2012-court-023","title":"La \"multi-extraction\" comme strat\u00e9gie d'acquisition optimis\u00e9e de ressources terminologiques et non terminologiques","abstract":"A partir de l'\u00e9valuation d'extracteurs de termes men\u00e9e initialement pour d\u00e9tecter le meilleur outil d'acquisition du lexique d'une langue contr\u00f4l\u00e9e, nous proposons dans cet article une strat\u00e9gie d'optimisation du processus d'extraction terminologique. Nos travaux, men\u00e9s dans le cadre du projet ANR Sensunique, prouvent que la \u00ab multiextraction \u00bb, c'est-\u00e0-dire la coop\u00e9ration de plusieurs extracteurs de termes, donne des r\u00e9sultats significativement meilleurs que l\u2019extraction via un seul outil. Elle permet \u00e0 la fois de r\u00e9duire le silence et de filtrer automatiquement le bruit gr\u00e2ce \u00e0 la variation d'un indice relatif au potentiel terminologique.","translation":["Multi-extraction as a strategy of optimized extraction of terminological and lexical resources","Based on the evaluation of terminological extractors, initially to find the best tool for building a controlled language lexicon, we propose a strategy of optimized extraction of terminological resources. Our work highlights that the cooperation of several extraction tools gives better results than the use of a single one. It both reduces silence and automatically filters noise thanks to a variable related to termhood.","terminology, extraction, controlled language, termhood, term filtering"],"keyphrases":["extraction","terminologie","langue contr\u00f4l\u00e9e","potentiel terminologique","filtrage de termes"],"prmu":["P","P","P","P","M"]} {"id":"taln-2012-court-024","title":"Une Approche de Recherche d\u2019Information Structur\u00e9e fond\u00e9e sur la Correction d\u2019Erreurs \u00e0 l\u2019Indexation des Documents","abstract":"Dans cet article, nous nous sommes int\u00e9ress\u00e9s \u00e0 la prise en compte des erreurs dans les contenus textuels des documents XML. Nous proposons une approche visant \u00e0 diminuer l\u2019impact de ces erreurs sur les syst\u00e8mes de Recherche d\u2019Information (RI). En effet, ces syst\u00e8mes produisent des index associant chaque document aux termes qu\u2019il contient. Les erreurs affectent donc la qualit\u00e9 des index ce qui conduit par exemple \u00e0 consid\u00e9rer \u00e0 tort des documents mal index\u00e9s comme non pertinents (resp. pertinents) vis-\u00e0-vis de certaines requ\u00eates. Afin de faire face \u00e0 ce probl\u00e8me, nous proposons d\u2019inclure un m\u00e9canisme de correction d\u2019erreurs lors de la phase d\u2019indexation des documents. Nous avons impl\u00e9ment\u00e9 cette approche au sein d\u2019un prototype que nous avons \u00e9valu\u00e9 dans le cadre de la campagne d\u2019\u00e9valuation INEX.","translation":["Structured Information Retrieval Approach based on Indexing Time Error Correction","In this paper, we focused on errors in the textual content of XML documents. We propose an approach to reduce the impact of these errors on Information Retrieval (IR) systems. Indeed, these systems rely on indexes associating each document to corresponding terms. Indexes quality is negatively affected by those misspellings. These errors makes it difficult to later retrieve documents (or parts of them) in an effective way during the querying phase. In order to deal with this problem we propose to include an error correction mechanism during the indexing phase of documents. We achieved an implementation of this spelling aware information retrieval system which is currently evaluated over INEX evaluation campaign documents collection.","Information retrieval, misspellings, error correction, xml"],"keyphrases":["Recherche d\u2019information","correction d\u2019erreurs","xml","dysorthographie"],"prmu":["P","P","P","U"]} {"id":"taln-2012-court-025","title":"Post-\u00e9dition statistique pour l'adaptation aux domaines de sp\u00e9cialit\u00e9 en traduction automatique","abstract":"Cet article pr\u00e9sente une approche de post-\u00e9dition statistique pour adapter aux domaines de sp\u00e9cialit\u00e9 des syst\u00e8mes de traduction automatique g\u00e9n\u00e9riques. En utilisant les traductions produites par ces syst\u00e8mes, align\u00e9es avec leur traduction de r\u00e9f\u00e9rence, un mod\u00e8le de post-\u00e9dition bas\u00e9 sur un alignement sous-phrastique est construit. Les exp\u00e9riences men\u00e9es entre le fran\u00e7ais et l\u2019anglais pour le domaine m\u00e9dical montrent qu\u2019une telle adaptation a posteriori est possible. Deux syst\u00e8mes de traduction statistiques sont \u00e9tudi\u00e9s : une impl\u00e9mentation locale \u00e9tat-de-l\u2019art et un outil libre en ligne. Nous proposons aussi une m\u00e9thode de s\u00e9lection de phrases \u00e0 post-\u00e9diter permettant d\u2019embl\u00e9e d\u2019accro\u00eetre la qualit\u00e9 des traductions et pour laquelle les scores oracles indiquent des gains encore possibles.","translation":["Statistical Post-Editing of Machine Translation for Domain Adaptation","This paper presents a statistical approach to adapt generic machine translation systems to the medical domain through an unsupervised post-edition step. A statistical post-edition model is built on statistical machine translation outputs aligned with their translation references. Evaluations carried out to translate medical texts from French to English show that a generic machine translation system can be adapted a posteriori to a specific domain. Two systems are studied : a state-of-the-art phrase-based implementation and an online publicly available software. Our experiments also indicate that selecting sentences for post-edition leads to significant improvements of translation quality and that more gains are still possible with respect to an oracle measure.","Statistical Machine Translation, Post-editing, Domain Adaptation"],"keyphrases":["post-\u00e9dition","adaptation aux domaines de sp\u00e9cialit\u00e9","Traduction automatique statistique"],"prmu":["P","P","R"]} {"id":"taln-2012-court-026","title":"Annotation r\u00e9f\u00e9rentielle du Corpus Arbor\u00e9 de Paris 7 en entit\u00e9s nomm\u00e9es","abstract":"Le Corpus Arbor\u00e9 de Paris 7 (ou French TreeBank) est le corpus de r\u00e9f\u00e9rence pour le fran\u00e7ais aux niveaux morphosyntaxique et syntaxique. Toutefois, il ne contient pas d\u2019annotations explicites en entit\u00e9s nomm\u00e9es. Ces derni\u00e8res sont pourtant parmi les informations les plus utiles pour de nombreuses t\u00e2ches en traitement automatique des langues et de nombreuses applications. De plus, aucun corpus du fran\u00e7ais annot\u00e9 en entit\u00e9s nomm\u00e9es et de taille importante ne contient d\u2019annotation r\u00e9f\u00e9rentielle, qui compl\u00e8te les informations de typage et d\u2019empan sur chaque mention par l\u2019indication de l\u2019entit\u00e9 \u00e0 laquelle elle r\u00e9f\u00e8re. Nous avons annot\u00e9 manuellement avec ce type d\u2019informations, apr\u00e8s pr\u00e9-annotation automatique, le Corpus Arbor\u00e9 de Paris 7. Nous d\u00e9crivons les grandes lignes du guide d\u2019annotation sous-jacent et nous donnons quelques informations quantitatives sur les annotations obtenues.","translation":["Referential named entity annotation of the Paris 7 French TreeBank","The French TreeBank developed at the University Paris 7 is the main source of morphosyntactic and syntactic annotations for French. However, it does not include explicit information related to named entities, which are among the most useful information for several natural language processing tasks and applications. Moreover, no large-scale French corpus with named entity annotations contain referential information, which complement the type and the span of each mention with an indication of the entity it refers to. We have manually annotated the French TreeBank with such information, after an automatic pre-annotation step. We sketch the underlying annotation guidelines and we provide a few figures about the resulting annotations.","Named entity resolution, Annotated corpus, French TreeBank"],"keyphrases":["Corpus arbor\u00e9 de Paris 7","R\u00e9solution d\u2019entit\u00e9s nomm\u00e9es","Corpus annot\u00e9"],"prmu":["P","M","R"]} {"id":"taln-2012-court-027","title":"Utilisation des fonctions de croyance pour l'estimation de param\u00e8tres en traduction automatique","abstract":"Cet article concerne des travaux effectu\u00e9s dans le cadre du 7\u00e8me atelier de traduction automatique statistique et du projet ANR COSMAT. Ces travaux se focalisent sur l\u2019estimation de param\u00e8tres contenus dans une table de traduction. L\u2019approche classique consiste \u00e0 estimer ces param\u00e8tres \u00e0 partir de fr\u00e9quences relatives d\u2019\u00e9l\u00e9ments de traduction. Dans notre approche, nous proposons d\u2019utiliser le concept de masses de croyance afin d\u2019estimer ces param\u00e8tres. La th\u00e9orie des fonctions de croyances est une th\u00e9orie tr\u00e8s adapt\u00e9e \u00e0 la gestion des incertitudes dans de nombreux domaines. Les exp\u00e9riences bas\u00e9es sur notre approche s\u2019appliquent sur la traduction de la paire de langue fran\u00e7ais-anglais dans les deux sens de traduction.","translation":["Feature calculation for Statistical Machine Translation by using belief functions","In this paper, we consider the translation of texts within the framework of the 7th Workshop of Machine Translation evaluation task and the COSMAT corpus using a statistical machine translation approach. This work is focused on the translation features calculation of the phrase contained in a phrase table. The classical way to estimate these features are based on the direct computation counts or frequencies. In our approach, we propose to use the concept of belief masses to estimate the phrase probabilities. The Belief Function theory has proven to be suitable and adapted for the management of uncertainties in many domains. The experiments based on our approach are focused on the language pair English-French.","Statistical machine Translation, belief function, machine learning, feature estimation"],"keyphrases":["fonctions de croyance","estimation de param\u00e8tres","Traduction automatique statistique","apprentissage automatique"],"prmu":["P","P","P","M"]} {"id":"taln-2012-court-028","title":"La longueur des tours de parole comme crit\u00e8re de s\u00e9lection de conversations dans un centre d\u2019appels","abstract":"Cet article s\u2019int\u00e9resse aux conversations t\u00e9l\u00e9phoniques d\u2019un Centre d\u2019Appels EDF, automatiquement d\u00e9coup\u00e9es en \u00ab tours de parole \u00bb et automatiquement transcrites. Il fait appara\u00eetre une relation entre la longueur des tours de parole et leur contenu, en ce qui concerne le vocabulaire qui les compose et les sentiments qui y sont v\u00e9hicul\u00e9s. Apr\u00e8s avoir montr\u00e9 qu\u2019il y a un int\u00e9r\u00eat \u00e0 \u00e9tudier ces longs tours, l\u2019article analyse leur contenu et liste quelques exemples autour des notions d\u2019argumentation et de r\u00e9clamation. Il montre ainsi que la longueur des tours de parole peut \u00eatre un crit\u00e8re utile de s\u00e9lection de conversations.","translation":["Turn-taking length as criterion to select call center conversations","This article focuses on telephone conversations collected in an EDF Call Center, automatically segmented in \u201cturn-taking\u201d and automatically transcribed. It shows a relationship between the length of the turns and their content regarding the vocabulary and the feelings that are conveyed. After showing that there is an interest in studying these long turns, the article analyzes their content and lists some examples around the notions of argumentation and claim. It shows that the length of turns can be a useful criterion for selecting conversations.","Call Center, Conversation, Turn Taking, Automatic Speech Recognition"],"keyphrases":["Tour de parole","Conversation","Centre d\u2019appels","Reconnaissance de Parole"],"prmu":["P","P","P","M"]} {"id":"taln-2012-court-029","title":"Enjeux m\u00e9thodologiques, linguistiques et informatiques pour le traitement du fran\u00e7ais \u00e9crit des sourds","abstract":"L\u2019ouverture du Centre National de R\u00e9ception des Appels d\u2019Urgence (CNRAU) accessible aux sourds et malentendants fait \u00e9merger des questions linguistiques qui portent sur le fran\u00e7ais \u00e9crit des sourds, et des questions informatiques dans le domaine du traitement automatique du langage naturel. Le fran\u00e7ais \u00e9crit des sourds, pratiqu\u00e9 par une population h\u00e9t\u00e9rog\u00e8ne, comporte des sp\u00e9cificit\u00e9s morpho-syntaxiques et morpholexicales qui peuvent rendre probl\u00e9matique la communication \u00e9crite entre les personnes sourdes appelantes et les agents du CNRAU. Un premier corpus de fran\u00e7ais \u00e9crit sourd \u00e9licit\u00e9 avec mise en situation d\u2019urgence (FAX-ESSU) a \u00e9t\u00e9 recueilli dans la perspective de proposer des solutions TAL et linguistiques aux agents du CNRAU dans le cadre de ces \u00e9changes \u00e9crits. Nous pr\u00e9sentons une premi\u00e8re \u00e9tude lexicale, morphosyntaxique et syntaxique de ce corpus reposant en partie sur une cha\u00eene de traitement automatique, afin de valider les ph\u00e9nom\u00e8nes linguistiques d\u00e9crits dans la litt\u00e9rature et d'enrichir la connaissance du fran\u00e7ais \u00e9crit des sourds.","translation":["Methodological, linguistic and computational challenges for processing written French of deaf people","With the setup of a national emergency call-center for deaf people in France (CNRAU), some questions arise in linguistics and natural language processing about the written expression of deaf people. It is practiced by an heterogeneous population and shows morpho-syntactic, lexical and syntactic specificities which increase the difficulty, over the emergency situation, to successfully communicate between the deaf callers and the call-center operators. A first corpus (FAX-ESSU) of written French of deaf people was built with emergency conditions in order to provide linguistic and NLP solutions to the call center operators. On this corpus, we present a first study realized with the help of a natural language processing toolbox, in order to validation linguistic phenomenons described in the scientific literature and to enrich the knowledge of written French of deaf people.","Written French of deaf people, NLP, French as a foreign language, corpus linguistics, lexicon, syntax, methodology"],"keyphrases":["m\u00e9thodologie","Fran\u00e7ais \u00e9crit des sourds","syntaxe","TAL","Fran\u00e7ais Langue Etrang\u00e8re","linguistique de corpus","lexique"],"prmu":["P","P","P","P","M","R","U"]} {"id":"taln-2012-demo-001","title":"Grew : un outil de r\u00e9\u00e9criture de graphes pour le TAL","abstract":"Nous pr\u00e9sentons un outil de r\u00e9\u00e9criture de graphes qui a \u00e9t\u00e9 con\u00e7u sp\u00e9cifiquement pour des applications au TAL. Il permet de d\u00e9crire des graphes dont les noeuds contiennent des structures de traits et dont les arcs d\u00e9crivent des relations entre ces noeuds. Nous pr\u00e9sentons ici la r\u00e9\u00e9criture de graphes que l\u2019on consid\u00e8re, l\u2019implantation existante et quelques exp\u00e9rimentations.","translation":["Grew: a Graph Rewriting Tool for NLP","We present a Graph Rewriting Tool dedicated to NLP applications. Graph nodes contain feature structures and edges describe relations between nodes. We explain the Graph Rewriting framework we use, the implemented system and some experiments.","graph rewriting, syntax-semantics interface"],"keyphrases":["r\u00e9\u00e9criture de graphes","interface syntaxe-s\u00e9mantique"],"prmu":["P","U"]} {"id":"taln-2012-demo-002","title":"Interfaces de navigation dans des contenus audio et vid\u00e9o","abstract":"Deux types de d\u00e9monstrateurs sont pr\u00e9sent\u00e9s. Une premi\u00e8re interface \u00e0 vis\u00e9e didactique permet d'observer des traitements automatiques sur des documents vid\u00e9o. Plusieurs niveaux de repr\u00e9sentation peuvent \u00eatre montr\u00e9s simultan\u00e9ment, ce qui facilite l'analyse d'approches multi-vues. La seconde interface est une interface op\u00e9rationnelle de \"consommation\" de documents audio. Elle offre une exp\u00e9rience de navigation enrichie dans des documents audio gr\u00e2ce \u00e0 une visualisation de m\u00e9tadonn\u00e9es extraites automatiquement.","translation":["Navigation interfaces through audio and video contents","Two types of demonstrators are shown. A first interface, with didactic purposes, allows automatic processing of video documents to be observed. Several representation levels can be viewed simultaneously, which is particularly helpful to analyse the behaviour of multi-view approaches. The second interface is an operational audio document \"consumption\" interface. It offers an enriched navigation experience through the visualisation of automatically extracted metadata.","Multi-view processing, enriched navigation"],"keyphrases":["navigation enrichie","Traitements multi-vues"],"prmu":["P","R"]} {"id":"taln-2012-demo-003","title":"Synth\u00e8se de texte avec le logiciel Syntox","abstract":"Le logiciel Syntox, dont une interface utilisateur en ligne ce trouve \u00e0 cette URL : http:\/\/www.syntox.net, est une mise en application d\u2019un mod\u00e8le bas\u00e9 sur les grammaires attribu\u00e9es, dans le cadre de la synth\u00e8se de texte. L\u2019outil est une plateforme d\u2019exp\u00e9rimentation dont l\u2019ergonomie est simple. Syntox est capable de traiter des lexiques et des grammaires volumineux sur des textes ambigus \u00e0 partir de la description explicite de ph\u00e9nom\u00e8nes linguistiques.","translation":["Automated generation of text with Syntox","Syntox, which includes an online user interface at URL http:\/\/www.syntox.net, is an implementation of a model based on attribute grammars, in the context of automated generation of text. The sofware is intended as a platform for experimentation with an ergonomic interface. Syntox is usable with large vocabularies and grammars to produce ambiguous texts from an explicit description of linguistic phenomena.","Text generation, Attribute Grammars, Syntax"],"keyphrases":["Synth\u00e8se de texte","Grammaire attribu\u00e9e","Syntaxe"],"prmu":["P","P","U"]} {"id":"taln-2012-demo-004","title":"Un segmenteur-\u00e9tiqueteur et un chunker pour le fran\u00e7ais","abstract":"Nous proposons une d\u00e9monstration de deux programmes : un segmenteur-\u00e9tiqueteur POS pour le fran\u00e7ais et un programme de parenth\u00e9sage en \u201cchunks\u201d de textes pr\u00e9alablement trait\u00e9s par le programme pr\u00e9c\u00e9dent. Tous deux ont \u00e9t\u00e9 appris \u00e0 partir du French Tree Bank.","translation":["A Segmenter-POS Labeller and a Chunker for French","We propose a demo of two softwares : a Segmenter-POS Labeller for French and a Chunker for texts treated by the first program. Both have been learned from the French Tree Bank.","POS tagging, chunking, Machine Learning, French Tree Bank, CRF"],"keyphrases":["French Tree Bank","\u00e9tiquetage POS","chunking","apprentissage automatique","CRF"],"prmu":["P","M","U","U","U"]} {"id":"taln-2012-demo-005","title":"SPPAS : segmentation, phon\u00e9tisation, alignement, syllabation","abstract":"SPPAS est le nouvel outil du LPL pour l\u2019alignement texte\/son. La segmentation s\u2019op\u00e8re en 4 \u00e9tapes successives dans un processus enti\u00e8rement automatique ou semi-automatique, \u00e0 partir d\u2019un fichier audio et d\u2019une transcription. Le r\u00e9sultat comprend la segmentation en unit\u00e9s inter-pausales, en mots, en syllabes et en phon\u00e8mes. La version actuelle propose un ensemble de ressources qui permettent le traitement du fran\u00e7ais, de l\u2019anglais, de l\u2019italien et du chinois. L\u2019ajout de nouvelles langues est facilit\u00e9e par la simplicit\u00e9 de l\u2019architecture de l\u2019outil et le respect des formats de fichiers les plus usuels. L\u2019outil b\u00e9n\u00e9ficie en outre d\u2019une documentation en ligne et d\u2019une interface graphique afin d\u2019en faciliter l\u2019accessibilit\u00e9 aux non-informaticiens. Enfin, SPPAS n\u2019utilise et ne contient que des ressources et programmes sous licence libre GPL.","translation":["SPPAS : a tool to perform text\/speech alignment","SPPAS is a new tool dedicated to phonetic alignments, from the LPL laboratory. SPPAS produces automatically or semi-automatically annotations which include utterance, word, syllabic and phonemic segmentations from a recorded speech sound and its transcription. SPPAS is currently implemented for French, English, Italian and Chinese There is a very simple procedure to add other languages in SPPAS : it is just needed to add related resources in the appropriate directories. SPPAS can be used by a large community of users : accessibility and portability are importants aspects in its development. The tools and resources will all be distributed with a GPL license.","segmentation, phonetization, alignement, syllabification"],"keyphrases":["segmentation","phon\u00e9tisation","alignement","syllabation"],"prmu":["P","P","P","P"]} {"id":"taln-2012-demo-006","title":"Solution Proxem d\u2019analyse s\u00e9mantique verticale : adaptation au domaine des Ressources Humaines","abstract":"Proxem d\u00e9veloppe depuis 2007 une plate-forme de traitement du langage, Antelope, qui permet de construire rapidement des applications s\u00e9mantiques verticales (par exemple, pour l\u2019e-r\u00e9putation, la veille \u00e9conomique ou l\u2019analyse d\u2019avis de consommateurs). Antelope a servi \u00e0 cr\u00e9er une solution pour les Ressources Humaines, utilis\u00e9e notamment par l\u2019APEC, permettant (1) d\u2019extraire de l\u2019information \u00e0 partir d\u2019offres et de CVs et (2) de trouver les offres d\u2019emploi correspondant le mieux \u00e0 un CV (ou r\u00e9ciproquement). Nous pr\u00e9sentons ici l\u2019adaptation d\u2019Antelope \u00e0 un domaine particulier, en l\u2019occurrence les RH.","translation":["How to adapt the Proxem semantic analysis engine to the Human Resources field","Proxem develops since 2007 the NLP platform, Antelope, with which one can quickly build vertical semantic applications (for e-reputation, business intelligence or consumer reviews analysis, for instance). Antelope was used to create a Human Resources solution, notably used by APEC, making it possible (1) to extract information from resumes and offers and (2) to find the most relevant jobs matching a given resume (or vice versa). We present here how to adapt Antelope to a particular area, namely HR.","named entities, information extraction, ontologies development, matching"],"keyphrases":["entit\u00e9s nomm\u00e9es","extraction de relations","cr\u00e9ation d\u2019ontologies","similarit\u00e9"],"prmu":["U","M","M","U"]} {"id":"taln-2012-demo-007","title":"Nomao : un moteur de recherche g\u00e9olocalis\u00e9 sp\u00e9cialis\u00e9 dans la recommandation de lieux et l\u2019e-r\u00e9putation","abstract":"Cette d\u00e9monstration pr\u00e9sente NOMAO, un moteur de recherche g\u00e9olocalis\u00e9 qui permet \u00e0 ses utilisateurs de trouver des lieux (bars, magasins...) qui correspondent \u00e0 leurs go\u00fbts, \u00e0 ceux de leurs amis et aux recommandations des internautes.","translation":["Nomao : a geolocalized search engine dedicated to place recommendation and ereputation","This demonstration showcases NOMAO, a geolocalized search engine which recommends places (bars, shops...) based on the user\u2019s and its friend\u2019s tastes and on the web surfers\u2019 recommendations","information retrieval, opinion mining, text generation, web mining"],"keyphrases":["recherche d\u2019information","analyse d\u2019opinion","g\u00e9n\u00e9ration de texte","fouille du web"],"prmu":["M","U","M","U"]} {"id":"taln-2012-demo-008","title":"Le DictAm : Dictionnaire \u00e9lectronique des verbes amazighs-fran\u00e7ais","abstract":"Le DictAm est un dictionnaire \u00e9lectronique des verbes amazighs-fran\u00e7ais. Il vise \u00e0 rendre compte de l\u2019ensemble des verbes dans le domaine berb\u00e8re : conjugaison, diath\u00e8se et sens. Le DictAm comporte actuellement pr\u00e8s de 3000 verbes dans une soixantaine de parlers berb\u00e8res. C\u2019est un travail qui est en cours de r\u00e9alisation et qui a pour ambition de r\u00e9pertorier tous les verbes berb\u00e8res ainsi que leurs \u00e9quivalents en fran\u00e7ais.","translation":["The DictAm : An electronic dictionary of Amazigh-French verbs","In the frame of promoting the linguistic diversity among knowledge society, we suggest to elaborate an electronic dictionary of Amazigh-French verbs (DictAm). This dictionary aims at accounting for the verbs in the Amazigh sphere as a whole: conjugation, diathesis and meaning. The DictAm also adopts a comparative perspective in the sense that it collects the lexical materials of different dialectal varieties and makes them reachable. Now, the DictAm comprises around 3000 verbs deriving from about sixty Amazigh speeches. This work is currently in progress as well as it aspires to set up a repertoire of all Amazigh verbs and their French equivalents.","Electronic dictionary, bilingual dimension, linguistic diversity, verbs"],"keyphrases":["Dictionnaire \u00e9lectronique","verbes","dimension bilingue","diversit\u00e9 linguistique"],"prmu":["P","P","U","U"]} {"id":"taln-2012-demo-009","title":"Vizart3D : Retour Articulatoire Visuel pour l\u2019Aide \u00e0 la Prononciation","abstract":"L\u2019objectif du syst\u00e8me Vizart3D est de fournir \u00e0 un locuteur, en temps r\u00e9el, et de fa\u00e7on automatique, un retour visuel sur ses propres mouvements articulatoires. Les applications principales de ce syst\u00e8me sont l\u2019aide \u00e0 l\u2019apprentissage des langues \u00e9trang\u00e8res et la r\u00e9\u00e9ducation orthophonique (correction phon\u00e9tique). Le syst\u00e8me Vizart3D est bas\u00e9 sur la t\u00eate parlante 3D d\u00e9velopp\u00e9e au GIPSA-lab, qui laisse appara\u00eetre, en plus des l\u00e8vres, les articulateurs de la parole normalement cach\u00e9s (comme la langue). Cette t\u00eate parlante est anim\u00e9e automatiquement \u00e0 partir du signal audio de parole, \u00e0 l\u2019aide de techniques de conversion de voix et de r\u00e9gression acoustico-articulatoire par GMM.","translation":["Vizart3D: Visual Articulatory Feedack for Computer-Assisted Pronunciation Training","We describe a system of visual articulatory feedback, which aims to provide any speaker with a real feedback on his\/her own articulation. Application areas are computerassisted pronunciation training (phonetic correction) for second-language learning and speech rehabilitation. This system, named Vizartd3D, is based on the 3D augmented talking head developed at GIPSA-lab, which is able to display all speech articulators including usually hidden ones like the tongue. In our approach, the talking head is animated automatically from the audio speech signal, using GMM-based voice conversion and acoustic-to-articulatory regression.","visual feedback, pronunciation training, GMM, real-time, talking head"],"keyphrases":["aide \u00e0 la prononciation","temps r\u00e9el","retour visuel","t\u00eate parlante","GMM"],"prmu":["P","P","P","P","P"]} {"id":"taln-2012-demo-010","title":"ROCme! : logiciel pour l\u2019enregistrement et la gestion de corpus oraux","abstract":"ROCme! permet une gestion rationalis\u00e9e, autonome et d\u00e9mat\u00e9rialis\u00e9e de l\u2019enregistrement de corpus oraux. Il dispose notamment d\u2019une interface pour le recueil de m\u00e9tadonn\u00e9es sur les locuteurs totalement param\u00e9trable via des balises XML. Les locuteurs peuvent g\u00e9rer les r\u00e9ponses au questionnaire, l\u2019enregistrement audio, la lecture, la sauvegarde et le d\u00e9filement des phrases (ou autres types de corpus) en toute autonomie. ROCme! affiche du texte, avec ou sans mise en forme HTML, des images, du son et des vid\u00e9os.","translation":["ROCme!: software for the recording and management of oral corpora","management of speech recordings. Users can create interfaces for metadata collection thanks to XML tags. Speakers autonomously fill in questionnaires, record, play, and save audio; and browse sentences (or other types of corpora). ROCme! can display text, optionally with HTML formatting, images, sounds, and video.","corpus, oral, linguistics, software"],"keyphrases":["logiciel","corpus","oral","linguistique"],"prmu":["P","P","P","U"]} {"id":"taln-2015-invite-002","title":"Pourquoi construire des ressources terminologiques et pourquoi le faire diff\u00e9remment ?","abstract":"Dans cette pr\u00e9sentation, je d\u00e9fendrai l'id\u00e9e selon laquelle des ressources terminologiques d\u00e9crivant les propri\u00e9t\u00e9s lexico-s\u00e9mantiques des termes constituent un compl\u00e9ment n\u00e9cessaire, voire indispensable, \u00e0 d'autres types de ressources, \u00c0 partir d'exemples anglais et fran\u00e7ais emprunt\u00e9s au domaine de l'environnement, je montrerai, d'une part, que les ressources lexicales g\u00e9n\u00e9rales (y compris celles qui ont une large couverture) n'offrent pas un portait complet du sens des termes ou de la structure lexicale observ\u00e9e du point de vue d'un domaine de sp\u00e9cialit\u00e9. Je montrerai, d'autre part, que les ressources terminologiques (th\u00e9saurus, ontologies, banques de terminologie) souvent d'ob\u00e9dience conceptuelle, se concentrent sur le lien entre les termes et les connaissances d\u00e9not\u00e9es par eux et s'attardent peu sur leur fonctionnement linguistique. Je pr\u00e9senterai un type de ressource d\u00e9crivant les propri\u00e9t\u00e9s lexico-s\u00e9mantiques des termes d'un domaine (structure actantielle, liens lexicaux, annotations contextuelles, etc.) et des \u00e9l\u00e9ments m\u00e9thodologiques pr\u00e9sidant \u00e0 son \u00e9laboration.","translation":["Why compile terminological resources and why do it differently?","In this talk, I will argue that terminological resources that account for the lexico-semantic properties of terms are a necessary \u2013 perhaps even indispensable \u2013 complement to other kinds of resources. Using examples taken from the field of the environment, I will first show that general lexical resources (including those that have a large coverage) do not give a complete picture of the meaning of terms or the lexical structure observed from the point of view of a special subject field. I will then proceed to show that terminological resources (thesauri, ontologies, term banks), that often take a conceptual approach, focus on the relationship between terms and the knowledge they convey and give little information about the linguistic behavior of terms. I will present a type of resource that describes the lexico-semantic properties of terms (argument structure, lexical relationships, contextual annotations, etc.) and some methodological considerations about its compilation.","terminological resources, lexical resources, lexical relationships, specialized corpora, argument structure, contextual annotations"],"keyphrases":["ressources terminologiques","ressources lexicales","liens lexicaux","annotations contextuelles","corpus sp\u00e9cialis\u00e9","structure actancielle"],"prmu":["P","P","P","P","U","M"]} {"id":"taln-2015-long-001","title":"Apprentissage par imitation pour l'\u00e9tiquetage de s\u00e9quences : vers une formalisation des m\u00e9thodes d'\u00e9tiquetage \u00ab easy-first \u00bb","abstract":"De nombreuses m\u00e9thodes ont \u00e9t\u00e9 propos\u00e9es pour acc\u00e9l\u00e9rer la pr\u00e9diction d'objets structur\u00e9s (tels que les arbres ou les s\u00e9quences), ou pour permettre la prise en compte de d\u00e9pendances plus riches afin d'am\u00e9liorer les performances de la pr\u00e9diction. Ces m\u00e9thodes reposent g\u00e9n\u00e9ralement sur des techniques d'inf\u00e9rence approch\u00e9e et ne b\u00e9n\u00e9ficient d'aucune garantie th\u00e9orique aussi bien du point de vue de la qualit\u00e9 de la solution trouv\u00e9e que du point de vue de leur crit\u00e8re d'apprentissage. Dans ce travail, nous \u00e9tudions une nouvelle formulation de l'apprentissage structur\u00e9 qui consiste \u00e0 voir celui-ci comme un processus incr\u00e9mental au cours duquel la sortie est construite de fa\u00e7on progressive. Ce cadre permet de formaliser plusieurs approches de pr\u00e9diction structur\u00e9e existantes. Gr\u00e2ce au lien que nous faisons entre apprentissage structur\u00e9 et apprentissage par renforcement, nous sommes en mesure de proposer une m\u00e9thode th\u00e9oriquement bien justifi\u00e9e pour apprendre des m\u00e9thodes d'inf\u00e9rence approch\u00e9e. Les exp\u00e9riences que nous r\u00e9alisons sur quatre t\u00e2ches de TAL valident l'approche propos\u00e9e.","translation":["Imitation learning for sequence labeling: towards a formalization of easy-first labeling methods","Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning and inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little theoretical guarantee regarding the optimality of the solutions they find. In this work we study a new formulation of structured learning where inference is primarily viewed as an incremental process along which a solution is progressively computed. This framework generalizes several structured learning ap- proaches. Building on the connections between this framework and reinforcement learning, we propose a theoretically sound method to learn to perform approximate inference. Experiments on four sequence labeling tasks show that our approach is very competitive when compared to several strong baselines.","Imitation Learning, Structured Learning, Sequence Models"],"keyphrases":["Apprentissage par Imitation","\u00c9tiquetage de S\u00e9quences","Apprentissage Structur\u00e9"],"prmu":["P","P","P"]} {"id":"taln-2015-long-002","title":"Strat\u00e9gies de s\u00e9lection des exemples pour l'apprentissage actif avec des champs al\u00e9atoires conditionnels","abstract":"Beaucoup de probl\u00e8mes de TAL sont d\u00e9sormais mod\u00e9lis\u00e9s comme des t\u00e2ches d'apprentissage supervis\u00e9. De ce fait, le co\u00fbt des annotations des exemples par l'expert repr\u00e9sente un probl\u00e8me important. L'apprentissage actif (active learning) apporte un cadre \u00e0 ce probl\u00e8me, permettant de contr\u00f4ler le co\u00fbt d'annotation tout en maximisant, on l'esp\u00e8re, la performance de la t\u00e2che vis\u00e9e, mais repose sur le choix difficile des exemples \u00e0 soumettre \u00e0 l'expert. Dans cet article, nous examinons et proposons des strat\u00e9gies de s\u00e9lection des exemples pour le cas sp\u00e9cifique des champs al\u00e9atoires conditionnels (Conditional Random Fields, CRF), outil largement utilis\u00e9 en TAL. Nous proposons d'une part une m\u00e9thode simple corrigeant un biais de certaines m\u00e9thodes de l'\u00e9tat de l'art. D'autre part, nous d\u00e9taillons une m\u00e9thode originale de s\u00e9lection s'appuyant sur un crit\u00e8re de respect des proportions dans les jeux de donn\u00e9es manipul\u00e9s. Le bien- fond\u00e9 de ces propositions est v\u00e9rifi\u00e9 au travers de plusieurs t\u00e2ches et jeux de donn\u00e9es, incluant reconnaissance d'entit\u00e9s nomm\u00e9es, chunking, phon\u00e9tisation, d\u00e9sambigu\u00efsation de sens.","translation":["Strategies to select examples for Active Learning with Conditional Random Fields","Nowadays, many NLP problems are modelized as supervised machine learning tasks. Consequently, the cost of the ex- pertise needed to annotate the examples is a widespread issue. Active learning offers a framework to that issue, allowing to control the annotation cost while maximizing the classifier performance, but it relies on the key step of choosing which example will be proposed to the expert. In this paper, we examine and propose such selection strategies in the specific case of Conditional Random Fields (CRF) which are largely used in NLP. On the one hand, we propose a simple method to correct a bias of certain state-of-the-art selection techniques. On the other hand, we detail an original approach to select the examples, based on the respect of proportions in the datasets. These contributions are validated over a large range of experiments implying several tasks and datasets, including named entity recognition, chunking, phonetization, word sens disambiguation.","CRF, conditional random fields, active learning, semi-supervised learning, statistical test of proportion"],"keyphrases":["apprentissage actif","champs al\u00e9atoires conditionnels","CRF","apprentissage semi-supervis\u00e9","test statistique de proportion"],"prmu":["P","P","P","M","M"]} {"id":"taln-2015-long-003","title":"Identification de facteurs de risque pour des patients diab\u00e9tiques \u00e0 partir de comptes-rendus cliniques par des approches hybrides","abstract":"Dans cet article, nous pr\u00e9sentons les m\u00e9thodes que nous avons d\u00e9velopp\u00e9es pour analyser des comptes- rendus hospitaliers r\u00e9dig\u00e9s en anglais. L'objectif de cette \u00e9tude consiste \u00e0 identifier les facteurs de risque de d\u00e9c\u00e8s pour des patients diab\u00e9tiques et \u00e0 positionner les \u00e9v\u00e9nements m\u00e9dicaux d\u00e9crits par rapport \u00e0 la date de cr\u00e9ation de chaque document. Notre approche repose sur (i) HeidelTime pour identifier les expressions temporelles, (ii) des CRF compl\u00e9t\u00e9s par des r\u00e8gles de post-traitement pour identifier les traitements, les maladies et facteurs de risque, et (iii) des r\u00e8gles pour positionner temporellement chaque \u00e9v\u00e9nement m\u00e9dical. Sur un corpus de 514 documents, nous obtenons une F-mesure globale de 0,8451. Nous observons que l'identification des informations directement mentionn\u00e9es dans les documents se r\u00e9v\u00e8le plus performante que l'inf\u00e9rence d'informations \u00e0 partir de r\u00e9sultats de laboratoire.","translation":["Risk factor identification for diabetic patients from clinical records using hybrid approaches","In this paper, we present the methods we designed to process clinical records written in English. The aim of this study consists in identifying risk factors for diabetic patients and to define the temporal relation of those medical events wrt. the document creation time. Our approach relies (i) on HeidelTime to identify temporal expressions, (ii) on CRF and post-processing rules to identify treatments, diseases and risk factors, and (iii) on rules to determine the temporal relation of each medical event. On a corpus of 514 documents, we achieved a 0.8451 global F-measure. We observe we performed best on the identification of information mentionned in the text than information inference from lab results.","Electronic Health Records, Information Extraction, Machine Learning"],"keyphrases":["Comptes-rendus hospitaliers","extraction d'information","apprentissage statistique"],"prmu":["R","M","U"]} {"id":"taln-2015-long-004","title":"Oublier ce qu'on sait, pour mieux apprendre ce qu'on ne sait pas : une \u00e9tude sur les contraintes de type dans les mod\u00e8les CRF","abstract":"Quand on dispose de connaissances a priori sur les sorties possibles d'un probl\u00e8me d'\u00e9tiquetage, il semble souhaitable d'inclure cette information lors de l'apprentissage pour simplifier la t\u00e2che de mod\u00e9lisation et acc\u00e9l\u00e9rer les traitements. Pourtant, m\u00eame lorsque ces contraintes sont correctes et utiles au d\u00e9codage, leur utilisation lors de l'apprentissage peut d\u00e9grader s\u00e9v\u00e8rement les performances. Dans cet article, nous \u00e9tudions ce paradoxe et montrons que le manque de contraste induit par les connaissances entra\u00eene une forme de sous-apprentissage qu'il est cependant possible de limiter.","translation":["Ignore what you know to better learn what you don't : a case study on type constraints for CRFs","When information about the possible outputs of a sequence labeling task is available, it may seem appropriate to include this knowledge into the system, so as to facilitate and speed-up learning and inference. However, we show in this paper that using such constraints at training time is likely to drastically reduce performance, even when they are both correct and useful at decoding. In this paper, we study this paradox and show that the lack of contrast induced by constraints leads to a form of under-fitting, that it is however possible to partially overcome.","Part-of-Speech Tagging, Statistical Machine Learning, Conditional Random Fields"],"keyphrases":["\u00c9tiquetage Morpho-Syntaxique","Apprentissage Statistique","Champs Markoviens Al\u00e9atoires"],"prmu":["M","M","U"]} {"id":"taln-2015-long-005","title":"Analyse d'expressions temporelles dans les dossiers \u00e9lectroniques patients","abstract":"Les r\u00e9f\u00e9rences \u00e0 des ph\u00e9nom\u00e8nes du monde r\u00e9el et \u00e0 leur caract\u00e9risation temporelle se retrouvent dans beaucoup de types de discours en langue naturelle. Ainsi, l'analyse temporelle appara\u00eet comme un \u00e9l\u00e9ment important en traitement automatique de la langue. Cet article pr\u00e9sente une analyse de textes en domaine de sp\u00e9cialit\u00e9 du point de vue temporel. En s'appuyant sur un corpus de documents issus de plusieurs dossiers \u00e9lectroniques patient d\u00e9sidentifi\u00e9s, nous d\u00e9crivons la construction d'une ressource annot\u00e9e en expressions temporelles selon la norme TimeML. Par suite, nous utilisons cette ressource pour \u00e9valuer plusieurs m\u00e9thodes d'extraction automatique d'expressions temporelles adapt\u00e9es au domaine m\u00e9dical. Notre meilleur syst\u00e8me statistique offre une performance de 0,91 de F-mesure, surpassant pour l'identification le syst\u00e8me \u00e9tat de l'art HeidelTime. La comparaison de notre corpus de travail avec le corpus journalistique FR-Timebank permet \u00e9galement de caract\u00e9riser les diff\u00e9rences d'utilisation des expressions temporelles dans deux domaines de sp\u00e9cialit\u00e9.","translation":["An analysis of temporal expressions in Electronic Health Records in French","References to phenomena ocurring in the world and their temporal caracterization can be found in a variety of natural language utterances. For this reason, temporal analysis is a key issue in natural language processing. This article presents a temporal analysis of specialized documents. We use a corpus of documents contained in several de-identified Electronic Health Records to develop an annotated resource of temporal expressions relying on the TimeML standard. We then use this corpus to evaluate several methods for the automatic extraction of temporal expressions. Our best statistical model yields 0.91 F-measure, which provides significant improvement on extraction, over the state-of-the-art system Heidel-Time. We also compare our medical corpus to FR-Timebank in order to characterize the uses of temporal expressions in two different subdomains","Information Extraction, Temporal Analysis, Development of Annotated Corpus"],"keyphrases":["Analyse Temporelle","Extraction d'Information","D\u00e9veloppement d'un Corpus Annot\u00e9"],"prmu":["P","M","M"]} {"id":"taln-2015-long-006","title":"Compr\u00e9hension automatique de la parole sans donn\u00e9es de r\u00e9f\u00e9rence","abstract":"La majorit\u00e9 des m\u00e9thodes \u00e9tat de l'art en compr\u00e9hension automatique de la parole ont en commun de devoir \u00eatre apprises sur une grande quantit\u00e9 de donn\u00e9es annot\u00e9es. Cette d\u00e9pendance aux donn\u00e9es constitue un r\u00e9el obstacle lors du d\u00e9veloppement d'un syst\u00e8me pour une nouvelle t\u00e2che\/langue. Aussi, dans cette \u00e9tude, nous pr\u00e9sentons une m\u00e9thode visant \u00e0 limiter ce besoin par un m\u00e9canisme d'apprentissage sans donn\u00e9es de r\u00e9f\u00e9rence (zero-shot learning). Cette m\u00e9thode combine une description ontologique minimale de la t\u00e2che vis\u00e9e avec l'utilisation d'un espace s\u00e9mantique continu appris par des approches \u00e0 base de r\u00e9seaux de neurones \u00e0 partir de donn\u00e9es g\u00e9n\u00e9riques non-annot\u00e9es. Nous montrons que le mod\u00e8le simple et peu co\u00fbteux obtenu peut atteindre, d\u00e8s le d\u00e9marrage, des performances comparables \u00e0 celles des syst\u00e8mes \u00e9tat de l'art reposant sur des r\u00e8gles expertes ou sur des approches probabilistes sur des t\u00e2ches de compr\u00e9hension de la parole de r\u00e9f\u00e9rence (tests des Dialog State Tracking Challenges, DSTC2 et DSTC3). Nous proposons ensuite une strat\u00e9gie d'adaptation en ligne permettant d'am\u00e9liorer encore les performances de notre approche \u00e0 l'aide d'une supervision faible et ajustable par l'utilisateur.","translation":["Spoken language understanding without reference data","Most recent state-of-the-art spoken language understanding models have in common to be trained on a potentially large amount of data. However, the required annotated corpora are not available for a variety of tasks and languages of interest. In this work, we present a novel zero-shot learning method for spoken language understanding which alleviate the need of any annotated or in-context data. Instead, it combines an ontological description of the target domain and the use of a continuous semantic space trained on large amounts of unannotated and unstructured found data with neural network algorithms. We show that this very low cost model can reach instantly performance comparable to those obtained by either state-of-the-art carefully hand crafted rule-based or trained statistical models on reference spoken language understanding tasks (test sets of the second and the third Dialog State Tracking Challenge, DSTC2,DSTC3). Eventually we extend the approach with an online adaptative strategy allowing to refine progressively the initial model with only a light and adjustable supervision.","Spoken language understanding, continuous semantic space, zero-shot learning, out-of-domain training data"],"keyphrases":["Compr\u00e9hension automatique de la parole","apprentissage sans donn\u00e9es de r\u00e9f\u00e9rence","espace s\u00e9mantique continu","donn\u00e9es d'apprentissage hors domaine"],"prmu":["P","P","P","M"]} {"id":"taln-2015-long-007","title":"D\u00e9sambigu\u00efsation d'entit\u00e9s pour l'induction non supervis\u00e9e de sch\u00e9mas \u00e9v\u00e9nementiels","abstract":"Cet article pr\u00e9sente un mod\u00e8le g\u00e9n\u00e9ratif pour l'induction non supervis\u00e9e d'\u00e9v\u00e9nements. Les pr\u00e9c\u00e9dentes m\u00e9thodes de la litt\u00e9rature utilisent uniquement les t\u00eates des syntagmes pour repr\u00e9senter les entit\u00e9s. Pourtant, le groupe complet (par exemple, \"un homme arm\u00e9\") apporte une information plus discriminante (que \"homme\"). Notre mod\u00e8le tient compte de cette information et la repr\u00e9sente dans la distribution des sch\u00e9mas d'\u00e9v\u00e9nements. Nous montrons que ces relations jouent un r\u00f4le important dans l'estimation des param\u00e8tres, et qu'elles conduisent \u00e0 des distributions plus coh\u00e9rentes et plus discriminantes. Les r\u00e9sultats exp\u00e9rimentaux sur le corpus de MUC-4 confirment ces progr\u00e8s.","translation":["Entity disambiguation for event template induction","In this paper, we present an approach for event induction with a generative model. This model makes possible to consider more relational information than previous models, and has been applied to noun attributes. By their in\ufb02uence on parameter estimation, this new information make probabilistic topic distribution more discriminative and more robust. We evaluated different versions of our model on MUC-4 datasets.","Event Induction, Generative Model, Entity Disambiguation, Gibbs Sampling"],"keyphrases":["d\u00e9sambigu\u00efsation d'entit\u00e9s","mod\u00e8le g\u00e9n\u00e9ratif","\u00c9v\u00e9nements","\u00e9chantillonnage de Gibbs"],"prmu":["P","P","P","M"]} {"id":"taln-2015-long-008","title":"Cr\u00e9ation rapide et efficace d'un syst\u00e8me de d\u00e9sambigu\u00efsation lexicale pour une langue peu dot\u00e9e","abstract":"Nous pr\u00e9sentons une m\u00e9thode pour cr\u00e9er rapidement un syst\u00e8me de d\u00e9sambigu\u00efsation lexicale (DL) pour une langue L peu dot\u00e9e pourvu que l'on dispose d'un syst\u00e8me de traduction automatique statistique (TAS) d'une langue riche en corpus annot\u00e9s en sens (ici l'anglais) vers L. Il est, en effet, plus facile de disposer des ressources n\u00e9cessaires \u00e0 la cr\u00e9ation d'un syst\u00e8me de TAS que des ressources d\u00e9di\u00e9es n\u00e9cessaires \u00e0 la cr\u00e9ation d'un syst\u00e8me de DL pour la langue L. Notre m\u00e9thode consiste \u00e0 traduire automatiquement un corpus annot\u00e9 en sens vers la langue L, puis de cr\u00e9er le syst\u00e8me de d\u00e9sambigu\u00efsation pour L par des m\u00e9thodes supervis\u00e9es classiques. Nous montrons la faisabilit\u00e9 de la m\u00e9thode et sa g\u00e9n\u00e9ricit\u00e9 en traduisant le SemCor, un corpus en anglais annot\u00e9 gr\u00e2ce au Princeton WordNet, de l'anglais vers le bangla et de l'anglais vers le fran\u00e7ais. Nous montrons la validit\u00e9 de l'approche en \u00e9valuant les r\u00e9sultats sur la t\u00e2che de d\u00e9sambigu\u00efsation lexicale multilingue de Semeval 2013.","translation":["Rapid Construction of Supervised Word Sense Disambiguation System for Lesser-resourced Languages","We introduce a method to quickly build a Word Sense Disambiguation (WSD) system for a lesser-resourced language L, under the condition that a Statistical Machine Transation system (SMT) is available from a well resourced language where semantically annotated corpora are available (here, English) towards L. We argue that it is less difficult to obtain the resources mandatory for the development of an SMT system (parallel-corpora) than it is to create the resources necessary for a WSD system (semantically annotated corpora, lexical resources). In the present work, we propose to translate a semantically annotated corpus from English to L and then to create a WSD system for L following the classical supervised WSD paradigm. We demonstrate the feasibility and genericity of our proposed method by translating SemCor from English to Bangla and from English to French. SemCor is an English corpus annotated with Princeton WordNet sense tags. We show the feasibility of the approach using the Multilingual WSD task from Semeval 2013.","clarification of texts, word sens disambiguation, under resourced languages, machine translation, annotation transfert"],"keyphrases":["d\u00e9sambigu\u00efsation lexicale","langues peu dot\u00e9es","traduction automatique","clarification de texte","portage d'annotations"],"prmu":["P","P","P","M","M"]} {"id":"taln-2015-long-009","title":"M\u00e9thode faiblement supervis\u00e9e pour l'extraction d'opinion cibl\u00e9e dans un domaine sp\u00e9cifique","abstract":"La d\u00e9tection d'opinion cibl\u00e9e a pour but d'attribuer une opinion \u00e0 une caract\u00e9ristique particuli\u00e8re d'un produit donn\u00e9. La plupart des m\u00e9thodes existantes envisagent pour cela une approche non supervis\u00e9e. Or, les utilisateurs ont souvent une id\u00e9e a priori des caract\u00e9ristiques sur lesquelles ils veulent d\u00e9couvrir l'opinion des gens. Nous proposons dans cet article une m\u00e9thode pour une extraction d'opinion cibl\u00e9e, qui exploite cette information minimale sur les caract\u00e9ristiques d'int\u00e9r\u00eat. Ce mod\u00e8le s'appuie sur une segmentation automatique des textes, un enrichissement des donn\u00e9es disponibles par similarit\u00e9 s\u00e9mantique, et une annotation de l'opinion par classification supervis\u00e9e. Nous montrons l'int\u00e9r\u00eat de l'approche sur un cas d'\u00e9tude dans le domaine des jeux vid\u00e9os.","translation":["A Weakly Supervised Approach for Aspect-Based Opinion Mining in a Specific Domain","The goal of aspect-based opinion mining is to associate an opinion with fine-grain aspects of a given product. Most approaches designed in this purpose use unsupervised techniques, whereas the information of the desired targeted aspects can often be given by the end-users. We propose in this paper a new approach for targeted opinion detection that uses this minimal information, enriched using several semantic similarty measures, along with topical segmentation and supervised classification. We prove the interest of the approach on an evaluation corpus in the specific domain of video games.","Opinion analysis, classification, semantic similarity"],"keyphrases":["similarit\u00e9 s\u00e9mantique","classification supervis\u00e9e","Analyse d'opinion"],"prmu":["P","P","M"]} {"id":"taln-2015-long-010","title":"Une m\u00e9thodologie de s\u00e9mantique de corpus appliqu\u00e9e \u00e0 des t\u00e2ches de fouille d'opinion et d'analyse des sentiments : \u00e9tude sur l'impact de marqueurs dialogiques et dialectiques dans l'expression de la subjectivit\u00e9","abstract":"Cet article entend dresser, dans un premier temps, un panorama critique des relations entre TAL et linguistique. Puis, il esquisse une discussion sur l'apport possible d'une s\u00e9mantique de corpus dans un contexte applicatif en s'appuyant sur plusieurs exp\u00e9riences en fouille de textes subjectifs (analyse de sentiments et fouille d'opinions). Ces exp\u00e9riences se d\u00e9marquent des approches traditionnelles fond\u00e9es sur la recherche de marqueurs axiologiques explicites par l'utilisation de crit\u00e8res relevant des repr\u00e9sentations des acteurs (composante dialogique) et des structures argumentatives et narratives des textes (composante dialectique). Nous souhaitons de cette fa\u00e7on mettre en lumi\u00e8re le b\u00e9n\u00e9fice d'un dialogue m\u00e9thodologique entre une th\u00e9orie (la s\u00e9mantique textuelle), des m\u00e9thodes de linguistique de corpus orient\u00e9es vers l'analyse du sens (la textom\u00e9trie) et les usages actuels du TAL en termes d'algorithmiques (apprentissage automatique) mais aussi de m\u00e9thodologie d'\u00e9valuation des r\u00e9sultats.","translation":["A method of corpus semantics applied to opinion mining and sentiment analysis: the impact of dialogical and dialectical features on the expression of subjectivity","This paper first aims to provide a critical overview of the relationship between NLP and linguistics, and then to sketch out a discussion on the possible contribution of corpus semantics in an application-based context based on several subjective text mining studies (sentiment analysis and opinion mining). These studies break away from traditional approaches founded on the detection of axiological markers. Instead, they use explicit criteria related to the representation of actors (dialogical component) and argumentative or narrative structures (dialectical component). We hope to highlight the benefit of a methodological dialogue between theory (text semantics), meaning-oriented methods of corpus linguistics (i.e. textometrics) and NLP current practices in terms of algorithmic (machine learning) and assessment methodology.","Textometry, corpus semantics, opinion mining, sentiment analysis"],"keyphrases":["S\u00e9mantique de corpus","Fouille d'opinion","Analyse des sentiments","Textom\u00e9trie"],"prmu":["P","P","P","P"]} {"id":"taln-2015-long-011","title":"Estimation de l'homog\u00e9n\u00e9it\u00e9 s\u00e9mantique pour les Questionnaires \u00e0 Choix Multiples","abstract":"L'homog\u00e9n\u00e9it\u00e9 s\u00e9mantique stipule que des termes sont s\u00e9mantiquement proches mais non similaires. Cette notion est au c\u0153ur de travaux relatifs \u00e0 la g\u00e9n\u00e9ration automatique de questionnaires \u00e0 choix multiples, et particuli\u00e8rement \u00e0 la s\u00e9lection automatique de distracteurs. Dans cet article, nous pr\u00e9sentons une m\u00e9thode d'estimation de l'homog\u00e9n\u00e9it\u00e9 s\u00e9mantique dans un cadre de validation automatique de distracteurs. Cette m\u00e9thode est fond\u00e9e sur une combinaison de plusieurs crit\u00e8res de voisinage et de similarit\u00e9 s\u00e9mantique entre termes, par apprentissage automatique. Nous montrerons que notre m\u00e9thode permet d'obtenir une meilleure estimation de l'homog\u00e9n\u00e9it\u00e9 s\u00e9mantique que les m\u00e9thodes propos\u00e9es dans l'\u00e9tat de l'art.","translation":["Semantic homogeneity estimation for MCQs","Semantic homogeneity states that terms are semantically close but not similar. This notion is the focus of work related to multiple-choice test generation, and especially to automatic distractor selection. In this paper, we present a method to estimate semantic homogeneity within a framework of automatic distractor validation. This method is based on a combination of several criteria of semantic relatedness and similarity between terms, by machine learning. We will show that our method allows to obtain a better estimation of semantic homogeneity than methods proposed in related work.","similarity, semantic relatedness, term ranking"],"keyphrases":["similarit\u00e9","voisinage s\u00e9mantique","classification de termes"],"prmu":["P","R","M"]} {"id":"taln-2015-long-012","title":"Extraction automatique de relations s\u00e9mantiques dans les d\u00e9 finitions : approche hybride, construction d'un corpus de relations s\u00e9mantiques pour le fran\u00e7ais","abstract":"Cet article pr\u00e9sente une exp\u00e9rimentation visant \u00e0 construire une ressource s\u00e9mantique pour le fran\u00e7ais contemporain \u00e0 partir d'un corpus d'environ un million de d\u00e9finitions tir\u00e9es de deux ressources lexicographiques (Tr\u00e9sor de la Langue Fran\u00e7aise, Wiktionary) et d'une ressource encyclop\u00e9dique (Wikipedia). L'objectif est d'extraire automatiquement dans les d\u00e9finitions diff\u00e9rentes relations s\u00e9mantiques : hyperonymie, synonymie, m\u00e9ronymie, autres relations s\u00e9mantiques. La m\u00e9thode suivie combine la pr\u00e9cision des patrons lexico-syntaxiques et le rappel des m\u00e9thodes statistiques, ainsi qu'un traitement in\u00e9dit de canonisation et de d\u00e9composition des \u00e9nonc\u00e9s. Apr\u00e8s avoir pr\u00e9sent\u00e9 les diff\u00e9rentes approches et r\u00e9alisations existantes, nous d\u00e9taillons l'architecture du syst\u00e8me et pr\u00e9sentons les r\u00e9sultats : environ 900 000 relations d'hyperonymie et pr\u00e8s de 100 000 relations de synonymie, avec un taux de pr\u00e9cision sup\u00e9rieur \u00e0 90% sur un \u00e9chantillon al\u00e9atoire de 500 relations. Plus de 2 millions de pr\u00e9dications d\u00e9finitoires ont \u00e9galement \u00e9t\u00e9 extraites.","translation":["Automatic Extraction of Semantic Relations from Definitions : en experiment in French with an Hybrid Approach","This article presents an experiment to extract semantic relations from definitions. It is based on approximately one million definitions from two general dictionaries (Tr\u00e9sor de la Langue Fran\u00e7aise, French Wiktionary) and from the collaborative Wikipedia. We aim at extracting from these data several semantic relations : hyperonymy, synonymy, meronymy and other semantic relations. The methodological approach combines the precision of lexico-syntactic patterns and the recall of statistical analysis. After a survey of the state-of-the-art methods in this area, we detail our system and give the overall outcomes : about 900 000 hypernymy and 100 000 synonymy relations are extracted with a precision above 90% on a sample of 500 pairs for each relation. About 2 millions of definitory predicates are also extracted.","semantic relations, lexico-syntactic patterns, distributionnalism, predication, hypernymy, synonymy, meronymy, definition"],"keyphrases":["relations s\u00e9mantiques","d\u00e9finition","hyperonymie","synonymie","m\u00e9ronymie","patrons lexico-syntaxiques","pr\u00e9dication","distributionnalisme"],"prmu":["P","P","P","P","P","P","P","U"]} {"id":"taln-2015-long-013","title":"D\u00e9classer les voisins non s\u00e9mantiques pour am\u00e9liorer les th\u00e9saurus distributionnels","abstract":"La plupart des m\u00e9thodes d'am\u00e9lioration des th\u00e9saurus distributionnels se focalisent sur les moyens \u2013 repr\u00e9sentations ou mesures de similarit\u00e9 \u2013 de mieux d\u00e9tecter la similarit\u00e9 s\u00e9mantique entre les mots. Dans cet article, nous proposons un point de vue inverse : nous cherchons \u00e0 d\u00e9tecter les voisins s\u00e9mantiques associ\u00e9s \u00e0 une entr\u00e9e les moins susceptibles d'\u00eatre li\u00e9s s\u00e9mantiquement \u00e0 elle et nous utilisons cette information pour r\u00e9ordonner ces voisins. Pour d\u00e9tecter les faux voisins s\u00e9mantiques d'une entr\u00e9e, nous adoptons une approche s'inspirant de la d\u00e9sambigu\u00efsation s\u00e9mantique en construisant un classifieur permettant de diff\u00e9rencier en contexte cette entr\u00e9e des autres mots. Ce classifieur est ensuite appliqu\u00e9 \u00e0 un \u00e9chantillon des occurrences des voisins de l'entr\u00e9e pour rep\u00e9rer ceux les plus \u00e9loign\u00e9s de l'entr\u00e9e. Nous \u00e9valuons cette m\u00e9thode pour des th\u00e9saurus construits \u00e0 partir de cooccurrents syntaxiques et nous montrons l'int\u00e9r\u00eat de la combiner avec les m\u00e9thodes d\u00e9crites dans (Ferret, 2013b) selon une strat\u00e9gie de type vote.","translation":["Downgrading non-semantic neighbors for improving distributional thesauri","Most of the methods for improving distributional thesauri focus on the means \u2013 representations or similarity measures \u2013 to detect better semantic similarity between words. In this article, we propose a more indirect approach focusing on the identification of the neighbors of a thesaurus entry that are not semantically linked to this entry. This identification relies on a discriminative classifier trained from unsupervised selected examples for building a distributional model of the entry in texts. Its bad neighbors are found by applying this classifier to a representative set of occurrences of each of these neighbors. We evaluate more particularly the interest of this method for thesauri built from syntactic co-occurrents and we show the interest of associating this method with those of (Ferret, 2013b) following an ensemble strategy.","Lexical semantics, semantic similarity, distributional thesauri"],"keyphrases":["th\u00e9saurus distributionnels","similarit\u00e9 s\u00e9mantique","S\u00e9mantique lexicale"],"prmu":["P","P","M"]} {"id":"taln-2015-long-014","title":"Grammaires phrastiques et discursives fond\u00e9es sur les TAG : une approche de D-STAG avec les ACG","abstract":"Nous pr\u00e9sentons une m\u00e9thode pour articuler grammaire de phrase et grammaire de discours qui \u00e9vite de recourir \u00e0 une \u00e9tape de traitement interm\u00e9diaire. Cette m\u00e9thode est suffisamment g\u00e9n\u00e9rale pour construire des structures discursives qui ne soient pas des arbres mais des graphes orient\u00e9s acycliques (DAG). Notre analyse s'appuie sur une approche de l'analyse discursive, Discourse Synchronous TAG (D-STAG), qui utilise les Grammaires d'Arbres Adjoint (TAG). Nous utilisons pour ce faire un encodage des TAG dans les Grammaires Cat\u00e9gorielles Abstraites (ACG). Cet encodage permet d'une part d'utiliser l'ordre sup\u00e9rieur pour l'interpr\u00e9tation s\u00e9mantique afin de construire des structures qui soient des DAG et non des arbres, et d'autre part d'utiliser les propri\u00e9t\u00e9s de composition d'ACG pour r\u00e9aliser naturellement l'interface entre grammaire phrastique et grammaire discursive. Tous les exemples propos\u00e9s pour illustrer la m\u00e9thode ont \u00e9t\u00e9 implant\u00e9s et peuvent \u00eatre test\u00e9s avec le logiciel appropri\u00e9.","translation":["Sentential and Discourse TAG-Based Grammars: An ACG Approach to D-STAG","This article presents a method to interface a sentential grammar and a discourse grammar without resorting to an intermediate processing step. The method is general enough to build discourse structures that are direct acyclic graphs (DAG) and not only trees. Our analysis is based on Discourse Synchronous TAG (D-STAG), a Tree-Adjoining Grammar (TAG)-based approach to discourse. We also use an encoding of TAG into Abstract Categorial Grammar (ACG). This encoding allows us to express a higher-order semantic interpretation that enables building DAG discourse structures on the one hand, and to smoothly integrate the sentential and the discourse grammar thanks to the modular capability of ACG. All the examples of the article have been implemented and may be run and tested with the appropriate software.","Syntax, semantics, discourse, grammar, Tree-Adjoining Grammar, TAG, D-LTAG, D-STAG, Abstract Categorial Grammar, ACG"],"keyphrases":["grammaire","TAG","D-STAG","ACG","discours","grammaire d'arbres adjoints","grammaire cat\u00e9gorielle abstraite","s\u00e9mantique","Syntaxe","D-LTAG"],"prmu":["P","P","P","P","P","P","P","P","U","U"]} {"id":"taln-2015-long-015","title":"Noyaux de r\u00e9\u00e9criture de phrases munis de types lexico-s\u00e9mantiques","abstract":"De nombreux probl\u00e8mes en traitement automatique des langues requi\u00e8rent de d\u00e9terminer si deux phrases sont des r\u00e9\u00e9critures l'une de l'autre. Une solution efficace consiste \u00e0 apprendre les r\u00e9\u00e9critures en se fondant sur des m\u00e9thodes \u00e0 noyau qui mesurent la similarit\u00e9 entre deux r\u00e9\u00e9critures de paires de phrases. Toutefois, ces m\u00e9thodes ne permettent g\u00e9n\u00e9ralement pas de prendre en compte des variations s\u00e9mantiques entre mots, qui permettraient de capturer un plus grand nombre de r\u00e8gles de r\u00e9\u00e9criture. Dans cet article, nous proposons la d\u00e9finition et l'impl\u00e9mentation d'une nouvelle classe de fonction noyau, fond\u00e9e sur la r\u00e9\u00e9criture de phrases enrichie par un typage pour combler ce manque. Nous l'\u00e9valuons sur deux t\u00e2ches, la reconnaissance de paraphrases et d'implications textuelles.","translation":["Enriching String Rewriting Kernels With Lexico-semantic Types","Many high level natural language processing problems can be framed as determining if two given sentences are a rewriting of each other. One way to solve this problem is to learn the way a sentence rewrites into another with kernel-based methods, relying on a kernel function to measure the similarity between two rewritings. While a wide range of rewriting kernels has been developed in the past, they often do not allow the user to provide lexico-semantic variations of words, which could help capturing a wider class of rewriting rules. In this paper, we propose and implement a new class of kernel functions, referred to as type-enriched string rewriting kernel, to address this lack. We experiment with various typing schemes on two natural sentence rewriting tasks, paraphrase identification and recognizing textual entailment.","kernel methods, semantic variations, sentence rewriting, paraphrase identification, textual entailment"],"keyphrases":["r\u00e9\u00e9criture de phrase","variations s\u00e9mantiques","fonction noyau","reconnaissance de paraphrases","implication textuelle"],"prmu":["P","P","P","P","P"]} {"id":"taln-2015-long-016","title":"Extraction automatique de paraphrases grand public pour les termes m\u00e9dicaux","abstract":"Nous sommes tous concern\u00e9s par notre \u00e9tat de sant\u00e9 et restons sensibles aux informations de sant\u00e9 disponibles dans la soci\u00e9t\u00e9 moderne \u00e0 travers par exemple les r\u00e9sultats des recherches scientifiques, les m\u00e9dias sociaux de sant\u00e9, les documents cliniques, les \u00e9missions de t\u00e9l\u00e9 et de radio ou les nouvelles. Cependant, il est commun de rencontrer dans le domaine m\u00e9dical des termes tr\u00e8s sp\u00e9cifiques (e.g., bl\u00e9pharospasme, alexitymie, appendicectomie), qui restent difficiles \u00e0 comprendre par les non sp\u00e9cialistes. Nous proposons une m\u00e9thode automatique qui vise l'acquisition de paraphrases pour les termes m\u00e9dicaux, qui soient plus faciles \u00e0 comprendre que les termes originaux. La m\u00e9thode est bas\u00e9e sur l'analyse morphologique des termes, l'analyse syntaxique et la fouille de textes non sp\u00e9cialis\u00e9s. L'analyse et l'\u00e9valuation des r\u00e9sultats indiquent que de telles paraphrases peuvent \u00eatre trouv\u00e9es dans les documents non sp\u00e9cialis\u00e9s et pr\u00e9sentent une compr\u00e9hension plus facile. En fonction des param\u00e8tres de la m\u00e9thode, la pr\u00e9cision varie entre 86 et 55 %. Ce type de ressources est utile pour plusieurs applications de TAL (e.g., recherche d'information grand public, lisibilit\u00e9 et simplification de textes, syst\u00e8mes de question-r\u00e9ponses).","translation":["Automatic extraction of layman paraphrases for medical terms","We all have health concerns and sensibility to health information available in the modern society through modern media, such as scientific research, health social media, clinical documents, TV and radio broadcast, or novels. However, medical area conveys very specific notions (e.g., blepharospasm, alexitymia, appendicectomy), which are difficult to understand by people without medical training. We propose an automatic method for the acquisition of paraphrases for technical medical terms. We expect that such paraphrases are easier to understand than the original terms. The method is based on the morphological analysis of terms, syntactic analysis of texts, and text mining of non specialized texts. An analysis of the results and their evaluation indicate that such paraphrases can indeed be found in non specialized documents and show easier understanding level. According to the setting of the method, precision of the extractions ranges between 86 and 55%. This kind of resources is useful for several Natural Language Processing applications (e.g., information retrieval for lay people, text readability and simplification, question and answering systems).","Specialized Area, Medical Terminology, Compounds, Morphological Analysis, Paraphrasis, Understanding"],"keyphrases":["paraphrase","analyse morphologique","compr\u00e9hension","Domaines de sp\u00e9cialit\u00e9","terminologie m\u00e9dicale","composition"],"prmu":["P","P","P","R","M","U"]} {"id":"taln-2015-long-017","title":"Analyse syntaxique de l'ancien fran\u00e7ais : quelles propri\u00e9t\u00e9s de la langue in\ufb02uent le plus sur la qualit\u00e9 de l'apprentissage ?","abstract":"L'article pr\u00e9sente des r\u00e9sultats d'exp\u00e9riences d'apprentissage automatique pour l'\u00e9tiquetage morpho-syntaxique et l'analyse syntaxique en d\u00e9pendance de l'ancien fran\u00e7ais. Ces exp\u00e9riences ont pour objectif de servir une exploration de corpus pour laquelle le corpus arbor\u00e9 SRCMF sert de donn\u00e9es de r\u00e9f\u00e9rence. La nature peu standardis\u00e9e de la langue qui y est utilis\u00e9e implique des donn\u00e9es d'entra\u00eenement h\u00e9t\u00e9rog\u00e8nes et quantitativement limit\u00e9es. Nous explorons donc diverses strat\u00e9gies, fond\u00e9es sur diff\u00e9rents crit\u00e8res (variabilit\u00e9 du lexique, forme Vers\/Prose des textes, dates des textes), pour constituer des corpus d'entrainement menant aux meilleurs r\u00e9sultats possibles.","translation":["Old French parsing : Which language properties have the greatest in\ufb02uence on learning quality ?","This paper presents machine learning experiments for part-of-speech labelling and dependency parsing of Old French. Machine learning methods are used for the purpose of corpus exploration. The SRCMF Treebank is our reference data. The poorly standardised nature of the language used in this corpus implies that training data is heterogenous and quantitatively limited. We explore various strategies, based on different criteria (variability of the lexicon, Verse\/Prose form, date of writing) to build training corpora leading to the best possible results.","POS labelling, Dependency Parsing, Old French, machine learning, corpus exploration"],"keyphrases":["ancien fran\u00e7ais","apprentissage automatique","\u00e9tiquetage morpho-syntaxique","exploration de corpus","analyse en d\u00e9pendance"],"prmu":["P","P","P","P","R"]} {"id":"taln-2015-long-018","title":"Attribution d'Auteur : approche multilingue fond\u00e9e sur les r\u00e9p\u00e9titions maximales","abstract":"Cet article s'attaque \u00e0 la t\u00e2che d'Attribution d'Auteur en contexte multilingue. Nous proposons une alternative aux m\u00e9thodes supervis\u00e9es fond\u00e9es sur les n-grammes de caract\u00e8res de longueurs variables : les r\u00e9p\u00e9titions maximales. Pour un texte donn\u00e9, la liste de ses n-grammes de caract\u00e8res contient des informations redondantes. A contrario, les r\u00e9p\u00e9titions maximales repr\u00e9sentent l'ensemble des r\u00e9p\u00e9titions de ce texte de mani\u00e8re condens\u00e9e. Nos exp\u00e9riences montrent que la redondance des n-grammes contribue \u00e0 l'efficacit\u00e9 des techniques d'Attribution d'Auteur exploitant des sous-cha\u00eenes de caract\u00e8res. Ce constat pos\u00e9, nous proposons une fonction de pond\u00e9ration sur les traits donn\u00e9s en entr\u00e9e aux classifieurs, en introduisant les r\u00e9p\u00e9titions maximales du n\u00e8me ordre (c'est-\u00e0-dire des r\u00e9p\u00e9titions maximales d\u00e9tect\u00e9es dans un ensemble de r\u00e9p\u00e9titions maximales). Les r\u00e9sultats exp\u00e9rimentaux montrent de meilleures performances avec des r\u00e9p\u00e9titions maximales, avec moins de donn\u00e9es que pour les approches fond\u00e9es sur les n-grammes.","translation":["Authorship Attribution through Character Substrings (and vise versa)","This article tackles the Authorship Attribution task according to the language independence issue. We propose an alternative of variable length character n-gram features in supervised methods : maximal repeats in strings. When character n-grams are by essence redundant, maximal repeats are a condensed way to represent any substring of a corpus. Our experiments show that the redundant aspect of character n-grams contributes to the efficiency of character-based Authorship Attribution techniques. Therefore, we introduce a new way to weight features in vector based classifier by introducing n-th order maximal repeats (maximal repeats detected in a set of maximal repeats). The experimental results show higher performance with maximal repeats, with less data than n-grams based approach.","authorship attribution, multilinguism, classification, character substrings, maximal repeats"],"keyphrases":["attribution d'auteur","multilinguisme","r\u00e9p\u00e9titions maximales","classification","cha\u00eenes de caract\u00e8res"],"prmu":["P","P","P","U","M"]} {"id":"taln-2015-long-019","title":"Mesurer la similarit\u00e9 entre phrases gr\u00e2ce \u00e0 Wikip\u00e9dia en utilisant une indexation al\u00e9atoire","abstract":"Cet article pr\u00e9sente une m\u00e9thode pour mesurer la similarit\u00e9 s\u00e9mantique entre phrases qui utilise Wikip\u00e9dia comme unique ressource linguistique et qui est, de ce fait, utilisable pour un grand nombre de langues. Bas\u00e9e sur une repr\u00e9sentation vectorielle, elle utilise une indexation al\u00e9atoire pour r\u00e9duire la dimension des espaces manipul\u00e9s. En outre, elle inclut une technique de calcul des vecteurs de termes qui corrige les d\u00e9fauts engendr\u00e9s par l'utilisation d'un corpus aussi g\u00e9n\u00e9ral que Wikip\u00e9dia. Le syst\u00e8me a \u00e9t\u00e9 \u00e9valu\u00e9 sur les donn\u00e9es de SemEval 2014 en anglais avec des r\u00e9sultats tr\u00e8s encourageants, au-dessus du niveau moyen des syst\u00e8mes en comp\u00e9tition. Il a \u00e9galement \u00e9t\u00e9 test\u00e9 sur un ensemble de paires de phrases en fran\u00e7ais, \u00e0 partir de ressources que nous avons construites et qui seront mises \u00e0 la libre disposition de la communaut\u00e9 scientifique.","translation":["Semantic similarity between sentences based on Wikipedia and Random Indexing","This paper proposes a semantic similarity measure for sentence comparison based on the exploitation of Wikipedia as the only language resource. Such similarity measure is therefore usable for a wide range of languages, basically those covered by Wikipedia. Random Indexing is used to cope with the great dimensionality and the spareness of the data vectorial representations. Furthermore, a statistical weight function is used to reduce the noise generated by the use of a multi domain corpus such as Wikipedia. This semantic similarity measure has been evaluated on SemEval 2014 dataset for English language leading to very promising results, basically above the average level of the competing systems that exploit Wikip\u00e9dia in conjunction with other sources of semantic information. It has been also evaluated on a set of pairs of sentences in French that we have build specifically for the task, and made freely available for the research community.","Semantic Textual Similarity, Random indexing, Wikip\u00e9dia, Semantic Relatedness"],"keyphrases":["Wikip\u00e9dia","Indexation al\u00e9atoire","Similarit\u00e9 s\u00e9mantique","Relation s\u00e9mantique"],"prmu":["P","P","P","M"]} {"id":"taln-2015-long-020","title":"Typologie automatique des langues \u00e0 partir de treebanks","abstract":"La typologie des langues repose sur l'\u00e9tude de la r\u00e9alisation de propri\u00e9t\u00e9s ou ph\u00e9nom\u00e8nes linguistiques dans plusieurs langues ou familles de langues. Nous abordons dans cet article la question de la typologie syntaxique et proposons une m\u00e9thode permettant d'extraire automatiquement ces propri\u00e9t\u00e9s \u00e0 partir de treebanks, puis de les analyser en vue de dresser une telle typologie. Nous d\u00e9crivons cette m\u00e9thode ainsi que les outils d\u00e9velopp\u00e9s pour la mettre en \u0153uvre. Celle-ci a \u00e9t\u00e9 appliqu\u00e9e \u00e0 l'analyse de 10 langues d\u00e9crites dans le Universal Dependencies Treebank. Nous validons ces r\u00e9sultats en montrant comment une technique de classification permet, sur la base des informations extraites, de reconstituer des familles de langues.","translation":["Automatic Linguistic Typology from Treebanks","Linguistic typology studies different linguistic properties or phenomena in order to compare several languages or language families. We address in this paper the question of syntactic typology and propose a method for extracting automatically from treebanks syntactic properties, and bring them into a typology perspective. We present here the method and the different tools for inferring such information. The approach has been applied to 10 languages of the Universal Dependencies Treebank. We validate the results in showing how automatic classification corr\u00e9l\u00e2tes with language families.","Typology, syntax, grammar inference, Property Grammars"],"keyphrases":["Typologie","treebank","syntaxe","inf\u00e9rence de grammaire","Grammaire de Propri\u00e9t\u00e9s"],"prmu":["P","P","P","M","M"]} {"id":"taln-2015-long-021","title":"Utilisation de mesures de confiance pour am\u00e9liorer le d\u00e9codage en traduction de parole","abstract":"Les mesures de confiance au niveau mot (Word Confidence Estimation - WCE) pour la traduction auto- matique (TA) ou pour la reconnaissance automatique de la parole (RAP) attribuent un score de confiance \u00e0 chaque mot dans une hypoth\u00e8se de transcription ou de traduction. Dans le pass\u00e9, l'estimation de ces mesures a le plus souvent \u00e9t\u00e9 trait\u00e9e s\u00e9par\u00e9ment dans des contextes RAP ou TA. Nous proposons ici une estimation conjointe de la confiance associ\u00e9e \u00e0 un mot dans une hypoth\u00e8se de traduction automatique de la parole (TAP). Cette estimation fait appel \u00e0 des param\u00e8tres issus aussi bien des syst\u00e8mes de transcription de la parole (RAP) que des syst\u00e8mes de traduction automatique (TA). En plus de la construction de ces estimateurs de confiance robustes pour la TAP, nous utilisons les informations de confiance pour re-d\u00e9coder nos graphes d'hypoth\u00e8ses de traduction. Les exp\u00e9rimentations r\u00e9alis\u00e9es montrent que l'utilisation de ces mesures de confiance au cours d'une seconde passe de d\u00e9codage permettent d'obtenir une am\u00e9lioration significative des performances de traduction (\u00e9valu\u00e9es avec la m\u00e9trique BLEU - gains de deux points par rapport \u00e0 notre syst\u00e8me de traduc- tion de parole de r\u00e9f\u00e9rence). Ces exp\u00e9riences sont faites pour une t\u00e2che de TAP (fran\u00e7ais-anglais) pour laquelle un corpus a \u00e9t\u00e9 sp\u00e9cialement con\u00e7u (ce corpus, mis \u00e0 la disposition de la communaut\u00e9 TALN, est aussi d\u00e9crit en d\u00e9tail dans l'article).","translation":["Word confidence estimation for re-decoding speech translation graphs","Word Confidence Estimation (WCE) for machine translation (MT) or automatic speech recognition (ASR) assigns a confidence score to each word in the MT or ASR hypothesis. In the past, this task has been treated separately in ASR or MT contexts and we propose here a joint estimation of word confidence for a spoken language translation (SLT) task involving both ASR and MT. We build robust word confidence estimators for SLT, based on joint ASR and MT features. Using these word confidence measures to re-decode the spoken language translation graph leads to a significant BLEU improvement (2 points) compared to the SLT baseline. These experiments are done for a French-English SLT task for which a corpus was specifically designed (this corpus being made available to the NLP community).","Word confidence estimation (WCE), spoken language translation (SLT), joint features, search graph re-decoding"],"keyphrases":["Mesures de confiance","traduction automatique de la parole","param\u00e8tres joints","red\u00e9codage de graphe"],"prmu":["P","P","M","M"]} {"id":"taln-2015-long-022","title":"Multi\u00adalignement vs bi\u00adalignement : \u00e0 plusieurs, c'est mieux !","abstract":"Dans cet article, nous proposons une m\u00e9thode originale destin\u00e9e \u00e0 effectuer l'alignement d'un corpus multi\u00adparall\u00e8le, i.e. comportant plus de deux langues, en prenant en compte toutes les langues simultan\u00e9ment (et non en composant une s\u00e9rie de bi\u00adalignements ind\u00e9pendants). Pour ce faire, nous nous appuyons sur les r\u00e9seaux de correspondances lexicales constitu\u00e9s par les transfuges (cha\u00eenes identiques) et cognats (mots apparent\u00e9s), et nous montrons comment divers tuilages des couples de langues permettent d'exploiter au mieux les ressemblances superficielles li\u00e9es aux relations g\u00e9n\u00e9tiques interlinguistiques. Nous \u00e9valuons notre m\u00e9thode par rapport \u00e0 une m\u00e9thode de bi\u00adalignement classique, et montrons en quoi le multi\u00adalignement permet d'obtenir des r\u00e9sultats \u00e0 la fois plus pr\u00e9cis et plus robustes.","translation":["Multi\u00adalignment vs bi\u00adalignment: the more languages the better","In this paper, we propose an original method for performing the alignment of a multi\u00adparallel corpus, ie a parallel corpus involving more than two languages, taking into account all the languages simultaneously (and not by merging a series of independent bi\u00adalignments). To do this, we rely on the networks of lexical correspondences formed by identical chains and cognates (related words, and we show how various tiling of language pairs allow to exploit the surface similarities due to genetic relationships between languages. We evaluate our method compared to a conventional method of bi\u00adalignment, and show how the multi\u00adalignement achieves both more accurate and robust results.","Multilingual alignment, parallel corpora, cognates"],"keyphrases":["cognats","Alignement multilingue","corpus parall\u00e8les"],"prmu":["P","M","M"]} {"id":"taln-2015-long-023","title":"Apprentissage discriminant des mod\u00e8les continus de traduction","abstract":"Alors que les r\u00e9seaux neuronaux occupent une place de plus en plus importante dans le traitement automatique des langues, les m\u00e9thodes d'apprentissage actuelles utilisent pour la plupart des crit\u00e8res qui sont d\u00e9corr\u00e9l\u00e9s de l'application. Cet article propose un nouveau cadre d'apprentissage discriminant pour l'estimation des mod\u00e8les continus de traduction. Ce cadre s'appuie sur la d\u00e9finition d'un crit\u00e8re d'optimisation permettant de prendre en compte d'une part la m\u00e9trique utilis\u00e9e pour l'\u00e9valuation de la traduction et d'autre part l'int\u00e9gration de ces mod\u00e8les au sein des syst\u00e8mes de traduction automatique. De plus, cette m\u00e9thode d'apprentissage est compar\u00e9e aux crit\u00e8res existants d'estimation que sont le maximum de vraisemblance et l'estimation contrastive bruit\u00e9e. Les exp\u00e9riences men\u00e9es sur la t\u00e2ches de traduction des s\u00e9minaires TED Talks de l'anglais vers le fran\u00e7ais montrent la pertinence d'un cadre discriminant d'apprentissage, dont les performances restent toutefois tr\u00e8s d\u00e9pendantes du choix d'une strat\u00e9gie d'initialisation idoine. Nous montrons qu'avec une initialisation judicieuse des gains significatifs en termes de scores BLEU peuvent \u00eatre obtenus.","translation":["Discriminative Learning of Continuous Translation Models","This paper proposes a new discriminative framework to train translation models based on neural network. This framework relies on the definition of a new objective function that allows us to introduce the evaluation metric in the learning process as well as to consider how the model interacts with the translation system. Moreover, this approach is compared with the state of the art estimation methods, such as the maximum likelihood criterion and the noise contrastive estimation. Experiments are carried out on the English to French translation task of TED Talks . The results show the efficiency of the proposed approach, whereas the initialization has a strong impact. We show that with a tailored initialization scheme significant improvements can be obtained in terms of BLEU scores.","Neural network based translation model, statistical machine translation, discriminative learning"],"keyphrases":["apprentissage discriminant","Mod\u00e8le neuronal de traduction","traduction automatique par approche statistique"],"prmu":["P","R","M"]} {"id":"taln-2015-long-024","title":"Utiliser les interjections pour d\u00e9tecter les \u00e9motions","abstract":"Bien que les interjections soient un ph\u00e9nom\u00e8ne linguistique connu, elles ont \u00e9t\u00e9 peu \u00e9tudi\u00e9es et cela continue d'\u00eatre le cas pour les travaux sur les microblogs. Des travaux en analyse de sentiments ont montr\u00e9 l'int\u00e9r\u00eat des \u00e9motic\u00f4nes et r\u00e9cemment des mots-di\u00e8ses, qui s'av\u00e8rent \u00eatre tr\u00e8s utiles pour la classification en polarit\u00e9. Mais malgr\u00e9 leur statut grammatical et leur richesse s\u00e9mantique, les interjections sont rest\u00e9es marginalis\u00e9es par les syst\u00e8mes d'analyse de sentiments. Nous montrons dans cet article l'apport majeur des interjections pour la d\u00e9tection des \u00e9motions. Nous d\u00e9taillons la production automatique, bas\u00e9e sur les interjections, d'un corpus \u00e9tiquet\u00e9 avec les \u00e9motions. Nous expliquons ensuite comment nous avons utilis\u00e9 ce corpus pour en d\u00e9duire, automatiquement, un lexique affectif pour le fran\u00e7ais. Ce lexique a \u00e9t\u00e9 \u00e9valu\u00e9 sur une t\u00e2che de d\u00e9tection des \u00e9motions, qui a montr\u00e9 un gain en mesure F1 allant, selon les \u00e9motions, de +0,04 \u00e0 +0,21.","translation":["Using interjections for emotion detection","Although interjections have been recognized as linguistic phenomena for a long time, they have somehow been rarely studied and continue to be left aside in works dealing with microblogs. Users of this new kind of communication plateforms have popularized widely the use of linguistic constructions, like emoticons or interjections. In spite of their grammatic status and semantic richness for describing emotional states, interjections have been mostly ignored. In this article we show the importance of the role that interjections can play for detecting emotions. We detail how using interjections we have tagged automatically a French microblog corpus with emotion labels. Then we describe how we did deduce automatically from this corpus a fine-grained affective lexicon. The usefulness of the lexicon was evaluated in an emotion recognition task where, depending on the emotion, the F1-measure improvement ranged from +0.04 to +0.21.","Interjections, emotion recognition, affective lexicon, sentiment analysis, opinion mining"],"keyphrases":["Interjections","analyse de sentiments","d\u00e9tection des \u00e9motions","lexique affectif","fouille d'opinions"],"prmu":["P","P","P","P","M"]} {"id":"taln-2015-long-025","title":"Comparaison d'architectures neuronales pour l'analyse syntaxique en constituants","abstract":"L'article traite de l'analyse syntaxique lexicalis\u00e9e pour les grammaires de constituants. On se place dans le cadre de l'analyse par transitions. Les mod\u00e8les statistiques g\u00e9n\u00e9ralement utilis\u00e9s pour cette t\u00e2che s'appuient sur une repr\u00e9sentation non structur\u00e9e du lexique. Les mots du vocabulaire sont repr\u00e9sent\u00e9s par des symboles discrets sans liens entre eux. \u00c0 la place, nous proposons d'utiliser des repr\u00e9sentations denses du type plongements (embeddings) qui permettent de mod\u00e9liser la similarit\u00e9 entre symboles, c'est-\u00e0-dire entre mots, entre parties du discours et entre cat\u00e9gories syntagmatiques. Nous proposons d'adapter le mod\u00e8le statistique sous-jacent \u00e0 ces nouvelles repr\u00e9sentations. L'article propose une \u00e9tude de 3 architectures neuronales de complexit\u00e9 croissante et montre que l'utilisation d'une couche cach\u00e9e non-lin\u00e9aire permet de tirer parti des informations donn\u00e9es par les plongements.","translation":["A Comparison of Neural Network Architectures for Constituent Parsing","The article deals with lexicalized constituent parsing in a transition-based framework. Typical statistical approaches for this task are based on an unstructured representation of the lexicon. Words are represented by discrete unrelated symbols. Instead, our proposal relies on dense vector representations (embeddings) that are able to encode similarity between symbols : words, part-of-speech tags and phrase structure symbols. The article studies and compares 3 increasingly complex neural network architectures, which are fed symbol embeddings. The experiments suggest that the information given by embeddings is best captured by a deep architecture with a non-linear layer.","Lexicalized constituent parsing, embeddings, neural networks"],"keyphrases":["plongements","Analyse syntaxique en constituants lexicalis\u00e9e","r\u00e9seaux de neurones"],"prmu":["P","R","M"]} {"id":"taln-2015-long-026","title":"...des conf\u00e9rences enfin disons des causeries... D\u00e9tection automatique de segments en relation de paraphrase dans les reformulations de corpus oraux","abstract":"Notre travail porte sur la d\u00e9tection automatique des segments en relation de reformulation paraphrastique dans les corpus oraux. L'approche propos\u00e9e est une approche syntagmatique qui tient compte des marqueurs de reformulation paraphrastique et des sp\u00e9cificit\u00e9s de l'oral. Les donn\u00e9es de r\u00e9f\u00e9rence sont consensuelles. Une m\u00e9thode automatique fond\u00e9e sur l'apprentissage avec les CRF est propos\u00e9e afin de d\u00e9tecter les segments paraphras\u00e9s. Diff\u00e9rents descripteurs sont exploit\u00e9s dans une fen\u00eatre de taille variable. Les tests effectu\u00e9s montrent que les segments en relation de paraphrase sont assez difficiles \u00e0 d\u00e9tecter, surtout avec leurs fronti\u00e8res correctes. Les meilleures moyennes atteignent 0,65 de F-mesure, 0,75 de pr\u00e9cision et 0,63 de rappel. Nous avons plusieurs perspectives \u00e0 ce travail pour am\u00e9liorer la d\u00e9tection des segments en relation de paraphrase et pour \u00e9tudier les donn\u00e9es depuis d'autres points de vue.","translation":["...des conf\u00e9rences enfin disons des causeries... Automatic detection of segments with paraphrase relation in spoken corpora rephrasings","Our work addresses automatic detection of segments with paraphrastic rephrasing relation in spoken corpus. The proposed approach is syntagmatic. It is based on paraphrastic rephrasing markers and the specificities of the spoken language. The reference data used are consensual. Automatic method based on machine learning using CRFs is proposed in order to detect the segments that are paraphrased. Different descriptors are exploited within a window with various sizes. The tests performed indicate that the segments that are in paraphrastic relation are quite difficult to detect. Our best average reaches up to 0.65 F-measure, 0.75 precision, and 0.63 recall. We have several perspectives to this work for improving the detection of segments that are in paraphrastic relation and for studying the data from other points of view.","Spoken Corpora, Paraphrase, Reformulation, Paraphrastic Reformulation Marker, Supervised Learning"],"keyphrases":["Paraphrase","Reformulation","Corpus oraux","Marqueur de reformulation paraphrastique","Apprentissage supervis\u00e9"],"prmu":["P","P","P","P","M"]} {"id":"taln-2015-court-001","title":"Une m\u00e9thode discriminant formation simple pour la traduction automatique avec Grands Caract\u00e9ristiques","abstract":"Marge infus\u00e9 algorithmes d\u00e9tendus (MIRAS) dominent mod\u00e8le de tuning dans la traduction automatique statistique dans le cas des grandes caract\u00e9ristiques de l'\u00e9chelle, mais ils sont \u00e9galement c\u00e9l\u00e8bres pour la complexit\u00e9 de mise en \u0153uvre. Nous introduisons une nouvelle m\u00e9thode, qui concerne une liste des N meilleures comme une permutation et minimise la perte Plackett-Luce de permutations rez-de-v\u00e9rit\u00e9. Des exp\u00e9riences avec des caract\u00e9ristiques \u00e0 grande \u00e9chelle d\u00e9montrent que, la nouvelle m\u00e9thode est plus robuste que MERT ; si ce est seulement \u00e0 rattacher avec Miras, il a un avantage comparativement, plus facile \u00e0 mettre en \u0153uvre.","translation":["A Simple Discriminative Training Method for Machine Translation with Large-Scale Features","The margin infused relaxed algorithm (MIRAs) dominates model tuning in statistical machine translation in the case of large scale features, but also they are famous for the complexity in implementation. We introduce a new method, which regards an N-best list as a permutation and minimizes the Plackett-Luce loss of ground-truth permutations. Experiments with large-scale features demonstrate that, the new method is more robust than MERT ; though it is only matchable with MIRAs, it has a comparatively advantage, easier to implement.","machine translation, model tuning, large-scale features"],"keyphrases":["Traduction automatique","caract\u00e9ristiques \u00e0 grande \u00e9chelle","ajustement du mod\u00e8le"],"prmu":["P","P","M"]} {"id":"taln-2015-court-002","title":"Natural Language Reasoning using Coq: Interaction and Automation","abstract":"Dans cet article, nous pr\u00e9sentons une utilisation des assistants des preuves pour traiter l'inf\u00e9rence en Language Naturel (NLI). D' abord, nous proposons d'utiliser les theories des types modernes comme langue dans laquelle traduire la s\u00e9mantique du langage naturel. Ensuite, nous impl\u00e9mentons cette s\u00e9mantique dans l'assistant de preuve Coq pour raisonner sur ceux-ci. En particulier, nous \u00e9valuons notre proposition sur un sous-ensemble de la suite de tests FraCas, et nous montrons que 95.2% des exemples peuvent \u00eatre correctement pr\u00e9dits. Nous discutons ensuite la question de l'automatisation et il est d\u00e9montr\u00e9 que le langage de tactiques de Coq permet de construire des tactiques qui peuvent automatiser enti\u00e8rement les preuves, au moins pour les cas qui nous int\u00e9ressent.","translation":["","In this paper, we present the use of proof-assistant technology in order to deal with Natural Language Inference. We first propose the use of modern type theories as the language in which we translate natural language semantics to. Then, we implement these semantics in the proof-assistant Coq in order to reason about them. In particular we evaluate against a subset of the FraCas test suite and show a 95.2% accuracy and also precision levels that outperform existing approaches at least for the comparable parts. We then discuss the issue of automation, showing that Coq's tactical language allows one to build tactics that can fully automate proofs, at least for the cases we have looked at.","Natural Language Inference, Type Theory, Formal Semantics, FraCas, Coq, Proof automation"],"keyphrases":["Coq","FraCas","Inference en Langage Naturel","Th\u00e9orie des Types","S\u00e9mantique Formelle","Automatisation des Preuves"],"prmu":["P","P","M","M","M","R"]} {"id":"taln-2015-court-003","title":"Vous aimez ?...ou pas ? LikeIt, un jeu pour construire une ressource lexicale de polarit\u00e9","abstract":"En analyse de discours ou d'opinion, savoir caract\u00e9riser la connotation g\u00e9n\u00e9rale d'un texte, les sentiments qu'il v\u00e9hicule, est une aptitude recherch\u00e9e, qui suppose la constitution pr\u00e9alable d'une ressource lexicale de polarit\u00e9. Au sein du r\u00e9seau lexical JeuxDeMots, nous avons mis au point LikeIt, un jeu qui permet d'affecter une valeur positive, n\u00e9gative, ou neutre \u00e0 un terme, et de constituer ainsi pour chaque terme, \u00e0 partir des votes, une polarit\u00e9 r\u00e9sultante. Nous pr\u00e9sentons ici l'analyse quantitative des donn\u00e9es de polarit\u00e9 obtenues, ainsi que la m\u00e9thode pour les valider qualitativement.","translation":["Do you like it? or not? LikeIt, a game to build a polarity lexical resource","The ability to analyze the feelings that emerge from a text requires having a polarity lexical resource. In the lexical network JeuxDeMots we designed LikeIt, a GWAP that allows attributing a positive, negative or neutral value to a term, and thus obtaining for each term a resulting polarity. We present a quantitative analysis of polarity data obtained, together with the comparison method we developed to validate them qualitatively.","polarity, feelings, lexical network, crowdsourcing, GWAP"],"keyphrases":["polarit\u00e9","sentiment","r\u00e9seau lexical","crowdsourcing","GWAP"],"prmu":["P","P","P","U","U"]} {"id":"taln-2015-court-004","title":"\u00c9tude des verbes introducteurs de noms de m\u00e9dicaments dans les forums de sant\u00e9","abstract":"Dans cet article, nous combinons annotations manuelle et automatique pour identifier les verbes utilis\u00e9s pour introduire un m\u00e9dicament dans les messages sur les forums de sant\u00e9. Cette information est notamment utile pour identifier la relation entre un m\u00e9dicament et un effet secondaire. La mention d'un m\u00e9dicament dans un message ne garantit pas que l'utilisateur a pris ce traitement mais qu'il effectue un retour. Nous montrons ensuite que ces verbes peuvent servir pour extraire automatiquement des variantes de noms de m\u00e9dicaments. Nous estimons que l'analyse de ces variantes pourrait permettre de mod\u00e9liser les erreurs faites par les usagers des forums lorsqu'ils \u00e9crivent les noms de m\u00e9dicaments, et am\u00e9liorer en cons\u00e9quence les syst\u00e8mes de recherche d'information.","translation":["Study of Drug-Introducing Verbs on Health Forums","In this paper, we combine manual\/automatic annotation to identify the verbs used by the users of a health forum to say that they are taking a drug. This information is important in many aspects, one of them being the identification of the relation between drugs and side effects : the mere mention of a drug in a message is not enough to assess that the user is taking this drug, and is thus likely to provide a feedback on it. In a second part of the study, we show how the set of verbs that we identified can be used to automatically extract variants of drug names. We assume that the analysis of the variants could shed light on patterns of mistakes that users make when spelling drug names and thus, improve medical information retrieval systems.","user-generated content, forum, verbs, drug names"],"keyphrases":["verbes","noms de m\u00e9dicaments","forum","contenu g\u00e9n\u00e9r\u00e9 par l'utilisateur"],"prmu":["P","P","P","M"]} {"id":"taln-2015-court-005","title":"Initialisation de R\u00e9seaux de Neurones \u00e0 l'aide d'un Espace Th\u00e9matique","abstract":"Ce papier pr\u00e9sente une m\u00e9thode de traitement de documents parl\u00e9s int\u00e9grant une repr\u00e9sentation fond\u00e9e sur un espace th\u00e9matique dans un r\u00e9seau de neurones artificiels (ANN) employ\u00e9 comme classifieur de document. La m\u00e9thode propos\u00e9e consiste \u00e0 configurer la topologie d'un ANN ainsi que d'initialiser les connexions de celui-ci \u00e0 l'aide des espaces th\u00e9matiques appris pr\u00e9c\u00e9demment. Il est attendu que l'initialisation fond\u00e9e sur les probabilit\u00e9s th\u00e9matiques permette d'optimiser le processus d'optimisation des poids du r\u00e9seau ainsi qu'\u00e0 acc\u00e9l\u00e9rer la phase d'apprentissage tout en am\u00e9lioration la pr\u00e9cision de la classification d'un document de test. Cette m\u00e9thode est \u00e9valu\u00e9e lors d'une t\u00e2che de cat\u00e9gorisation de dialogues parl\u00e9s entre des utilisateurs et des agents du service d'appels de la R\u00e9gie Autonome Des Transports Parisiens (RATP). Les r\u00e9sultats montrent l'int\u00e9r\u00eat de la m\u00e9thode propos\u00e9e d'initialisation d'un r\u00e9seau, avec un gain observ\u00e9 de plus de 4 points en termes de bonne classification comparativement \u00e0 l'initialisation al\u00e9atoire. De plus, les exp\u00e9rimentations soulignent que les performances sont faiblement d\u00e9pendantes de la topologie du ANN lorsque les poids de la couche cach\u00e9e sont initialis\u00e9s au moyen des espaces de th\u00e8mes issus d'une allocation latente de Dirichlet ou latent Dirichlet Allocation (LDA) en comparaison \u00e0 une initialisation empirique.","translation":["Neural Network Initialization using a Topic Space","This paper presents a method for speech analytics that integrates topic-space based representation into an artificial neural network (ANN), working as a document classifier. The proposed method consists in configuring the ANN's topology and in initializing the weights according to a previously estimated topic-space. Setup based on thematic priors is expected to improve the efficiency of the ANN's weight optimization process, while speeding-up the training process and improving the classification accuracy. This method is evaluated on a spoken dialogue categorization task which is composed of customer-agent dialogues from the call-centre of Paris Public Transportation Company. Results show the interest of the proposed setup method, with a gain of more than 4 points in terms of classification accuracy, compared to the baseline. Moreover, experiments highlight that performance is weakly dependent to ANN's topology with the LDA-based configuration, in comparison to classical empirical setup.","Artificial neural network, Latent Dirichlet allocation, Weights initialization"],"keyphrases":["R\u00e9seau de neurones artificiels","Allocation latente de Dirichlet","Initialisation de poids"],"prmu":["P","P","R"]} {"id":"taln-2015-court-006","title":"FDTB1: Rep\u00e9rage des connecteurs de discours en corpus","abstract":"Cet article pr\u00e9sente le rep\u00e9rage manuel des connecteurs de discours dans le corpus FTB (French Treebank) d\u00e9j\u00e0 annot\u00e9 pour la morpho-syntaxe. C'est la premi\u00e8re \u00e9tape de l'annotation discursive compl\u00e8te de ce corpus. Il s'agit de projeter sur le corpus les \u00e9l\u00e9ments r\u00e9pertori\u00e9s dans LexConn, lexique des connecteurs du fran\u00e7ais, et de filtrer les occurrences de ces \u00e9l\u00e9ments qui n'ont pas un emploi discursif mais par exemple un emploi d'adverbe de mani\u00e8re ou de pr\u00e9position introduisant un compl\u00e9ment sous-cat\u00e9goris\u00e9. Plus de 10 000 connecteurs ont ainsi \u00e9t\u00e9 rep\u00e9r\u00e9s.","translation":["FDTB1 : Identification of discourse connectives in a French corpus","This paper presents the manual identification of discourse connectives in the corpus FTB (French Treebank) already annotated for morpho-syntax. This is the first step in the full discursive annotation of this corpus. The method consists in projecting on the corpus the items that are listed in LexConn, a lexicon of French connectives, and then filtering the occurrences of these elements that do not have a discursive use. More than 10K connectives have been identified.","discourse connectives, discourse annotation, grammar and discourse"],"keyphrases":["connecteurs de discours","annotation discursive de corpus","grammaire et discours"],"prmu":["P","R","M"]} {"id":"taln-2015-court-007","title":"ROBO, an edit distance for sentence comparison Application to automatic summarization","abstract":"Dans cet article, nous proposons une mesure de distance entre phrases fond\u00e9e sur la distance de Levenshtein, doublement pond\u00e9r\u00e9e par la fr\u00e9quence des mots et par le type d'op\u00e9ration r\u00e9alis\u00e9e. Nous l'\u00e9valuons au sein d'un syst\u00e8me de r\u00e9sum\u00e9 automatique dont la m\u00e9thode de calcul est volontairement limit\u00e9e \u00e0 une approche fond\u00e9e sur la similarit\u00e9 entre phrases. Nous sommes donc ainsi en mesure d'\u00e9valuer indirectement la performance de cette nouvelle mesure de distance.","translation":["","We here propose a sentence edit distance metric, ROBO, based on Levenshtein distance. This metric distance is weighted by words frequency and operation type. We apply ROBO on an automatic summarization system whose sentence selection metrics are on purpose restricted to sentence similarity approaches. ROBO performance can then be evaluated indirectly.","automatic summarization, semantic similarity, edit distance"],"keyphrases":["r\u00e9sum\u00e9 automatique","similarit\u00e9 s\u00e9mantique","distance d'\u00e9dition"],"prmu":["P","M","M"]} {"id":"taln-2015-court-008","title":"Classification d'entit\u00e9s nomm\u00e9es de type \u00ab film \u00bb","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 la classification contextuelle d'entit\u00e9s nomm\u00e9es de type \u00ab film \u00bb. Notre travail s'inscrit dans un cadre applicatif dont le but est de rep\u00e9rer, dans un texte, un titre de film contenu dans un catalogue (par exemple catalogue de films disponibles en VoD). Pour ce faire, nous combinons deux approches : nous partons d'un syst\u00e8me \u00e0 base de r\u00e8gles, qui pr\u00e9sente une bonne pr\u00e9cision, que nous couplons avec un mod\u00e8le de langage permettant d'augmenter le rappel. La g\u00e9n\u00e9ration peu co\u00fbteuse de donn\u00e9es d'apprentissage pour le mod\u00e8le de langage \u00e0 partir de Wikipedia est au coeur de ce travail. Nous montrons, \u00e0 travers l'\u00e9valuation de notre syst\u00e8me, la difficult\u00e9 de classification des entit\u00e9s nomm\u00e9es de type \u00ab film \u00bb ainsi que la compl\u00e9mentarit\u00e9 des approches que nous utilisons pour cette t\u00e2che.","translation":["Named Entity Classification for Movie Titles","In this article, we focus on contextual classification of named entities for \u00ab movie \u00bb type. Our work is part of an application framework which aims to identify, in a text, a movie title contained in a catalog (e.g. VoD catalog). To do this, we combine two approaches : we use a rule-based system, which has good accuracy. To increase recall we couple our system with a language model. The generation of training data for the language model from Wikipedia is a crucial part of this work. We show, through the evaluation of our system, the complementarity of approaches we use.","named entity recognition, movies, classification, rules, language model, Wikipedia"],"keyphrases":["classification","films","r\u00e8gles","mod\u00e8le de langage","Wikipedia","reconnaissance d'entit\u00e9s nomm\u00e9es"],"prmu":["P","P","P","P","P","M"]} {"id":"taln-2015-court-011","title":"Adaptation par enrichissement terminologique en traduction automatique statistique fond\u00e9e sur la g\u00e9n\u00e9ration et le filtrage de bi-segments virtuels","abstract":"Nous pr\u00e9sentons des travaux pr\u00e9liminaires sur une approche permettant d'ajouter des termes bilingues \u00e0 un syst\u00e8me de Traduction Automatique Statistique (TAS) \u00e0 base de segments. Les termes sont non seulement inclus individuellement, mais aussi avec des contextes les englobant. Tout d'abord nous g\u00e9n\u00e9rons ces contextes en g\u00e9n\u00e9ralisant des motifs (ou patrons) observ\u00e9s pour des mots de m\u00eame nature syntaxique dans un corpus bilingue. Enfin, nous filtrons les contextes qui n'atteignent pas un certain seuil de confiance, \u00e0 l'aide d'une m\u00e9thode de s\u00e9lection de bi-segments inspir\u00e9e d'une approche de s\u00e9lection de donn\u00e9es, pr\u00e9c\u00e9demment appliqu\u00e9e \u00e0 des textes bilingues align\u00e9s.","translation":["Statistical machine translation adaptation through terminological enrichment based on virtual phrase generation and filtering","We propose a technique for adding bilingual terms to a phrase-based SMT system which includes not only individual words, but also induces phrasal contexts around these words. We first generate these contexts by generalizing patterns observed for similar words in a bilingual corpus, but then filter out those contexts that fall below a certain confidence threshold, based on an original phrase-pair selection process inspired by existing sentence selection techniques.","Statistical Machine Translation, Natural Language Generation, phrasal context, bilingual terminology"],"keyphrases":["Traduction Automatique Statistique","G\u00e9n\u00e9ration Automatique de Texte","contexte phrastique","terminologie bilingue"],"prmu":["P","R","M","R"]} {"id":"taln-2015-court-012","title":"Une mesure d'int\u00e9r\u00eat \u00e0 base de surrepr\u00e9sentation pour l'extraction des motifs syntaxiques stylistiques","abstract":"Dans cette contribution, nous pr\u00e9sentons une \u00e9tude sur la stylistique computationnelle des textes de la litt\u00e9rature classiques fran\u00e7aise fond\u00e9e sur une approche conduite par donn\u00e9es, o\u00f9 la d\u00e9couverte des motifs linguistiques int\u00e9ressants se fait sans aucune connaissance pr\u00e9alable. Nous proposons une mesure objective capable de capturer et d'extraire des motifs syntaxiques stylistiques significatifs \u00e0 partir d'un \u0153uvre d'un auteur donn\u00e9. Notre hypoth\u00e8se de travail est fond\u00e9e sur le fait que les motifs syntaxiques les plus pertinents devraient refl\u00e9ter de mani\u00e8re significative le choix stylistique de l'auteur, et donc ils doivent pr\u00e9senter une sorte de comportement de surrepr\u00e9sentation contr\u00f4l\u00e9 par les objectifs de l'auteur. Les r\u00e9sultats analys\u00e9s montrent l'efficacit\u00e9 dans l'extraction de motifs syntaxiques int\u00e9ressants dans le texte litt\u00e9raire fran\u00e7ais classique, et semblent particuli\u00e8rement prometteurs pour les analyses de ce type particulier de texte.","translation":["An Overrepresentation-based Interestingness Measure for Syntactic Stylistic Pattern Extraction","In this contribution, we present a computational stylistic study of the French classic literature texts based on a data-driven approach where discovering interesting linguistic patterns is done without any prior knowledge. We propose an objective measure capable of capturing and extracting meaningful stylistic syntactic patterns from a given author's work. Our hypothesis is based on the fact that the most relevant syntactic patterns should significantly reflect the author's stylistic choice and thus they should exhibit some kind of overrepresentation behavior controlled by the author's purpose. The analysed results show the effectiveness in extracting interesting syntactic patterns from classic French literary text, and seem particularly promising for the analyses of such particular text.","Computational stylistic, text mining, syntactic patterns, interestingness measure"],"keyphrases":["mesure d'int\u00e9r\u00eat","motifs syntaxiques","Stylistique computationnelle","fouille de texte"],"prmu":["P","P","P","M"]} {"id":"taln-2015-court-013","title":"Une Approche \u00e9volutionnaire pour le r\u00e9sum\u00e9 automatique","abstract":"Dans cet article, nous proposons une m\u00e9thode de r\u00e9sum\u00e9 automatique fond\u00e9e sur l'utilisation d'un algorithme g\u00e9n\u00e9tique pour parcourir l'espace des r\u00e9sum\u00e9s candidats coupl\u00e9 \u00e0 un calcul de divergence de distribution de probabilit\u00e9s de n-grammes entre r\u00e9sum\u00e9s candidats et documents source. Cette m\u00e9thode permet de consid\u00e9rer un r\u00e9sum\u00e9 non plus comme une accumulation de phrases ind\u00e9pendantes les unes des autres, mais comme un texte vu dans sa globalit\u00e9. Nous la comparons \u00e0 une des meilleures m\u00e9thodes existantes fond\u00e9e sur la programmation lin\u00e9aire en nombre entier, et montrons son efficacit\u00e9 sur le corpus TAC 2009.","translation":["Automatic summarization using a genetic algorithm","This paper proposes a novel method for automatic summarization based on a genetic algorithm that explores candidate summaries space following an objective function computed over ngrams probability distributions of the candidate summary and the source documents. This method does not consider a summary as a stack of independant sentences but as a whole text. We compare this method to one of the best existing methods which is based on integer linear programming, and show its efficiency on TAC 2009 corpus.","automatic summarization, genetic algorithm, probabilistic models"],"keyphrases":["R\u00e9sum\u00e9 automatique","algorithme g\u00e9n\u00e9tique","mod\u00e8les probabilistes"],"prmu":["P","P","U"]} {"id":"taln-2015-court-014","title":"Identification des unit\u00e9s de mesure dans les textes scientifiques","abstract":"Le travail pr\u00e9sent\u00e9 dans cet article se situe dans le cadre de l'identification de termes sp\u00e9cialis\u00e9s (unit\u00e9s de mesure) \u00e0 partir de donn\u00e9es textuelles pour enrichir une Ressource Termino-Ontologique (RTO). La premi\u00e8re \u00e9tape de notre m\u00e9thode consiste \u00e0 pr\u00e9dire la localisation des variants d'unit\u00e9s de mesure dans les documents. Nous avons utilis\u00e9 une m\u00e9thode reposant sur l'apprentissage supervis\u00e9. Cette m\u00e9thode permet de r\u00e9duire sensiblement l'espace de recherche des variants tout en restant dans un contexte optimal de recherche (r\u00e9duction de 86% de l'espace de recherch\u00e9 sur le corpus \u00e9tudi\u00e9). La deuxi\u00e8me \u00e9tape du processus, une fois l'espace de recherche r\u00e9duit aux variants d'unit\u00e9s, utilise une nouvelle mesure de similarit\u00e9 permettant d'identifier automatiquement les variants d\u00e9couverts par rapport \u00e0 un terme d'unit\u00e9 d\u00e9j\u00e0 r\u00e9f\u00e9renc\u00e9 dans la RTO avec un taux de pr\u00e9cision de 82% pour un seuil au dessus de 0.6 sur le corpus \u00e9tudi\u00e9.","translation":["Identification of units of measures in scientific texts","The work presented in this paper consists in identifying specialized terms (units of measures) in textual documents in order to enrich a onto-terminological resource (OTR). The first step permits to predict the localization of unit of measure variants in the documents. We have used a method based on supervised learning. This method permits to reduce significantly the variant search space staying in an optimal search context (reduction of 86% of the search space on the studied set of documents). The second step uses a new similarity measure identifying automatically variants associated with term denoting a unit of measure already present in the OTR with a precision rate of 82% for a threshold above 0.6 on the studied corpus .","onto-terminological resource, learning, similarity"],"keyphrases":["ressource termino-ontologique","apprentissage","similarit\u00e9"],"prmu":["P","P","P"]} {"id":"taln-2015-court-015","title":"\u00c9valuation intrins\u00e8que et extrins\u00e8que du nettoyage de pages Web","abstract":"Le nettoyage de documents issus du web est une t\u00e2che importante pour le TAL en g\u00e9n\u00e9ral et pour la constitution de corpus en particulier. Cette phase est peu trait\u00e9e dans la litt\u00e9rature, pourtant elle n'est pas sans in\ufb02uence sur la qualit\u00e9 des informations extraites des corpus. Nous proposons deux types d'\u00e9valuation de cette t\u00e2che de d\u00e9tourage : (I) une \u00e9valuation intrins\u00e8que fond\u00e9e sur le contenu en mots, balises et caract\u00e8res ; (II) une \u00e9valuation extrins\u00e8que fond\u00e9e sur la t\u00e2che, en examinant l'effet du d\u00e9tourage des documents sur le syst\u00e8me plac\u00e9 en aval de la cha\u00eene de traitement. Nous montrons que les r\u00e9sultats ne sont pas coh\u00e9rents entre ces deux \u00e9valuations ainsi qu'entre les diff\u00e9rentes langues. Ainsi, le choix d'un outil de d\u00e9tourage devrait \u00eatre guid\u00e9 par la t\u00e2che vis\u00e9e plut\u00f4t que par la simple \u00e9valuation intrins\u00e8que.","translation":["Intrinsic and extrinsic evaluation of boilerplate removal tools","In this article, we tackle the problem of evaluation of web page cleaning tools. This task is seldom studied in the literature although it has consequences on the linguistic processing performed on web-based corpora. We propose two types of evaluation : (I) an intrinsic (content-based) evaluation with measures on words, tags and characters ; (II) an extrinsic (task-based) evaluation on the same corpus by studying the effects of the cleaning step on the performances of an NLP pipeline. We show that the results are not consistent in both evaluations. We show as well that there are important differences in the results between the studied languages. We conclude that the choice of a web page cleaning tool should be made in view of the aimed task rather than on the performances of the tools in an intrinsic evaluation.","Web page cleaning, corpus collecting, intrinsic evaluation, extrinsic evaluation, web scraping"],"keyphrases":["\u00e9valuation intrins\u00e8que","Nettoyage de pages Web","d\u00e9tourage","\u00e9valuation extrins\u00e8que","collecte de corpus"],"prmu":["P","P","P","P","M"]} {"id":"taln-2015-court-016","title":"CAN\u00c9PHORE : un corpus fran\u00e7ais pour la fouille d'opinion cibl\u00e9e","abstract":"La fouille d'opinion cibl\u00e9e (aspect-based sentiment analysis) fait l'objet ces derni\u00e8res ann\u00e9es d'un int\u00e9r\u00eat particulier, visible dans les sujets des r\u00e9centes campagnes d'\u00e9valuation comme SemEval 2014 et 2015 ou bien DEFT 2015. Cependant les corpus annot\u00e9s et publiquement disponibles permettant l'\u00e9valuation de cette t\u00e2che sont rares. Dans ce travail nous pr\u00e9sentons en premier lieu un corpus fran\u00e7ais librement accessible de 10 000 tweets manuellement annot\u00e9s. Nous accompagnons ce corpus de r\u00e9sultats de r\u00e9f\u00e9rence pour l'extraction de marqueurs d'opinion non supervis\u00e9e. Nous pr\u00e9sentons ensuite une m\u00e9thode am\u00e9liorant les r\u00e9sultats de cette extraction, en suivant une approche semi-supervis\u00e9e.","translation":["CAN\u00c9PHORE : a French corpus for aspect-based sentiment analysis evaluation","Aspect-based sentiment analysis knows a renewed interest these last years, according to recent opinion mining evaluation series (SemEval 2014 and 2015, DEFT 2015). However, publicly available evaluation resources are scarse. This work firstly introduces a publicly available annotated French Twitter corpus for sentiment analysis evaluation on aspect, subject and opinion word levels (10 000 documents). We present baseline results on this corpus for the task of opinion word extraction and then show that these results can be improved with simple semi-supervised methods.","Opinion mining, social web, annotated corpus, semi-supervised information extraction"],"keyphrases":["Fouille d'opinion","corpus annot\u00e9","web social","extraction d'information semi-supervis\u00e9e"],"prmu":["P","P","U","M"]} {"id":"taln-2015-court-017","title":"Extraction de Contextes Riches en Connaissances en corpus sp\u00e9cialis\u00e9s","abstract":"Les banques terminologiques et les dictionnaires sont des ressources pr\u00e9cieuses qui facilitent l'acc\u00e8s aux connaissances des domaines sp\u00e9cialis\u00e9s. Ces ressources sont souvent assez pauvres et ne proposent pas toujours pour un terme \u00e0 illustrer des exemples permettant d'appr\u00e9hender le sens et l'usage de ce terme. Dans ce contexte, nous proposons de mettre en \u0153uvre la notion de Contextes Riches en Connaissances (CRC) pour extraire directement de corpus sp\u00e9cialis\u00e9s des exemples de contextes illustrant son usage. Nous d\u00e9finissons un cadre unifi\u00e9 pour exploiter tout \u00e0 la fois des patrons de connaissances et des collocations avec une qualit\u00e9 acceptable pour une r\u00e9vision humaine.","translation":["Knowledge-Rich Contexts Extraction in Specialized Corpora","The term banks and dictionaries are valuable resources that improve access to knowledge in specialized domains. These resources are often relatively poor and do not always provide, for a given term, examples of its typicall use. In this context, we implement Knowledge-Rich Contexts (KRCs) to extract examples of contexts providing illustration of terms in specialized domain. We propose a unified framework to apply at the same time knowledge pattern and collocations with acceptable quality for human review.","specialized corpus, KRC, knowledge patterns, collocations"],"keyphrases":["corpus sp\u00e9cialis\u00e9","CRC","collocations","patrons de connaisssances"],"prmu":["P","P","P","M"]} {"id":"taln-2015-court-018","title":"Traitement automatique des formes m\u00e9triques des textes versifi\u00e9s","abstract":"L'objectif de cet article est de pr\u00e9senter tout d'abord dans ses grandes lignes le projet Anam\u00e8tre qui a pour objet le traitement automatique des formes m\u00e9triques de la po\u00e9sie et du th\u00e9\u00e2tre fran\u00e7ais du d\u00e9but du XVIIe au d\u00e9but du XXe si\u00e8cle. Nous pr\u00e9senterons ensuite un programme de calcul automatique des m\u00e8tres appliqu\u00e9 \u00e0 notre corpus dans le cadre d'une approche d\u00e9terministe en nous appuyant sur la m\u00e9thode m\u00e9tricom\u00e9trique de B. de Cornulier ainsi que la proc\u00e9dure d'appariement des rimes et la d\u00e9termination des sch\u00e9mas de strophes dans les suites p\u00e9riodiques et les formes fixes.","translation":["Automatic Processing of Metrical Forms in Verse Texts","The purpose of this paper is to present the project Anam\u00e8tre. The project proposes automatic processing of metrical forms in French poetry and drama from the early seventeenth to the early twentieth century. Then we present the calculation program of meters on our corpus using a deterministic approach relying on the \"m\u00e9tricom\u00e9tric\" method of B. de Cornulier. Finally, we present the procedure of maching rimes and determination of rhyme schemes in periodic sequences and specific forms.","French metrics, poetic corpus, calculation of meter, matching rhymes, determining of rhyme schemes"],"keyphrases":["appariement des rimes","d\u00e9termination des sch\u00e9mas de strophes","m\u00e9trique fran\u00e7aise","corpus po\u00e9tique","calcul du m\u00e8tre"],"prmu":["P","P","M","M","R"]} {"id":"taln-2015-court-019","title":"Apprentissage automatique d'un mod\u00e8le de r\u00e9solution de la cor\u00e9f\u00e9rence \u00e0 partir de donn\u00e9es orales transcrites du fran\u00e7ais : le syst\u00e8me CROC","abstract":"Cet article pr\u00e9sente CROC 1 (Coreference Resolution for Oral Corpus), un premier syst\u00e8me de r\u00e9solution des cor\u00e9f\u00e9rences en fran\u00e7ais reposant sur des techniques d'apprentissage automatique. Une des sp\u00e9cificit\u00e9s du syst\u00e8me r\u00e9side dans son apprentissage sur des donn\u00e9es exclusivement orales, \u00e0 savoir ANCOR (anaphore et cor\u00e9f\u00e9rence dans les corpus oraux), le premier corpus de fran\u00e7ais oral transcrit annot\u00e9 en relations anaphoriques. En l'\u00e9tat actuel, le syst\u00e8me CROC n\u00e9cessite un rep\u00e9rage pr\u00e9alable des mentions. Nous d\u00e9taillons les choix des traits \u2013 issus du corpus ou calcul\u00e9s \u2013 utilis\u00e9s par l'apprentissage, et nous pr\u00e9sentons un ensemble d'exp\u00e9rimentations avec ces traits. Les scores obtenus sont tr\u00e8s proches de ceux de l'\u00e9tat de l'art des syst\u00e8mes con\u00e7us pour l'\u00e9crit. Nous concluons alors en donnant des perspectives sur la r\u00e9alisation d'un syst\u00e8me end-to-end valable \u00e0 la fois pour l'oral transcrit et l'\u00e9crit.","translation":["Machine Learning for Coreference Resolution of Transcribed Oral French Data : the CROC System","We present CROC (Coreference Resolution for Oral Corpus), the first machine learning system for coreference resolution in French. One specific aspect of the system is that it has been trained on data that are exclusively oral, namely ANCOR (ANaphora and Coreference in ORal corpus), the first corpus in oral French with anaphorical relations annotations. In its current state, the CROC system requires pre-annotated mentions. We detail the features that we chose to be used by the learning algorithms, and we present a set of experiments with these features. The scores we obtain are close to those of state-of-the-art systems for written English. Then we give future works on the design of an end-to-end system for oral and written French.","Dialogue corpus, Coreference resolution, Machine learning, Mention-pair model"],"keyphrases":["apprentissage","corpus de dialogues","d\u00e9tection de cor\u00e9f\u00e9rences","paires de mentions"],"prmu":["P","M","M","M"]} {"id":"taln-2015-court-020","title":"Vers un diagnostic d'ambigu\u00eft\u00e9 des termes candidats d'un texte","abstract":"Les recherches autour de la d\u00e9sambigu\u00efsation s\u00e9mantique traitent de la question du sens \u00e0 accorder \u00e0 diff\u00e9rentes occurrences d'un mot ou plus largement d'une unit\u00e9 lexicale. Dans cet article, nous nous int\u00e9ressons \u00e0 l'ambigu\u00eft\u00e9 d'un terme en domaine de sp\u00e9cialit\u00e9. Nous posons les premiers jalons de nos recherches sur une question connexe que nous nommons le diagnostic d'ambigu\u00eft\u00e9. Cette t\u00e2che consiste \u00e0 d\u00e9cider si une occurrence d'un terme est ou n'est pas ambigu\u00eb. Nous mettons en \u0153uvre une approche d'apprentissage supervis\u00e9e qui exploite un corpus d'articles de sciences humaines r\u00e9dig\u00e9s en fran\u00e7ais dans lequel les termes ambigus ont \u00e9t\u00e9 d\u00e9tect\u00e9s par des experts. Le diagnostic s'appuie sur deux types de traits : syntaxiques et positionnels. Nous montrons l'int\u00e9r\u00eat de la structuration du texte pour \u00e9tablir le diagnostic d'ambigu\u00eft\u00e9.","translation":["Towards diagnosing ambiguity of candidate terms","Researches in the field of Word Sense Disambiguation focus on identifying the precise meaning of a lexical unit found in a text. This article tackles another kind of problem : assessing the ambiguity of a lexical unit. In other words, we try to identify if a particular unit is ambiguous or not, we define this task as ambiguity diagnosis. Our evaluation dataset contains scientific articles where ambiguous words have been tagged by experts. In order to give an ambiguity diagnosis for each term, we use two types of features : POS tags and positions in the text. We show that the position of an occurrence in the text is a strong hint for such a task.","ambiguity diagnosis, keyword extraction, terminology"],"keyphrases":["diagnostic d'ambigu\u00eft\u00e9","extraction de mot-cl\u00e9s","terminologie"],"prmu":["P","M","U"]} {"id":"taln-2015-court-021","title":"Augmentation d'index par propagation sur un r\u00e9seau lexical Application aux comptes rendus de radiologie","abstract":"Les donn\u00e9es m\u00e9dicales \u00e9tant de plus en plus informatis\u00e9es, le traitement s\u00e9mantiquement efficace des rapports m\u00e9dicaux est devenu une n\u00e9cessit\u00e9. La recherche d'images radiologiques peut \u00eatre grandement facilit\u00e9e gr\u00e2ce \u00e0 l'indexation textuelle des comptes rendus associ\u00e9s. Nous pr\u00e9sentons un algorithme d'augmentation d'index de comptes rendus fond\u00e9 sur la propagation d'activation sur un r\u00e9seau lexico-s\u00e9mantique g\u00e9n\u00e9raliste.","translation":["Index augmentation through propagation over a lexical network \u2013 application to radiological reports","Medical data being increasingly computerized, semantically effective treatment of medical reports has become a necessity. The search of radiological images can be greatly facilitated through textual indexing of the associated reports. We present here an index enlargement algorithm based on spreading activations over a general lexical-semantic network.","lexico-semantic network, propagation, indexation, information retrieval, medical imaging"],"keyphrases":["indexation","propagation","r\u00e9seau lexico-s\u00e9mantique","recherche d'information","imagerie m\u00e9dicale"],"prmu":["P","P","P","M","M"]} {"id":"taln-2015-court-022","title":"D\u00e9tection automatique de l'ironie dans les tweets en fran\u00e7ais","abstract":"Cet article pr\u00e9sente une m\u00e9thode par apprentissage supervis\u00e9 pour la d\u00e9tection de l'ironie dans les tweets en fran\u00e7ais. Un classifieur binaire utilise des traits de l'\u00e9tat de l'art dont les performances sont reconnues, ainsi que de nouveaux traits issus de notre \u00e9tude de corpus. En particulier, nous nous sommes int\u00e9ress\u00e9s \u00e0 la n\u00e9gation et aux oppositions explicites\/implicites entre des expressions d'opinion ayant des polarit\u00e9s diff\u00e9rentes. Les r\u00e9sultats obtenus sont encourageants.","translation":["Automatic Irony Detection in French tweets","This paper presents a supervised learning method for irony detection in tweets in French. A binary classifier uses both state of the art features whose efficiency has been empirically proved and new groups of features observed in our corpus. We focused on negation and explicit\/implicit oppositions of opinions with different polarities. Results are encouraging.","Opinion analysis, irony detection, supervised learning"],"keyphrases":["apprentissage supervis\u00e9","d\u00e9tection de l'ironie","Analyse d'opinion"],"prmu":["P","P","M"]} {"id":"taln-2015-court-023","title":"Dictionnaires morphologiques du fran\u00e7ais contemporain : pr\u00e9sentation de Morfetik, \u00e9l\u00e9ments d'un mod\u00e8le pour le TAL","abstract":"Dans cet article, nous pr\u00e9sentons une ressource linguistique, Morfetik, d\u00e9velopp\u00e9e au LDI. Apr\u00e8s avoir pr\u00e9sent\u00e9 le mod\u00e8le sous-jacent et sp\u00e9cifi\u00e9 les modalit\u00e9s de sa construction, nous comparons cette ressource avec d'autres ressources du fran\u00e7ais : le GLAFF, le LEFF, Morphalou et Dicolecte. Nous \u00e9tudions ensuite la couverture lexicale de ces dictionnaires sur trois corpus, le Wikipedia fran\u00e7ais, la version fran\u00e7aise de Wacky et les dix ans du Monde. Nous concluons par un programme de travail permettant de mettre \u00e0 jour de fa\u00e7on continue la ressource lexicographique du point de vue des formes linguistiques, en connectant la ressource \u00e0 un corpus continu.","translation":["French Contemporary Morphological Dictionaries : Morfetik Database, Elements of a Model for Computational Linguistics","In this article, we present a morphological linguistic resource for Contemporary French called Morfetik. We first detail its composition, features and coverage. We compare it to other available morphological dictionaries for French (GLAFF, LEFF, Morphalou and Dicolecte). We then study its coverage on big corpora (French Wikipedia, French version of Wacky and Le Monde 10 years). We conclude with a proposition for updating the dictionary by connecting the resource with a continuously live corpus.","dictionary, morphology, French language, linguistic resource, corpus"],"keyphrases":["dictionnaire","morphologie","fran\u00e7ais","ressource linguistique","corpus"],"prmu":["P","P","P","P","P"]} {"id":"taln-2015-court-024","title":"Une m\u00e9tagrammaire de l'interface morpho-s\u00e9mantique dans les verbes en arabe","abstract":"Dans cet article, nous pr\u00e9sentons une mod\u00e9lisation de la morphologie d\u00e9rivationnelle de l'arabe utilisant le cadre m\u00e9tagrammatical o\ufb00ert par XMG. Nous d\u00e9montrons que l'utilisation de racines et patrons abstraits comme morph\u00e8mes atomiques sous-sp\u00e9cifi\u00e9s o\ufb00re une mani\u00e8re \u00e9l\u00e9gante de traiter l'interaction entre morphologie et s\u00e9mantique.","translation":["A metagrammar of the morphology-semantics interface in Arabic verbs","In this article we propose to model the derivational morphology of Arabic using the metagrammatical framework of XMG. We demonstrate that treating abstract roots and patterns as semantically underspecified atomic morphemes o\ufb00ers an elegant way to account for the interaction between morphology and semantics.","Morphology, Arabic, metagrammar, frame semantics"],"keyphrases":["arabe","Morphologie","metagrammaire","frame semantics"],"prmu":["P","P","U","U"]} {"id":"taln-2015-court-025","title":"Cr\u00e9ation d'un nouveau treebank \u00e0 partir de quatri\u00e8mes de couverture","abstract":"Nous pr\u00e9sentons ici 4-couv, un nouveau corpus arbor\u00e9 d'environ 3 500 phrases, constitu\u00e9 d'un ensemble de quatri\u00e8mes de couverture, \u00e9tiquet\u00e9 et analys\u00e9 automatiquement puis corrig\u00e9 et valid\u00e9 \u00e0 la main. Il r\u00e9pond \u00e0 des besoins sp\u00e9cifiques pour des projets de linguistique exp\u00e9rimentale, et vise \u00e0 rester compatible avec les autres treebanks existants pour le fran\u00e7ais. Nous pr\u00e9sentons ici le corpus lui-m\u00eame ainsi que les outils utilis\u00e9s pour les diff\u00e9rentes \u00e9tapes de son \u00e9laboration : choix des textes, \u00e9tiquetage, parsing, correction manuelle.","translation":["Creation of a new treebank with backcovers","We introduce 4-couv, a treebank of approximatively 3 500 trees, built from a set of literacy backcovers. It has been automatically tagged and parsed, then manually corrected and validated. It was developed in the perspective of linguistic expriment projects, and aims to be compatible with other standard treebanks for french. We present in the following the corpus itself, then the tools we used or developed for the different stages of its elaboration : texts' selection, tagging, parsing, and manual correction.","Treebank, Tagging, Parsing, Stochastic parsing, Annotation scheme, Annotation tools, Experimental linguistics"],"keyphrases":["Corpus arbor\u00e9","Linguistique exp\u00e9rimentale","\u00c9tiquetage automatique","Analyse syntaxique automatique","Parsing stochastique","Conventions d'annotation","Outils d'annotation"],"prmu":["P","P","R","M","M","M","M"]} {"id":"taln-2015-court-026","title":"Entre \u00e9crit et oral ? Analyse compar\u00e9e de conversations de type tchat et de conversations t\u00e9l\u00e9phoniques dans un centre de contact client","abstract":"Dans cet article nous proposons une premi\u00e8re \u00e9tude descriptive d'un corpus de conversations de type tchat issues d'un centre de contact d'assistance. Les dimensions lexicales, syntaxiques et interactionnelles sont analys\u00e9es. L'\u00e9tude parall\u00e8le de transcriptions de conversations t\u00e9l\u00e9phoniques issues d'un centre d'appel dans le m\u00eame domaine de l'assistance permet d'\u00e9tablir des comparaisons entre ces deux modes d'interaction. L'analyse r\u00e9v\u00e8le des diff\u00e9rences marqu\u00e9es en termes de d\u00e9roulement de la conversation, avec une plus grande efficacit\u00e9 pour les conversations de type tchat malgr\u00e9 un plus grand \u00e9talement temporel. L'analyse lexicale et syntaxique r\u00e9v\u00e8le \u00e9galement des diff\u00e9rences de niveaux de langage avec une plus grande proximit\u00e9 entre le client et le t\u00e9l\u00e9conseiller \u00e0 l'oral que pour les tchats o\u00f9 le d\u00e9calage entre le style adopt\u00e9 par le t\u00e9l\u00e9conseiller et l'expression du client est plus important.","translation":["Comparing Written and Spoken Languages: a Descriptive Study of Chat and Phone Conversations from an Assistance Contact Center","In this article we propose a first descriptive study of a chat conversations corpus from an assistance contact center. The analysis includes lexical, syntactic and interactional dimensions. Transcriptions of telephone conversations from an assistance call center are also studied, allowing comparisons between these two interaction modes to be drawn. The study reveals significant differences in terms of conversation flow, with an increased efficiency for chat conversations in spite of longer temporal span. The lexical and syntactic analyses also reveal differences in terms of language level with a tighter proximity between agent and customers on the phone than for chats where the style adopted by agents is different from the style adopted by customers.","Contact center, chat conversations, interaction, lexical and syntactic analysis"],"keyphrases":["Centre de contact","interaction","analyse lexicale et syntaxique","conversations tchat"],"prmu":["P","P","P","R"]} {"id":"taln-2015-court-027","title":"Construction et maintenance d'une ressource lexicale bas\u00e9es sur l'usage","abstract":"Notre soci\u00e9t\u00e9 d\u00e9veloppe un moteur de recherche (MR) s\u00e9mantique bas\u00e9 sur la reformulation de requ\u00eate. Notre MR s'appuie sur un lexique que nous avons construit en nous inspirant de la Th\u00e9orie Sens-Texte (TST). Nous pr\u00e9sentons ici notre ressource lexicale et indiquons comment nous l'enrichissons et la maintenons en fonction des besoins d\u00e9tect\u00e9s \u00e0 l'usage. Nous abordons \u00e9galement la question de l'adaptation de la TST \u00e0 nos besoins.","translation":["Lexical resource building and maintenance based on the use","Our company develops a semantic search engine based on queries rephrasing. Our search engine relies on a lexicon we built on the basis of the Meaning-Text theory. We introduce our lexical resource and explain how we enrich and update it according to the needs we detect. We also mention the customization of the Meaning Text Theory to our needs.","Lexical Ressources, Meaning-Text Theory, Information Retrieval"],"keyphrases":["Ressources lexicales","Th\u00e9orie Sens-Texte","Recherche d'Information"],"prmu":["P","P","M"]} {"id":"taln-2015-court-028","title":"Utilisation d'annotations s\u00e9mantiques pour la validation automatique d'hypoth\u00e8ses dans des conversations t\u00e9l\u00e9phoniques","abstract":"Les travaux pr\u00e9sent\u00e9s portent sur l'extraction automatique d'unit\u00e9s s\u00e9mantiques et l'\u00e9valuation de leur pertinence pour des conversations t\u00e9l\u00e9phoniques. Le corpus utilis\u00e9 est le corpus fran\u00e7ais DECODA. L'objectif de la t\u00e2che est de permettre l'\u00e9tiquetage automatique en th\u00e8me de chaque conversation. Compte tenu du caract\u00e8re spontan\u00e9 de ce type de conversations et de la taille du corpus, nous proposons de recourir \u00e0 une strat\u00e9gie semi-supervis\u00e9e fond\u00e9e sur la construction d'une ontologie et d'un apprentissage actif simple : un annotateur humain analyse non seulement les listes d'unit\u00e9s s\u00e9mantiques candidates menant au th\u00e8me mais \u00e9tudie \u00e9galement une petite quantit\u00e9 de conversations. La pertinence de la relation unissant les unit\u00e9s s\u00e9mantiques conserv\u00e9es, le sous-th\u00e8me issu de l'ontologie et le th\u00e8me annot\u00e9 est \u00e9valu\u00e9e par un DNN, prenant en compte une repr\u00e9sentation vectorielle du document. L'int\u00e9gration des unit\u00e9s s\u00e9mantiques retenues dans le processus de classification en th\u00e8me am\u00e9liore les performances.","translation":["Use of Semantic Annotations for Validating Mentions of Semantic Hypotheses in Telephone Conversations","The presented work focuses on the automatic extraction of semantic units and evaluation of their relevance to telephone conversations. The corpus used is DECODA corpus. The objective of the task is to enable automatic labeling theme of each conversation. Given the spontaneous nature of this type of conversations and the size of the corpus, we propose to use a semi-supervised strategy based on the construction of an ontology and a simple active learning : a human annotator analyses not only the lists of semantic units leading to the theme, but also studying a small amount of conversations. The relevance of the relationship between the conserved semantic units, sub-theme from the ontology and annotated theme is assessed by DNN, taking into account a vector representation of the document. The integration of semantic units included in the theme classification process improves performance.","human\/human conversation analysis, automatic extraction of relevant semantic units, ontology validation"],"keyphrases":["analyse de conversation humain\/humain","extraction automatique d'unit\u00e9s s\u00e9mantiques pertinentes","validation d'une ontologie"],"prmu":["M","R","R"]} {"id":"taln-2015-court-029","title":"Etiquetage morpho-syntaxique en domaine de sp\u00e9cialit\u00e9: le domaine m\u00e9dical","abstract":"L'\u00e9tiquetage morpho-syntaxique est une t\u00e2che fondamentale du Traitement Automatique de la Langue, sur laquelle reposent souvent des traitements plus complexes tels que l'extraction d'information ou la traduction automatique. L'\u00e9tiquetage en domaine de sp\u00e9cialit\u00e9 est limit\u00e9 par la disponibilit\u00e9 d'outils et de corpus annot\u00e9s sp\u00e9cifiques au domaine. Dans cet article, nous pr\u00e9sentons le d\u00e9veloppement d'un corpus clinique du fran\u00e7ais annot\u00e9 morpho-syntaxiquement \u00e0 l'aide d'un jeu d'\u00e9tiquettes issus des guides d'annotation French Treebank et Multitag. L'analyse de ce corpus nous permet de caract\u00e9riser le domaine clinique et de d\u00e9gager les points cl\u00e9s pour l'adaptation d'outils d'analyse morpho-syntaxique \u00e0 ce domaine. Nous montrons \u00e9galement les limites d'un outil entra\u00een\u00e9 sur un corpus journalistique appliqu\u00e9 au domaine clinique. En perspective de ce travail, nous envisageons une application du corpus clinique annot\u00e9 pour am\u00e9liorer l'\u00e9tiquetage morpho-syntaxique des documents cliniques en fran\u00e7ais.","translation":["Part of Speech tagging for specialized domains : a case study with clinical documents in French","Part-of-Speech (PoS) tagging is a core task in Natural Language Processing, often used as a stepping stone to perform more complex tasks such as information extraction or machine translation. PoS tagging of specialized documents is often challenging due to the limited availability of tools and annotated corpora dedicated to specialized domains. Herein, we present the development of a PoS annotated corpus of clinical documents in French, using annotation guidelines from the FrenchTree Bank and Multitag datasets. Through analysis of the annotated corpus, we characterize the clinical domain, including specific targets for domain adaptation. We also show the limitations of a PoS tagger trained on news documents when applied to clinical text. We expect that the domain-specific resource presented in this paper will contribute to improve PoS tagging for clinical documents in French.","domain adaptation, part-of-speech tagging, specialized domain, EHR"],"keyphrases":["adaptation","analyse morpho-syntaxique","langue de sp\u00e9cialit\u00e9","dossier \u00e9lectronique patient"],"prmu":["P","P","R","U"]} {"id":"taln-2015-court-030","title":"Vers une typologie de liens entre contenus journalistiques","abstract":"Nous pr\u00e9sentons une typologie de liens pour un corpus multim\u00e9dia ancr\u00e9 dans le domaine journalistique. Bien que plusieurs typologies aient \u00e9t\u00e9 cr\u00e9\u00e9es et utilis\u00e9es par la communaut\u00e9, aucune ne permet de r\u00e9pondre aux enjeux de taille et de vari\u00e9t\u00e9 soulev\u00e9s par l'utilisation d'un corpus large comprenant des textes, des vid\u00e9os, ou des \u00e9missions radiophoniques. Nous proposons donc une nouvelle typologie, premi\u00e8re \u00e9tape visant \u00e0 la cr\u00e9ation et la cat\u00e9gorisation automatique de liens entre des fragments de documents afin de proposer de nouveaux modes de navigation au sein d'un grand corpus. Plusieurs exemples d'instanciation de la typologie sont pr\u00e9sent\u00e9s afin d'illustrer son int\u00e9r\u00eat.","translation":["Towards a typology for linking newswire contents","In this paper, we introduce a typology of possible links between contents of a multimedia news corpus. While several typologies have been proposed and used by the community, we argue that they are not adapted to rich and large corpora which can contain texts, videos, or radio stations recordings. We propose a new typology, as a first step towards automatically creating and categorizing links between documents' fragments in order to create new ways to navigate, explore, and extract knowledge from large collections. Several examples of links in a large corpus are given.","typology, linking documents, hypertext, multimedia, newswire"],"keyphrases":["typologie","multim\u00e9dia","liens inter-documents","hypertexte","presse"],"prmu":["P","P","M","U","U"]} {"id":"taln-2015-court-031","title":"CDGFr, un corpus en d\u00e9pendances non-projectives pour le fran\u00e7ais","abstract":"Dans le cadre de l'analyse en d\u00e9pendances du fran\u00e7ais, le ph\u00e9nom\u00e8ne de la non-projectivit\u00e9 est peu pris en compte, en majeure partie car les donne\u00e9s sur lesquelles sont entra\u00een\u00e9s les analyseurs repr\u00e9sentent peu ou pas ces cas particuliers. Nous pr\u00e9sentons, dans cet article, un nouveau corpus en d\u00e9pendances pour le fran\u00e7ais, librement disponible, contenant un nombre substantiel de d\u00e9pendances non-projectives. Ce corpus permettra d'\u00e9tudier et de mieux prendre en compte les cas de non-projectivit\u00e9 dans l'analyse du fran\u00e7ais.","translation":["CDGFr, a Non-projective Dependency Corpus for French","The non-projective cases, as a part of the dependency parsing of French, are often disregarded, mainly because the tree- banks on which parsers are trained contain little or no non-projective dependencies. In this paper, we present a new freely available dependency treebank for French that includes a substantial number of non-projective dependencies. This corpus can be used to study and process non-projectivity more effectively within the context of French dependency parsing.","Treebank for French, dependency annotation, non-projective dependencies"],"keyphrases":["Corpus fran\u00e7ais","annotation en de\u0301pendances","de\u0301pendances non-projectives"],"prmu":["R","M","M"]} {"id":"taln-2015-court-032","title":"Utilisation des r\u00e9seaux de neurones r\u00e9currents pour la projection interlingue d'\u00e9tiquettes morpho-syntaxiques \u00e0 partir d'un corpus parall\u00e8le","abstract":"La construction d'outils d'analyse linguistique pour les langues faiblement dot\u00e9es est limit\u00e9e, entre autres, par le manque de corpus annot\u00e9s. Dans cet article, nous proposons une m\u00e9thode pour construire automatiquement des outils d'analyse via une projection interlingue d'annotations linguistiques en utilisant des corpus parall\u00e8les. Notre approche n'utilise pas d'autres sources d'information, ce qui la rend applicable \u00e0 un large \u00e9ventail de langues peu dot\u00e9es. Nous proposons d'utiliser les r\u00e9seaux de neurones r\u00e9currents pour projeter les annotations d'une langue \u00e0 une autre (sans utiliser d'information d'alignement des mots). Dans un premier temps, nous explorons la t\u00e2che d'annotation morpho-syntaxique. Notre m\u00e9thode combin\u00e9e avec une m\u00e9thode de projection d'annotation basique (utilisant l'alignement mot \u00e0 mot), donne des r\u00e9sultats comparables \u00e0 ceux de l'\u00e9tat de l'art sur une t\u00e2che similaire.","translation":["Use of Recurrent Neural Network for Part-Of-Speech tags projection from a parallel corpus","In this paper, we propose a method to automatically induce linguistic analysis tools for languages that have no labeled training data. This method is based on cross-language projection of linguistic annotations from parallel corpora. Our method does not assume any knowledge about foreign languages, making it applicable to a wide range of resource-poor languages. No word alignment information is needed in our approach. We use Recurrent Neural Networks (RNNs) as cross-lingual analysis tool. To illustrate the potential of our approach, we firstly investigate Part-Of-Speech (POS) tagging. Combined with a simple projection method (using word alignment information), it achieves performance comparable to the one of recently published approaches for cross-lingual projection.","Multilingualism, cross-Lingual transfer, part-of-speech tagging, recurrent neural network"],"keyphrases":["r\u00e9seaux de neurones r\u00e9currents","Multilinguisme","transfert crosslingue","\u00e9tiquetage morpho-syntaxique"],"prmu":["P","U","U","M"]} {"id":"taln-2015-court-033","title":"Segmentation et Titrage Automatique de Journaux T\u00e9l\u00e9vis\u00e9s","abstract":"Dans cet article, nous nous int\u00e9ressons au titrage automatique des segments issus de la segmentation th\u00e9matique de journaux t\u00e9l\u00e9vis\u00e9s. Nous proposons d'associer un segment \u00e0 un article de presse \u00e9crite collect\u00e9 le jour m\u00eame de la diffusion du journal. La t\u00e2che consiste \u00e0 apparier un segment \u00e0 un article de presse \u00e0 l'aide d'une mesure de similarit\u00e9. Cette approche soul\u00e8ve plusieurs probl\u00e8mes, comme la s\u00e9lection des articles candidats, une bonne repr\u00e9sentation du segment et des articles, le choix d'une mesure de similarit\u00e9 robuste aux impr\u00e9cisions de la segmentation. Des exp\u00e9riences sont men\u00e9es sur un corpus vari\u00e9 de journaux t\u00e9l\u00e9vis\u00e9s fran\u00e7ais collect\u00e9s pendant une semaine, conjointement avec des articles aspir\u00e9s \u00e0 partir de la page d'accueil de Google Actualit\u00e9s. Nous introduisons une m\u00e9trique d'\u00e9valuation re\ufb02\u00e9tant la qualit\u00e9 de la segmentation, du titrage ainsi que la qualit\u00e9 conjointe de la segmentation et du titrage. L'approche donne de bonnes performances et se r\u00e9v\u00e8le robuste \u00e0 la segmentation th\u00e9matique.","translation":["Automatic Topic Segmentation and Title Assignment in TV Broadcast News","This paper addresses the task of assigning a title to topic segments automatically extracted from TV Broadcast News video recordings. We propose to associate to a topic segment the title of a newspaper article collected on the web at the same date. The task implies pairing newspaper articles and topic segments by maximising a given similarity measure. This approach raises several issues, such as the selection of candidate newspaper articles, the vectorial representation of both the segment and the articles, the choice of a suitable similarity measure, and the robustness to automatic segmentation errors. Experiments were made on various French TV Broadcast News shows recorded during one week, in conjunction with text articles collected through the Google News homepage at the same period. We introduce a full evaluation framework allowing to measure the quality of topic segment retrieval, topic title assignment and also joint retrieval and titling. The approach yields good titling performance and reveals to be robust to automatic segmentation.","Topic segmentation, Title assignation, Okapi weighting, Similarity measures"],"keyphrases":["Titrage automatique","Segmentation th\u00e9matique","Mesures de similarit\u00e9","Pond\u00e9ration Okapi"],"prmu":["P","P","P","U"]} {"id":"taln-2015-court-034","title":"Un syst\u00e8me hybride pour l'analyse de sentiments associ\u00e9s aux aspects","abstract":"Cet article pr\u00e9sente en d\u00e9tails notre participation \u00e0 la t\u00e2che 4 de SemEval2014 (Analyse de Sentiments associ\u00e9s aux Aspects). Nous pr\u00e9sentons la t\u00e2che et d\u00e9crivons pr\u00e9cis\u00e9ment notre syst\u00e8me qui consiste en une combinaison de composants linguistiques et de modules de classification. Nous exposons ensuite les r\u00e9sultats de son \u00e9valuation, ainsi que les r\u00e9sultats des meilleurs syst\u00e8mes. Nous concluons par la pr\u00e9sentation de quelques nouvelles exp\u00e9riences r\u00e9alis\u00e9es en vue de l'am\u00e9lioration de ce syst\u00e8me.","translation":["An Hybrid System for Aspect-Based Sentiment Analysis","This paper details our participation to the SemEval2014 task 4 (Aspect Based Sentiment Analysis). We present the shared task, and then describe precisely our system, which is a combination of natural processing components and classificaton modules. We also present its evaluation results and the best system results. We finally expose some new experiments aiming at improving the system.","Aspect Based Sentiment Analysis, SemEval2014, hybrid system"],"keyphrases":["syst\u00e8me hybride","Analyse de sentiments associ\u00e9s aux aspects","SemEval2014"],"prmu":["P","P","P"]} {"id":"taln-2015-court-035","title":"La ressource EXPLICADIS, un corpus annot\u00e9 sp\u00e9cifiquement pour l'\u00e9tude des relations de discours causales","abstract":"Dans le but de proposer une caract\u00e9risation des relations de discours li\u00e9es \u00e0 la causalit\u00e9, nous avons \u00e9t\u00e9 amen\u00e9e \u00e0 constituer et annoter notre propre corpus d'\u00e9tude : la ressource EXPLICADIS (EXPlication et Argumentation en DIScours). Cette ressource a \u00e9t\u00e9 construite dans la continuit\u00e9 d'une ressource d\u00e9j\u00e0 disponible, le corpus ANNODIS. Proposant une annotation plus pr\u00e9cise des relations causales sur un ensemble de textes diversifi\u00e9s en genres textuels, EXPLICADIS est le premier corpus de ce type constitu\u00e9 sp\u00e9cifiquement pour l'\u00e9tude des relations de discours causales.","translation":["A corpus specifically annotated for causal discourse relations studies : the EXPLICADIS resource","In order to offer a characterization of causal discourse relations, we created and annotated our own corpus : EXPLICADIS (EXPlanation and Argumentation in DIScourse). This corpus was built in the continuity of a readily available corpus, the ANNODIS corpus. Providing a more precise annotation of causal relations in a set of texts that are representative of multiple textual genres, EXPLICADIS is the first corpus of its kind built specifically for causal discourse relations studies.","corpus annotation, discourse, causal relations"],"keyphrases":["discours","relations causales","annotation de corpus"],"prmu":["P","P","R"]} {"id":"taln-2015-court-036","title":"La s\u00e9paration des composantes lexicale et \ufb02exionnelle des vecteurs de mots","abstract":"En s\u00e9mantique distributionnelle, le sens des mots est mod\u00e9lis\u00e9 par des vecteurs qui repr\u00e9sentent leur distribution en corpus. Les mod\u00e8les \u00e9tant souvent calcul\u00e9s sur des corpus sans pr\u00e9-traitement linguistique pouss\u00e9, ils ne permettent pas de rendre bien compte de la compositionnalit\u00e9 morphologique des mots-formes. Nous proposons une m\u00e9thode pour d\u00e9composer les vecteurs de mots en vecteurs lexicaux et \ufb02exionnels.","translation":["Separating the lexical and grammatical components of semantic vectors","In distributional semantics, the meaning of words is modelled by vectors that represent their distribution in a corpus. Vectorial models being often built from corpora with little linguistic pre-treatment, they do not represent very well the morphological compositionality of words. We propose here a method to decompose semantic vectors into lexical and in\ufb02ectional vectors.","Distributional semantics, compositionality, in\ufb02ection"],"keyphrases":["S\u00e9mantique distributionnelle","compositionnalit\u00e9","\ufb02exion"],"prmu":["P","P","U"]} {"id":"taln-2015-court-037","title":"Traitements pour l'analyse du fran\u00e7ais pr\u00e9classique","abstract":"La p\u00e9riode \u00ab pr\u00e9classique \u00bb du fran\u00e7ais s'\u00e9tend sur tout le XVIe si\u00e8cle et la premi\u00e8re moiti\u00e9 du XVIIe si\u00e8cle. Cet \u00e9tat de langue \u00e9crite, qui accompagne les d\u00e9buts de l'imprimerie, est relativement proche du fran\u00e7ais moderne, mais se caract\u00e9rise par une grande variabilit\u00e9 graphique. Il s'agit de l'un des moins bien dot\u00e9s en termes de ressources. Nous pr\u00e9sentons ici la construction d'un lexique, d'un corpus d'apprentissage et d'un mod\u00e8le de langage pour la p\u00e9riode pr\u00e9classique, \u00e0 partir de ressources du fran\u00e7ais moderne.","translation":["Treatments for Preclassic French parsing","The \"Preclassical\" French language period extends throughout the sixteenth century and the first half of the seventeenth century. This state of the written French language, which accompanies the beginnings of printing, is relatively close to the modern French, but is characterized by a large graphic variability. It is one of the most underresourced state of the French language. Here we present the construction of a lexicon, a training corpus and a language model for the Preclassic period, built from modern French resources.","morphological lexicon construction, corpus annotation and tagging, diachronic linguistics"],"keyphrases":["construction de lexique morphologique","annotation et \u00e9tiquetage de corpus","linguistique diachronique"],"prmu":["M","M","U"]} {"id":"taln-2015-court-038","title":"Classification de texte enrichie \u00e0 l'aide de motifs s\u00e9quentiels","abstract":"En classification de textes, la plupart des m\u00e9thodes fond\u00e9es sur des classifieurs statistiques utilisent des mots, ou des combinaisons de mots contigus, comme descripteurs. Si l'on veut prendre en compte plus d'informations le nombre de descripteurs non contigus augmente exponentiellement. Pour pallier \u00e0 cette croissance, la fouille de motifs s\u00e9quentiels permet d'extraire, de fa\u00e7on efficace, un nombre r\u00e9duit de descripteurs qui sont \u00e0 la fois fr\u00e9quents et pertinents gr\u00e2ce \u00e0 l'utilisation de contraintes. Dans ce papier, nous comparons l'utilisation de motifs fr\u00e9quents sous contraintes et l'utilisation de motifs \u03b4-libres, comme descripteurs. Nous montrons les avantages et inconv\u00e9nients de chaque type de motif.","translation":["Sequential pattern mining for text classification","Most methods in text classification rely on contiguous sequences of words as features. Indeed, if we want to take non-contiguous (gappy) patterns into account, the number of features increases exponentially with the size of the text. Furthermore, most of these patterns will be mere noise. To overcome both issues, sequential pattern mining can be used to efficiently extract a smaller number of relevant, non-contiguous, features. In this paper, we compare the use of constrained frequent pattern mining and \u03b4-free patterns as features for text classification. We show experimentally the advantages and disadvantages of each type of patterns.","Sequence mining, free patterns, text classification, feature selection"],"keyphrases":["classification de texte","Fouille de s\u00e9quences","motifs libres","s\u00e9lection de descripteurs"],"prmu":["P","M","M","M"]} {"id":"taln-2015-court-039","title":"Le traitement des collocations en g\u00e9n\u00e9ration de texte multilingue","abstract":"Pour concevoir des g\u00e9n\u00e9rateurs automatiques de texte g\u00e9n\u00e9riques qui soient facilement r\u00e9utilisables d'une langue et d'une application \u00e0 l'autre, il faut mod\u00e9liser les principaux ph\u00e9nom\u00e8nes linguistiques qu'on retrouve dans les langues en g\u00e9n\u00e9ral. Un des ph\u00e9nom\u00e8nes fondamentaux qui demeurent probl\u00e9matiques pour le TAL est celui des collocations, comme grippe carabin\u00e9e, peur bleue ou d\u00e9sir ardent, o\u00f9 un sens (ici, l'intensit\u00e9) ne s'exprime pas de la m\u00eame fa\u00e7on selon l'unit\u00e9 lexicale qu'il modifie. Dans la lexicographie explicative et combinatoire, on mod\u00e9lise les collocations au moyen de fonctions lexicales qui correspondent \u00e0 des patrons r\u00e9currents de collocations. Par exemple, les expressions mentionn\u00e9es ici se d\u00e9crivent au moyen de la fonction Magn : Magn(PEUR) = BLEUE, Magn(GRIPPE) = CARABIN\u00c9E, etc. Il existe des centaines de fonctions lexicales. Dans cet article, nous nous int\u00e9ressons \u00e0 l'impl\u00e9mentation d'un sous-ensemble de fonctions qui d\u00e9crivent les verbes supports et certains types de modificateurs.","translation":["The treatment of collocations in multilingual text generation","In order to develop generic natural language generators that could be reused across languages and applications, it is necessary to model the core linguistic phenomena that one finds in language. One central phenomenon that remains problematic in NLP is collocations, such as heavy rain, strong preference or intense \ufb02avour, where the same idea (here, intensity), is expressed differently depending on the lexical unit it modifies. In explicative combinatory lexicography, collocations are modelled via lexical functions, which correspond to recurrent patterns of collocations. For instance, the three expressions above are all described with the function Magn : Magn(RAIN) = HEAVY, Magn(PREFERENCE) = STRONG , etc. There are hundreds of lexical functions. In this paper, we focus on the implementation of a subset of them that are used to model support verbs and some modifiers.","multilingual natural language generation ; collocations ; lexical functions ; meaning-text theory"],"keyphrases":["g\u00e9n\u00e9ration automatique de texte multilingue ; collocations ; fonctions lexicales ; th\u00e9orie sens-texte"],"prmu":["M"]} {"id":"taln-2015-court-040","title":"M\u00e9dicaments qui soignent, m\u00e9dicaments qui rendent malades : \u00e9tude des relations causales pour identifier les effets secondaires","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 la mani\u00e8re dont sont exprim\u00e9s les liens qui existent entre un traitement m\u00e9dical et un effet secondaire. Parce que les patients se tournent en priorit\u00e9 vers internet, nous fondons cette \u00e9tude sur un corpus annot\u00e9 de messages issus de forums de sant\u00e9 en fran\u00e7ais. L'objectif de ce travail consiste \u00e0 mettre en \u00e9vidence des \u00e9l\u00e9ments linguistiques (connecteurs logiques et expressions temporelles) qui pourraient \u00eatre utiles pour des syst\u00e8mes automatiques de rep\u00e9rage des effets secondaires. Nous observons que les modalit\u00e9s d'\u00e9criture sur les forums ne permettent pas de se fonder sur les expressions temporelles. En revanche, les connecteurs logiques semblent utiles pour identifier les effets secondaires.","translation":["Drugs that cure, drugs that make you sick : study of causal links to identify drug side effects","In this paper, we study the textual manifestations of the relation between drugs and side effects in online health forums. Our goal is to find relevant linguistic cues in order to improve the automatic identification of side effects by leveraging the ambiguity between actual side effects and indications (the reason for drug use). We find that the use of discourse markers can be relevant for the identification of indications \u2013 a third of indication mentions follow markers like \u2018pour' (\u2018for') or \u2018dans le but de' (\u2018with the aim of') \u2013 while temporal informations are not as discriminating.","Pharmacovigilance, Health Forums, Causal Links"],"keyphrases":["relations causales","forums de sant\u00e9","Pharmacovigilance"],"prmu":["P","P","U"]} {"id":"taln-2015-court-041","title":"Exploration de mod\u00e8les distributionnels au moyen de graphes 1-PPV","abstract":"Dans cet article, nous montrons qu'un graphe \u00e0 1 plus proche voisin (graphe 1-PPV) offre diff\u00e9rents moyens d'explorer les voisinages s\u00e9mantiques capt\u00e9s par un mod\u00e8le distributionnel. Nous v\u00e9rifions si les composantes connexes de ce graphe, qui repr\u00e9sentent des ensembles de mots apparaissant dans des contextes similaires, permettent d'identifier des ensembles d'unit\u00e9s lexicales qui \u00e9voquent un m\u00eame cadre s\u00e9mantique. Nous illustrons \u00e9galement diff\u00e9rentes fa\u00e7ons d'exploiter le graphe 1-PPV afin d'explorer un mod\u00e8le ou de comparer diff\u00e9rents mod\u00e8les.","translation":["Exploring distributional semantic models using a 1-NN graph","We show how a 1-NN graph can be used to explore the semantic neighbourhoods modeled by distributional models of semantics. We check whether the connected components of the graph, which represent sets of words that occur in similar contexts, can be used to identify sets of lexical units that evoke the same semantic frame. We then illustrate different ways in which the 1-NN graph can be used to explore a model or compare different models.","Distributional semantics, lexical semantics, graph, terminology, frame semantics"],"keyphrases":["graphe","S\u00e9mantique distributionnelle","s\u00e9mantique lexicale","terminologie","s\u00e9mantique des cadres"],"prmu":["P","R","R","U","R"]} {"id":"taln-2015-court-042","title":"Apport de l'information temporelle des contextes pour la repr\u00e9sentation vectorielle continue des mots","abstract":"Les repr\u00e9sentations vectorielles continues des mots sont en plein essor et ont d\u00e9j\u00e0 \u00e9t\u00e9 appliqu\u00e9es avec succ\u00e8s \u00e0 de nombreuses t\u00e2ches en traitement automatique de la langue (TAL). Dans cet article, nous proposons d'int\u00e9grer l'information temporelle issue du contexte des mots au sein des architectures fond\u00e9es sur les sacs-de-mots continus (continuous bag-of-words ou CBOW) ou sur les Skip-Grams. Ces approches sont manipul\u00e9es au travers d'un r\u00e9seau de neurones, l'architecture CBOW cherchant alors \u00e0 pr\u00e9dire un mot sachant son contexte, alors que l'architecture Skip-Gram pr\u00e9dit un contexte sachant un mot. Cependant, ces mod\u00e8les, au travers du r\u00e9seau de neurones, s'appuient sur des repr\u00e9sentations en sac-de-mots et ne tiennent pas compte, explicitement, de l'ordre des mots. En cons\u00e9quence, chaque mot a potentiellement la m\u00eame in\ufb02uence dans le r\u00e9seau de neurones. Nous proposons alors une m\u00e9thode originale qui int\u00e8gre l'information temporelle des contextes des mots en utilisant leur position relative. Cette m\u00e9thode s'inspire des mod\u00e8les contextuels continus. L'information temporelle est trait\u00e9e comme coefficient de pond\u00e9ration, en entr\u00e9e du r\u00e9seau de neurones par le CBOW et dans la couche de sortie par le Skip-Gram. Les premi\u00e8res exp\u00e9riences ont \u00e9t\u00e9 r\u00e9alis\u00e9es en utilisant un corpus de test mesurant la qualit\u00e9 de la relation s\u00e9mantique-syntactique des mots. Les r\u00e9sultats pr\u00e9liminaires obtenus montrent l'apport du contexte des mots, avec des gains de 7 et 7,7 points respectivement avec l'architecture Skip-Gram et l'architecture CBOW.","translation":["Contribution of temporal context information to a continuous vector representation of words","Word embedding representations are gaining a lot of attention from researchers and have been successfully applied to various Natural Language Processing (NLP) tasks. In this paper, we propose to integrate temporal context information of words into the continuous bag-of-words (CBOW) and Skip-gram architectures for computing word-vector representations. Those architectures are shallow neural-networks. The CBOW architecture predicts a word given its context while the Skip-gram architecture predicts a context given a word. However, in those neural-networks, context windows are represented as bag-of-words. According to this representation, every word in the context is treated equally : the word order is not taken into account explicitly. As a result, each word will have the same in\ufb02uence on the network. We then propose an original method that integrates temporal information of word contexts using their relative position. This method is inspired from Continuous Context Models. The temporal information is treated as weights, in input by the CBOW and in the output layer by the Skip-Gram. The quality of the obtained models has been measured using a Semantic-Syntactic Word Relationship test set. Results showed that the incorporation of temporal information allows a substantial quality gain of 5 and 0.9 points respectively in comparison to the classical use of the CBOW and Skip-gram architectures.","Neural network, Continuous vectorial representation, Contextual information, Word2vec, language model"],"keyphrases":["Repr\u00e9sentation vectorielle continue","R\u00e9seau de neurones","Information contextuelle","Word2vec","Mod\u00e8le de langue"],"prmu":["P","P","R","U","R"]} {"id":"taln-2015-court-043","title":"Etiquetage morpho-syntaxique de tweets avec des CRF","abstract":"Nous nous int\u00e9ressons dans cet article \u00e0 l'apprentissage automatique d'un \u00e9tiqueteur mopho-syntaxique pour les tweets en anglais. Nous proposons tout d'abord un jeu d'\u00e9tiquettes r\u00e9duit avec 17 \u00e9tiquettes diff\u00e9rentes, qui permet d'obtenir de meilleures performances en exactitude par rapport au jeu d'\u00e9tiquettes traditionnel qui contient 45 \u00e9tiquettes. Comme nous disposons de peu de tweets \u00e9tiquet\u00e9s, nous essayons ensuite de compenser ce handicap en ajoutant dans l'ensemble d'apprentissage des donn\u00e9es issues de textes bien form\u00e9s. Les mod\u00e8les mixtes obtenus permettent d'am\u00e9liorer les r\u00e9sultats par rapport aux mod\u00e8les appris avec un seul corpus, qu'il soit issu de Twitter ou de textes journalistiques.","translation":["Part-of-speech Tagging for Tweets with CRFs","We are insterested in this paper in training a part-of-speach tagger for tweets in English. We first propose a reduced tagset with 17 different tags, which allows better results in accuracy than traditional tagsets which contain 45 tags. Since we have few annoted tweets, we then try and overcome this difficulty by adding data from other more standard texts into the training set. The obtained models reach better results compared to models trained with only one corpus, whether coming of Twitter or of journalistic texts.","tweets, CRFs, part-of-speech tagging"],"keyphrases":["tweets","CRF","\u00e9tiquettage morpho-syntaxique"],"prmu":["P","P","M"]} {"id":"taln-2015-court-044","title":"Caract\u00e9riser les discours acad\u00e9miques et de vulgarisation : quelles propri\u00e9t\u00e9s ?","abstract":"L'article pr\u00e9sente une \u00e9tude des propri\u00e9t\u00e9s linguistiques (lexicales, morpho-syntaxiques, syntaxiques) permettant la classification automatique de documents selon leur genre (articles scientifiques et articles de vulgarisation), dans deux domaines diff\u00e9rentes (m\u00e9decine et informatique). Notre analyse, effectu\u00e9e sur des corpus comparables en genre et en th\u00e8mes disponibles en fran\u00e7ais, permet de valider certaines propri\u00e9t\u00e9s identifi\u00e9es dans la litt\u00e9rature comme caract\u00e9ristiques des discours acad\u00e9miques ou de vulgarisation scientifique. Les premi\u00e8res exp\u00e9riences de classification \u00e9valuent l'influence de ces propri\u00e9t\u00e9s pour l'identification automatique du genre pour le cas sp\u00e9cifique des textes scientifiques ou de vulgarisation.","translation":["Characterizing scientific genre for academia and general public: which properties should be taken into account?","The article focuses on the study of a set of morpho-syntactic properties for audience-based classification. The linguistic analysis of academic discourse and of popular science discourse reveals that both discourse types are characterized by specific linguistic and textual properties. This research used two French comparable corpora in regards to genre and subject matter. The corpora was composed of scientific articles and popular science texts in the domains of medicine and computer science. The experiments performed as part of our study evaluated the influence of discourse-specific morpho-syntactic properties on genre-based classification, for scientific and popular science texts.","linguistic analysis, academic and popular science discourse, comparable corpora, genre-based classification"],"keyphrases":["corpus comparables","analyse linguistique","discours scientifique et de vulgarisation","classification selon le genre"],"prmu":["P","R","R","R"]} {"id":"taln-2015-court-045","title":"Extraction et analyse automatique des comparaisons et des pseudo-comparaisons pour la d\u00e9tection des comparaisons figuratives","abstract":"Le pr\u00e9sent article s'int\u00e9resse \u00e0 la d\u00e9tection et \u00e0 la d\u00e9sambigu\u00efsation des comparaisons figuratives. Il d\u00e9crit un algorithme qui utilise un analyseur syntaxique de surface (chunker) et des r\u00e8gles manuelles afin d'extraire et d'analyser les (pseudo-)comparaisons pr\u00e9sentes dans un texte. Cet algorithme, \u00e9valu\u00e9 sur un corpus de textes litt\u00e9raires, donne de meilleurs r\u00e9sultats qu'un syst\u00e8me reposant sur une analyse syntaxique profonde.","translation":["Extraction and automatic analysis of comparative and pseudo-comparative structures for simile detection","This article is focused on automatic simile detection and disambiguation. It describes an algorithm which uses syntactic chunks and handcrafted rules to extract and analyse similes in a given text. This algorithm, which was evaluated on a corpus of literary texts, performs better than a system based on dependency parsing.","simile, tenor, vehicle, chunking, handcrafted rules, dependency parsing"],"keyphrases":["comparaisons figuratives","r\u00e8gles manuelles","analyse syntaxique profonde","compar\u00e9","comparant","analyse syntaxique de surface"],"prmu":["P","P","P","U","U","R"]} {"id":"taln-2015-court-046","title":"Proposition m\u00e9thodologique pour la d\u00e9tection automatique de Community Manager. \u00c9tude multilingue sur un corpus relatif \u00e0 la Junk Food","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thodologie pour l'identification de messages suspect\u00e9s d'\u00eatre produits par des Community Managers \u00e0 des fins commerciales d\u00e9guis\u00e9es dans des documents du Web 2.0. Le champ d'application est la malbouffe (junkfood) et le corpus est multilingue (anglais, chinois, fran\u00e7ais). Nous exposons dans un premier temps la strat\u00e9gie de constitution et d'annotation de nos corpus, en explicitant notamment notre guide d'annotation, puis nous d\u00e9veloppons la m\u00e9thode adopt\u00e9e, bas\u00e9e sur la combinaison d'une analyse textom\u00e9trique et d'un apprentissage supervis\u00e9.","translation":["Methodological Proposal for Automatic Detection of Community Manager. Multilingual Study based on a Junk Food corpus","This article describes the methodology for identifying a certain kind of speech in internet forums. The detection of the speech of a Community Manager combines recent issues in the domain of Natural Language Processing, including opinion mining and sentiment analysis, with another more abstract problem. Going beyond detecting the polarity of a message, this project targets the underlying intentions and identity of the author of the message on the forum.","Community Management, Textometry, Multilingualism, Data Mining"],"keyphrases":["Community Management","Multilinguisme","Textom\u00e9trie","Fouille de texte"],"prmu":["P","P","P","M"]} {"id":"taln-2015-demo-001","title":"MEDITE : logiciel d'alignement de textes pour l'\u00e9tude de la g\u00e9n\u00e9tique textuelle","abstract":"MEDITE est un logiciel d'alignement de textes permettant l'identification de transformations entre une version et une autre d'un m\u00eame texte. Dans ce papier nous pr\u00e9sentons les aspects th\u00e9oriques et techniques de MEDITE.","translation":["MEDITE: text alignment software for the study of textual genetics","MEDITE is an alignment software able to identifying transformations between two versions of a same text. In this paper we show the theoretical and technical aspects of this tool.","Text alignment, Textual genetics, Homology detection in text sequences"],"keyphrases":["Alignement de textes","G\u00e9n\u00e9tique textuelle","D\u00e9tection d'homologies dans les s\u00e9quences textuelles"],"prmu":["P","P","M"]} {"id":"taln-2015-demo-002","title":"Ph\u0153bus : un Logiciel d'Extraction de R\u00e9utilisations dans des Textes Litt\u00e9raires","abstract":"Ph\u0153bus est un logiciel d'extraction de r\u00e9utilisations dans des textes litt\u00e9raires. Il a \u00e9t\u00e9 d\u00e9velopp\u00e9 comme un outil d'analyse litt\u00e9raire assist\u00e9e par ordinateur. Dans ce contexte, ce logiciel d\u00e9tecte automatiquement et explore des r\u00e9seaux de r\u00e9utilisation textuelle dans la litt\u00e9rature classique.","translation":["Phoebus: a Reuse Extraction Software for Literary Text","Phoebus is a reuse extraction software for literary text. It was developed as a computer-assisted literary analysis tool. In this context, the software automatically detects and explores textual reuse networks in classical literature.","Reuse Extraction, textual fingerprintng, computer-assisted literary analysis"],"keyphrases":["Extraction de r\u00e9utilisations","analyse litt\u00e9raire assist\u00e9e par ordinateur","empreintes digitales textuelles"],"prmu":["P","P","M"]} {"id":"taln-2015-demo-004","title":"TermLis : un contexte d'information logique pour des ressources terminologiques","abstract":"Nous pr\u00e9sentons TermLis un contexte d'information logique construit \u00e0 partir de ressources terminologiques disponibles en xml (FranceTerme), pour une utilisation \ufb02exible avec un logiciel de contexte logique (CAMELIS). Une vue en contexte logique permet d'explorer des informations de mani\u00e8re \ufb02exible, sans r\u00e9daction de requ\u00eate a priori, et d'obtenir aussi des indications sur la qualit\u00e9 des donn\u00e9es. Un tel contexte peut \u00eatre enrichi par d'autres informations (de natures diverses), mais aussi en le reliant \u00e0 d'autres applications (par des actions associ\u00e9es selon des arguments fournis par le contexte). Nous montrons comment utiliser TermLis et nous illustrons, \u00e0 travers cette r\u00e9alisation concr\u00e8te sur des donn\u00e9es de FranceTerme, les avantages d'une telle approche pour des donn\u00e9es terminologiques.","translation":["TermLis : a logical information context for terminological resources","We present TermLis a logical information context constructed from terminological resources available in XML (FranceTerme), for a \ufb02exible use with a logical context system (CAMELIS). A logical view of a context allows to explore information in a \ufb02exible way, without writing explicit queries, it may also provide insights on the quality of the data. Such a context can be enriched by other information (of diverse natures), it can also be linked with other applications (according to arguments supplied by the context). We show how to use TermLis and we illustrate, through this concrete realization from FranceTerme data, the advantages of such an approach with terminological data.","Multilingual applications, Classification, Information extraction, Textual data mining, Information retrieval, Linguistic resources, Open Data, Information Quality, Legal Information"],"keyphrases":["Qualit\u00e9 des donn\u00e9es","Applications multilingues","Classification","Extraction d'information","Fouilles de donn\u00e9es textuelles","Recherche d'information","Ressources du langage","Donn\u00e9es Ouvertes","Donn\u00e9es l\u00e9gales"],"prmu":["P","M","U","M","M","M","M","M","M"]} {"id":"taln-2015-demo-005","title":"Etude de l'image de marque d'entit\u00e9s dans le cadre d'une plateforme de veille sur le Web social","abstract":"Ce travail concerne l'int\u00e9gration \u00e0 une plateforme de veille sur internet d'outils permettant l'analyse des opinions \u00e9mises par les internautes \u00e0 propos d'une entit\u00e9, ainsi que la mani\u00e8re dont elles \u00e9voluent dans le temps. Les entit\u00e9s consid\u00e9r\u00e9es peuvent \u00eatre des personnes, des entreprises, des marques, etc. Les outils impl\u00e9ment\u00e9s sont le produit d'une collaboration impliquant plusieurs partenaires industriels et acad\u00e9miques dans le cadre du projet ANR ImagiWeb.","translation":["Study the brand image of entities as part of a social media-monitoring platform","The work presented here is about a Web monitoring software providing powerful tools for the analysis of opinions expressed in social media about an entity, such as a celebrity, a company or a brand. The implemented tools result from the research ANR project ImagiWeb involving several industrial and academic partners.","Web monitoring software, social media, opinion analysis, data mining"],"keyphrases":["Plateforme de veille sur internet","m\u00e9dias sociaux","analyse d'opinion","fouille de donn\u00e9es"],"prmu":["P","M","M","M"]} {"id":"taln-2015-demo-006","title":"Building a Bilingual Vietnamese-French Named Entity Annotated Corpus through Cross-Linguistic Projection","abstract":"La cr\u00e9ation de ressources linguistiques de bonne qualit\u00e9 annot\u00e9es en entit\u00e9s nomm\u00e9es est tr\u00e8s co\u00fbteuse en temps et en main d'\u0153uvre. La plupart des corpus standards sont disponibles pour l'anglais mais pas pour les langues peu dot\u00e9es, comme le vietnamien. Pour les langues asiatiques, cette t\u00e2che reste tr\u00e8s difficile. Le pr\u00e9sent article concerne la cr\u00e9ation automatique de corpus annot\u00e9s en entit\u00e9s nomm\u00e9es pour le vietnamien-fran\u00e7ais, une paire de langues peu dot\u00e9e. L'application d'une m\u00e9thode bas\u00e9e sur la projection cross-lingue en utilisant des corpus parall\u00e8les. Les \u00e9valuations ont montr\u00e9 une bonne performance (F-score de 94.90%) lors de la reconnaissance des paires d'entit\u00e9s nomm\u00e9es dans les corpus parall\u00e8les et ainsi la construction d'un corpus bilingue annot\u00e9 en entit\u00e9s nomm\u00e9es.","translation":["Building a Bilingual Vietnamese-French Named Entity Annotated Corpus through Cross-Linguistic Projection","The creation of high-quality named entity annotated resources is time-consuming and an expensive process. Most of the gold standard corpora are available for English but not for less-resourced languages such as Vietnamese. In Asian languages, this task is remained problematic. This paper focuses on an automatic construction of named entity annotated corpora for Vietnamese-French, a less-resourced pair of languages. We incrementally apply different cross-projection methods using parallel corpora, such as perfect string matching and edit distance similarity. Evaluations on Vietnamese \u2013French pair of languages show a good accuracy (F-score of 94.90%) when identifying named entities pairs and building a named entity annotated parallel corpus.","Named entity, parallel corpus, cross-projection"],"keyphrases":["Entit\u00e9 nomm\u00e9e","projection cross-lingue","corpus parall\u00e8le"],"prmu":["P","P","P"]} {"id":"taln-2015-demo-007","title":"Recherche de motifs de graphe en ligne","abstract":"Nous pr\u00e9sentons un outil en ligne de recherche de graphes dans des corpus annot\u00e9s en syntaxe.","translation":["Online Graph Matching","We present an online tool for graph pattern matching in syntactically annotated corpora.","Dependency Syntax, Corpus, Graph matching"],"keyphrases":["Graphes","Corpus","Syntaxe de d\u00e9pendances"],"prmu":["P","P","M"]} {"id":"taln-2015-demo-008","title":"Un patient virtuel dialogant","abstract":"Le d\u00e9monstrateur que nous d\u00e9crivons ici est un prototype de syst\u00e8me de dialogue dont l'objectif est de simuler un patient. Nous d\u00e9crivons son fonctionnement g\u00e9n\u00e9ral en insistant sur les aspects concernant la langue et surtout le rapport entre langue m\u00e9dicale de sp\u00e9cialit\u00e9 et langue g\u00e9n\u00e9rale.","translation":["An Interactive Virtual Patient","This paper describes the work-in-progress prototype of a dialog system that simulates a virtual patient consultation. We describe the general architecture and specifically the mapping between technical and lay terms in the medical domain.","Virtual patient, dialog system, specialised language, lay language"],"keyphrases":["Patient virtuel","syst\u00e8me de dialogue","langage sp\u00e9cialis\u00e9","langage grand public"],"prmu":["P","P","U","U"]} {"id":"taln-2015-demo-009","title":"Int\u00e9gration du corpus des actes de TALN \u00e0 la plateforme ScienQuest","abstract":"Cette d\u00e9monstration pr\u00e9sente l'int\u00e9gration du corpus arbor\u00e9 des Actes de TALN \u00e0 la plateforme ScienQuest. Cette plateforme fut initialement cr\u00e9\u00e9e pour l'\u00e9tude du corpus de textes scientifiques Scientext. Cette int\u00e9gration tient compte des m\u00e9ta\u00addonn\u00e9es propres au corpus TALN, et a \u00e9t\u00e9 effectu\u00e9e en s'effor\u00e7ant de rapprocher les jeux d'\u00e9tiquettes de ces deux corpus, et en convertissant pour le corpus TALN les requ\u00eates pr\u00e9d\u00e9finies con\u00e7ues pour le corpus Scientext, de mani\u00e8re \u00e0 permettre d'effectuer facilement des recherches similaires sur les deux corpus.","translation":["Integration of the TALN proceedings treebank to the ScienQuest platform","This demonstration shows the integration of the TALN proceedings Treebank to the ScienQuest platform. This platform was initially created for the study of the Scientext scientific texts corpus. This integration takes into account the metadata to the TALN corpus, and was done in an effort to reconcile these two corpora's sets of labels, and to convert for the TALN corpus the predefined queries designed for the Scientext corpus, in order to easily perform similar queries on the two corpora.","corpora, treebanks, corpus study environment"],"keyphrases":["corpus","corpus arbor\u00e9s","environnement d'\u00e9tude de corpus"],"prmu":["P","P","M"]} {"id":"taln-2015-demo-010","title":"Une aide \u00e0 la communication par pictogrammes avec pr\u00e9diction s\u00e9mantique","abstract":"Cette d\u00e9monstration pr\u00e9sente une application mobile (pour tablette et smartphone) pour des personnes souffrant de troubles du langage et\/ou de la parole permettant de g\u00e9n\u00e9rer des phrases \u00e0 partir de la combinaison de pictogrammes puis de verbaliser le texte g\u00e9n\u00e9r\u00e9 en Text-To-Speech (TTS). La principale critique adress\u00e9e par les patients utilisant les solutions existantes est le temps de composition trop long d'une phrase. Cette limite ne permet pas ou tr\u00e8s difficilement d'utiliser les solutions actuelles en condition dialogique. Pour pallier cela, nous avons d\u00e9velopp\u00e9 un moteur de g\u00e9n\u00e9ration de texte avec pr\u00e9diction s\u00e9mantique ne proposant \u00e0 l'utilisateur que les pictogrammes pertinents au regard de la saisie en cours (e.g. apr\u00e8s le pictogramme [manger], l'application propose les pictogrammes [pomme] ou encore [viande] correspondant \u00e0 des concepts comestibles). Nous avons ainsi multipli\u00e9 de 5 \u00e0 10 la vitesse de composition d'une phrase par rapport aux solutions existantes.","translation":["An Augmentative and Alternative Communication with semantic prediction","This demo shows a mobile app (for smartphone and tablet) for people with language and\/or speech disorders for generating sentences from the combination of icons and verbalize text generated by Text-To-Speech (TTS). The main criticism expressed by patients using existing solutions is the time too long required to compose a sentence. Hence, existing solutions are hard to use in dialogic conditions. To allieviate this problem, we have developed a text generation engine with semantic prediction. This engine only proposes to user the relevant pictograms in view of the current entry (e.g. after the pictogram [eat], the application offers pictograms [apple] or [meat] corresponding to edible concepts). We have multiplied from 5 to 10 the speed of composing a sentence compared to existing solutions.","natural language generation, semantic prediction, frame semantics, disability, AAC"],"keyphrases":["aide \u00e0 la communication","pr\u00e9diction s\u00e9mantique","g\u00e9n\u00e9ration de texte","frame semantics","handicap"],"prmu":["P","P","P","U","U"]} {"id":"taln-2015-demo-011","title":"Un syst\u00e8me expert fond\u00e9 sur une analyse s\u00e9mantique pour l'identification de menaces d'ordre biologique","abstract":"Le projet europ\u00e9en TIER (Integrated strategy for CBRN \u2013 Chemical, Biological, Radiological and Nuclear \u2013 Threat Identification and Emergency Response) vise \u00e0 int\u00e9grer une strat\u00e9gie compl\u00e8te et int\u00e9gr\u00e9e pour la r\u00e9ponse d'urgence dans un contexte de dangers biologiques, chimiques, radiologiques, nucl\u00e9aires, ou li\u00e9s aux explosifs, bas\u00e9e sur l'identification des menaces et d'\u00e9valuation des risques. Dans cet article, nous nous focalisons sur les risques biologiques. Nous pr\u00e9sentons notre syst\u00e8me expert fond\u00e9 sur une analyse s\u00e9mantique, permettant l'extraction de donn\u00e9es structur\u00e9es \u00e0 partir de donn\u00e9es non structur\u00e9es dans le but de raisonner.","translation":["An Expert System Based on a Semantic Analysis for Identifying Biological Threats","The European project TIER (Integrated strategy for CBRN \u2013 Chemical, Biological, Radiological and Nuclear - Threat Identification and Emergency Response) aims at developing a comprehensive and integrated strategy for emergency response in case of chemical, biological, radiological and nuclear danger, as well as explosives use, based on threat identification and risk assessment. In this article, we focus on the biological risks. We introduce our business rules management system based on a semantic analysis, that enables the extraction of structured data from unstructured data with the aim to make reasoning.","TIER, BRMS, Business Rules Management System, semantic analysis"],"keyphrases":["analyse s\u00e9mantique","TIER","SGRM","Syst\u00e8me de Gestion de R\u00e8gles M\u00e9tier"],"prmu":["P","P","U","M"]} {"id":"taln-2015-demo-012","title":"DisMo : un annotateur multi-niveaux pour les corpus oraux","abstract":"Dans cette d\u00e9monstration, nous pr\u00e9sentons l'annotateur multi-niveaux DisMo, un outil con\u00e7u pour faire face aux sp\u00e9cificit\u00e9s des corpus oraux. Il fournit une annotation morphosyntaxique, une lemmatisation, une d\u00e9tection des unit\u00e9s poly-lexicales, une d\u00e9tection des ph\u00e9nom\u00e8nes de disfluence et des marqueurs de discours.","translation":["DisMo: a multi-level annotator for spoken language","In this demonstration we present the multi-level automatic annotator DisMo which is specifically designed for the challenges posed by spoken language corpora. Its output comprises of part-of-speech tagging, lemmatization, multi-word unit detection, detection of disfluency phenomena and discourse markers.","part-of-speech tagging, spoken corpora, disfluencies, multi-word expressions"],"keyphrases":["corpus oraux","annotation morphosyntaxique","unit\u00e9s poly-lexicales","disfluences"],"prmu":["P","P","P","P"]} {"id":"taln-2014-long-001","title":"Influence des marqueurs multi-polaires d\u00e9pendant du domaine pour la fouille d\u2019opinion au niveau du texte","abstract":"Les m\u00e9thodes de d\u00e9tection automatique de l\u2019opinion dans des textes s\u2019appuient sur l\u2019association d\u2019une polarit\u00e9 d\u2019opinion aux mots des textes, par lexique ou par apprentissage. Or, certains mots ont des polarit\u00e9s qui peuvent varier selon le domaine th\u00e9matique du texte. Nous proposons dans cet article une \u00e9tude des mots ou groupes de mots marqueurs d\u2019opinion au niveau du texte et qui ont une polarit\u00e9 changeante en fonction du domaine. Les exp\u00e9riences, effectu\u00e9es \u00e0 la fois sur des corpus fran\u00e7ais et anglais, montrent que la prise en compte de ces marqueurs permet d\u2019am\u00e9liorer de mani\u00e8re significative la classification de l\u2019opinion au niveau du texte lors de l\u2019adaptation d\u2019un domaine source \u00e0 un domaine cible. Nous montrons \u00e9galement que ces marqueurs peuvent \u00eatre utiles, de mani\u00e8re limit\u00e9e, lorsque l\u2019on est en pr\u00e9sence d\u2019un m\u00e9lange de domaines. Si les domaines ne sont pas explicites, utiliser une s\u00e9paration automatique des documents permet d\u2019obtenir les m\u00eames am\u00e9liorations.","translation":["Study of Domain Dependant Multi-Polarity Words for Document Level Opinion Mining","In this article, we propose a study on the words or multi-words which are good indicators of the opinion polarity of a text but have different polarity depending on the domain. We have performed experiments on French and English corpora, which show that taking these multi-polarity words into account improve the opinion classification at text level in a domain adaptation framework. We also show that these words are useful when the corpus contains several domains. If these domains are not explicit, using a automatic domain characterization (e.g. wich Topic Modeling approaches) allows to achieve the same results.","Opinion mining, domain adaptation, multi-polarity markers"],"keyphrases":["marqueurs multi-polaires","Fouille d\u2019opinion","adaptation au domaine"],"prmu":["P","P","R"]} {"id":"taln-2014-long-002","title":"Influence des domaines de sp\u00e9cialit\u00e9 dans l\u2019extraction de termes-cl\u00e9s","abstract":"Les termes-cl\u00e9s sont les mots ou les expressions polylexicales qui repr\u00e9sentent le contenu principal d\u2019un document. Ils sont utiles pour diverses applications, telles que l\u2019indexation automatique ou le r\u00e9sum\u00e9 automatique, mais ne sont pas toujours disponibles. De ce fait, nous nous int\u00e9ressons \u00e0 l\u2019extraction automatique de termes-cl\u00e9s et, plus particuli\u00e8rement, \u00e0 la difficult\u00e9 de cette t\u00e2che lors du traitement de documents appartenant \u00e0 certaines disciplines scientifiques. Au moyen de cinq corpus repr\u00e9sentant cinq disciplines diff\u00e9rentes (arch\u00e9ologie, linguistique, sciences de l\u2019information, psychologie et chimie), nous d\u00e9duisons une \u00e9chelle de difficult\u00e9 disciplinaire et analysons les facteurs qui influent sur cette difficult\u00e9.","translation":["The impact of domains for Keyphrase extraction","Keyphrases are single or multi-word expressions that represent the main content of a document. Keyphrases are useful in many applications such as document indexing or text summarization. However, most documents are not provided with keyphrases. To tackle this problem, researchers propose methods to automatically extract keyphrases from documents of various nature. In this paper, we focus on the difficulty of automatic keyphrase extraction in scientific papers from various areas. Using five corpora representing five areas (archaeology, linguistics, information sciences, psychology and chemistry), we observe the difficulty scale and analyze factors inducing a higher or a lower difficulty","Keyphrase extraction, scientific papers, specific domain, unsupervised methods"],"keyphrases":["domaines de sp\u00e9cialit\u00e9","Extraction de termes-cl\u00e9s","articles scientifiques","m\u00e9thodes non-supervis\u00e9es"],"prmu":["P","P","M","U"]} {"id":"taln-2014-long-003","title":"\u00c9tiquetage en r\u00f4les \u00e9v\u00e9nementiels fond\u00e9 sur l\u2019utilisation d\u2019un mod\u00e8le neuronal","abstract":"Les syst\u00e8mes d\u2019extraction d\u2019information doivent faire face depuis toujours \u00e0 une double difficult\u00e9 : d\u2019une part, ils souffrent d\u2019une d\u00e9pendance forte vis-\u00e0-vis du domaine pour lesquels ils ont \u00e9t\u00e9 d\u00e9velopp\u00e9s ; d\u2019autre part, leur co\u00fbt de d\u00e9veloppement pour un domaine donn\u00e9 est important. Le travail que nous pr\u00e9sentons dans cet article se focalise sur la seconde probl\u00e9matique en proposant n\u00e9anmoins une solution en relation avec la premi\u00e8re. Plus pr\u00e9cis\u00e9ment, il aborde la t\u00e2che d\u2019\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels dans le cadre du remplissage de formulaire (template filling) en proposant pour ce faire de s\u2019appuyer sur un mod\u00e8le de repr\u00e9sentation distribu\u00e9e de type neuronal. Ce mod\u00e8le est appris \u00e0 partir d\u2019un corpus repr\u00e9sentatif du domaine consid\u00e9r\u00e9 sans n\u00e9cessiter en amont l\u2019utilisation de pr\u00e9traitements linguistiques \u00e9labor\u00e9s. Il fournit un espace de repr\u00e9sentation permettant \u00e0 un classifieur supervis\u00e9 traditionnel de se dispenser de l\u2019utilisation de traits complexes et vari\u00e9s (traits morphosyntaxiques, syntaxiques ou s\u00e9mantiques). Par une s\u00e9rie d\u2019exp\u00e9rimentations men\u00e9es sur le corpus de la campagne d\u2019\u00e9valuation MUC-4, nous montrons en particulier que cette approche permet de d\u00e9passer les performances de l\u2019\u00e9tat de l\u2019art et que cette diff\u00e9rence est d\u2019autant plus importante que la taille du corpus d\u2019entra\u00eenement est faible. Nous montrons \u00e9galement l\u2019int\u00e9r\u00eat de l\u2019adaptation de ce type de mod\u00e8le au domaine trait\u00e9 par rapport \u00e0 l\u2019utilisation de repr\u00e9sentations distribu\u00e9es \u00e0 usage g\u00e9n\u00e9rique.","translation":["Event Role Labelling using a Neural Network Model","Information Extraction systems must cope with two problems : they heavily depend on the considered domain but the cost of development for a domain-specific system is important. We propose a new solution for role labeling in the event-extraction task that relies on using unsupervised word representations (word embeddings) as word features. We automatically learn domain-relevant distributed representations from a domain-specific unlabeled corpus without complex linguistic processing and use these features in a supervised classifier. Our experimental results on the MUC-4 corpus show that this system outperforms state-of-the-art systems on this event extraction task, especially when the amount of annotated data is small.We also show that using word representations induced on a domain-relevant dataset achieves better results than using more general word embeddings.","Information extraction, event role filler detection, neural language models"],"keyphrases":["Extraction d\u2019information","extraction de r\u00f4les \u00e9v\u00e9nementiels","mod\u00e8les de langage neuronaux"],"prmu":["P","R","M"]} {"id":"taln-2014-long-004","title":"Utilisation de repr\u00e9sentations de mots pour l\u2019\u00e9tiquetage de r\u00f4les s\u00e9mantiques suivant FrameNet","abstract":"D\u2019apr\u00e8s la s\u00e9mantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte \u00e9v\u00e9nementiel ou situationnel dans lequel ils s\u2019inscrivent. FrameNet, une ressource lexicale pour l\u2019anglais, d\u00e9finit environ 1000 cadres conceptuels couvrant l\u2019essentiel des contextes possibles. Dans un cadre conceptuel, un pr\u00e9dicat appelle des arguments pour remplir les diff\u00e9rents r\u00f4les s\u00e9mantiques associ\u00e9s au cadre. Nous cherchons \u00e0 annoter automatiquement ces r\u00f4les s\u00e9mantiques, \u00e9tant donn\u00e9 le cadre s\u00e9mantique et le pr\u00e9dicat, \u00e0 l\u2019aide de mod\u00e8les \u00e0 maximum d\u2019entropie. Nous montrons que l\u2019utilisation de repr\u00e9sentations distribu\u00e9es de mots pour situer s\u00e9mantiquement les arguments apporte une information compl\u00e9mentaire au mod\u00e8le, et am\u00e9liore notamment l\u2019\u00e9tiquetage de cadres avec peu d\u2019exemples d\u2019entrainement","translation":["Using distributed word representations for robust semantic role labeling","According to Frame Semantics (Fillmore 1976), words\u2019 meaning are best understood considering the semantic frame they play a role in, for the frame is what gives them context. FrameNet defines about 1000 such semantic frames, along with the roles arguments can fill in this frame. Our task is to automatically label arguments\u2019 roles, given their span, the frame, and the predicate, using maximum entropy models. We make use of distributed word representations to improve generalisation over the few training exemples available for each frame.","semantic role labelling, distributed word representations"],"keyphrases":["r\u00f4les s\u00e9mantiques","maximum d\u2019entropie","repr\u00e9sentations distribu\u00e9es"],"prmu":["P","P","P"]} {"id":"taln-2014-long-006","title":"Am\u00e9liorer l\u2019\u00e9tiquetage de \u201cque\u201d par les descripteurs cibl\u00e9s et les r\u00e8gles","abstract":"Les outils TAL statistiques robustes, et en particulier les \u00e9tiqueteurs morphosyntaxiques, utilisent souvent des descripteurs \u201cpauvres\u201d, qui peuvent \u00eatre appliqu\u00e9s facilement \u00e0 n\u2019importe quelle langue, mais qui ne regarde pas plus loin que 1 ou 2 tokens \u00e0 droite et \u00e0 gauche et ne prennent pas en compte des classes d\u2019\u00e9quivalence syntaxiques. Bien que l\u2019\u00e9tiquetage morphosyntaxique atteint des niveaux \u00e9lev\u00e9s d\u2019exactitude (autour de 97 %), les 3 % d\u2019erreurs qui subsistent induisent syst\u00e9matiquement une baisse de 3 % dans l\u2019exactitude du parseur. Parmi les ph\u00e9nom\u00e8nes les plus faciles \u00e0 cibler \u00e0 l\u2019aide de l\u2019injection de connaissances linguistiques plus riches sont les mots fonctionnels ambigus, tels que le mot \u201cque\u201d en fran\u00e7ais. Dans cette \u00e9tude, nous cherchons \u00e0 am\u00e9liorer l\u2019\u00e9tiquetage morphosyntaxique de \u201cque\u201d par l\u2019utilisation de descripteurs cibl\u00e9s et riches lors de l\u2019entra\u00eenement, et par l\u2019utilisation de r\u00e8gles symboliques qui contournent le mod\u00e8le statistique lors de l\u2019analyse. Nous atteignons une r\u00e9duction du taux d\u2019erreur de 45 % par les descripteurs riches, et de 55 % si on ajoute des r\u00e8gles.","translation":["Better pos-tagging for \"que\" through targeted features and rules","Robust statistical NLP tools, and in particular pos-taggers, often use knowledge-poor features, which are easily applicable to any language but do not look beyond 1 or 2 tokens to the right and left and do not make use of syntactic equivalence classes. Although pos-tagging tends to get high accuracy scores (around 97%), the remaining 3% errors systematically result in a 3% loss in parsing accuracy. Some of the easiest phenomena to target via the injection of richer linguistic knowledge are ambiguous function words, such as \u201cque\u201d in French. In this study, we attempt to improve the pos-tagging of \u201cque\u201d through the use of targeted knowledge-rich features during training, and symbolic rules which override the statistical model during analysis. We reduce the error rate by 45% using targeted knowledge-rich features, and 55% if we add rules.","pos-tagging, supervised machine learning, knowledge-rich features, robust statistical systems"],"keyphrases":["\u00e9tiquetage morphosyntaxique","descripteurs riches","apprentissage automatique supervis\u00e9","syst\u00e8mes statistiques robustes"],"prmu":["P","P","U","M"]} {"id":"taln-2014-long-007","title":"Jouer avec des analyseurs syntaxiques","abstract":"Nous pr\u00e9sentons DYALOG-SR, un analyseur syntaxique statistique par d\u00e9pendances d\u00e9velopp\u00e9 dans le cadre de la t\u00e2che SPRML 2013 portant sur un jeu de 9 langues tr\u00e8s diff\u00e9rentes. L\u2019analyseur DYALOG-SR impl\u00e9mente un algorithme d\u2019analyse par transition (\u00e0 la MALT), \u00e9tendu par utilisation de faisceaux et de techniques de programmation dynamique. Une des particularit\u00e9 de DYALOG-SR provient de sa capacit\u00e9 \u00e0 prendre en entr\u00e9e des treillis de mots, particularit\u00e9 utilis\u00e9e lors de SPMRL13 pour traiter des treillis en H\u00e9breu et reprise plus r\u00e9cemment sur des treillis produits par SXPIPE pour le fran\u00e7ais. Disposant par ailleurs avec FRMG d\u2019un analyseur alternatif pour le fran\u00e7ais, nous avons exp\u00e9riment\u00e9 un couplage avec DYALOG-SR, nous permettant ainsi d\u2019obtenir les meilleurs r\u00e9sultats obtenus \u00e0 ce jour sur le French TreeBank.","translation":["Playing with parsers","We present DYALOG-SR, a statistical dependency parser developed for the SPRML 2013 shared task over 9 very different languages. DYALOG-SR implements a shift-reduce parsing algorithm (a la MALT), extended with beams and dynamic programming techniques. One of the specificities of DYALOG-SR is its ability to handle word lattices as input, which was used for handling Hebrew lattices and more recently French ones produced by SXPIPE. Having access to FRMG, an alternative parser for French, we also tried a coupling with DYALOG-SR, providing us the best results so far on the French TreeBank","Parsing, Dependency Parsing, Beams, Dynamic Programming, Word Lattice, Parser coupling"],"keyphrases":["faisceaux","Programmation Dynamique","Treillis de mots","Analyse syntaxique","Analyse syntaxique par d\u00e9pendances","Couplage d\u2019analyseurs"],"prmu":["P","P","P","R","R","R"]} {"id":"taln-2014-long-008","title":"Principes de mod\u00e9lisation syst\u00e9mique des r\u00e9seaux lexicaux","abstract":"Nous pr\u00e9sentons une approche de la construction manuelle des ressources lexicales \u00e0 large couverture fond\u00e9e sur le recours \u00e0 un type particulier de r\u00e9seau lexical appel\u00e9 syst\u00e8me lexical. En nous appuyant sur l\u2019exp\u00e9rience acquise dans le cadre de la construction du R\u00e9seau Lexical du Fran\u00e7ais (RL-fr), nous offrons tout d\u2019abord une caract\u00e9risation formelle des syst\u00e8mes lexicaux en tant que graphes d\u2019unit\u00e9s lexicales de type \u00ab petits mondes \u00bb principalement organis\u00e9s \u00e0 partir du syst\u00e8me des fonctions lexicales Sens-Texte. Nous apportons ensuite des arguments pour justifier la pertinence du mod\u00e8le propos\u00e9, tant du point de vue th\u00e9orique qu\u2019applicatif.","translation":["Principles of Lexical Network Systemic Modeling","We introduce a new approach for manually constructing broad-coverage lexical ressources based on a specific type of lexical network called lexical system. Drawing on experience gained from the construction of the French Lexical Network (fr-LN), we begin by formally characterizing lexical systems as \u201csmall-world\u201d graphs of lexical units that are primarily organized around the system of Meaning-Text lexical functions. We then give arguments in favor of the proposed model that are both theory- and application-oriented.","lexical system, lexical database, structure of the lexicon, lexical network, small-world graph, proxemy, Explanatory Combinatorial Lexicology, lexical function, French Lexical Network (fr-LN)"],"keyphrases":["r\u00e9seau lexical","syst\u00e8me lexical","R\u00e9seau Lexical du Fran\u00e7ais (RL-fr)","fonction lexicale","base de donn\u00e9es lexicale","structure du lexique","graphe petit monde","prox\u00e9mie","Lexicologie Explicative et Combinatoire"],"prmu":["P","P","P","P","M","M","M","U","U"]} {"id":"taln-2014-long-009","title":"Un mod\u00e8le pour pr\u00e9dire la complexit\u00e9 lexicale et graduer les mots","abstract":"Analyser la complexit\u00e9 lexicale est une t\u00e2che qui, depuis toujours, a principalement retenu l\u2019attention de psycholinguistes et d\u2019enseignants de langues. Plus r\u00e9cemment, cette probl\u00e9matique a fait l\u2019objet d\u2019un int\u00e9r\u00eat grandissant dans le domaine du traitement automatique des langues (TAL) et, en particulier, en simplification automatique de textes. L\u2019objectif de cette t\u00e2che est d\u2019identifier des termes et des structures difficiles \u00e0 comprendre par un public cible et de proposer des outils de simplification automatis\u00e9e de ces contenus. Cet article aborde la question lexicale en identifiant un ensemble de pr\u00e9dicteurs de la complexit\u00e9 lexicale et en \u00e9valuant leur efficacit\u00e9 via une analyse corr\u00e9lationnelle. Les meilleures de ces variables ont \u00e9t\u00e9 int\u00e9gr\u00e9es dans un mod\u00e8le capable de pr\u00e9dire la difficult\u00e9 lexicale dans un contexte d\u2019apprentissage du fran\u00e7ais.","translation":["A model to predict lexical complexity and to grade words","Analysing lexical complexity is a task that has mainly attracted the attention of psycholinguists and language teachers. More recently, this issue has seen a growing interest in the field of Natural Language Processing (NLP) and, in particular, that of automatic text simplification. The aim of this task is to identify words and structures which may be difficult to understand by a target audience and provide automated tools to simplify these contents. This article focuses on the lexical issue by identifying a set of predictors of the lexical complexity whose efficiency are assessed with a correlational analysis. The best of those variables are integrated into a model able to predict the difficulty of words for learners of French.","lexical complexity, morphological analysis, graded words, lexical resources"],"keyphrases":["complexit\u00e9 lexicale","analyse morphologique","mots gradu\u00e9s","ressources lexicales"],"prmu":["P","M","R","M"]} {"id":"taln-2014-long-010","title":"Annotations et inf\u00e9rences de relations dans un r\u00e9seau lexico-s\u00e9mantique: application \u00e0 la radiologie","abstract":"Les ontologies sp\u00e9cifiques \u00e0 un domaine ont une valeur inestimable malgr\u00e9 les nombreux d\u00e9fis li\u00e9s \u00e0 leur d\u00e9veloppement. Dans la plupart des cas, les bases de connaissances sp\u00e9cifiques \u00e0 un domaine sont construites avec une port\u00e9e limit\u00e9e. En effet, elles ne prennent pas en compte les avantages qu\u2019il pourrait y avoir \u00e0 combiner une ontologie de sp\u00e9cialit\u00e9 \u00e0 une ontologie g\u00e9n\u00e9rale. En outre, la plupart des ressources existantes manque de m\u00e9ta-informations sur les annotations (informations fr\u00e9quentielles : de fr\u00e9quent \u00e0 rare ; ou des informations de pertinence : pertinent, non pertinent et inf\u00e9rable). Nous pr\u00e9sentons dans cet article un r\u00e9seau lexical d\u00e9di\u00e9 \u00e0 la radiologie construit sur un r\u00e9seau lexical g\u00e9n\u00e9raliste (JeuxDeMots). Ce r\u00e9seau combine poids et annotations sur des relations typ\u00e9es entre des termes et des concepts, un m\u00e9canisme d\u2019inf\u00e9rence et de r\u00e9conciliation dans le but d\u2019am\u00e9liorer la qualit\u00e9 et la couverture du r\u00e9seau. Nous \u00e9tendons ce m\u00e9canisme afin de prendre en compte non seulement les relations mais aussi les annotations. Nous d\u00e9crivons la mani\u00e8re de laquelle les annotations am\u00e9liorent le r\u00e9seau en imposant de nouvelles contraintes sp\u00e9cialement celles bas\u00e9es sur la connaissance m\u00e9dicale. Nous pr\u00e9sentons par la suite des r\u00e9sultats pr\u00e9liminaires.","translation":["Annotations and inference of relations in a lexical semantic network : Applied to radiology","Relations annotation and inference in a lexical-semantic network : application to radiology Domain specific ontologies are invaluable despite many challenges associated with their development. In most cases, domain knowledge bases are built with very limited scope without considering the benefits of plunging domain knowledge to a general ontology. Furthermore, most existing resources lack meta-information about association strength (weights) and annotations (frequency information like frequent, rare ... or relevance information (pertinent or irrelevant)). In this paper, we are presenting a semantic resource for radiology built over an existing general semantic lexical network (JeuxDeMots). This network combines weight and annotations on typed relations between terms and concepts. Some inference mechanisms are applied to the network to improve its quality and coverage. We extend this mechanism to relation annotation. We describe how annotations are handled and how they improve the network by imposing new constraints especially those founded on medical knowledge. We present then some results","relation inference, lexical semantic network, relation annotation, radiology"],"keyphrases":["annotation","inf\u00e9rence","radiologie","r\u00e9seau lexical"],"prmu":["P","P","P","P"]} {"id":"taln-2014-long-011","title":"Correction automatique par r\u00e9solution d\u2019anaphores pronominales","abstract":"Cet article d\u00e9crit des travaux r\u00e9alis\u00e9s dans le cadre du d\u00e9veloppement du correcteur automatique d\u2019un logiciel commercial d\u2019aide \u00e0 la r\u00e9daction du fran\u00e7ais. Nous voulons corriger des erreurs uniquement d\u00e9tectables lorsque l\u2019ant\u00e9c\u00e9dent de certains pronoms est connu. Nous d\u00e9crivons un algorithme de r\u00e9solution des anaphores pronominales intra- et interphrastiques s\u2019appuyant peu sur la correspondance de la morphologie, puisque celle-ci est possiblement erron\u00e9e, mais plut\u00f4t sur des informations robustes comme l\u2019analyse syntaxique fine et des cooccurrences fiables. Nous donnons un aper\u00e7u de nos r\u00e9sultats sur un vaste corpus de textes r\u00e9els et, tout en tentant de pr\u00e9ciser les crit\u00e8res d\u00e9cisifs, nous montrons que certains types de corrections anaphoriques sont d\u2019une pr\u00e9cision respectable.","translation":["Pronoun Anaphora Resolution for Automatic Correction of Grammatical Errors","This article relates work done in order to expand the performance of a commercial French grammar checker. We try to achieve the correction of errors only detectable when an anaphora pronoun is linked with its antecedent. The algorithm searches for the antecedent within the same sentence as the pronoun as well as in previous sentences. It relies only slightly on morphology agreement, since it is what we are trying to correct, and uses instead information from a robust syntactic parsing and reliable cooccurrences. We give examples of our results on a vast corpus, and try to identify the key criteria for successful detection. We show that some types of corrections are precise enough to be integrated in a large scale commercial software.","Grammar checker, Anaphora, Pronoun, Salience, Multi-Strategy Approach, Cooccurrences"],"keyphrases":["Anaphores","Pronom","Correcteur","Cooccurrences","Saillance","Approche multistrat\u00e9gique"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2014-long-012","title":"Peut-on bien chunker avec de mauvaises \u00e9tiquettes POS ?","abstract":"Dans cet article, nous testons deux approches distinctes pour chunker un corpus oral transcrit, en cherchant \u00e0 minimiser les \u00e9tapes de correction manuelle. Nous r\u00e9-utilisons tout d\u2019abord un chunker appris sur des donn\u00e9es \u00e9crites, puis nous tentons de r\u00e9-apprendre un chunker sp\u00e9cifique de l\u2019oral \u00e0 partir de donn\u00e9es annot\u00e9es et corrig\u00e9es manuellement, mais en faible quantit\u00e9. L'objectif est d'atteindre les meilleurs r\u00e9sultats possibles pour le chunker en se passant autant que possible de la correction manuelle des \u00e9tiquettes POS. Nos exp\u00e9riences montrent qu\u2019il est possible d\u2019apprendre un nouveau chunker performant pour l\u2019oral \u00e0 partir d\u2019un corpus de r\u00e9f\u00e9rence annot\u00e9 de petite taille, sans intervention sur les \u00e9tiquettes POS.","translation":["Can we chunk well with bad POS labels?","In this paper, we test two distinct approaches to chunk transcribed oral data, trying to minimize the phases of manual correction. First, we use an existing chunker, learned from written texts, then we try to learn a new specific chunker from a small amount of manually corrected labeled oral data. The purpose is to reach the best possible results for the chunker with as few manual corrections of the POS labels as possible. Our experiments show that it is possible to learn a new effective chunker for oral data from a labeled reference corpus of small size, without any manual correction of POS labels.","chunker, POS labeling, machine learning, oral corpus, disfluencies"],"keyphrases":["chunker","corpus oral","\u00e9tiquetage POS","apprentissage automatique","disfluences"],"prmu":["P","P","M","U","U"]} {"id":"taln-2014-long-013","title":"Normalisation de textes par analogie: le cas des mots inconnus","abstract":"Dans cet article, nous proposons et \u00e9valuons un syst\u00e8me permettant d\u2019am\u00e9liorer la qualit\u00e9 d\u2019un texte bruit\u00e9 notamment par des erreurs orthographiques. Ce syst\u00e8me a vocation \u00e0 \u00eatre int\u00e9gr\u00e9 \u00e0 une architecture compl\u00e8te d\u2019extraction d\u2019information, et a pour objectif d\u2019am\u00e9liorer les r\u00e9sultats d\u2019une telle t\u00e2che. Pour chaque mot qui est inconnu d\u2019un lexique de r\u00e9f\u00e9rence et qui n\u2019est ni une entit\u00e9 nomm\u00e9e ni une cr\u00e9ation lexicale, notre syst\u00e8me cherche \u00e0 proposer une ou plusieurs normalisations possibles (une normalisation valide \u00e9tant un mot connu dont le lemme est le m\u00eame que celui de la forme orthographiquement correcte). Pour ce faire, ce syst\u00e8me utilise des techniques de correction automatique lexicale par r\u00e8gle qui reposent sur un syst\u00e8me d\u2019induction de r\u00e8gles par analogie.","translation":["Analogy-based Text Normalization : the case of unknowns words","Analogy-based Text Normalization : the case of unknowns words. In this paper, we describe and evaluate a system for improving the quality of noisy texts containing non-word errors. It is meant to be integrated into a full information extraction architecture, and aims at improving its results. For each word unknown to a reference lexicon which is neither a named entity nor a neologism, our system suggests one or several normalization candidates (any known word which has the same lemma as the spell-corrected form is a valid candidate). For this purpose, we use an analogybased approach for acquiring normalisation rules and use them in the same way as lexical spelling correction rules.","Text normalization, Spell checking, Analogy"],"keyphrases":["analogie","normalisation textuelle","correction orthographique"],"prmu":["P","M","R"]} {"id":"taln-2014-long-014","title":"Une \u00e9valuation approfondie de diff\u00e9rentes m\u00e9thodes de compositionalit\u00e9 s\u00e9mantique","abstract":"Au cours des deux derni\u00e8res d\u00e9cennies, de nombreux algorithmes ont \u00e9t\u00e9 d\u00e9velopp\u00e9s pour capturer la s\u00e9mantique des mots simples en regardant leur r\u00e9partition dans un grand corpus, et en comparant ces distributions dans un mod\u00e8le d\u2019espace vectoriel. En revanche, il n\u2019est pas trivial de combiner les objets alg\u00e9briques de la s\u00e9mantique distributionnelle pour arriver \u00e0 une d\u00e9rivation d\u2019un contenu pour des expressions complexes, compos\u00e9es de plusieurs mots. Notre contribution a deux buts. Le premier est d\u2019\u00e9tablir une large base de comparaison pour les m\u00e9thodes de composition pour le cas adjectif_nom. Cette base nous permet d\u2019\u00e9valuer en profondeur la performance des diff\u00e9rentes m\u00e9thodes de composition. Notre second but est la proposition d\u2019une nouvelle m\u00e9thode de composition, qui est une g\u00e9n\u00e9ralisation de la m\u00e9thode de Baroni & Zamparelli (2010). La performance de notre nouvelle m\u00e9thode est \u00e9galement \u00e9valu\u00e9e sur notre nouveau ensemble de test.","translation":["An evaluation of various methods for adjective-nouns composition","In the course of the last two decades, numerous algorithms have sprouted up that successfully capture the semantics of single words by looking at their distribution in text, and comparing these distributions in a vector space model. However, it is not straightforward to construct meaning representations beyond the level of individual words \u2013 i.e. the combination of words into larger units \u2013 using distributional methods. Our contribution is twofold. First of all, we carry out a large scale evaluation, comparing different composition methods within the distributional framework for the case of adjective-noun composition, making use of a newly developed dataset. Secondly, we propose a novel method for adjective-noun composition, which is a generalization of the approach by Baroni & Zamparelli (2010). The performance of our novel method is equally evaluated on our new dataset.","lexical semantics, distributional semantics, compositionality"],"keyphrases":["compositionalit\u00e9","s\u00e9mantique distributionnelle","s\u00e9mantique lexicale"],"prmu":["P","P","M"]} {"id":"taln-2014-long-015","title":"G\u00e9n\u00e9ration de textes : G-TAG revisit\u00e9 avec les Grammaires Cat\u00e9gorielles Abstraites","abstract":"G-TAG est un formalisme d\u00e9di\u00e9 \u00e0 la g\u00e9n\u00e9ration de textes. Il s\u2019appuie sur les Grammaires d\u2019Arbres Adjoints (TAG) qu\u2019il \u00e9tend avec des notions propres permettant de construire une forme de surface \u00e0 partir d\u2019une repr\u00e9sentation conceptuelle. Cette repr\u00e9sentation conceptuelle est ind\u00e9pendante de la langue, et le formalisme G-TAG a \u00e9t\u00e9 con\u00e7u pour la mise en oeuvre de la synth\u00e8se dans une langue cible \u00e0 partir de cette repr\u00e9sentation. L\u2019objectif de cet article est d\u2019\u00e9tudier G-TAG et les notions propres que ce formalisme introduit par le biais des Grammaires Cat\u00e9gorielles Abstraites (ACG) en exploitant leurs propri\u00e9t\u00e9s de r\u00e9versibilit\u00e9 intrins\u00e8que et leur propri\u00e9t\u00e9 d\u2019encodage des TAG. Nous montrons que les notions clefs d\u2019arbre de g-d\u00e9rivation et de lexicalisation en G-TAG s\u2019expriment naturellement en ACG. La construction des formes de surface peut alors utiliser les algorithmes g\u00e9n\u00e9raux associ\u00e9s aux ACG et certaines constructions absentes de G-TAG peuvent \u00eatre prises en compte sans modification suppl\u00e9mentaire.","translation":["Text Generation: Reexamining G-TAG with Abstract Categorial Grammars","G-TAG is a formalism dedicated to text generation. It relies on the Tree Adjoining Grammar (TAG) formalism and extends it with several specific notions allowing for the construction of a surface form from a conceptual representation. This conceptual representation is independent from the target language. The goal of this paper is to study G-TAG and its specific notions from the perspective given by Abstract Categorial Grammars (ACG). We use the reversibility property of ACG and the encoding of TAG they offer. We show that the key G-TAG notions of g-derivation tree and lexicalization are naturally expressed in ACG. The construction of surface forms can then rely on the general ACG algorithms and some operations that G-TAG is lacking can be freely accounted for.","TAG, G-TAG, generation, syntactic realization, abstract categorial grammars"],"keyphrases":["g\u00e9n\u00e9ration","G-TAG","TAG","grammaires cat\u00e9gorielles abstraites","r\u00e9alisation syntaxique"],"prmu":["P","P","P","P","U"]} {"id":"taln-2014-long-016","title":"Apprentissage partiellement supervis\u00e9 d\u2019un \u00e9tiqueteur morpho-syntaxique par transfert cross-lingue","abstract":"Les m\u00e9thodes de transfert cross-lingue permettent partiellement de pallier l\u2019absence de corpus annot\u00e9s, en particulier dans le cas de langues peu dot\u00e9es en ressources linguistiques. Le transfert d\u2019\u00e9tiquettes morpho-syntaxiques depuis une langue riche en ressources, compl\u00e9t\u00e9 et corrig\u00e9 par un dictionnaire associant \u00e0 chaque mot un ensemble d\u2019\u00e9tiquettes autoris\u00e9es, ne fournit cependant qu\u2019une information de supervision incompl\u00e8te. Dans ce travail, nous reformulons ce probl\u00e8me dans le cadre de l\u2019apprentissage ambigu et proposons une nouvelle m\u00e9thode pour apprendre un analyseur de mani\u00e8re faiblement supervis\u00e9e \u00e0 partir d\u2019un mod\u00e8le \u00e0 base d\u2019historique. L\u2019\u00e9valuation de cette approche montre une am\u00e9lioration sensible des performances par rapport aux m\u00e9thodes de l\u2019\u00e9tat de l\u2019art pour trois langues sur quatre consid\u00e9r\u00e9es, avec des gains jusqu\u2019\u00e0 3,9% absolus ou 35,8% relatifs.","translation":["Cross-Lingual POS Tagging through Ambiguous Learning: First Experiments","When Part-of-Speech annotated data is scarce, e.g. for under resourced languages, one can turn to crosslingual transfer and crawled dictionaries to collect partially supervised data. We cast this problem in the framework of ambiguous learning and show how to learn an accurate history-based model. This method is evaluated on four languages and yields improvements over state-of-the-art for three of them, with gains up to 3.9% absolute or 35.8% relative.","Weakly Supervised Learning, Part-of-Speech Tagging, Cross-Lingual Transfer"],"keyphrases":["apprentissage partiellement supervis\u00e9","transfert cross-lingue","analyse morpho-syntaxique"],"prmu":["P","P","M"]} {"id":"taln-2014-long-017","title":"Construire un corpus monolingue annot\u00e9 comparable Exp\u00e9rience \u00e0 partir d\u2019un corpus annot\u00e9 morpho-syntaxiquement","abstract":"Motiv\u00e9 par la probl\u00e9matique de construction automatique d\u2019un corpus annot\u00e9 morpho-syntaxiquement distinct d\u2019un corpus source, nous proposons une d\u00e9finition g\u00e9n\u00e9rale et op\u00e9rationnelle de la relation de la comparabilit\u00e9 entre des corpus monolingues annot\u00e9s. Cette d\u00e9finition se veut ind\u00e9pendante du domaine applicatif. Nous proposons une mesure de la relation de comparabilit\u00e9 et une proc\u00e9dure de construction d\u2019un corpus comparable. Enfin nous \u00e9tudions la possibilit\u00e9 d\u2019utiliser la mesure de la perplexit\u00e9 d\u00e9finie dans la th\u00e9orie de l\u2019information comme moyen de prioriser les phrases \u00e0 s\u00e9lectionner pour construire un corpus comparable. Nous montrons que cette mesure joue un r\u00f4le mais qu\u2019elle n\u2019est pas suffisante.","translation":["Building Monolingual Comparable and Annotated Corpora: An experimental study from a pos tagged corpus","This work is motivated by the will of creating a new part-of-speech annotated corpus in French from an existing one. In this context, we proprose a general and operational definition of the comparability relation between annotated monolingual corpora.We propose a comparability measure and a procedure to build semi-automatically a comparable corpus from a source one. We study the use of the perplexity (information theory motivated measure) as a way to rank the sentences to select for building a comparable corpus. We show that the measure can play a role but that it is not sufficient.","Comparable corpus, Monolingual corpus, Annotated corpus,Measuring comparability, Building comparable corpus, Part-of-Speech tagging"],"keyphrases":["Corpus monolingue","Corpus annot\u00e9","Corpus comparable","Mesure de la comparabilit\u00e9","Construction de corpus comparable","Analyse morpho-syntaxique"],"prmu":["P","P","P","R","R","M"]} {"id":"taln-2014-long-018","title":"Vers une approche simplifi\u00e9e pour introduire le caract\u00e8re incr\u00e9mental dans les syst\u00e8mes de dialogue","abstract":"Le dialogue incr\u00e9mental est au coeur de la recherche actuelle dans le domaine des syst\u00e8mes de dialogue. Plusieurs architectures et mod\u00e8les ont \u00e9t\u00e9 publi\u00e9s comme (Allen et al., 2001; Schlangen & Skantze, 2011). Ces approches ont permis de comprendre diff\u00e9rentes facettes du dialogue incr\u00e9mental, cependant, les impl\u00e9menter n\u00e9cessite de repartir de z\u00e9ro car elles sont fondamentalement diff\u00e9rentes des architectures qui existent dans les syst\u00e8mes de dialogue actuels. Notre approche se d\u00e9marque par sa r\u00e9utilisation de l\u2019existant pour tendre vers une nouvelle g\u00e9n\u00e9ration de syst\u00e8mes de dialogue qui ont un comportement incr\u00e9mental mais dont le fonctionnement interne est bas\u00e9 sur les principes du dialogue traditionnel. Ce papier propose d\u2019intercaler un module, appel\u00e9 Scheduler, entre le service et le client. Ce Scheduler se charge de la gestion des \u00e9v\u00e9nements asynchrones, de mani\u00e8re \u00e0 reproduire le comportement des syst\u00e8mes incr\u00e9mentaux vu du client. Le service, de son c\u00f4t\u00e9, ne se comporte pas de mani\u00e8re incr\u00e9mentale.","translation":["A simple approach to make dialogue systems incremental","Incremental dialogue is at the heart of current research in the field of dialogue systems. Several architectures and models have been published such as (Allen et al., 2001; Schlangen & Skantze, 2011). This work has made it possible to understand many aspects of incremental dialogue, however, in order to implement these solutions, one needs to start from scratch as the existing architectures are inherently different. Our approach is different as it tends towards a new generation of incremental systems that behave incrementally but work internally in a traditional way. This paper suggests inserting a new module, called the Scheduler, between the service and the client. This Scheduler manages the asynchronous events, hence reproducing the behaviour of incremental systems from the client\u2019s point of view. On the other end, the service does not work incrementally.","Dialogue Systems, Incremental Processing, Dialogue Systems Architecture"],"keyphrases":["Syst\u00e8mes de Dialogue","Traitement Incr\u00e9mental","Architecture des Syst\u00e8mes de Dialogue"],"prmu":["P","M","R"]} {"id":"taln-2014-long-019","title":"La base lexicale D\u00e9monette : entre s\u00e9mantique constructionnelle et morphologie d\u00e9rivationnelle","abstract":"D\u00e9monette est une base de donn\u00e9es lexicale pour le fran\u00e7ais dont les sommets (entr\u00e9es lexicales) et les arcs (relations morphologiques entre les sommets) sont annot\u00e9s au moyen d\u2019informations morpho-s\u00e9mantiques. Elle r\u00e9sulte d\u2019une conception originale int\u00e9grant deux approches radicalement oppos\u00e9es : Morphonette, une ressource bas\u00e9e sur les analogies d\u00e9rivationnelles, et D\u00e9riF, un analyseur \u00e0 base de r\u00e8gles linguistiques. Pour autant, D\u00e9monette n\u2019est pas la simple fusion de deux ressources pr\u00e9-existantes : cette base poss\u00e8de une architecture compatible avec l\u2019approche lex\u00e9matique de la morphologie ; son contenu peut \u00eatre \u00e9tendu au moyen de donn\u00e9es issues de sources diverses. L'article pr\u00e9sente le mod\u00e8le D\u00e9monette et le contenu de sa version actuelle : 31 204 verbes, noms d'action, noms d\u2019agent, et adjectifs de propri\u00e9t\u00e9 dont les liens morphologiques donnent \u00e0 voir des d\u00e9finitions bi-orient\u00e9es entre ascendants et entre lex\u00e8mes en relation indirecte. Nous proposons enfin une \u00e9valuation de D\u00e9monette qui compar\u00e9e \u00e0 Verbaction obtient un score de 84% en rappel et de 90% en pr\u00e9cision.","translation":["The D\u00e9monette Lexical Database: between Constructional Semantics and Word Formation","D\u00e9monette is a lexical database whose vertices (lexical entries) and edges (morphological relations between the vertices) are annotated with morpho-semantic information. It results from an original design incorporating two radically different approaches: Morphonette, a resource based on derivational analogies and D\u00e9riF, an analyzer based on linguistic rules. However, Daemonette is not a simple merger of two pre-existing ressources: its architecture is fully compatible with the lexematic approach to morphology; its contents can be extended using data from various other sources. The article presents the D\u00e9monette model and the content of its current version, including 31,204 verbs, action nouns, agent nouns and property adjectives, where morphological links between both direct ascendants and indirectly related words have bi-oriented definitions. Finally, D\u00e9monette is assessed with respect to Verbaction with a recall of 84% and a precision of 90%.","Lexical Network, Derivational morphology, Morphological family, Lexical semantics, French"],"keyphrases":["Morphologie d\u00e9rivationnelle","Fran\u00e7ais","R\u00e9seau lexical","Famille morphologique","S\u00e9mantique lexicale"],"prmu":["P","P","M","M","R"]} {"id":"taln-2014-long-020","title":"Explorer le graphe de voisinage pour am\u00e9liorer les th\u00e9saurus distributionnels","abstract":"Dans cet article, nous abordons le probl\u00e8me de construction et d\u2019am\u00e9lioration de th\u00e9saurus distributionnels. Nous montrons d\u2019une part que les outils de recherche d\u2019information peuvent \u00eatre directement utilis\u00e9s pour la construction de ces th\u00e9saurus, en offrant des performances comparables \u00e0 l\u2019\u00e9tat de l\u2019art. Nous nous int\u00e9ressons d\u2019autre part plus sp\u00e9cifiquement \u00e0 l\u2019am\u00e9lioration des th\u00e9saurus obtenus, vus comme des graphes de plus proches voisins. En tirant parti de certaines des informations de voisinage contenues dans ces graphes nous proposons plusieurs contributions. 1) Nous montrons comment am\u00e9liorer globalement les listes de voisins en prenant en compte la r\u00e9ciprocit\u00e9 de la relation de voisinage, c\u2019est-\u00e0-dire le fait qu\u2019un mot soit un voisin proche d\u2019un autre et vice-versa. 2) Nous proposons \u00e9galement une m\u00e9thode permettant d\u2019associer \u00e0 chaque liste de voisins (i.e. \u00e0 chaque entr\u00e9es du th\u00e9saurus construit) un score de confiance. 3) Enfin, nous montrons comment utiliser ce score de confiance pour r\u00e9ordonner les listes de voisins les plus proches. Ces diff\u00e9rentes contributions sont valid\u00e9es exp\u00e9rimentalement et offrent des am\u00e9liorations significatives sur l\u2019\u00e9tat de l\u2019art.","translation":["Exploring the neighbor graph to improve distributional thesauri","In this paper, we address the issue of building and improving a distributional thesaurus.We first show that existing tools from the information retrieval domain can be directly used in order to build a thesaurus with state-of-the-art performance. Secondly, we focus more specifically on improving the obtained thesaurus, seen as a graph of k-nearest neighbors. By exploiting information about the neighborhood contained in this graph, we propose several contributions. 1)We show how the lists of neighbors can be globally improved by examining the reciprocity of the neighboring relation, that is, the fact that a word can be close of another and vice-versa. 2) We also propose a method to associate a confidence score to any lists of nearest neighbors (i.e. any entry of the thesaurus). 3) Last, we demonstrate how these confidence scores can be used to reorder the closest neighbors of a word. These different contributions are validated through experiments and offer significant improvement over the state-of-theart.","distributional thesaurus, k nearest neighbor graph, Parzen window, Hungarian algorithm, T-norms, information retrieval"],"keyphrases":["th\u00e9saurus distributionnel","recherche d\u2019information","graphe de k proches voisins","fen\u00eatre de Parzen","algorithme hongrois","Tnormes"],"prmu":["P","P","M","M","U","U"]} {"id":"taln-2014-long-021","title":"R\u00e9duction de la dispersion des donn\u00e9es par g\u00e9n\u00e9ralisation des contextes distributionnels : application aux textes de sp\u00e9cialit\u00e9","abstract":"Les mod\u00e8les d\u2019espace vectoriels mettant en oeuvre l\u2019analyse distributionnelle s\u2019appuient sur la redondance d\u2019informations se trouvant dans le contexte des mots \u00e0 associer. Cependant, ces mod\u00e8les souffrent du nombre de dimensions consid\u00e9rable et de la dispersion des donn\u00e9es dans la matrice des vecteurs de contexte. Il s\u2019agit d\u2019un enjeu majeur sur les corpus de sp\u00e9cialit\u00e9 pour lesquels la taille est beaucoup plus petite et les informations contextuelles moins redondantes. Nous nous int\u00e9ressons au probl\u00e8me de la limitation de la dispersion des donn\u00e9es sur des corpus de sp\u00e9cialit\u00e9 et proposons une m\u00e9thode permettant de densifier la matrice en g\u00e9n\u00e9ralisant les contextes distributionnels. L\u2019\u00e9valuation de la m\u00e9thode sur un corpus m\u00e9dical en fran\u00e7ais montre qu\u2019avec une petite fen\u00eatre graphique et l\u2019indice de Jaccard, la g\u00e9n\u00e9ralisation des contextes avec des relations fournies par des patrons lexico-syntaxiques permet d\u2019am\u00e9liorer les r\u00e9sultats, alors qu\u2019avec une large fen\u00eatre et le cosinus, il est pr\u00e9f\u00e9rable de g\u00e9n\u00e9raliser avec des relations obtenues par inclusion lexicale.","translation":["Reducing data sparsity by generalising distributional contexts: application to specialised texts","Vector space models implement the distributional hypothesis relying on the repetition of information occurring in the contexts of words to associate. However, these models suffer from a high number of dimensions and data sparseness in the matrix of contextual vectors. This is a major issue with specialized corpora that are of much smaller size and with much lower context frequencies.We tackle the problem of data sparseness on specialized texts and we propose a method that allows to make the matrix denser, by generalizing of distributional contexts. The evaluation of the method is performed on a French medical corpus, and shows that with a small graphical window and the Jaccard Index, the context generalization with lexico-syntactic patterns improves the results, while with a large window and the cosine measure, it is better to generalize with lexical inclusion.","Distributional analysis, specialized texts, hypernymy, data sparseness, Vector Space Model, hybrid method"],"keyphrases":["dispersion des donn\u00e9es","textes de sp\u00e9cialit\u00e9","mod\u00e8le d\u2019espace vectoriel","Analyse distributionnelle","hyperonymie","m\u00e9thode hybride"],"prmu":["P","P","P","P","U","M"]} {"id":"taln-2014-long-022","title":"Extraction non supervis\u00e9e de relations s\u00e9mantiques lexicales","abstract":"Nous pr\u00e9sentons une base de connaissances comportant des triplets de paires de verbes associ\u00e9s avec une relation s\u00e9mantique\/discursive, extraits du corpus fran\u00e7ais frWaC par une m\u00e9thode s\u2019appuyant sur la pr\u00e9sence d\u2019un connecteur discursif reliant deux verbes. Nous d\u00e9taillons plusieurs mesures visant \u00e0 \u00e9valuer la pertinence des triplets et la force d\u2019association entre la relation s\u00e9mantique\/discursive et la paire de verbes. L\u2019\u00e9valuation intrins\u00e8que est r\u00e9alis\u00e9e par rapport \u00e0 des annotations manuelles. Une \u00e9valuation de la couverture de la ressource est \u00e9galement r\u00e9alis\u00e9e par rapport au corpus Annodis annot\u00e9 discursivement. Cette \u00e9tude produit des r\u00e9sultats prometteurs d\u00e9montrant l\u2019utilit\u00e9 potentielle de notre ressource pour les t\u00e2ches d\u2019analyse discursive mais aussi des t\u00e2ches de nature s\u00e9mantique.","translation":["Unsupervised extraction of semantic relations","This paper presents a knowledge base containing triples involving pairs of verbs associated with semantic or discourse relations. The relations in these triples are marked by discourse connectors between two adjacent instances of the verbs in the triple in the large French corpus, frWaC. We detail several measures that evaluate the relevance of the triples and the strength of their association. We use manual annotations to evaluate our method, and also study the coverage of our ressource with respect to the discourse annotated corpus Annodis. Our positive results show the potential impact of our ressource for discourse analysis tasks as well as semantically oriented tasks.","discourse, semantics, lexical semantics"],"keyphrases":["s\u00e9mantique","s\u00e9mantique lexicale","discours"],"prmu":["P","P","U"]} {"id":"taln-2014-long-023","title":"Mod\u00e8les de langue neuronaux: une comparaison de plusieurs strat\u00e9gies d\u2019apprentissage","abstract":"Alors que l\u2019importance des mod\u00e8les neuronaux dans le domaine du traitement automatique des langues ne cesse de cro\u00eetre, les difficult\u00e9s de leur apprentissage continue de freiner leur diffusion au sein de la communaut\u00e9. Cet article \u00e9tudie plusieurs strat\u00e9gies, dont deux sont originales, pour estimer des mod\u00e8les de langue neuronaux, en se focalisant sur l\u2019ajustement du pas d\u2019apprentissage. Les r\u00e9sultats exp\u00e9rimentaux montrent, d\u2019une part, l\u2019importance que rev\u00eat la conception de cette strat\u00e9gie. D\u2019autre part, le choix d\u2019une strat\u00e9gie appropri\u00e9e permet d\u2019apprendre efficacement des mod\u00e8les de langue donnant lieu \u00e0 des r\u00e9sultats \u00e0 l\u2019\u00e9tat de l\u2019art en traduction automatique, avec un temps de calcul r\u00e9duit et une faible influence des hyper-param\u00e8tres.","translation":["Comparison of scheduling methods for the learning rate of neural network language models","If neural networks play an increasingly important role in natural language processing, training issues still hinder their dissemination in the community. This paper studies different learning strategies for neural language models (including two new strategies), focusing on the adaptation of the learning rate. Experimental results show the impact of the design of such strategy. Moreover, provided the choice of an appropriate training regime, it is possible to efficiently learn language models that achieves state of the art results in machine translation with a lower training time and a reduced impact of hyper-parameters.","Neural networks, n-gram language models, statistical machine translation"],"keyphrases":["R\u00e9seaux de neurones","mod\u00e8les de langue n-gramme","traduction automatique statistique"],"prmu":["M","M","M"]} {"id":"taln-2014-long-024","title":"Etude de l\u2019impact de la translitt\u00e9ration de noms propres sur la qualit\u00e9 de l\u2019alignement de mots \u00e0 partir de corpus parall\u00e8les fran\u00e7ais-arabe","abstract":"Les lexiques bilingues jouent un r\u00f4le important en recherche d'information interlingue et en traduction automatique. La construction manuelle de ces lexiques est lente et co\u00fbteuse. Les techniques d\u2019alignement de mots sont g\u00e9n\u00e9ralement utilis\u00e9es pour automatiser le processus de construction de ces lexiques \u00e0 partir de corpus de textes parall\u00e8les. L\u2019alignement de formes simples et de syntagmes nominaux \u00e0 partir de corpus parall\u00e8les est une t\u00e2che relativement bien ma\u00eetris\u00e9e pour les langues \u00e0 \u00e9criture latine, mais demeure une op\u00e9ration complexe pour l\u2019appariement de textes n\u2019utilisant pas la m\u00eame \u00e9criture. Dans la perspective d\u2019utiliser la translitt\u00e9ration de noms propres de l\u2019arabe vers l\u2019\u00e9criture latine en alignement de mots et d\u2019\u00e9tudier son impact sur la qualit\u00e9 d\u2019un lexique bilingue fran\u00e7ais-arabe construit automatiquement, cet article pr\u00e9sente, d\u2019une part, un syst\u00e8me de translitt\u00e9ration de noms propres de l\u2019arabe vers l\u2019\u00e9criture latine, et d\u2019autre part, un outil d\u2019alignement de mots simples et compos\u00e9s \u00e0 partir de corpus de textes parall\u00e8les fran\u00e7ais-arabe. Le lexique bilingue produit par l\u2019outil d'alignement de mots int\u00e9grant la translitt\u00e9ration a \u00e9t\u00e9 \u00e9valu\u00e9 en utilisant deux approches : une \u00e9valuation de la qualit\u00e9 d\u2019alignement \u00e0 l\u2019aide d\u2019un alignement de r\u00e9f\u00e9rence construit manuellement et une \u00e9valuation de l\u2019impact de ce lexique bilingue sur la qualit\u00e9 de traduction du syst\u00e8me de traduction automatique statistique Moses. Les r\u00e9sultats obtenus montrent que la translitt\u00e9ration am\u00e9liore aussi bien la qualit\u00e9 de l\u2019alignement de mots que celle de la traduction.","translation":["Study of the impact of proper name transliteration on the performance of word alignment in French-Arabic parallel corpora","Bilingual lexicons play a vital role in cross-language information retrieval and machine translation. The manual construction of these lexicons is often costly and time consuming. Word alignment techniques are generally used to construct bilingual lexicons from parallel texts. Aligning single words and nominal syntagms from parallel texts is relatively a well controlled task for languages using Latin script but it is complex when the source and target languages do not share the same written script. A solution to this issue consists in writing the proper names present in the parallel corpus in the same written script. This paper presents, on the one hand, a system for automatic transliteration of proper names from Arabic to Latin script, and on the other hand, a tool to align single and compound words from French- Arabic parallel text corpora. We have evaluated the word alignment tool integrating transliteration using two methods: A manual evaluation of the alignment quality and an evaluation of the impact of this alignment on the translation quality by using the statistical machine translation system Moses. The obtained results show that transliteration of proper names from Arabic to Latin improves the quality of both alignment and translation.","Bilingual lexicon, transliteration, word alignment, statistical machine translation, evaluation"],"keyphrases":["translitt\u00e9ration","alignement de mots","Lexique bilingue","\u00e9valuation","traduction automatique statistique"],"prmu":["P","P","P","P","P"]} {"id":"taln-2014-long-025","title":"Adaptation th\u00e9matique pour la traduction automatique de d\u00e9p\u00eaches de presse","abstract":"L\u2019utilisation de m\u00e9thodes statistiques en traduction automatique (TA) implique l\u2019exploitation de gros corpus parall\u00e8les repr\u00e9sentatifs de la t\u00e2che de traduction vis\u00e9e. La relative raret\u00e9 de ces ressources fait que la question de l\u2019adaptation au domaine est une probl\u00e9matique centrale en TA. Dans cet article, une \u00e9tude portant sur l\u2019adaptation th\u00e9matique des donn\u00e9es journalistiques issues d\u2019une m\u00eame source est propos\u00e9e. Dans notre approche, chaque phrase d\u2019un document est traduite avec le syst\u00e8me de traduction appropri\u00e9 (c.-\u00e0-d. sp\u00e9cifique au th\u00e8me dominant dans la phrase). Deux sc\u00e9narios de traduction sont \u00e9tudi\u00e9s : (a) une classification manuelle, reposant sur la codification IPTC ; (b) une classification automatique. Nos exp\u00e9riences montrent que le sc\u00e9nario (b) conduit \u00e0 des meilleures performances (\u00e0 l\u2019aune des m\u00e9triques automatiques), que le sc\u00e9nario (a). L\u2019approche la meilleure pour la m\u00e9trique BLEU semble toutefois consister \u00e0 ne pas r\u00e9aliser d\u2019adaptation ; on observe toutefois qu\u2019adapter permet de lever certaines ambigu\u00eft\u00e9s s\u00e9mantiques.","translation":["Topic Adaptation for the Automatic Translation of News Articles","Statistical approaches used in machine translation (MT) require the availability of large parallel corpora for the task at hand. The relative scarcity of thes resources makes domain adaptation a central issue in MT. In this paper, a study of thematic adaptation for News texts is presented. All data are produced by the same source : News articles. In our approach, each sentence is translated with the appropriate translation system (specific to the dominant theme for the sentence). Two machine translation scenarios are considered : (a) a manual classification, based on IPTC codification ; (b) an automatic classification. Our experiments show that scenario (b) leads to better performance (in terms of automatic metrics) than scenario (a) . The best approach for the BLEU metric however seems to dispense with adaptation alltogether. Nonetheless, we observe that domain adaptation sometimes resolves some semantic ambiguities.","domain adaptation, automatic classification, machine translation"],"keyphrases":["adaptation th\u00e9matique","traduction automatique","classification automatique"],"prmu":["P","P","P"]} {"id":"taln-2014-long-026","title":"\u00c9tude quantitative des disfluences dans le discours de schizophr\u00e8nes : automatiser pour limiter les biais","abstract":"Nous pr\u00e9sentons dans cet article les r\u00e9sultats d\u2019exp\u00e9riences que nous avons men\u00e9es concernant les disfluences dans le discours de patients schizophr\u00e8nes (en rem\u00e9diation). Ces exp\u00e9riences ont eu lieu dans le cadre d\u2019une \u00e9tude plus large recouvrant d\u2019autres niveaux d\u2019analyse linguistique, qui devraient aider \u00e0 l\u2019identification d\u2019indices linguistiques conduisant au diagnostic de schizophr\u00e9nie. Cette \u00e9tude fait la part belle aux outils de traitement automatique des langues qui permettent le traitement rapide de grandes masses de donn\u00e9es textuelles (ici, plus de 375 000 mots). La premi\u00e8re phase de l\u2019\u00e9tude, que nous pr\u00e9sentons ici, a confirm\u00e9 la corr\u00e9lation entre l\u2019\u00e9tat schizophr\u00e8ne et le nombre de disfluences pr\u00e9sentes dans le discours.","translation":["Quantitative study of disfluencies in schizophrenics' speech: Automatize to limit biases","We present in this article the results of experiments we led concerning disfluencies in the discourse of schizophrenic patients (in remediation). These experiments are part of a larger study dealing with other levels of linguistic analysis, that could eventually help identifying clues leading to the diagnostic of the disease. This study largely relies on natural language processing tools, which allow for the rapid processing of massive textual data (here, more than 375,000 words). The first phase of the study, which we present here, confirmed the correlation between schizophrenia and the number of disfluences appearing in the discourse.","pathological discourse, schizophrenia, disfluencies"],"keyphrases":["disfluences","schizophr\u00e9nie","discours pathologique"],"prmu":["P","P","M"]} {"id":"taln-2014-long-027","title":"Rep\u00e9rage et analyse de la reformulation paraphrastique dans les corpus oraux","abstract":"Notre travail porte sur la d\u00e9tection automatique de la reformulation paraphrastique dans les corpus oraux. L\u2019approche propos\u00e9e est une approche syntagmatique qui tient compte des marqueurs de reformulation paraphrastique et des sp\u00e9cificit\u00e9s de l\u2019oral. L\u2019annotation manuelle effectu\u00e9e par deux annotateurs permet d\u2019obtenir une description fine et multidimensionnelle des donn\u00e9es de r\u00e9f\u00e9rence. Une m\u00e9thode automatique est propos\u00e9e afin de d\u00e9cider si les tours de parole comportent ou ne comportent pas des reformulations paraphrastiques. Les r\u00e9sultats obtenus montrent jusqu\u2019\u00e0 66,4 % de pr\u00e9cision. L\u2019analyse de l\u2019annotation manuelle indique qu\u2019il existe peu de segments paraphrastiques avec des modifications morphologiques (flexion, d\u00e9rivation ou composition) ou de segments qui montrent l\u2019\u00e9quivalence syntaxique.","translation":["Detection and Analysis of Paraphrastic Reformulations in Spoken Corpora","Our work addresses the automatic detection of paraphrastic rephrasing in spoken corpus. The proposed approach is syntagmatic. It is based on paraphrastic rephrasing markers and the specificities of the spoken language. Manual annotation performed by two annotators provides fine-grained and multi-dimensional description of the reference data. Automatic method is proposed in order to decide whether sentences contain or not the paraphrases. The obtained results show up to 66.4% precision. The analysis of the manual annotations indicates that there are few cases in which paraphrastic segments show morphological modifications (inflection, derivation or compounding) or syntactic equivalence.","Paraphrase, reformulation, spoken corpus, markers of paraphrastic rephrasing"],"keyphrases":["reformulation","corpus oral","marqueurs de reformulation paraphrastique","Paraphrase"],"prmu":["P","P","P","U"]} {"id":"taln-2014-long-028","title":"Evaluation d\u2019une approche de classification possibiliste pour la d\u00e9sambigu\u00efsation des textes arabes","abstract":"La d\u00e9sambigu\u00efsation morphologique d\u2019un mot arabe consiste \u00e0 identifier l\u2019analyse morphologique appropri\u00e9e correspondante \u00e0 ce mot. Dans cet article, nous pr\u00e9sentons trois mod\u00e8les de d\u00e9sambigu\u00efsation morphologique de textes arabes non voyell\u00e9s bas\u00e9s sur la classification possibiliste. Cette approche traite les donn\u00e9es impr\u00e9cises dans les phases d\u2019apprentissage et de test, \u00e9tant donn\u00e9 que notre mod\u00e8le apprend \u00e0 partir de donn\u00e9es non \u00e9tiquet\u00e9s. Nous testons notre approche sur deux corpus, \u00e0 savoir le corpus du Hadith et le Treebank Arabe. Ces corpus contiennent des donn\u00e9es de types diff\u00e9rents classiques et modernes. Nous comparons nos mod\u00e8les avec des classifieurs probabilistes et statistiques. Pour ce faire, nous transformons la structure des ensembles d\u2019apprentissage et de test pour rem\u00e9dier au probl\u00e8me d\u2019imperfection des donn\u00e9es.","translation":["Evaluation of a possibilistic classification approach for Arabic texts disambiguation","Morphological disambiguation of Arabic words consists in identifying their appropriate morphological analysis. In this paper, we present three models of morphological disambiguation of non-vocalized Arabic texts based on possibilistic classification. This approach deals with imprecise training and testing datasets, as we learn from untagged texts. We experiment our approach on two corpora i.e. the Hadith corpus and the Arabic Treebank. These corpora contain data of different types: traditional and modern. We compare our models to probabilistic and statistical classifiers. To do this, we transform the structure of the training and the test sets to deal with imprecise data.","Natural Language Processing, Arabic Morphological Disambiguation, Possibility Theory, Possibilistic Classification"],"keyphrases":["Classification Possibiliste","Traitement Automatique des Langues Naturelles","D\u00e9sambigu\u00efsation Morphologique de l\u2019Arabe","Th\u00e9orie des Possibilit\u00e9s"],"prmu":["P","M","R","M"]} {"id":"taln-2014-long-029","title":"Un analyseur discriminant de la famille LR pour l\u2019analyse en constituants","abstract":"On propose un algorithme original d\u2019analyse syntaxique d\u00e9terministe en constituants pour le langage naturel inspir\u00e9 de LR (Knuth, 1965). L\u2019algorithme s\u2019appuie sur un mod\u00e8le d\u2019apprentissage discriminant pour r\u00e9aliser la d\u00e9sambiguisation (Collins, 2002). On montre que le mod\u00e8le discriminant permet de capturer plus finement de l\u2019information morphologique pr\u00e9sente dans les donn\u00e9es, ce qui lui permet d\u2019obtenir des r\u00e9sultats \u00e9tat de l\u2019art en temps comme en exactitude pour l\u2019analyse syntaxique du fran\u00e7ais.","translation":["A discriminative parser of the LR family for phrase structure parsing","We provide a new weighted parsing algorithm for deterministic context free grammar parsing inspired by LR (Knuth, 1965). The parser is weighted by a discriminative model that allows determinism (Collins, 2002).We show that the discriminative model allows to take advantage of morphological information available in the data, hence allowing to achieve state of the art results both in time and in accurracy for parsing French.","Head driven parsing, LR parsing, linear time, discriminative modelling, approximate inference"],"keyphrases":["mod\u00e8le discriminant","Analyse guid\u00e9e par les t\u00eates","analyse LR","temps lin\u00e9aire","inf\u00e9rence approximative"],"prmu":["P","M","R","M","U"]} {"id":"taln-2014-long-030","title":"D\u00e9tection automatique de la structure organisationnelle de documents \u00e0 partir de marqueurs visuels et lexicaux","abstract":"La compr\u00e9hension d\u2019un texte s\u2019op\u00e8re \u00e0 travers les niveaux d\u2019information visuelle, logique et discursive, et leurs relations d\u2019interd\u00e9pendance. La majorit\u00e9 des travaux ayant \u00e9tudi\u00e9 ces relations a \u00e9t\u00e9 men\u00e9e dans le cadre de la g\u00e9n\u00e9ration de textes, o\u00f9 les propri\u00e9t\u00e9s visuelles sont inf\u00e9r\u00e9es \u00e0 partir des \u00e9l\u00e9ments logiques et discursifs. Les travaux pr\u00e9sent\u00e9s ici adoptent une d\u00e9marche inverse en proposant de g\u00e9n\u00e9rer automatiquement la structure organisationnelle du texte (structure logique) \u00e0 partir de sa forme visuelle. Le principe consiste \u00e0 (i) labelliser des blocs visuels par apprentissage afin d\u2019obtenir des unit\u00e9s logiques et (ii) relier ces unit\u00e9s par des relations de coordination ou de subordination pour construire un arbre. Pour ces deux t\u00e2ches, des Champs Al\u00e9atoires Conditionnels et un Maximum d\u2019Entropie sont respectivement utilis\u00e9s. Apr\u00e8s apprentissage, les r\u00e9sultats aboutissent \u00e0 une exactitude de 80,46% pour la labellisation et 97,23% pour la construction de l\u2019arbre.","translation":["Automatic Detection of Document Organizational Structure from Visual and Lexical Markers","The process of understanding a document uses both visual, logic and discursive information along with the mutual relationships between those levels. Most approaches studying those relationships were conducted in the frame of text generation, where the text visual properties are infered from logical and discursive elements. We chose in our work to take the opposite path by trying to infer the logical structure of texts using their visual forms. To do so, we (i) assign a logical label to each visual block and (ii) we try to connect those logical units with coordination or subordination relationships, in order to build a logical tree. We used respectively a Conditional Random Fields and a Maximum Entropy algorithms for those two tasks. After a learning phase, the obtained models give us a 80,46% accuracy for task (i) and a 97,23% accuracy for task (ii).","discourse, organizational structure, text formating, metadiscursive markers, conditional random fields, maximum entropy"],"keyphrases":["structure organisationnelle","champs al\u00e9atoires conditionnels","maximum d\u2019entropie","discours","mise en forme mat\u00e9rielle","marqueurs m\u00e9tadiscursifs"],"prmu":["P","P","P","U","M","M"]} {"id":"taln-2014-long-031","title":"Jugement exact de grammaticalit\u00e9 d\u2019arbre syntaxique probable","abstract":"La robustesse de l\u2019analyse probabiliste s\u2019obtient g\u00e9n\u00e9ralement au d\u00e9triment du jugement de grammaticalit\u00e9 sur la phrase analys\u00e9e. Les analyseurs comme le Stanford Parser, ou les Reranking Parsers ne sont, en effet, pas capables de dissocier une analyse probable grammaticale d\u2019une analyse probable erron\u00e9e, et ce qu\u2019elle porte sur une phrase elle-m\u00eame grammaticale ou non. Dans cet article nous montrons que l\u2019adoption d\u2019une repr\u00e9sentation syntaxique bas\u00e9e sur la th\u00e9orie logique des mod\u00e8les, accompagn\u00e9e d\u2019une structure syntaxique classique (par exemple de type syntagmatique), est de nature \u00e0 permettre la r\u00e9solution exacte de diff\u00e9rents probl\u00e8mes tels que celui du jugement de grammaticalit\u00e9. Afin de d\u00e9montrer la praticit\u00e9 et l\u2019utilit\u00e9 d\u2019une alliance entre symbolique et stochastique, nous nous appuyons sur une repr\u00e9sentation de la syntaxe par mod\u00e8les, ainsi que sur une grammaire de corpus, pour pr\u00e9senter une m\u00e9thode de r\u00e9solution exacte pour le jugement de grammaticalit\u00e9 d\u2019un arbre syntagmatique probable. Nous pr\u00e9sentons des r\u00e9sultats exp\u00e9rimentaux sur des arbres issus d\u2019un analyseur probabiliste, qui corroborent l\u2019int\u00e9r\u00eat d\u2019une telle alliance.","translation":["Exact Grammaticality of Likely Parse Tree","The robustness of probabilistic parsing generally comes at the expense of grammaticality judgment \u2013 the grammaticality of the most probable output parse remaining unknown. Parsers, such as the Stanford or the Reranking ones, can not discriminate between grammatical and ungrammatical probable parses, whether their surface realisations are themselves grammatical or not. In this paper we show that a Model-Theoretic representation of Syntax alleviates the grammaticality judgment on a parse tree. In order to demonstrate the practicality and usefulness of an alliance between stochastic parsing and knowledge-based representation, we introduce an exact method for putting a binary grammatical judgment on a probable phrase structure. We experiment with parse trees generated by a probabilistic parser. We show experimental evidence on parse trees generated by a probabilistic parser to confirm our hypothesis.","Grammaticality judgement, Model-Theoretic Syntax, Property Grammar, probabilistic syntactic parsing"],"keyphrases":["Jugement de grammaticalit\u00e9","syntaxe par mod\u00e8les","Grammaires de Propri\u00e9t\u00e9s","analyse syntaxique probabiliste"],"prmu":["P","P","M","R"]} {"id":"taln-2014-long-032","title":"Annotation s\u00e9mantique et validation terminologique en texte int\u00e9gral en SHS","abstract":"Nos travaux se focalisent sur la validation d'occurrences de candidats termes en contexte. Les contextes d'occurrences proviennent d'articles scientifiques des sciences du langage issus du corpus SCIENTEXT1. Les candidats termes sont identifi\u00e9s par l'extracteur automatique de termes de la plate-forme TTC-TermSuite et sont ensuite projet\u00e9s dans les textes. La probl\u00e9matique g\u00e9n\u00e9rale de cet article est d'\u00e9tudier dans quelle mesure les contextes sont \u00e0 m\u00eame de fournir des crit\u00e8res linguistiques pertinents pour valider ou rejeter chaque occurrence de candidat terme selon qu'elle rel\u00e8ve d'un usage terminologique en sciences du langage ou non (langue g\u00e9n\u00e9rale, transdisciplinaire, autre domaine scientifique). Pour r\u00e9pondre \u00e0 cette question, nous comparons deux m\u00e9thodes d'exploitation (l'une inspir\u00e9e de la textom\u00e9trie et l'autre de Lesk) avec des contextes d'occurrences du m\u00eame corpus annot\u00e9s manuellement et mesurons si une annotation s\u00e9mantique des contextes am\u00e9liore l'exactitude des choix r\u00e9alis\u00e9s automatiquement.","translation":["Semantic Annotation and Terminology Validation in full scientific articles in Social Sciences and Humanities","Our work is in the field of the validation of term candidates occurrences in context. The textual data used in this article comes from the freely available corpus SCIENTEXT. The term candidates are computed by the platform TTC-TermSuite and their occurrences are projected in the texts. The main issue of this article is to examine how contexts are able to provide relevant linguistic criteria to validate or reject each occurrence of term candidates according to the distinction between a terminological and a non terminological use (general language, transdisciplinary use, use coming from another science). To answer this question, we compare two methods (a textometric one and another inspired from Lesk) with the manual annotation of the same corpus and we evaluate if a semantic annotation of contexts improves the accuracy of the choices made automatically.","Semantic Annotation, Terminological Extraction and Disambiguation, Textual Metrics (Specificity), Full Text"],"keyphrases":["Annotation s\u00e9mantique","texte int\u00e9gral","textom\u00e9trie","extraction et d\u00e9sambigu\u00efsation terminologique"],"prmu":["P","P","P","M"]} {"id":"taln-2014-long-033","title":"Identification des noms sous-sp\u00e9cifi\u00e9s, signaux de l\u2019organisation discursive","abstract":"Dans cet article, nous nous int\u00e9ressons aux noms sous-sp\u00e9cifi\u00e9s, qui forment une classe d\u2019indices de l\u2019organisation discursive. Ces indices ont \u00e9t\u00e9 peu \u00e9tudi\u00e9s dans le cadre de l\u2019analyse du discours et en traitement automatique des langues. L\u2019objectif est d\u2019effectuer une \u00e9tude linguistique de leur participation \u00e0 la structuration discursive, notamment lorsqu\u2019ils interviennent dans des s\u00e9quences organisationnelles fr\u00e9quentes (e.g. le patron Probl\u00e8me-Solution). Dans cet article, nous pr\u00e9sentons les diff\u00e9rentes \u00e9tapes mises en oeuvre pour identifier automatiquement ces noms en corpus. En premier lieu, nous d\u00e9taillons la construction d\u2019un lexique de noms sous-sp\u00e9cifi\u00e9s pour le fran\u00e7ais \u00e0 partir d\u2019un corpus constitu\u00e9 de 7 ann\u00e9es du journal Le Monde. Puis nous montrons comment utiliser des techniques fond\u00e9es sur la fouille de donn\u00e9es s\u00e9quentielles pour acqu\u00e9rir de nouvelles constructions syntaxiques caract\u00e9ristiques des emplois de noms soussp\u00e9cifi\u00e9s. Enfin, nous pr\u00e9sentons une m\u00e9thode d\u2019identification automatique des occurrences de noms sous-sp\u00e9cifi\u00e9s et son \u00e9valuation.","translation":["Identification of Shell Nouns, Signals of Discourse Organisation","In this paper, we focus on shell nouns, a class of items involved in the signaling of discourse organisation. These signals have been little studied in Natural Language Processing and within discourse analysis theories. The main goal is to study their participation to discourse organisation, especially when they occur in Problem-Solution patterns. In this paper, we present the different steps involved in shell nouns identification of these nouns. First, we present the lexical acquisition of shell nouns from a large corpus. Second, we show how a method based on the extraction of sequential patterns (sequential data mining techniques) allows to discover new syntactic patterns specific to the use of shell nouns. Finally, we present a shell nouns identification system that we evaluate.","shell nouns, sequential patterns, discourse structure"],"keyphrases":["noms sous-sp\u00e9cifi\u00e9s","structure discursive","motifs s\u00e9quentiels"],"prmu":["P","P","M"]} {"id":"taln-2014-court-001","title":"Traduction automatis\u00e9e d\u2019une oeuvre litt\u00e9raire: une \u00e9tude pilote","abstract":"Les techniques actuelles de traduction automatique (TA) permettent de produire des traductions dont la qualit\u00e9 ne cesse de croitre. Dans des domaines sp\u00e9cifiques, la post-\u00e9dition (PE) de traductions automatiques permet, par ailleurs, d\u2019obtenir des traductions de qualit\u00e9 relativement rapidement. Mais un tel pipeline (TA+PE) est il envisageable pour traduire une oeuvre litt\u00e9raire ? Cet article propose une \u00e9bauche de r\u00e9ponse \u00e0 cette question. Un essai de l\u2019auteur am\u00e9ricain Richard Powers, encore non disponible en fran\u00e7ais, est traduit automatiquement puis post-\u00e9dit\u00e9 et r\u00e9vis\u00e9 par des traducteurs non-professionnels. La plateforme de post-\u00e9dition du LIG utilis\u00e9e permet de lire et \u00e9diter l\u2019oeuvre traduite en fran\u00e7ais continuellement, sugg\u00e9rant (pour le futur) une communaut\u00e9 de lecteurs-r\u00e9viseurs qui am\u00e9liorent en continu les traductions de leur auteur favori. En plus de la pr\u00e9sentation des r\u00e9sultats d\u2019\u00e9valuation exp\u00e9rimentale du pipeline TA+PE (syst\u00e8me de TA utilis\u00e9, scores automatiques), nous discutons \u00e9galement la qualit\u00e9 de la traduction produite du point de vue d\u2019un panel de lecteurs (ayant lu la traduction en fran\u00e7ais, puis r\u00e9pondu \u00e0 une enqu\u00eate). Enfin, quelques remarques du traducteur fran\u00e7ais de R. Powers, sollicit\u00e9 \u00e0 cette occasion, sont pr\u00e9sent\u00e9es \u00e0 la fin de cet article.","translation":["Machine translation for litterature: a pilot study","Current machine translation (MT ) techniques are continuously improving. In specific areas, post-editing (PE) allows to obtain high-quality translations relatively quickly. But is such a pipeline (MT+PE) usable to translate a literary work (fiction, short story) ? This paper tries to bring a preliminary answer to this question. A short story by American writer Richard Powers, still not available in French, is automatically translated and post-edited and then revised by nonprofessional translators. The LIG post-editing platform allows to read and edit the short story suggesting (for the future) a community of readers-editors that continuously improve the translations of their favorite author. In addition to presenting experimental evaluation results of the pipeline MT+PE (MT system used, auomatic evaluation), we also discuss the quality of the translation output from the perspective of a panel of readers (who read the translated short story in French, and answered to a survey afterwards). Finally, some remarks of the official french translator of R. Powers, requested on this occasion, are given at the end of this article.","machine translation, MT, litterature, fiction, post-edition"],"keyphrases":["traduction automatique","oeuvre litt\u00e9raire","TA","post-\u00e9dition"],"prmu":["P","P","P","P"]} {"id":"taln-2014-court-002","title":"Vers un d\u00e9veloppement plus efficace des syst\u00e8mes de traduction statistique : un peu de vert dans un monde de BLEU","abstract":"Dans cet article, nous montrons comment l\u2019utilisation conjointe d\u2019une technique d\u2019alignement de phrases parall\u00e8les \u00e0 la demande et d\u2019estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e permet une r\u00e9duction en temps tr\u00e8s notable (jusqu\u2019\u00e0 93% dans nos exp\u00e9riences) par rapport \u00e0 un syst\u00e8me \u00e0 l\u2019\u00e9tat de l\u2019art, tout en offrant un compromis en termes de qualit\u00e9 tr\u00e8s int\u00e9ressant dans certaines configurations. En particulier, l\u2019exploitation imm\u00e9diate de documents traduits permet de compenser tr\u00e8s rapidement l\u2019absence d\u2019un corpus de d\u00e9veloppement.","translation":["Towards a More Efficient Development of Statistical Machine Translation Systems","In this article, we show how using both on-demand alignment of parallel sentences and on-the-fly estimation of translation models can yield massive reduction (up to 93% in our experiments) in development time as compared to a state-of-the-art system, while offering an interesting tradeoff as regards translation quality under some configurations. We show in particular that the absence of a development set can be quickly compensated by immediately using translated documents.","statistical machine translation, efficient development, computation time"],"keyphrases":["traduction automatique statistique","d\u00e9veloppement efficace","temps de calcul"],"prmu":["M","R","M"]} {"id":"taln-2014-court-004","title":"Extraction automatique de termes combinant diff\u00e9rentes informations","abstract":"Pour une communaut\u00e9, la terminologie est essentielle car elle permet de d\u00e9crire, \u00e9changer et r\u00e9cup\u00e9rer les donn\u00e9es. Dans de nombreux domaines, l\u2019explosion du volume des donn\u00e9es textuelles n\u00e9cessite de recourir \u00e0 une automatisation du processus d\u2019extraction de la terminologie, voire son enrichissement. L\u2019extraction automatique de termes peut s\u2019appuyer sur des approches de traitement du langage naturel. Des m\u00e9thodes prenant en compte les aspects linguistiques et statistiques propos\u00e9es dans la litt\u00e9rature, r\u00e9solvent quelques probl\u00e8mes li\u00e9s \u00e0 l\u2019extraction de termes tels que la faible fr\u00e9quence, la complexit\u00e9 d\u2019extraction de termes de plusieurs mots, ou l\u2019effort humain pour valider les termes candidats. Dans ce contexte, nous proposons deux nouvelles mesures pour l\u2019extraction et le \u201cranking\u201d des termes form\u00e9s de plusieurs mots \u00e0 partir des corpus sp\u00e9cifiques d\u2019un domaine. En outre, nous montrons comment l\u2019utilisation du Web pour \u00e9valuer l\u2019importance d\u2019un terme candidat permet d\u2019am\u00e9liorer les r\u00e9sultats en terme de pr\u00e9cision. Ces exp\u00e9rimentations sont r\u00e9alis\u00e9es sur le corpus biom\u00e9dical GENIA en utilisant des mesures de la litt\u00e9rature telles que C-value.","translation":["Automatic Term Extraction Combining Different Information","Comprehensive terminology is essential for a community to describe, exchange, and retrieve data. In multiple domain, the explosion of text data produced has reached a level for which automatic terminology extraction and enrichment is mandatory. Automatic Term Extraction (or Recognition) methods use natural language processing to do so. Methods featuring linguistic and statistical aspects as often proposed in the literature, rely some problems related to term extraction as low frequency, complexity of the multi-word term extraction, human effort to validate candidate terms. In contrast, we present two new measures for extracting and ranking muli-word terms from domain-specific corpora, covering the all mentioned problems. In addition we demonstrate how the use of the Web to evaluate the significance of a multi-word term candidate, helps us to outperform precision results obtain on the biomedical GENIA corpus with previous reported measures such as C-value.","Automatic Term Extraction, Web-based measure, Linguistic-based measure, Statistic-based measure, Biomedical Natural Language Processing"],"keyphrases":["Extraction Automatique de Termes","Mesure bas\u00e9e sur le Web","Mesure Linguistique","Mesure Statistique","Traitement Automatique du Langage Biom\u00e9dical"],"prmu":["P","M","R","R","R"]} {"id":"taln-2014-court-005","title":"Analyse automatique d\u2019espaces th\u00e9matiques","abstract":"Bas\u00e9 sur les calculs d\u2019entropie conditionnelle de (Bonami & Boy\u00e9, \u00e0 para\u00eetre), nous proposons un analyseur automatique de la flexion dans le cadre de la morphologie th\u00e9matique qui produit le graphe de r\u00e9gularit\u00e9s du paradigme. Le traitement se base sur un lexique de 6440 verbes extraits du BDLex (de Calm\u00e8s & P\u00e9rennou, 1998) associ\u00e9s \u00e0 leurs fr\u00e9quences dans Lexique3 (New et al., 2001). L\u2019algorithme se compose de trois \u00e9l\u00e9ments : calcul de l\u2019entropie conditionnelle entre paires de formes fl\u00e9chies, distillation des paradigmes, construction du graphe de r\u00e9gularit\u00e9s. Pour l\u2019entropie, nous utilisons deux modes de calcul diff\u00e9rents, l\u2019un se base sur la distribution de l\u2019effectif des verbes entre leurs diff\u00e9rentes options, l\u2019autre sur la distribution des lex\u00e8mes verbaux en fonction de leurs fr\u00e9quences pour contrebalancer l\u2019influence des verbes ultra-fr\u00e9quents sur les calculs.","translation":["Automated Analysis for Stem Spaces: the case of French verbs","Based on the entropy calculations of (Bonami & Boy\u00e9, \u00e0 para\u00eetre), we propose an automatic analysis of inflection couched in the stem spaces framework. Our treatment is based on a lexicon of 6440 verbs present in BDLex (de Calm\u00e8s & P\u00e9rennou, 1998) and associated with their frequencies from Lexique3 (New et al., 2001). The algorithm we propose consists in three steps : computing conditional entropy between all pairs of inflected forms, distilling the paradigms and constructing a regularity graph. For computing entropy, we use two methods : the first one is based on count of verbs in a given distribution whereas the second one takes into account the frequency of each verbal lemma in the distribution to compensate for the bias introduced by the ultra-frequent verbs in the calculation.","Inflectional morphology, stem spaces, regularity graph, French, verbs"],"keyphrases":["espaces th\u00e9matiques","graphe des r\u00e9gularit\u00e9","verbes","morphologie flexionnelle","fran\u00e7ais"],"prmu":["P","P","P","M","U"]} {"id":"taln-2014-court-006","title":"Extraction et repr\u00e9sentation des constructions \u00e0 verbe support en espagnol","abstract":"Le traitement informatique de constructions \u00e0 verbe support (prendre une photo, faire une pr\u00e9sentation) est une t\u00e2che difficile en TAL. Cela est \u00e9galement vrai en espagnol, o\u00f9 ces constructions sont fr\u00e9quentes dans les textes, mais ne font pas souvent partie des lexiques exploitables par une machine. Notre objectif est d'extraire des constructions \u00e0 verbe support \u00e0 partir d\u2019un tr\u00e8s grand corpus de l'espagnol. Nous peaufinons un ensemble de motifs morphosyntaxiques fond\u00e9s sur un grand nombre de verbe support possibles. Ensuite, nous filtrons cette liste en utilisant des seuils et des mesures d'association. Bien que tout \u00e0 fait classique, cette m\u00e9thode permet l'extraction de nombreuses expressions de bonne qualit\u00e9. \u00c0 l\u2019avenir, nous souhaitons \u00e9tudier les repr\u00e9sentations s\u00e9mantiques de ces constructions dans des lexiques multilingues.","translation":["Extraction and representation of support verb constructions in Spanish","The computational treatment of support verb constructions (take a picture, make a presentation) is a challenging task in NLP. This is also true in Spanish, where these constructions are frequent in texts, but not frequently included in machine-readable lexicons. Our goal is to extract support verb constructions from a very large corpus of Spanish. We fine-tune a set of morpho-syntactic patterns based on a large set of possible support verbs. Then, we filter this list using thresholds and association measures. While quite standard, this methodology allows the extraction of many good-quality expressions. As future work, we would like to investigate semantic representations for these constructions in multilingual lexicons.","Support verb expressions, extraction, corpus, multiword expressions"],"keyphrases":["extraction","corpus","Expressions \u00e0 verbe support","expressions polylexicales"],"prmu":["P","P","R","M"]} {"id":"taln-2014-court-007","title":"Sous-cat\u00e9gorisation en pour et syntaxe lexicale","abstract":"La sous-cat\u00e9gorisation d\u2019arguments introduits par la pr\u00e9position pour a \u00e9t\u00e9 sous-\u00e9tudi\u00e9e par le pass\u00e9, comme en t\u00e9moigne l\u2019incompl\u00e9tude des ressources lexico-syntaxiques existantes sur ce point. Dans cet article, nous pr\u00e9sentons rapidement les diff\u00e9rents types de sous-cat\u00e9gorisation en pour, qui contrastent avec les emplois de pour comme connecteur de discours. Nous d\u00e9crivons l\u2019int\u00e9gration des arguments en pour au lexique syntaxique Lefff , enrichissant ainsi les informations de sous-cat\u00e9gorisation de nombreuses entr\u00e9es verbales, nominales, adjectivales et adverbiales.","translation":["Sub-categorization in 'pour' and lexical syntax","Sub-categorized arguments introduced by the French preposition pour has been under-studied in previous work, as can be seen from the incompleteness of existing lexical-syntactic resources in that regard. In this paper, we briefly introduce the various types of sub-categorization in pour, which are to be distinguished from occurrences of pour as a discourse connective. We describe how we added arguments in pour within the syntactic lexicon Lefff , thus refining sub-categorization information for many verbal, nominal, adjectival and adverbial entries.","Sub-categorization, Arguments in pour, Syntactic lexicons"],"keyphrases":["Sous-cat\u00e9gorisation","Arguments en pour","Lexiques syntaxiques"],"prmu":["P","P","P"]} {"id":"taln-2014-court-008","title":"\u00c9tiquetage morpho-syntaxique pour des mots nouveaux","abstract":"Les outils d\u2019\u00e9tiquetage automatique sont plus ou moins robustes en ce qui concerne l\u2019\u00e9tiquetage de mots inconnus, non rencontr\u00e9s dans le corpus d\u2019apprentissage. Il est important de conna\u00eetre de mani\u00e8re pr\u00e9cise la performance de ces outils lorsqu\u2019on cible plus particuli\u00e8rement l\u2019\u00e9tiquetage de n\u00e9ologismes formels. En effet, la cat\u00e9gorie grammaticale constitue un crit\u00e8re important \u00e0 la fois pour leur identification et leur documentation. Nous pr\u00e9sentons une \u00e9valuation et une comparaison de 7 \u00e9tiqueteurs morphosyntaxiques du fran\u00e7ais, \u00e0 partir d\u2019un corpus issu du Wiktionnaire. Les r\u00e9sultats montrent que l\u2019utilisation de traits de forme ou morphologiques est favorable \u00e0 l\u2019\u00e9tiquetage correct des mots nouveaux.","translation":["Part of Speech Tagging for New Words","Part-of-speech (POS) taggers are more or less robust with respect to the labeling of unknown words not found in the training corpus. It is important to know precisely how these tools perfom when we target part-of-speech tagging for formal neologisms. Indeed, grammatical category is an important criterion for both their identification and documentation. We present an evaluation and comparison of 7 POS taggers for French, based on a corpus built from Wiktionary. The results show that the use of form-related or morphological features supports the accurate tagging of new words.","part-of-speech tagging, evaluation, formal neologisms"],"keyphrases":["n\u00e9ologie formelle","\u00e9valuation","\u00e9tiquetage morphosyntaxique"],"prmu":["P","P","R"]} {"id":"taln-2014-court-009","title":"D\u00e9tection et correction automatique d\u2019entit\u00e9s nomm\u00e9es dans des corpus OCRis\u00e9s","abstract":"La correction de donn\u00e9es textuelles obtenues par reconnaissance optique de caract\u00e8res (OCR) pour atteindre une qualit\u00e9 \u00e9ditoriale reste aujourd\u2019hui une t\u00e2che co\u00fbteuse, car elle implique toujours une intervention humaine. La d\u00e9tection et la correction automatiques d\u2019erreurs \u00e0 l\u2019aide de mod\u00e8les statistiques ne permettent de traiter de fa\u00e7on utile que les erreurs relevant de la langue g\u00e9n\u00e9rale. C\u2019est pourtant dans certaines entit\u00e9s nomm\u00e9es que r\u00e9sident les erreurs les plus nombreuses, surtout dans des donn\u00e9es telles que des corpus de brevets ou des textes juridiques. Dans cet article, nous proposons une architecture d\u2019identification et de correction par r\u00e8gles d\u2019un large \u00e9ventail d\u2019entit\u00e9s nomm\u00e9es (non compris les noms propres). Nous montrons que notre architecture permet d\u2019atteindre un bon rappel et une excellente pr\u00e9cision en correction, ce qui permet de traiter des fautes difficiles \u00e0 traiter par les approches statistiques usuelles.","translation":["Named Entity Recognition and Correction in OCRized Corpora","Correction of textual data obtained by optical character recognition (OCR) for reaching editorial quality is an expensive task, as it still involves human intervention. The coverage of statistical models for automated error detection and correction is inherently limited to errors that resort to general language. However, a large amount of errors reside in domain-specific named entities, especially when dealing with data such as patent corpora or legal texts. In this paper, we propose a rule-based architecture for the identification and correction of a wide range of named entities (proper names not included). We show that our architecture achieves a good recall and an excellent correction accuracy on error types that are difficult to adress with statistical approaches.","OCR, Named entities, Error Detection, Error Correction"],"keyphrases":["Entit\u00e9s nomm\u00e9es","OCR","D\u00e9tection d\u2019erreurs","Correction d\u2019erreurs"],"prmu":["P","P","R","R"]} {"id":"taln-2014-court-010","title":"M\u00e9thodes de lissage d\u2019une approche morpho-statistique pour la voyellation automatique des textes arabes","abstract":"Nous pr\u00e9sentons dans ce travail un nouveau syst\u00e8me de voyellation automatique des textes arabes en utilisant trois \u00e9tapes. Durant la premi\u00e8re phase, nous avons int\u00e9gr\u00e9 une base de donn\u00e9es lexicale contenant les mots les plus fr\u00e9quents de la langue arabe avec l\u2019analyseur morphologique AlKhalil Morpho Sys pour fournir les voyellations possibles pour chaque mot. Le second module dont l\u2019objectif est d\u2019\u00e9liminer l'ambigu\u00eft\u00e9 repose sur une approche statistique dont l\u2019apprentissage a \u00e9t\u00e9 effectu\u00e9 sur un corpus constitu\u00e9 de textes de livres arabes et utilisant les mod\u00e8les de Markov cach\u00e9s (HMM) o\u00f9 les mots non voyell\u00e9s repr\u00e9sentent les \u00e9tats observ\u00e9s et les mots voyell\u00e9s sont ses \u00e9tats cach\u00e9s. Le syst\u00e8me utilise les techniques de lissage pour contourner le probl\u00e8me des transitions des mots absentes et l'algorithme de Viterbi pour s\u00e9lectionner la solution optimale. La troisi\u00e8me \u00e9tape utilise un mod\u00e8le HMM bas\u00e9 sur les caract\u00e8res pour traiter le cas des mots non analys\u00e9s.","translation":["Smoothing methods for a morpho-statistical approach of automatic diacritization Arabic texts","We present in this work a new approach for the Automatic diacritization for Arabic texts using three stages. During the first phase, we integrated a lexical database containing the most frequent words of Arabic with morphological analysis by Alkhalil Morpho Sys which provided possible diacritization for each word. The objective of the second module is to eliminate the ambiguity using a statistical approach in which the learning phase was performed on a corpus composed by several Arabic books. This approach uses the hidden Markov models (HMM) with Arabic unvowelized words taken as observed states and vowelized words are considered as hidden states. The system uses smoothing techniques to circumvent the problem of unseen word transitions in the corpus and the Viterbi algorithm to select the optimal solution. The third step uses a HMM model based on the characters to deal with the case of unanalyzed words.","Arabic language, Automatic diacritization, morphological analysis, hidden Markov model, corpus, smoothing, Viterbi Algorithm"],"keyphrases":["lissage","voyellation automatique","Langue arabe","corpus","mod\u00e8le de Markov cach\u00e9","algorithme de Viterbi","analyse morphologique"],"prmu":["P","P","P","P","P","P","R"]} {"id":"taln-2014-court-011","title":"\u00c9valuation d\u2019un syst\u00e8me d\u2019extraction de r\u00e9ponses multiples sur le Web par comparaison \u00e0 des humains","abstract":"Dans cet article, nous proposons une \u00e9valuation dans un cadre utilisateur de Citron, un syst\u00e8me de question-r\u00e9ponse en fran\u00e7ais capable d\u2019extraire des r\u00e9ponses \u00e0 des questions \u00e0 r\u00e9ponses multiples (questions poss\u00e9dant plusieurs r\u00e9ponses correctes diff\u00e9rentes) en domaine ouvert \u00e0 partir de documents provenant du Web. Nous pr\u00e9sentons ici le protocole exp\u00e9rimental et les r\u00e9sultats pour nos deux exp\u00e9riences utilisateurs qui visent \u00e0 (1) comparer les performances de Citron par rapport \u00e0 celles d\u2019un \u00eatre humain pour la t\u00e2che d\u2019extraction de r\u00e9ponses multiples et (2) conna\u00eetre la satisfaction d\u2019un utilisateur devant diff\u00e9rents formats de pr\u00e9sentation de r\u00e9ponses.","translation":["User evaluation of a multiple answer extraction system on the Web","In this paper, we propose a user evaluation of Citron, a question-answering system in French which extracts answers for multiple answer questions (expecting different correct answers) in open domain from Web documents. We present here our experimental protocol and results for user evaluations which aim at (1) comparing multiple answer extraction performances of Citron and users, and (2) knowing user preferences about multiple answer presentation.","question-answering system, multiple answers, user evaluation"],"keyphrases":["r\u00e9ponses multiples","syst\u00e8me de question-r\u00e9ponse","\u00e9valuation utilisateur"],"prmu":["P","P","R"]} {"id":"taln-2014-court-013","title":"D\u00e9tection de p\u00e9riodes musicales d\u2019une collection de musique par apprentissage","abstract":"Dans ces travaux, nous pr\u00e9sentons une approche afin d\u2019\u00e9tiqueter une large collection de chansons francophones. Nous avons d\u00e9velopp\u00e9 une interface utilisant les paroles comme point d\u2019entr\u00e9e afin d\u2019explorer cette collection de musique avec des filtres en fonction de chaque p\u00e9riode musicale. Dans un premier temps, nous avons collect\u00e9 paroles et m\u00e9tadonn\u00e9es de diff\u00e9rentes sources sur leWeb. Nous pr\u00e9sentons dans cet article une m\u00e9thode originale permettant d\u2019attribuer de mani\u00e8re automatique la d\u00e9cennie de sortie des chansons de notre collection. Bas\u00e9e sur un syst\u00e8me \u00e9valu\u00e9 au cours d\u2019une des campagnes DEFT, l\u2019approche combine fouille de textes et apprentissage supervis\u00e9 et aborde la probl\u00e9matique comme une t\u00e2che de classification multi classes. Nous avons par la suite enrichi le mod\u00e8le d\u2019un certain nombre de traits suppl\u00e9mentaires tels que les tags sociaux afin d\u2019observer leur influence sur les r\u00e9sultats.","translation":["Music period detection of music collections using learning techniques","In this paper, we present an approach to label a large collection of songs in French by decade. We have developed an information visualization interface that allows users to browse the collection searching for lyrics with musical periods dependent filters. We first harvested lyrics and metadata from various sources on the web. We present in this article an original method to automatically assign the decade of songs for our collection. The original system was developed for a DEFT challenge and combined text mining and machine learning with a multi class approach. We subsequently enriched the model with additional features such as social tags to determine their impact on the results.","text mining, machine learning, lyrics, social tagging"],"keyphrases":["Fouille de textes","apprentissage supervis\u00e9","tags sociaux","paroles de chansons"],"prmu":["P","P","P","R"]} {"id":"taln-2014-court-014","title":"AMESURE: une plateforme de lisibilit\u00e9 pour les textes administratifs","abstract":"Cet article pr\u00e9sente une plateforme d\u00e9di\u00e9e \u00e0 l\u2019\u00e9valuation de la difficult\u00e9 des textes administratifs, dans un but d\u2019aide \u00e0 la r\u00e9daction. La plateforme propose d\u2019une part une formule de lisibilit\u00e9 sp\u00e9cialis\u00e9e pour les textes administratifs, dont la conception repose sur une nouvelle m\u00e9thode d\u2019annotation. Le mod\u00e8le classe correctement 58% des textes sur une \u00e9chelle \u00e0 5 niveaux et ne commet d\u2019erreurs graves que dans 9% des cas. La plateforme propose d\u2019autre part un diagnostic plus pr\u00e9cis des difficult\u00e9s sp\u00e9cifiques d\u2019un texte, sous la forme d\u2019indicateurs num\u00e9riques, mais aussi d\u2019une localisation de ces difficult\u00e9s directement dans le document.","translation":["AMesure: a readability formula for administrative texts","This paper presents a platform aiming to assess the difficulty of administrative texts, mostly for editorial assistance purposes. The platform first offers a readability formula specialized for administrative texts, the development of which required the design of a dedicated annotation procedure. The resulting model correctly classifies 58% of the texts on a 5-levels scale and commits serious misclassifications in only 9% of the cases. Moreover, the platform offers a more accurate diagnosis of the difficulty of a text in the form of numerical indicators corresponding to various textual characteristics. It also locates specific local difficulties directly in the text.","readability formula, administrative texts, editorial assistance"],"keyphrases":["textes administratifs","aide \u00e0 la r\u00e9daction","formule de lisibilit\u00e9"],"prmu":["P","P","P"]} {"id":"taln-2014-court-015","title":"D\u00e9composition des \u00ab hash tags \u00bb pour l\u2019am\u00e9lioration de la classification en polarit\u00e9 des \u00ab tweets \u00bb","abstract":"Les \u00ab mots di\u00e8ses\u00bb ou \u00ab hash tags \u00bb sont le moyen naturel de lier entre eux diff\u00e9rents tweets. Certains \u00ab hash tags \u00bb sont en fait de petites phrases dont la d\u00e9composition peut se r\u00e9v\u00e9ler particuli\u00e8rement utile lors d\u2019une analyse d\u2019opinion des tweets. Nous allons montrer dans cet article comment l\u2019on peut automatiser cette d\u00e9composition et cette analyse de fa\u00e7on \u00e0 am\u00e9liorer la d\u00e9tection de la polarit\u00e9 des tweets.","translation":["Decomposing Hashtags to Improve Tweet Polarity Classification","Hash tags are the natural way through which tweets are linked to each other. Some of these hash tags are actually little sentences, whose decompositions can prove quite useful when mining opinions from tweets. We will show in this article how we can automatically detect the inner polarity of these hash tags, through their decomposition and analysis.","hash tag, tweet, opinion mining, NLP"],"keyphrases":["hash tag","tweet","analyse d\u2019opinion","TAL"],"prmu":["P","P","P","U"]} {"id":"taln-2014-court-016","title":"Mod\u00e9lisation des questions de l\u2019agent pour l\u2019analyse des affects, jugements et appr\u00e9ciations de l\u2019utilisateur dans les interactions humain-agent","abstract":"Cet article aborde la question des expressions d\u2019attitudes (affects, jugements, appr\u00e9ciations) chez l\u2019utilisateur dans le cadre d\u2019\u00e9changes avec un agent virtuel. Il propose une m\u00e9thode pour l\u2019analyse des r\u00e9ponses \u00e0 des questions ferm\u00e9es destin\u00e9e \u00e0 interroger les attitudes de l\u2019utilisateur. Cette m\u00e9thode s\u2019appuie sur une formalisation des questions de l\u2019agent \u2013 sous la forme d\u2019une fiche linguistique \u2013 et sur une analyse de la r\u00e9ponse de l\u2019utilisateur, pour cr\u00e9er un mod\u00e8le utilisateur. La fiche linguistique de l\u2019agent est structur\u00e9e par un ensemble d\u2019attributs relatifs, d\u2019une part, \u00e0 l\u2019attitude \u00e0 laquelle r\u00e9f\u00e8re la question, d\u2019autre part, \u00e0 sa forme morphosyntaxique. L\u2019analyse de la r\u00e9ponse, quant \u00e0 elle, repose sur un ensemble de r\u00e8gles s\u00e9mantiques et syntaxiques d\u00e9finies par une grammaire formelle. A partir des r\u00e9sultats fournis par cette analyse et des informations contenues dans la fiche linguistique de l\u2019agent, des calculs s\u00e9mantiques sont effectu\u00e9s pour d\u00e9finir la valeur de la r\u00e9ponse et construire le mod\u00e8le utilisateur.","translation":["Modelling agent's questions for analysing user's affects, appreciations and judgements in human-agent interaction","This paper tackles the issue of user\u2019s attitudinal expressions in an human-agent interaction. It introduces a method for analysing the user\u2019s anwers to the agent\u2019s yes\/no questions about attitude. In order to build a user model, this method relies on a formalization of the agent\u2019s questions and a linguistic analysis of the user\u2019s answer. This formalization comprises a set of attributes regarding the attitude expressed and the morphosyntaxic form of the question. The answer is then analyzed by using a set of semantic and syntactic rules included in a formal grammar. Finally, the semantic value of the answer can be calculated by using the results provided by this analysis and the information given by the question formalization. This computation is next integrated in the user model.","affect, jugement, appreciation, human-agent interaction, questions-answers"],"keyphrases":["affect","jugement","appr\u00e9ciation","interaction humain-agent","questions-r\u00e9ponses"],"prmu":["P","P","P","P","U"]} {"id":"taln-2014-court-017","title":"KNG: un outil pour l\u2019\u00e9criture facile de cascades de transducteurs","abstract":"Cet article pr\u00e9sente une biblioth\u00e8que python appel\u00e9e KNG permettant d\u2019\u00e9crire facilement des automates et transducteurs finis. Gr\u00e2ce \u00e0 une gestion soigneuse des codages et des entr\u00e9es-sorties, cette biblioth\u00e8que permet de r\u00e9aliser une cascade de transducteurs au moyen de tubes unix reliant des scripts python.","translation":["KNG: a Tool for Writing Easily Transducer Cascades","This paper presents a Python library called KNG which provides facilities to write easily finite state automata and transducers. Through careful management of encodings and input\/output, a transducer cascade may be implented using unix pipes connecting python scripts.","Finite State Machines, Transducer Cascade, Regular Expression"],"keyphrases":["cascade de transducteur","Machines finies \u00e0 \u00e9tats","expression r\u00e9guli\u00e8re"],"prmu":["P","M","U"]} {"id":"taln-2014-court-018","title":"Comparaison de deux outils d'analyse de corpus japonais pour l'aide au linguiste, Sagace et Mecab","abstract":"L'objectif est de comparer deux outils d'analyse de corpus de textes bruts pour l'aide \u00e0 la recherche en linguistique japonaise. Les deux outils repr\u00e9sentent chacun une approche sp\u00e9cifique. Le premier, Sagace, recherche un patron sans prise en compte de son environnement. Le second, un dispositif \u00e0 base de Mecab, recherche les patrons apr\u00e8s analyse morphologique compl\u00e8te des phrases. Nous comparons les performances en temps et en pr\u00e9cision. Il ressort de cette analyse que les performances de Sagace sont globalement un peu inf\u00e9rieures \u00e0 celles des dispositifs \u00e0 base de Mecab, mais qu'elles restent tout \u00e0 fait honorables voire meilleures pour certaines t\u00e2ches.","translation":["Comparing two analyzers of Japanese corpora for helping linguists: MeCab and Sagace","The purpose is to compare two tools used for helping linguist to analyze large corpora of raw japanese text. Each tool is representative of a specific approach. The first one, Sagace, search a pattern without taking into account its distribution. The second one is based on the morphological analyzer Mecab. It first analyzes the whole sentence before counting the searched pattern. We compare the processing time, needed ressources, and the quality of the results. It appears that performances of Sagace are globaly slightly lower than the Mecab system, but it doesn't defer so much. It may even be punctually better.","Japanese, Corpus, Comparison, Mecab, Sagace"],"keyphrases":["Corpus","Japonais","Sagace","Mecab","Analyseurs"],"prmu":["P","P","P","P","U"]} {"id":"taln-2014-court-019","title":"Un concordancier multi-niveaux et multim\u00e9dia pour des corpus oraux","abstract":"Les concordanciers jouent depuis longtemps un r\u00f4le important dans l\u2019analyse des corpus linguistiques, tout comme dans les domaines de la philologie, de la litt\u00e9rature, de la traduction et de l\u2019enseignement des langues. Toutefois, il existe peu de concordanciers qui soient capables d\u2019associer des annotations \u00e0 plusieurs niveaux et synchronis\u00e9es avec le signal sonore. L\u2019essor des grands corpus de fran\u00e7ais parl\u00e9 introduit une augmentation des exigences au niveau de la performance. Dans ce travail \u00e0 caract\u00e8re pr\u00e9liminaire, nous avons d\u00e9velopp\u00e9 un prototype de concordancier multi-niveaux et multim\u00e9dia, que nous avons test\u00e9 sur le corpus de fran\u00e7ais parl\u00e9 du projet Phonologie du Fran\u00e7ais Contemporain (PFC, 1,5 million de tokens de transcription align\u00e9e au niveau de l\u2019\u00e9nonc\u00e9). L\u2019outil permet non seulement d\u2019enrichir les r\u00e9sultats des concordances gr\u00e2ce aux donn\u00e9es relevant de plusieurs couches d\u2019annotation du corpus (annotation morphosyntaxique, lemme, codage de la liaison, codage du schwa etc.), mais aussi d\u2019\u00e9largir les modalit\u00e9s d\u2019acc\u00e8s au corpus.","translation":["A multi-level multimedia concordancer for spoken language corpora","Concordances have always played an important role in the analysis of language corpora, for studies in humanities, literature, linguistics, translation and language teaching. However, very few of the available systems support multi-level queries against a richly-annotated, sound-aligned spoken corpus. The rapid growth in the development of spoken corpora, particularly for French, increases the need for scalable, high-performance solutions. We present the preliminary results of our project to develop a multi-level multimedia concordancer for spoken language corpora. We test our prototype on the PFC corpus of spoken French (1.5 million tokens, transcriptions aligned to the utterance level). Our tool allows researchers to query the corpus and produce concordances correlating several annotation levels (part-of-speech tags, lemmas, annotation of phonological phenomena such as the liaison and schwa, etc.) while allowing for multi-modal access to the associated sound recordings and other data.","concordance tool, multi-level annotation, corpus linguistics, French language teaching"],"keyphrases":["concordancier","annotation multi-niveaux","linguistique de corpus","didactique du FLE"],"prmu":["P","R","R","M"]} {"id":"taln-2014-court-020","title":"Simulation de l\u2019apprentissage des contextes nominaux\/verbaux par n-grammes","abstract":"On pr\u00e9sente une \u00e9tude d\u2019apprentissage visant \u00e0 montrer que les contextes locaux dans un corpus de parole adress\u00e9e aux enfants peuvent \u00eatre exploit\u00e9s, avec des m\u00e9thodes statistiques simples, pour pr\u00e9dire la cat\u00e9gorie (nominale vs. verbale) d\u2019un mot inconnu. Le mod\u00e8le pr\u00e9sent\u00e9, bas\u00e9 sur la m\u00e9morisation de n-grammes et sur une \u00ab graine s\u00e9mantique \u00bb (un petit nombre de noms et verbes suppos\u00e9s connus et cat\u00e9goris\u00e9s) montre une excellente pr\u00e9cision \u00e0 toutes les tailles de graine s\u00e9mantique, et un rappel plus faible, qui cro\u00eet avec la taille de la graine s\u00e9mantique. Les contextes les plus utilis\u00e9s sont ceux qui contiennent des mots fonctionnels. Cette \u00e9tude de faisabilit\u00e9 d\u00e9montre que les tr\u00e8s jeunes enfants pourraient exploiter les contextes de mots inconnus pour pr\u00e9dire leur cat\u00e9gorie syntaxique.","translation":["Learning simulation of nominal\/verbal contexts through n-grams","A learning study is presented whose aim is to show that local contexts, in a child-directed speech corpus, can be exploited, with simple statistical methods, to predict the category (noun vs. verb) of unknown words. The model we present here is based on the memorisation of n-grams and on a \u201csemantic seed\u201d (a small number of nouns and verbs supposedly known and well categorised). It shows an excellent precision for every size of the semantic seed, and its recall grows along with the size of the semantic seed. The most useful contexts are the ones that include function words. This feasibility study shows that very young children could exploit the contexts of unknown words to predict their syntactic category.","learning, language acquisition modeling, n-gram"],"keyphrases":["apprentissage","n-grammes","mod\u00e9lisation de l\u2019acquisition du langage"],"prmu":["P","P","M"]} {"id":"taln-2014-court-021","title":"Impact de la nature et de la taille des corpus d'apprentissage sur les performances dans la d\u00e9tection automatique des entit\u00e9s nomm\u00e9es","abstract":"Nous pr\u00e9sentons une \u00e9tude comparative sur l\u2019impact de la nature et de la taille des corpus d\u2019apprentissage sur les performances dans la d\u00e9tection automatique des entit\u00e9s nomm\u00e9es. Cette \u00e9valuation se pr\u00e9sente sous la forme de multiples modulations de trois corpus fran\u00e7ais. Deux des corpus sont issus du catalogue des ressources linguistiques d\u2019ELRA et le troisi\u00e8me est compos\u00e9 de documents extraits de la plateforme OpenEdition.org.","translation":["Impact of the nature and size of the training set on performance in the automatic detection of named entities","We present a comparative study on the impact of the nature and size of the training corpus on performance in automatic named entities recognition. This evaluation is in the form of multiple modulations on three French corpus. Two corpora are from the catalog of the European Language Resources Association (ELRA) and the third is composed of documents extract from the OpenEdition.org platform.","Named entity recognition, Domain adptation, performance comparison"],"keyphrases":["Reconnaissance d'entit\u00e9s nomm\u00e9es","Adaptation au domaine","comparaison d'outils"],"prmu":["M","U","M"]} {"id":"taln-2014-court-022","title":"RENAM: Syst\u00e8me de Reconnaissance des Entit\u00e9s Nomm\u00e9es Amazighes","abstract":"La reconnaissance des Entit\u00e9s Nomm\u00e9es (REN) en langue amazighe est un pr\u00e9traitement potentiellement utile pour de nombreuses applications du traitement de la langue amazighe. Cette t\u00e2che repr\u00e9sente toutefois un s\u00e9v\u00e8re challenge, compte tenu des particularit\u00e9s de cette langue. Dans cet article, nous pr\u00e9sentons le premier syst\u00e8me d\u2019extraction d\u2019entit\u00e9s nomm\u00e9es amazighes (RENAM) fond\u00e9 sur une approche symbolique qui utilise le principe de transducteur \u00e0 \u00e9tats finis disponible sous la plateforme GATE.","translation":["NERAM : Named Entity Recognition for AMazighe language","Named Entity Recognition (NER) for Amazigh language is a potentially useful pretreatment for many processing applications for the Amazigh language. However, this task represents a tough challenge, given the specificities of this language. In this paper, we present (NERAM) the first named entity system for the Amazigh language based on a symbolic approach that uses linguistic rules built manually by using an information extraction tool available within the platform GATE.","Named Entities Recognition (NER), Amazigh Language, Annotation Rules, JAPE, GATE"],"keyphrases":["Reconnaissance des entit\u00e9s nomm\u00e9es (REN)","Langue Amazighe","GATE","R\u00e8gles d\u2019annotation","JAPE"],"prmu":["P","P","P","M","U"]} {"id":"taln-2014-court-023","title":"De la quenelle culinaire \u00e0 la quenelle politique : identification de changements s\u00e9mantiques \u00e0 l\u2019aide des Topic Models","abstract":"Dans cet article nous employons le \u00ab topic modeling \u00bb pour explorer des chemins vers la d\u00e9tection automatique de l\u2019apparition de nouveaux sens pour des mots connus. Nous appliquons les m\u00e9thodes introduites dans (Lau et al., 2012, 2014) \u00e0 un cas de n\u00e9ologie s\u00e9mantique r\u00e9cent, l\u2019apparition du nouveau sens de geste pour le mot \u00ab quenelle \u00bb. Nos exp\u00e9riences mettent en \u00e9vidence le potentiel de cette approche pour l\u2019apprentissage des sens du mot, l\u2019alignement des topics \u00e0 des sens de dictionnaire et enfin la d\u00e9tection de nouveaux sens.","translation":["From the Culinary to the Political Meaning of \"quenelle\" : Using Topic Models For Identifying Novel Senses","In this study we explore topic modeling for the automatic detection of new senses of known words. We apply methods developed in previous work for English (Lau et al., 2012, 2014) on a recent case of new word sense induction in French, namely the appearence of the new meaning of gesture for the word \u00ab quenelle \u00bb. Our experiments illustrate the potential of this approach at learning word senses, aligning the topics with dictionary senses and finally at detecting the new senses.","topic models, word sense induction, semantic neologism"],"keyphrases":["topic models","n\u00e9ologie s\u00e9mantique","induction de sens"],"prmu":["P","P","M"]} {"id":"taln-2014-court-024","title":"Grammaire r\u00e9cursive non lin\u00e9aire pour les langues des signes","abstract":"Cet article propose une approche pour la formalisation de grammaires pour les langues des signes, rendant compte de leurs particularit\u00e9s linguistiques. Comparable aux grammaires g\u00e9n\u00e9ratives en termes de r\u00e9cursivit\u00e9 productive, le syst\u00e8me pr\u00e9sente des propri\u00e9t\u00e9s nouvelles comme la multi-lin\u00e9arit\u00e9 permettant la sp\u00e9cification simultan\u00e9e des articulateurs. Bas\u00e9 sur l\u2019analyse des liens entre formes produites\/observ\u00e9es et fonctions linguistiques au sens large, on observe un d\u00e9cloisonnement des niveaux traditionnels de construction de la langue, inh\u00e9rent \u00e0 la m\u00e9thodologie employ\u00e9e. Nous pr\u00e9sentons un ensemble de r\u00e8gles trouv\u00e9es suivant la d\u00e9marche pr\u00e9sent\u00e9e et concluons avec une perspective int\u00e9ressante en traduction automatique vers la langue des signes.","translation":["Non-linear recursive grammar for Sign languages","This article presents a formal approach to Sign Language grammars, with the aim of capturing their specificities. The system is comparable to generative grammar in the sense that it is recursively productive, but it has quite different properties such as multilinearity, enabling simultaneous articulator specification. As it is based on the analysis of systematic links between observable form features and interpreted linguistic functions in the general sense, the traditionally separate linguistic levels all end up covered by the same model. We present the results found for a set of linguistic structures, following the presented methodology, and conclude with an interesting prospect in the field of text-to-Sign machine translation.","Formal grammar, multilinearity, Sign Language"],"keyphrases":["langue des signes","multi-lin\u00e9arit\u00e9","Grammaire formelle"],"prmu":["P","P","M"]} {"id":"taln-2014-court-025","title":"Vers un traitement automatique en soutien d\u2019une linguistique exploratoire des Langues des Signes","abstract":"Les langues des signes sont les langues naturelles utilis\u00e9es dans les communaut\u00e9s sourdes. Elles ont suscit\u00e9es, ces derni\u00e8res ann\u00e9es, de l\u2019int\u00e9r\u00eat dans le domaine du traitement automatique des langues naturelles. N\u00e9anmoins, il y a un manque g\u00e9n\u00e9ral de donn\u00e9es de terrain homog\u00e8nes. Notre r\u00e9flexion porte sur les moyens de soutenir la maturation des mod\u00e8les linguistiques avant d\u2019entamer un large effort d\u2019annotation. Cet article pr\u00e9sente des pr\u00e9-requis pour la r\u00e9alisation d\u2019outils s\u2019inscrivant dans cette d\u00e9marche. L\u2019expos\u00e9 est illustr\u00e9 avec deux outils d\u00e9velopp\u00e9s pour les langues des signes : le premier utilise une logique adapt\u00e9e pour la repr\u00e9sentation de mod\u00e8les phonologiques et le second utilise des grammaires formelles pour la repr\u00e9sentation de mod\u00e8les syntaxiques.","translation":["Supporting Sign Languages Exploratory Linguistics with an Automatization of the Annotation Process","Sign Languages (SLs) are the vernaculars of deaf communities, they have drawn interests in the natural language processing research in recent years. However, the field suffers a general lack of homogeneous information. Our reflexion is about how to support the maturation of models before starting a consequent annotation effort. In this paper, we describe the requirements of tools supporting such an approach. It is illustrated with two examples of work developed following these guidelines. The first one aims at phonological representation using logic and the second one targets supra-lexical features recognition.","Sign Languages, Modeling formalisms, Recognition, semi-automatic annotation"],"keyphrases":["Langues des Signes","Formalismes de mod\u00e9lisation","Reconnaissance","Annotation semi-automatique"],"prmu":["P","M","U","M"]} {"id":"taln-2014-court-026","title":"R\u00e9sum\u00e9 Automatique Multilingue Exp\u00e9rimentations sur l\u2019Anglais, l\u2019Arabe et le Fran\u00e7ais","abstract":"La t\u00e2che du r\u00e9sum\u00e9 multilingue vise \u00e0 concevoir des syst\u00e8mes de r\u00e9sum\u00e9 tr\u00e8s peu d\u00e9pendants de la langue. L\u2019approche par extraction est au coeur de ces syst\u00e8mes, elle permet \u00e0 l\u2019aide de m\u00e9thodes statistiques de s\u00e9lectionner les phrases les plus pertinentes dans la limite de la taille du r\u00e9sum\u00e9. Dans cet article, nous proposons une approche de r\u00e9sum\u00e9 multilingue, elle extrait les phrases dont les termes sont des plus discriminants. De plus, nous \u00e9tudions l'impact des diff\u00e9rents traitements linguistiques de base : le d\u00e9coupage en phrases, l'analyse lexicale, le filtrage des mots vides et la racinisation sur la couverture ainsi que la notation des phrases. Nous \u00e9valuons les performances de notre approche dans un contexte multilingue : l'anglais, l'arabe et le fran\u00e7ais en utilisant le jeu de donn\u00e9es TAC MultiLing 2011.","translation":["Multilingual Summarization Experiments on English, Arabic and French","The task of multilingual summarization aims to design free-from language systems. Extractive methods are in the core of multilingual summarization systems. In this paper, we discuss the influence of various basic NLP tasks: sentence splitting, tokenization, stop words removal and stemming on sentence scoring and summaries' coverage. Hence, we propose a statistical method which extracts most relevant sentences on the basis of their terms discriminant power. We conduct several experimentations in a multilingual context: English, Arabic and French using the TAC MultiLing 2011 dataset.","Multilingual summarization, Discriminant analysis, NLP, Multilingual evaluation"],"keyphrases":["R\u00e9sum\u00e9 multilingue","analyse discriminante","TAL","\u00e9valuation multilingue"],"prmu":["P","R","U","M"]} {"id":"taln-2014-court-028","title":"Extraction de donn\u00e9es orales multi-annot\u00e9es","abstract":"Cet article aborde le probl\u00e8me de l\u2019extraction de donn\u00e9es orales multi-annot\u00e9es : nous proposons une solution interm\u00e9diaire, entre d\u2019une part les syst\u00e8mes de requ\u00eatages tr\u00e8s \u00e9volu\u00e9s mais qui n\u00e9cessitent des donn\u00e9es structur\u00e9es, d\u2019autre part les donn\u00e9es (multi-)annot\u00e9es des utilisateurs qui sont h\u00e9t\u00e9rog\u00e8nes. Notre proposition s\u2019appuie sur 2 fonctions principales : une fonction bool\u00e9enne pour filtrer sur le contenu, et une fonction de relation qui impl\u00e9mente l\u2019alg\u00e8bre de Allen. Le principal avantage de cette approche r\u00e9side dans sa g\u00e9n\u00e9ricit\u00e9 : le fonctionnement sera identique que les annotations proviennent de Praat, Transcriber, Elan ou tout autre logiciel d\u2019annotation. De plus, deux niveaux d\u2019utilisation ont \u00e9t\u00e9 d\u00e9velopp\u00e9s : une interface graphique qui ne n\u00e9cessite aucune comp\u00e9tence ou connaissance sp\u00e9cifique de la part de l\u2019utilisateur, et un interrogation par scripts en langage Python. L\u2019approche a \u00e9t\u00e9 impl\u00e9ment\u00e9e dans le logiciel SPPAS, distribu\u00e9 sous licence GPL.","translation":["Extracting multi-annotated speech data","This paper addresses the problem of extracting multimodal annotated data in the linguistic field ranging from general linguistic to domain specific information. Our proposal can be considered as a solution or a least an intermediary solution that can link together requesting systems and expert data from various annotation tools. The system is partly based on the Allen algebra and consists in creating filters based on two functions : a boolean function and a relation function. The main advantage of this approach lies in its genericity : it will work identically with annotations from Praat, Transcriber, Elan or from any other annotation software. Furthermore, two levels of usage have been developed : a graphical user interface graph that not requires any skill or knowledge, and a query form in Python. This system is included in the software SPPAS and is distributed under the terms of the GPL license.","multimodality, corpus, extraction"],"keyphrases":["extraction","multimodalit\u00e9","corpus"],"prmu":["P","U","U"]} {"id":"taln-2014-court-029","title":"Annotation de la temporalit\u00e9 en corpus : contribution \u00e0 l'am\u00e9lioration de la norme TimeML","abstract":"Cet article propose une analyse critique de la norme TimeML \u00e0 la lumi\u00e8re de l\u2019exp\u00e9rience d\u2019annotation temporelle d\u2019un corpus de fran\u00e7ais parl\u00e9. Il montre que certaines adaptations de la norme seraient conseill\u00e9es pour r\u00e9pondre aux besoins du TAL et des sciences du langage. Sont \u00e9tudi\u00e9es ici les questions de s\u00e9paration des niveaux d\u2019annotation, de d\u00e9limitation des \u00e9ventualit\u00e9s dans le texte et de l\u2019ajout d\u2019une relation temporelle de type associative.","translation":["Tense and Time Annotations : a Contribution to TimeML Improvement","This paper reports a critical analysis of the TimeML standard, in the light of a temporal annotation that was conducted on spoken French. It shows that the norm suffers from weaknesses that must be corrected to fit the needs of NLP and corpus linguistics. These limitations concern mainly 1) the separation of different levels of linguistic annotation, 2) the delimitation in the text of the events, and 3) the absence of a bridging temporal relation in the norm.","temporal annotation, TimeML, eventualities, temporal relations, time expressions"],"keyphrases":["TimeML","annotation temporelle","\u00e9ventualit\u00e9s","relations temporelles","expressions temporelles"],"prmu":["P","P","P","P","M"]} {"id":"taln-2014-court-030","title":"Identification automatique de zones dans des documents pour la constitution d\u2019un corpus m\u00e9dical en fran\u00e7ais","abstract":"De nombreuses informations cliniques sont contenues dans le texte des dossiers \u00e9lectroniques de patients et ne sont pas directement accessibles \u00e0 des fins de traitement automatique. Pour pallier cela, nous pr\u00e9parons un large corpus annot\u00e9 de documents cliniques. Une premi\u00e8re \u00e9tape de ce travail consiste \u00e0 s\u00e9parer le contenu m\u00e9dical des documents et les informations administratives contenues dans les en-t\u00eates et pieds de page. Nous pr\u00e9sentons un syst\u00e8me d\u2019identification automatique de zones dans les documents cliniques qui offre une F-mesure de 0,97, \u00e9quivalente \u00e0 l\u2019accord inter-annoteur de 0,98. Notre \u00e9tude montre que le contenu m\u00e9dical ne repr\u00e9sente que 60% du contenu total de notre corpus, ce qui justifie la n\u00e9cessit\u00e9 d\u2019une segmentation en zones. Le travail d\u2019annotation en cours porte sur les sections m\u00e9dicales identifi\u00e9es.","translation":["Automatic identification of document sections for designing a French clinical corpus","Much clinical information is contained in the free text of Electronic Health Records (EHRs) and is not available for automatic processing. To advance Natural Language Processing of the French clinical narrative, we are building a richly annotated large-scale corpus of French clinical documents. To access the most medically relevant content of EHRs we develop an automatic system to separate the core medical content from other document sections, such as headers and footers. The performance of automatic content extraction achieves 96.6% F-measure, on par with human inter-annotator agreement of 98%. We find that medically relevant content covers only 60% of clinical documents in our corpus. Future annotation work will focus on these sections.","BioNLP, Automatic document segmentation, section identification"],"keyphrases":["Traitement Automatique de la Langue Biom\u00e9dicale","segmentation de documents","identification de zones"],"prmu":["M","R","R"]} {"id":"taln-2014-court-031","title":"Un sch\u00e9ma d\u2019annotation en d\u00e9pendances syntaxiques profondes pour le fran\u00e7ais","abstract":"\u00c0 partir du sch\u00e9ma d\u2019annotation en d\u00e9pendances syntaxiques de surface du corpus Sequoia, nous proposons un sch\u00e9ma en d\u00e9pendances syntaxiques profondes qui en est une abstraction exprimant les relations grammaticales entre mots s\u00e9mantiquement pleins. Quand ces relations grammaticales sont partie prenante de diath\u00e8ses verbales, ces diath\u00e8ses sont vues comme le r\u00e9sultat de redistributions \u00e0 partir d\u2019une diath\u00e8se canonique et c\u2019est cette derni\u00e8re qui est retenue dans notre sch\u00e9ma d\u2019annotation syntaxique profonde.","translation":["Annotation scheme for deep dependency syntax of French","We describe in this article an annotation scheme for deep dependency syntax, built from the surface annotation scheme of the Sequoia corpus, abstracting away from it and expressing the grammatical relations between content words. When these grammatical relations take part into verbal diatheses, we consider the diatheses as resulting from redistributions from the canonical diathesis, which we retain in our annotation scheme.","annotation scheme, deep syntax, dependency grammar"],"keyphrases":["sch\u00e9ma d\u2019annotation","syntaxe profonde","grammaires de d\u00e9pendance"],"prmu":["P","P","M"]} {"id":"taln-2014-court-032","title":"Analyse argumentative du corpus de l\u2019ACL (ACL Anthology)","abstract":"Cet article pr\u00e9sente un essai d\u2019application de l\u2019analyse argumentative (text zoning) \u00e0 l\u2019ACL Anthology. Il s\u2019agit ainsi de mieux caract\u00e9riser le contenu des articles du domaine de la linguistique informatique afin de pouvoir en faire une analyse fine par la suite. Nous montrons que des technique r\u00e9centes d\u2019analyse argumentative fond\u00e9es sur l\u2019apprentissage faiblement supervis\u00e9 permettent d\u2019obtenir de bons r\u00e9sultats.","translation":["Argumentative analysis of the ACL Anthology","This paper presents an application of Text Zoning to the ACL Anthology. Text Zoning is known to be useful to characterize the content of papers, especially in the scientific domain. We show that recent techniques based on weakly supervised learning obtain excellent results on the ACL Anthology. Although these kinds of techniques is known in the domain, it is the first time it is applied to the whole ACL Anthology.","Text Zoning, Corpus of scientific texts, ACL Anthology"],"keyphrases":["Analyse argumentative","ACL Anthology","corpus de textes scientifiques"],"prmu":["P","P","M"]} {"id":"taln-2014-court-033","title":"Int\u00e9gration relationnelle des exemples lexicographiques dans un r\u00e9seau lexical","abstract":"Nous pr\u00e9sentons un ensemble d\u2019exemples lexicographiques int\u00e9gr\u00e9 dans le R\u00e9seau Lexical du Fran\u00e7ais et explorons son int\u00e9r\u00eat potentiel en tant que corpus annot\u00e9 pour la recherche en d\u00e9sambiguisation s\u00e9mantique automatique.","translation":["Integrating lexicographic examples in a lexical network","This paper presents a set of lexicographic examples which is being developped along the French Lexical Network. The possibility of using this set as an annotated corpus for research on automatic Word Sense Disambiguation is examined.","French Lexical Network, lexicographic examples, semantically annotated corpus"],"keyphrases":["exemples lexicographiques","R\u00e9seau Lexical du Fran\u00e7ais","corpus annot\u00e9 s\u00e9mantiquement"],"prmu":["P","P","R"]} {"id":"taln-2014-court-034","title":"Les couleurs des gens","abstract":"En TAL et plus particuli\u00e8rement en analyse s\u00e9mantique, les informations sur la couleur peuvent \u00eatre importantes pour traiter correctement des informations textuelles (sens des mots, d\u00e9sambigu\u00efsation et indexation). Plus g\u00e9n\u00e9ralement, conna\u00eetre la ou les couleurs habituellement associ\u00e9e(s) \u00e0 un terme est une information cruciale. Dans cet article, nous montrons comment le crowdsourcing, \u00e0 travers un jeu, peut \u00eatre une bonne strat\u00e9gie pour collecter ces donn\u00e9es lexico-s\u00e9mantiques.","translation":["Colors of People","In Natural Language Processing and semantic analysis in particular, color information may be important in order to properly process textual information (word sense disambiguation, and indexing). More specifically, knowing which colors are generally associated to terms is a crucial information. In this paper, we explore how crowdsourcing through a game with a purpose (GWAP) can be an adequate strategy to collect such lexico-semantic data.","Word Color Associations, Lexical Network, Crowdsourcing"],"keyphrases":["crowdsourcing","association couleur-mot","r\u00e9seau lexical"],"prmu":["P","U","U"]} {"id":"taln-2014-court-035","title":"Induction de sens pour enrichir des ressources lexicales","abstract":"En traitement automatique des langues, les ressources lexico-s\u00e9mantiques ont \u00e9t\u00e9 incluses dans un grand nombre d\u2019applications. La cr\u00e9ation manuelle de telles ressources est consommatrice de temps humain et leur couverture limit\u00e9e ne permet pas toujours de couvrir les besoins des applications. Ce probl\u00e8me est encore plus important pour les langues moins dot\u00e9es que le fran\u00e7ais ou l\u2019anglais. L\u2019induction de sens pr\u00e9sente dans ce cadre une piste int\u00e9ressante. \u00c0 partir d\u2019un corpus de texte, il s\u2019agit d\u2019inf\u00e9rer les sens possibles pour chacun des mots qui le composent. Nous \u00e9tudions dans cet article une approche bas\u00e9e sur une repr\u00e9sentation vectorielle pour chaque occurrence d\u2019un mot correspondant \u00e0 ses voisins. \u00c0 partir de cette repr\u00e9sentation, construite sur un corpus en bengali, nous comparons plusieurs approches de classification non-supervis\u00e9es (k-moyennes, regroupement hi\u00e9rarchique et esp\u00e9rance-maximisation) des occurrences d\u2019un mot pour d\u00e9terminer les diff\u00e9rents sens qu\u2019il peut prendre. Nous comparons nos r\u00e9sultats au Bangla WordNet ainsi qu\u2019\u00e0 une r\u00e9f\u00e9rence \u00e9tablie pour l\u2019occasion. Nous montrons que cette m\u00e9thode permet de trouver des sens qui ne se trouvent pas dans le Bangla WordNet.","translation":["Word Sense Induction for Lexical Resource Enrichment","In natural language processing, lexico-semantic resources are used in many applications. The manual creation of such resources is very time consuming and their limited coverage does not always satisfy the needs of applications. This problem is further exacerbated with lesser resourced languages. However, in that context, Word Sense Induction (WSI) offers an interesting avenue towards a solution. The purpose of WSI is, from a text corpus, to infer the possible senses for each word contained therein. In this paper, we study an approach based on a vectorial representation of the cooccurrence of word with their neighbours across each usage context. We first build the vectorial representation on a Bangla (also known as Bengali) corpus and then apply and compare three clustering algorithms (k-Means, Hierarchical Clustering and Expectation Maximisation) that elicit clusters corresponding to the different senses of each word as used within a corpus. We wanted to use Bangla WordNet to evaluate the clusters, however, the coverage of Bangla WordNet being restrictive compared to Princeton WordNet ( 23.65%), we find that the clustering algorithms induce correct senses that are not present in Bangla WordNet. Therefore we created a gold standard that we manually extended to include the senses not covered in Bangla WordNet.","Word Sense Induction, Bangla, Weka, Clustering"],"keyphrases":["Induction de sens","bengali","Classification non-supervis\u00e9e","Weka"],"prmu":["P","P","P","U"]} {"id":"taln-2014-court-036","title":"Un dictionnaire et une grammaire de compos\u00e9s fran\u00e7ais","abstract":"L\u2019article pr\u00e9sente deux ressources pour le TAL, distribu\u00e9es sous licence GPL : un dictionnaire de mots compos\u00e9s fran\u00e7ais et une grammaire NooJ sp\u00e9cifiant un sous-ensemble des sch\u00e9mas de compos\u00e9s.","translation":["A dictionary and a grammar of French compounds","The paper introduces two resources for NLP, available with a GPL license: a dictionary of French compound words and a NooJ grammar which specifies a subset of compound patterns.","open source, resources, dictionary, grammar, compound words"],"keyphrases":["dictionnaire","grammaire","ressources","mots compos\u00e9s","open source"],"prmu":["P","P","P","P","U"]} {"id":"taln-2014-demo-001","title":"ORTOLANG : une infrastructure de mutualisation de ressources linguistiques \u00e9crites et orales","abstract":"Nous proposons une d\u00e9monstration de la Plateforme de l\u2019Equipex ORTOLANG (Open Resources and Tools for LANGuage : www.ortolang.fr) en cours de mise en place dans le cadre du programme d\u2019investissements d\u2019avenir (PIA) lanc\u00e9 par le gouvernement fran\u00e7ais. S\u2019appuyant entre autres sur l\u2019existant des centres de ressources CNRTL (Centre National de Ressources Textuelles et Lexicales : www.cnrtl.fr) et SLDR (Speech and Language Data Repository : http:\/\/sldr.org\/), cette infrastructure a pour objectif d\u2019assurer la gestion, la mutualisation, la diffusion et la p\u00e9rennisation de ressources linguistiques de type corpus, dictionnaires, lexiques et outils de traitement de la langue, avec une focalisation particuli\u00e8re sur le fran\u00e7ais et les langues de France.","translation":["ORTOLANG an infrastructure for sharing of written and speech language resources","",""],"keyphrases":["Ortolang","mutualisation","ressources linguistiques","plateforme","corpus"],"prmu":["P","P","P","P","P"]} {"id":"taln-2014-demo-002","title":"Utilisabilit\u00e9 d'une ressource propri\u00e9taire riche dans le cadre de la classification de documents","abstract":"Dans ce papier, nous nous int\u00e9ressons \u00e0 l\u2019utilisation d\u2019une ressource linguistique propri\u00e9taire riche pour une t\u00e2che de classification. L'objectif est ici de mesurer l'impact de l'ajout de ces ressources sur cette t\u00e2che en termes de performances. Nous montrons que l\u2019utilisation de cette ressource en temps que traits suppl\u00e9mentaires de classification apporte un r\u00e9el avantage pour un ajout tr\u00e8s mod\u00e9r\u00e9 en termes de nombre de traits.","translation":["","In this paper, we focus on the use of a proprietary resource for a document classification task. The objective is here to measure the impact of the addition of this resource as input for classification features. We show that the use of this resource impacts positively the classification results, for a limited impact on the feature number.","document level classification, automatic classification, resources"],"keyphrases":["ressources","classification de documents","classification automatique"],"prmu":["P","P","M"]} {"id":"taln-2014-demo-003","title":"CFAsT: Content-Finder AssistanT","abstract":"Cette d\u00e9monstration de CFAsT s\u2019int\u00e9resse \u00e0 \u201ccomment concevoir un syst\u00e8me de dialogue avec un effort minimal\u201d. Cet assistant virtuel repose sur un nouveau mod\u00e8le pour la g\u00e9n\u00e9ration automatique de syst\u00e8me de dialogue construite \u00e0 partir de contenus. Cette approche utilise un moteur de recherche auquel on a ajout\u00e9 des fonctionnalit\u00e9s de dialogue : \u00e0 chaque tour, le syst\u00e8me propose trois mots-clefs de mani\u00e8re \u00e0 optimiser l\u2019esp\u00e9rance de gain d\u2019information.","translation":["","This CFAsT demonstration focuses on \u201chow to design and develop a dialogue system with a minimal effort\u201d. This virtual assistant embeds a novel model for automatic generation of dialogue systems built from contents. This approach is similar to and relies on a search engine, but with augmented dialogue capabilities : at each dialogue turn, the system propose three keywords, in order to optimise the information gain expectation.","Dialogue systems, Natural language processing, Virtual assistant"],"keyphrases":["Syst\u00e8mes de dialogue","Assistant virtuel","Traitement automatique des langues naturelles"],"prmu":["P","P","M"]} {"id":"taln-2014-demo-004","title":"D\u00e9monstration de Kaw\u00e2kib, outil permettant d\u2019assurer le feedback entre grammaire et corpus arabe pour l\u2019\u00e9laboration d\u2019un mod\u00e8le th\u00e9orique","abstract":"Kaw\u00e2kib est un outil assurant le feedback entre corpus arabe et grammaire. Ce logiciel interactif en ligne d\u00e9montre le bien fond\u00e9 de la m\u00e9thode de variation des grammaires arabes pour l'obtention de l'algorithme optimal tant au niveau de l'analyse morphologique, cruciale \u00e9tant donn\u00e9e la structure du syst\u00e8me s\u00e9mitique, que syntaxique ou dans le domaine de la recherche de crit\u00e8res pertinents et discriminants pour le filtrage des textes.","translation":["Kaw\u00e2kib, a Tool Providing Feedback Between Grammar and Arabic Corpus for the Building of a Theoritical Model","Kaw\u00e2kib is a tool allowing feedback between arabic corpus and grammar. As far as methodology is concerned, this interactive online software implements and illustrates the grammar variation method that aims to determine the optimal algorithm, either for morphology \u2013 which is essential in semitic languages - or for syntax. The software also permits the search for criteria for text filtering.","arabic, automata, parsers, lingistic operators, tool words, corpus filtering"],"keyphrases":["arabe","automates","analyseurs","op\u00e9rateurs linguistiques","mots-outils","filtrage de corpus"],"prmu":["P","U","U","U","U","R"]} {"id":"taln-2014-demo-005","title":"OWI.Chat : Assistance s\u00e9mantique pour un conseiller Chat, gr\u00e2ce \u00e0 la th\u00e9orie OWI","abstract":"La canal chat permet aux entreprises de transformer leur site web en un v\u00e9ritable lieu d\u2019achat et de service. OWI a d\u00e9velopp\u00e9 un outil d\u2019assistance aux conversations en ligne (OWI.Chat), qui analyse les messages des internautes et conseille les conseillers en temps r\u00e9el.","translation":["OWI.Chat : a semantic assistance for chat customer service agents","Chat channel enables companies to transform their website into a real place of purchase and service. OWI developed an online conversations assistance solution (OWI.Chat). Its main task is to analyze the Chat requests and help agents in real time.","Semantic analysis, semantic engine, Chat, Live Chat, Online conversation, Natural Language Procession (NLP), Agent Knowledge Base, Customer relationship"],"keyphrases":["Conversation en ligne","Analyse s\u00e9mantique","moteur s\u00e9mantique Chat","Live Chat","Traitement Automatique du Langage (TAL)","Base de connaissance","Relation client"],"prmu":["P","R","M","M","M","M","U"]} {"id":"taln-2014-demo-006","title":"ZOMBILINGO : manger des t\u00eates pour annoter en syntaxe de d\u00e9pendances","abstract":"Cet article pr\u00e9sente ZOMBILINGO un jeu ayant un but (Game with a purpose) permettant d\u2019annoter des corpus en syntaxe de d\u00e9pendances. Les annotations cr\u00e9\u00e9es sont librement disponibles sur le site du jeu.","translation":["ZOMBILINGO: eating heads to perform dependency syntax annotation","This paper presents ZOMBILINGO, a Game With A Purpose (GWAP) that allows for the dependency syntax annotation of French corpora. The created resource is freely available on the game Web site.","GWAP, complexity, annotation, dependency syntax"],"keyphrases":["annotation","jeux ayant un but","complexit\u00e9","syntaxe en d\u00e9pendances"],"prmu":["P","M","U","R"]} {"id":"taln-2014-demo-007","title":"Ubiq : une plateforme de collecte, analyse et valorisation des corpus","abstract":"Proxem \u00e9dite Ubiq, une plateforme de collecte de documents et d\u2019analyse s\u00e9mantique, capable d'extraire des informations pertinentes \u00e0 partir du contenu de vastes corpus. Les documents analys\u00e9s sont d\u2019une grande diversit\u00e9 : opinions collect\u00e9es sur des sites web, emails de r\u00e9clamation ou de demande d\u2019information, r\u00e9ponse \u00e0 des questions ouvertes dans des sondages, offres ou demandes d\u2019emploi, etc. La reconnaissance des entit\u00e9s nomm\u00e9es joue un r\u00f4le central car c\u2019est un pr\u00e9alable \u00e0 d\u2019autres traitements s\u00e9mantiques. La conception d\u2019un module de reconnaissance d\u2019entit\u00e9s nomm\u00e9es n\u00e9cessite g\u00e9n\u00e9ralement un investissement important en amont, avec une adaptation de domaine. Ubiq propose une approche d\u2019apprentissage faiblement supervis\u00e9 de l\u2019extraction d\u2019entit\u00e9s nomm\u00e9es qui tient compte du corpus collect\u00e9 et de ressources externes (Wikip\u00e9dia). La m\u00e9thode et l\u2019outillage d\u00e9velopp\u00e9s permettent de d\u00e9terminer \u00e0 la vol\u00e9e, en interaction avec l\u2019utilisateur, la granularit\u00e9 des types d\u2019entit\u00e9s adapt\u00e9e \u00e0 un corpus de texte tout-venant.","translation":["Ubiq: a platform for crawling, analyzing and exploiting corpora","Proxem publishes Ubiq, a platform for web crawling and semantic analysis, which can extract relevant information from large corpus. Documents are of great variety: reviews crawled from websites, emails about complaints or requests for information, answers to open questions in surveys, employment offers or job applications, etc. Named Entity Recognition plays a key role since it is a prerequisite to further semantic processing. The design of a NER module generally requires a significant upfront investment with some domain adaptation. Ubiq proposes a semi-supervised approach to NER that takes into account the crawled corpus and external resources (Wikipedia). The proposed method and tools allow to get on the fly, with some user interaction, the type granularity of entities suitable for a given corpus.","named entities, disambiguation, machine learning, Wikipedia, categorization"],"keyphrases":["entit\u00e9s nomm\u00e9es","apprentissage","Wikip\u00e9dia","d\u00e9sambigu\u00efsation","cat\u00e9gorisation"],"prmu":["P","P","P","U","U"]} {"id":"taln-2014-demo-008","title":"Zodiac : Insertion automatique des signes diacritiques du fran\u00e7ais","abstract":"Nous proposons dans cette d\u00e9monstration de pr\u00e9senter le logiciel Zodiac, permettant l\u2019insertion automatique de diacritiques (accents, c\u00e9dilles, etc.) dans un texte fran\u00e7ais. Zodiac prend la forme d\u2019un compl\u00e9ment Microsoft Word sous Windows permettant des corrections automatiques du texte au cours de la frappe. Sous Linux et Mac OS X, il est impl\u00e9ment\u00e9 comme un programme sur ligne de commande, se pr\u00eatant naturellement \u00e0 lire ses entr\u00e9es sur un \u00ab pipeline \u00bb et \u00e9crire ses sorties sur la sortie standard. Impl\u00e9ment\u00e9 en UTF-8, il met en oeuvre diverses librairies C++ utiles \u00e0 certaines t\u00e2ches du TAL, incluant la manipulation de mod\u00e8les de langue statistiques.","translation":["A Tool for the Automatic Insertion of Diacritics in French","In this demo session, we propose to show how the software module Zodiac works. It allows the automatic insertion of diacritical marks (accents, cedillas, etc.) in text written in French. Zodiac is implemented as a Microsoft Word add-in under Windows, allowing automatic corrections as the user is typing. Under Linux and Mac OS X, it is implemented as a command-line utility, lending itself naturally to be used in a text-processing pipeline. Zodiac handles UTF-8, and showcases some useful C++ libraries for natural language processing, including statistical language modeling.","text editing, diacritical marks, statistical language models"],"keyphrases":["diacritiques","aide \u00e0 la r\u00e9daction","mod\u00e8les de langue probabilistes"],"prmu":["P","M","M"]} {"id":"taln-2014-demo-009","title":"Le syst\u00e8me STAM","abstract":"Le projet STAM aborde la probl\u00e9matique de la transcription automatique du langage texto (SMS) et plus particuli\u00e8rement la traduction des messages \u00e9crits en arabe dialectal. L\u2019objectif du syst\u00e8me STAM est de traduire automatiquement des textes r\u00e9dig\u00e9s en langage SMS dans un dialecte parl\u00e9 dans le monde arabe (langue source) en un texte facilement interpr\u00e9table, compr\u00e9hensible et en bon fran\u00e7ais (langue cible).","translation":["The STAM System","The STAM project addresses the problem of automatic transcription of SMS language and especially the translation of messages written in Arabic dialect. The objective of STAM system is to automatically translate texts written in SMS language in a dialect spoken in the Arab World (source language) into a French text (target language), interpretable and understandable.","Dialect, SMS, Transcription, STAM"],"keyphrases":["STAM","Transcription","SMS","Dialecte"],"prmu":["P","P","P","P"]} {"id":"taln-2014-demo-010","title":"DictaNum : syst\u00e8me de dialogue incr\u00e9mental pour la dict\u00e9e de num\u00e9ros.","abstract":"Les strat\u00e9gies de dialogue incr\u00e9mentales offrent une meilleure r\u00e9activit\u00e9, une exp\u00e9rience utilisateur plus aboutie et une r\u00e9duction du risque de d\u00e9synchronisation. Cependant, les syst\u00e8mes de dialogue incr\u00e9mentaux sont bas\u00e9s sur une architecture logicielle dont l\u2019implantation est longue, difficile et donc co\u00fbteuse. Pour faciliter cette \u00e9volution d\u2019architecture, nous proposons de simuler un comportement incr\u00e9mental en ajoutant une surcouche \u00e0 un service de dialogue traditionnel existant. DictaNum est un d\u00e9monstrateur de dialogue incr\u00e9mental mettant en oeuvre cette d\u00e9marche. Sa t\u00e2che consiste \u00e0 recueillir des num\u00e9ros aupr\u00e8s des utilisateurs. Gr\u00e2ce \u00e0 son fonctionnement incr\u00e9mental, il autorise une correction rapide des erreurs au fil de la dict\u00e9e.","translation":["DictaNum: a dialogue system for numbers dictation","Incremental dialogue strategies are more reactive, offer a better user experience and reduce desynchronisation risks. However, incremental dialogue systems are based on architectures that are long, difficult and hence costly to implement. In order to make this architecture evolution easier, we suggest to simulate incremental behavior by adding a new layer to an existing traditional service. DictaNum is an incremental dialogue demonstrator that uses this approach. It collects numbers dictated by the user. Thanks to its incremental behavior, it makes it possible to rapidly correct errors on the fly.","Dialogue Systems, Incremental Processing, Dialogue Systems Architectures"],"keyphrases":["Syst\u00e8mes de Dialogue","Traitement Incr\u00e9mental","Architecture des Syst\u00e8mes de Dialogue"],"prmu":["P","M","R"]} {"id":"taln-2014-demo-011","title":"Construction (tr\u00e8s) rapide de tables de traduction \u00e0 partir de grands bi-textes","abstract":"Dans cet article de d\u00e9monstration, nous introduisons un logiciel permettant de construire des tables de traduction de mani\u00e8re beaucoup plus rapide que ne le font les techniques \u00e0 l\u2019\u00e9tat de l\u2019art. Cette acc\u00e9l\u00e9ration notable est obtenue par le biais d\u2019un double \u00e9chantillonnage : l\u2019un permet la s\u00e9lection d\u2019un nombre limit\u00e9 de bi-phrases contenant les segments \u00e0 traduire, l\u2019autre r\u00e9alise un alignement \u00e0 la vol\u00e9e de ces bi-phrases pour extraire des exemples de traduction.","translation":["(Much) Faster Construction of SMT Phrase Tables from Large-scale Parallel Corpora","","statistical machine translation, efficient development, computation time"],"keyphrases":["traduction automatique statistique","d\u00e9veloppement efficace","temps de calcul"],"prmu":["M","U","M"]} {"id":"taln-2014-demo-012","title":"Un assistant vocal personnalisable","abstract":"Nous proposons la d\u00e9monstration d\u2019un assistant personnel bas\u00e9 sur une architecture distribu\u00e9e. Un portail vocal relie l\u2019utilisateur \u00e0 des applications. Celles-ci sont install\u00e9es par l\u2019utilisateur qui compose de ce fait son propre assistant personnel selon ses besoins.","translation":["Enia : A customizable multi-domain assistant","We introduce a personal assistant based on a distributed architecture. A portal connects user to applications. Applications are installed by a user who compose his own assistant according to his needs.","Dialogue system, natural language processing applications, personal assistant"],"keyphrases":["assistant personnel","Syst\u00e8me de dialogue","applications du traitement automatique du langage naturel"],"prmu":["P","M","M"]} {"id":"taln-2014-demo-013","title":"Mesurer la similarit\u00e9 structurelle entre r\u00e9seaux lexicaux","abstract":"Dans cet article, nous comparons la structure topologique des r\u00e9seaux lexicaux avec une m\u00e9thode fond\u00e9e sur des marches al\u00e9atoires. Au lieu de caract\u00e9riser les paires de sommets selon un crit\u00e8re binaire de connectivit\u00e9, nous mesurons leur proximit\u00e9 structurelle par la probabilit\u00e9 relative d\u2019atteindre un sommet depuis l\u2019autre par une courte marche al\u00e9atoire. Parce que cette proximit\u00e9 rapproche les sommets d\u2019une m\u00eame zone dense en ar\u00eates, elle permet de comparer la structure topologique des r\u00e9seaux lexicaux.","translation":["Measuring the structural similarity between lexical networks","In this paper, we compare the topological structure of lexical networks with a method based on random walks. Instead of characterising pairs of vertices according only to whether they are connected or not, we measure their structural proximity by evaluating the relative probability of reaching one vertex from the other via a short random walk. This proximity between vertices is the basis on which we can compare the topological structure of lexical networks because it outlines the similar dense zones of the graphs.","Lexical networks, small worlds, comparison graphs, random walks"],"keyphrases":["R\u00e9seaux lexicaux","marches al\u00e9atoires","r\u00e9seaux petits mondes","comparaison de graphes"],"prmu":["P","P","M","M"]} {"id":"taln-2014-demo-014","title":"Un reconnaisseur d\u2019entit\u00e9s nomm\u00e9es du Fran\u00e7ais","abstract":"Nous proposons une d\u00e9monstration d\u2019un reconnaisseur d\u2019entit\u00e9s nomm\u00e9es du Fran\u00e7ais appris automatiquement sur le French TreeBank annot\u00e9 en entit\u00e9s nomm\u00e9es.","translation":["A Named Entity recognizer for French","We propose to demonstrate a french named entity recognizer trained on the French TreeBank enriched with named entity annotations.","NER, POS, machine learning, French Treebank, information extraction, CRF"],"keyphrases":["French Treebank","REN","POS","apprentissage automatique","extraction d\u2019information","CRF"],"prmu":["P","U","U","M","M","U"]} {"id":"taln-2013-invite-001","title":"Am\u00e9liorer la traduction des langages morphologiquement riches","abstract":"Si les techniques statistiques pour la traduction automatique ont fait des progr\u00e8s significatifs au cours des 20 derni\u00e8res ann\u00e9es, les r\u00e9sultats pour la traduction de langues morphologiquement riches sont toujours mitig\u00e9s par rapport aux pr\u00e9c\u00e9dentes g\u00e9n\u00e9rations de syst\u00e8mes \u00e0 base de r\u00e8gles. Les recherches actuelles en traduction statistique de langues morphologiquement riches varient grandement en fonction de la quantit\u00e9 de connaissances linguistiques utilis\u00e9es et de la nature de ces connaissances. Cette variation est plus importante en langue cible (par exemple, les ressources utilis\u00e9es en traduction automatique statistique respectueuse de linguistique en arabe, en fran\u00e7ais et en allemand sont tr\u00e8s diff\u00e9rentes). La conf\u00e9rence portera sur les techniques \u00e9tat de l\u2019art d\u00e9di\u00e9es \u00e0 la t\u00e2che de traduction statistique pour une langue cible qui est morphologiquement plus riche que la langue source.","translation":["Improving Translation to Morphologically Rich Languages","While statistical techniques for machine translation have made significant progress in the last 20 years, results for translating to morphologically rich languages are still mixed versus previous generation rule-based systems. Current research in statistical techniques for translating to morphologically rich languages varies greatly in the amount of linguistic knowledge used and the form of this linguistic knowledge. This varies most strongly by target language (e.g., the resources used for linguistically-aware statistical machine translation to Arabic, French, German are very different). The talk will discuss state-of-the-art techniques for statistical translation tasks involving translating to a target language which is morphologically richer than the source language.","statistical translation, morphologically rich languages, linguistic knowledge"],"keyphrases":["langages morphologiquement riches","traduction statistique","connaissances linguistiques"],"prmu":["P","P","P"]} {"id":"taln-2013-invite-002","title":"Recherche d\u2019Information et Traitement Automatique des Langues Naturelles","abstract":"La recherche d\u2019information s\u2019int\u00e9resse \u00e0 l\u2019acc\u00e8s aux documents et une majorit\u00e9 de travaux dans le domaine s\u2019appuie sur les \u00e9l\u00e9ments textuels de ces documents \u00e9crits en langage naturel. Les requ\u00eates soumisses par les utilisateurs de moteurs de recherche sont \u00e9galement textuelles, m\u00eame si elles sont tr\u00e8s pauvres d\u2019un point de vue linguistique. Il parait donc naturel que les travaux en recherche d\u2019information cherchent \u00e0 s\u2019alimenter par les avanc\u00e9es et les r\u00e9sultats en traitement automatique des langues naturelles. Malgr\u00e9 les espoirs d\u00e9\u00e7us des ann\u00e9es 80, l\u2019engouement pour l\u2019utilisation du traitement du langage naturel en recherche d\u2019information reste intact, pouss\u00e9 par les nouvelles perspectives offertes. Dans cette conf\u00e9rence, nous balayerons les aspects de la recherche d\u2019information qui se sont le plus appuy\u00e9s sur des \u00e9l\u00e9ments du traitement automatique des langues naturelles. Nous pr\u00e9senterons en particulier quelques r\u00e9sultats relatifs \u00e0 la reformulation automatique de requ\u00eates, \u00e0 la pr\u00e9diction de la difficult\u00e9 des requ\u00eates, au r\u00e9sum\u00e9 automatique et \u00e0 la contextualisation de textes courts ainsi que les perspectives actuelles offertes en particulier par les travaux en linguistique computationnelle.","translation":["Information Retrieval and Natural Language Processing","Information retrieval aims at providing means to access documents. Most of current work in the domain relies on the textual elements of these documents which are written in natural language. Users\u2019 queries are also generally textual, even if the queries are very poor from a linguistic point of view. As a results information retrieval field aimed at feeding on advances and results from natural language processing field. In spite of the disappointed hopes of the 80s, the enthusiasm for using natural language processing in information retrieval remains high, pushed by the new perspectives. In this talk, we will mention the various aspects of information retrieval which rely, at various levels, on natural language processing components. We will present in particular some results regardless automatic query reformulation, query difficulty prediction, automatic summarization and short text contextualization as well as some perspectives offered in particular considering computational linguistics.","Information retrieval, natural language processing, query reformulation, query difficulty, automatic summarization"],"keyphrases":["Recherche d\u2019information","traitement automatique des langues","difficult\u00e9 des requ\u00eates","r\u00e9sum\u00e9 automatique","reformulation de requ\u00eates"],"prmu":["P","P","P","P","R"]} {"id":"taln-2013-charte-001","title":"La Charte \u00c9thique et Big Data : pour des ressources pour le TAL (enfin !) tra\u00e7ables et p\u00e9rennes","abstract":"La charte Ethique & Big Data a \u00e9t\u00e9 con\u00e7ue \u00e0 l\u2019initiative de l\u2019ATALA, de l\u2019AFCP, de l\u2019APROGED et de CAP DIGITAL, au sein d\u2019un groupe de travail mixte r\u00e9unissant d\u2019autres partenaires acad\u00e9miques et industriels (tels que le CERSA-CNRS, Digital Ethics, Eptica-Lingway, le cabinet It\u00e9anu ou ELRA\/ELDA). Elle se donne comme objectif de fournir des garanties concernant la tra\u00e7abilit\u00e9 des donn\u00e9es (notamment des ressources langagi\u00e8res), leur qualit\u00e9 et leur impact sur l\u2019emploi. Cette charte a \u00e9t\u00e9 adopt\u00e9e par Cap Digital (co-r\u00e9dacteur). Nous avons \u00e9galement propos\u00e9 \u00e0 la DGLFLF et \u00e0 l\u2019ANR de l\u2019utiliser. Elle est aujourd\u2019hui disponible sous forme de wiki, de fichier pdf et il en existe une version en anglais. La charte est d\u00e9crite en d\u00e9tails dans (Couillault et Fort, 2013).","translation":["The Ethics & Big Data Charter : for tractable and lasting NLP resources","The Ethics & Big Data Charter was designed by ATALA, AFCP, APROGED and CAP DIGITAL, in a working group including other academic and industrial partners (such as CERSA-CNRS, Digital Ethics, Eptica-Lingway, It\u00e9anu office or ELRA\/ELDA). Its aims at ensuring the traceability and quality of the data (including language resources), how they are produced and their impact on working conditions. This charter has been adopted by Cap Digital (co-writer). We also proposed it to DGLFLF and ANR. As of today, it is available as a wiki, a pdf file and an English version 6. The charter is detailled in (Couillault et Fort, 2013).","ethics, big data, language resources"],"keyphrases":["\u00e9thique","big data","ressources langagi\u00e8res"],"prmu":["P","P","P"]} {"id":"taln-2013-long-001","title":"Analyse Automatique de la Morphologie Nominale Amazighe","abstract":"Dans le but de pr\u00e9server le patrimoine amazighe et \u00e9viter qu\u2019il soit menac\u00e9 de disparition, il semble opportun de doter cette langue de moyens n\u00e9cessaires pour faire face aux enjeux de l'acc\u00e8s au domaine de l'Information et de la Communication (TIC). Dans ce contexte, et dans la perspective de construire des outils et des ressources linguistiques pour le traitement automatique de cette langue, nous avons entrepris de construire un syst\u00e8me d\u2019analyse morphologique pour l\u2019amazighe standard du Maroc. Ce syst\u00e8me profite des apports des mod\u00e8les { \u00e9tats finis au sein de l\u2019environnement linguistique de d\u00e9veloppement NooJ en faisant appel \u00e0 des r\u00e8gles grammaticales \u00e0 large couverture.","translation":["Morphological analysis of the standard Amazigh language using NooJ platform","In the aim of safeguarding the Amazigh heritage from being threathned of disappearance, it seems opportune to equip this language of necessary means to confront the stakes of access to the domain of New Information and Communication Technologies (ICT). In this context, and in the perspective to build tools and linguistic resources for the automatic processing of Amazigh language, we have undertaken to develop a system of a morphological description for standard Amazigh of Morocco. This system uses finite state technology, within the linguistic developmental environment NooJ by using a large-coverage of morphological grammars covering all grammatical rules.","Amazigh language, NLP, NooJ, morphological analysis, inflectional morphology, derivational morphology"],"keyphrases":["analyse morphologique","NooJ","La langue amazighe","TALN","morphologie flexionnelle","morphologie d\u00e9rivationnelle"],"prmu":["P","P","R","U","M","M"]} {"id":"taln-2013-long-002","title":"Apprentissage symbolique et statistique pour le chunking:comparaison et combinaisons","abstract":"Nous d\u00e9crivons dans cet article l\u2019utilisation d\u2019algorithmes d\u2019inf\u00e9rence grammaticale pour la t\u00e2che de chunking, pour ensuite les comparer et les combiner avec des CRF (Conditional Random Fields), \u00e0 l\u2019efficacit\u00e9 \u00e9prouv\u00e9e pour cette t\u00e2che. Notre corpus est extrait du French TreeBank. Nous proposons et \u00e9valuons deux mani\u00e8res diff\u00e9rentes de combiner mod\u00e8le symbolique et mod\u00e8le statistique appris par un CRF et montrons qu\u2019ils b\u00e9n\u00e9ficient dans les deux cas l\u2019un de l\u2019autre.","translation":["Symbolic and statistical learning for chunking : comparison and combinations","We describe in this paper how to use grammatical inference algorithms for chunking, then compare and combine them to CRFs (Conditional Random Fields) which are known efficient for this task. Our corpus is extracted from the FrenchTreebank. We propose and evaluate two ways of combining a symbolic model and a statistical model learnt by a CRF, and show that in both cases they benefit from one another.","machine learning, chunking, CRF, grammatical inference, k-RI, French TreeBank"],"keyphrases":["chunking","inf\u00e9rence grammaticale","CRF","apprentissage automatique","k-RI","FrenchTreeBank"],"prmu":["P","P","P","M","U","U"]} {"id":"taln-2013-long-003","title":"L\u2019utilisation des POMDP pour les r\u00e9sum\u00e9s multi-documents orient\u00e9s par une th\u00e9matique","abstract":"L\u2019objectif principal du r\u00e9sum\u00e9 multi-documents orient\u00e9 par une th\u00e9matique est de g\u00e9n\u00e9rer un r\u00e9sum\u00e9 \u00e0 partir de documents sources en r\u00e9ponse \u00e0 une requ\u00eate formul\u00e9e par l\u2019utilisateur. Cette t\u00e2che est difficile car il n\u2019existe pas de m\u00e9thode efficace pour mesurer la satisfaction de l\u2019utilisateur. Cela introduit ainsi une incertitude dans le processus de g\u00e9n\u00e9ration de r\u00e9sum\u00e9. Dans cet article, nous proposons une mod\u00e9lisation de l\u2019incertitude en formulant notre syst\u00e8me de r\u00e9sum\u00e9 comme un processus de d\u00e9cision markovien partiellement observables (POMDP) car dans de nombreux domaines on a montr\u00e9 que les POMDP permettent de g\u00e9rer efficacement les incertitudes. Des exp\u00e9riences approfondies sur les jeux de donn\u00e9es du banc d\u2019essai DUC ont d\u00e9montr\u00e9 l\u2019efficacit\u00e9 de notre approche.","translation":["Using POMDPs for Topic-Focused Multi-Document Summarization","The main goal of topic-focused multidocument summarization is to generate a summary from the source documents in response to a given query or particular information requested by the user. This task is difficult in large part because there is no significant way of measuring whether the user is satisfied with the information provided. This introduces uncertainty in the current state of the summary generation procedure. In this paper, we model the uncertainty explicitly by formulating our summarization system as a Partially Observable Markov Decision Process (POMDP) since researchers in many areas have shown that POMDPs can deal with uncertainty successfully. Extensive experiments on the DUC benchmark datasets demonstrate the effectiveness of our approach.","Topic-focused multi-document summarization, POMDP"],"keyphrases":["POMDP","R\u00e9sum\u00e9 multi-document","r\u00e9sum\u00e9 orient\u00e9 requ\u00eate"],"prmu":["P","P","R"]} {"id":"taln-2013-long-004","title":"S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel","abstract":"Les travaux se focalisant sur la construction de th\u00e9saurus distributionnels ont montr\u00e9 que les relations s\u00e9mantiques qu\u2019ils rec\u00e8lent sont principalement fiables pour les mots de forte fr\u00e9quence. Dans cet article, nous proposons une m\u00e9thode pour r\u00e9\u00e9quilibrer de tels th\u00e9saurus en faveur des mots de fr\u00e9quence faible sur la base d\u2019un m\u00e9canisme d\u2019amor\u00e7age : un ensemble d\u2019exemples et de contre-exemples de mots s\u00e9mantiquement similaires sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e et utilis\u00e9s pour entra\u00eener un classifieur supervis\u00e9. Celui-ci est ensuite appliqu\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques du th\u00e9saurus utilis\u00e9 pour s\u00e9lectionner les exemples et contre-exemples. Nous montrons comment les relations entre les constituants de noms compos\u00e9s similaires peuvent \u00eatre utilis\u00e9es pour r\u00e9aliser une telle s\u00e9lection et comment conjuguer ce crit\u00e8re \u00e0 un crit\u00e8re d\u00e9j\u00e0 exp\u00e9riment\u00e9 sur la sym\u00e9trie des relations s\u00e9mantiques. Nous \u00e9valuons l\u2019int\u00e9r\u00eat de cette proc\u00e9dure sur un large ensemble de noms en anglais couvrant un vaste spectre de fr\u00e9quence.","translation":["Unsupervised selection of semantic relations for improving a distributional thesaurus","Work about distributional thesauri has shown that the relations in these thesauri are mainly reliable for high frequency words. In this article, we propose a method for improving such a thesaurus through its re-balancing in favor of low frequency words. This method is based on a bootstrapping mechanism : a set of positive and negative examples of semantically similar words are selected in an unsupervised way and used for training a supervised classifier. This classifier is then applied for reranking the semantic neighbors of the thesaurus used for example selection. We show how the relations between the mono-terms of similar nominal compounds can be used for performing this selection and how to associate this criterion with an already tested criterion based on the symmetry of semantic relations. We evaluate the interest of the global procedure for a large set of English nouns with various frequencies.","Lexical semantics, semantic similarity, distributional thesauri"],"keyphrases":["th\u00e9saurus","S\u00e9mantique lexicale","similarit\u00e9 s\u00e9mantique"],"prmu":["P","M","M"]} {"id":"taln-2013-long-005","title":"Groupement de termes bas\u00e9 sur des r\u00e9gularit\u00e9s linguistiques et s\u00e9mantiques dans un contexte cross-langue","abstract":"Nous proposons d\u2019exploiter des m\u00e9thodes du Traitement Automatique de Langues d\u00e9di\u00e9es \u00e0 la structuration de terminologie ind\u00e9pendamment dans deux langues (anglais et fran\u00e7ais) et de fusionner ensuite les r\u00e9sultats obtenus dans chaque langue. Les termes sont group\u00e9s en clusters gr\u00e2ce aux relations g\u00e9n\u00e9r\u00e9es. L\u2019\u00e9valuation de ces relations est effectu\u00e9e au travers de la comparaison des clusters avec des donn\u00e9es de r\u00e9f\u00e9rence et la baseline, tandis que la compl\u00e9mentarit\u00e9 des relations est analys\u00e9e au travers de leur implication dans la cr\u00e9ation de clusters de termes. Les r\u00e9sultats obtenus indiquent que : chaque langue contribue de mani\u00e8re \u00e9quilibr\u00e9e aux r\u00e9sultats, le nombre de relations hi\u00e9rarchiques communes est plus grand que le nombre de relations synonymiques communes. Globalement, les r\u00e9sultats montrent que, dans un contexte cross-langue, chaque langue permet de d\u00e9tecter des r\u00e9gularit\u00e9s linguistiques et s\u00e9mantiques compl\u00e9mentaires. L\u2019union des r\u00e9sultats obtenus dans les deux langues am\u00e9liore la qualit\u00e9 globale des clusters.","translation":["Grouping of terms based on linguistic and semantic regularities in a cross-lingual context","We propose to exploit the Natural Language Processing methods dedicated to terminology structuring independently in two languages (English and French) and then to merge the results obtained in each language. The terms are grouped into clusters thanks to the generated relations. The evaluation of the relations is done via the comparison of the clusters with the reference data and the baseline, while the complementarity of the relations is analyzed through their involvement in the clusters of terms. Our results indicate that : each language contributes almost equally to the generated results ; the number of common hierarchical relations is greater than the number of common synonym relations. On the whole, the obtained results point out that in a cross-language context, each language brings additional linguistic and semantic regularities. The union of the results obtained in each language improves the overall quality of the clusters.","Semantic relations, terms, specialized areas, medicine, cross-lingual context"],"keyphrases":["termes","Relations s\u00e9mantiques","domaine de sp\u00e9cialit\u00e9","m\u00e9decine","contexte crosslangue"],"prmu":["P","R","M","U","M"]} {"id":"taln-2013-long-006","title":"WoNeF : am\u00e9lioration, extension et \u00e9valuation d\u2019une traduction fran\u00e7aise automatique de WordNet","abstract":"Identifier les sens possibles des mots du vocabulaire est un probl\u00e8me difficile demandant un travail manuel tr\u00e8s cons\u00e9quent. Ce travail a \u00e9t\u00e9 entrepris pour l\u2019anglais : le r\u00e9sultat est la base de donn\u00e9es lexicale WordNet, pour laquelle il n\u2019existe encore que peu d\u2019\u00e9quivalents dans d\u2019autres langues. N\u00e9anmoins, des traductions automatiques de WordNet vers de nombreuses langues cibles existent, notamment pour le fran\u00e7ais. JAWS est une telle traduction automatique utilisant des dictionnaires et un mod\u00e8le de langage syntaxique. Nous am\u00e9liorons cette traduction, la compl\u00e9tons avec les verbes et adjectifs de WordNet, et d\u00e9montrons la validit\u00e9 de notre approche via une nouvelle \u00e9valuation manuelle. En plus de la version principale nomm\u00e9e WoNeF, nous produisons deux versions suppl\u00e9mentaires : une version \u00e0 haute pr\u00e9cision (93% de pr\u00e9cision, jusqu\u2019\u00e0 97% pour les noms), et une version \u00e0 haute couverture contenant 109 447 paires (litt\u00e9ral, synset).","translation":["WoNeF, an improved, extended and evaluated automatic French translation of WordNet","Identifying the various possible meanings of each word of the vocabulary is a difficult problem that requires a lot of manual work. It has been tackled by the WordNet lexical semantics database in English, but there are still few resources available for other languages. Automatic translations of WordNet have been tried to many target languages such as French. JAWS is such an automatic translation of WordNet nouns to French using bilingual dictionaries and a syntactic langage model. We improve the existing translation precision and coverage, complete it with translations of verbs and adjectives and enhance its evaluation method, demonstrating the validity of the approach. In addition to the main result called WoNeF, we produce two additional versions : a high-precision version with 93% precision (up to 97% on nouns) and a high-coverage version with 109,447 (literal, synset) pairs.","WordNet, Word Sense Disambiguation, translation, resource"],"keyphrases":["traduction","WordNet","d\u00e9sambigu\u00efsation lexicale","ressource"],"prmu":["P","P","M","U"]} {"id":"taln-2013-long-007","title":"Approches statistiques discriminantes pour l\u2019interpr\u00e9tation s\u00e9mantique multilingue de la parole","abstract":"Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d\u2019une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l\u2019interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d\u2019informations riches entre les composants d\u2019un syst\u00e8me d\u2019interaction vocale homme-machine.","translation":["Discriminative statistical approaches for multilingual speech understanding","Statistical approaches are now widespread in the various applications of natural language processing and the elicitation of an approach usually depends on the targeted task. This paper presents a comparison between the methods used for machine translation and speech understanding. This comparison allows to propose a unified approach to perform a joint decoding which translates a sentence and assign semantic tags to the translation at the same time. This decoding is achieved through a finite-state transducer approach which allows to compose a translation graph with an understanding graph. This representation can be generalized to allow the rich transmission of information between the components of a human-machine vocal interface.","multilingual understanding, dialogue system, CRF, hypothesis graphs"],"keyphrases":["compr\u00e9hension multilingue","syst\u00e8me de dialogue","CRF","graphes d\u2019hypoth\u00e8ses"],"prmu":["R","M","U","M"]} {"id":"taln-2013-long-008","title":"Identification automatique des relations discursives \u00ab implicites \u00bb \u00e0 partir de donn\u00e9es annot\u00e9es et de corpus bruts","abstract":"Cet article pr\u00e9sente un syst\u00e8me d\u2019identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s\u2019appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d\u2019une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l\u2019ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l\u2019anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu\u2019annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d\u2019une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l\u2019adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l\u2019ordre de 45.6% d\u2019exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n\u2019utilisant que les donn\u00e9es annot\u00e9es manuellement.","translation":["Automatically identifying implicit discourse relations using annotated data and raw corpora","This paper presents a system for identifying \u00ab implicit \u00bb discourse relations (that is, relations that are not marked by a discourse connective). Given the little amount of available annotated data for this task, our system also resorts to additional automatically labeled data wherein unambiguous connectives have been suppressed and used as relation labels, a method introduced by (Marcu et Echihabi, 2002). As shown by (Sporleder et Lascarides, 2008) for English, this approach doesn\u2019t generalize well to implicit relations as annotated by humans. We show that the same conclusion applies to French due to important distribution differences between the two types of data. In consequence, we propose various simple methods, all inspired from work on domain adaptation, with the aim of better combining annotated data and artificial data. We evaluate these methods through various experiments carried out on the ANNODIS corpus : our best system reaches a labeling accuracy of 45.6%, corresponding to a 5.9% significant gain over a system solely trained on manually labeled data.","discourse analysis, implicit relations, machine learning"],"keyphrases":["relations implicites","analyse du discours","apprentissage automatique"],"prmu":["P","M","M"]} {"id":"taln-2013-long-009","title":"Apprentissage d\u2019une hi\u00e9rarchie de mod\u00e8les \u00e0 paires sp\u00e9cialis\u00e9s pour la r\u00e9solution de la cor\u00e9f\u00e9rence","abstract":"Nous proposons une nouvelle m\u00e9thode pour am\u00e9liorer significativement la performance des mod\u00e8les \u00e0 paires de mentions pour la r\u00e9solution de la cor\u00e9f\u00e9rence. \u00c9tant donn\u00e9 un ensemble d\u2019indicateurs, notre m\u00e9thode apprend \u00e0 s\u00e9parer au mieux des types de paires de mentions en classes d\u2019\u00e9quivalence, chacune de celles-ci donnant lieu \u00e0 un mod\u00e8le de classification sp\u00e9cifique. La proc\u00e9dure algorithmique propos\u00e9e trouve le meilleur espace de traits (cr\u00e9\u00e9 \u00e0 partir de combinaisons de traits \u00e9l\u00e9mentaires et d\u2019indicateurs) pour discriminer les paires de mentions cor\u00e9f\u00e9rentielles. Bien que notre approche explore un tr\u00e8s vaste ensemble d\u2019espaces de trait, elle reste efficace en exploitant la structure des hi\u00e9rarchies construites \u00e0 partir des indicateurs. Nos exp\u00e9riences sur les donn\u00e9es anglaises de la CoNLL-2012 Shared Task indiquent que notre m\u00e9thode donne des gains de performance par rapport au mod\u00e8le initial utilisant seulement les traits \u00e9l\u00e9mentaires, et ce, quelque soit la m\u00e9thode de formation des cha\u00eenes ou la m\u00e9trique d\u2019\u00e9valuation choisie. Notre meilleur syst\u00e8me obtient une moyenne de 67.2 en F1-mesure MUC, B3 et CEAF ce qui, malgr\u00e9 sa simplicit\u00e9, le situe parmi les meilleurs syst\u00e8mes test\u00e9s sur ces donn\u00e9es.","translation":["Learning a hierarchy of specialized pairwise models for coreference resolution","This paper proposes a new method for significantly improving the performance of pairwise coreference models. Given a set of indicators, our method learns how to best separate types of mention pairs into equivalence classes for which we construct distinct classification models. In effect, our approach finds the best feature space (derived from a base feature set and indicator set) for discriminating coreferential mention pairs. Although our approach explores a very large space of possible features spaces, it remains tractable by exploiting the structure of the hierarchies built from the indicators. Our experiments on the CoNLL-2012 shared task English datasets indicate that our method is robust to different clustering strategies and evaluation metrics, showing large and consistent improvements over a single pairwise model using the same base features. Our best system obtains 67.2 of average F1 over MUC, B3, and CEAF which, despite its simplicity, places it among the best performing systems on these datasets.","coreference resolution, machine learning"],"keyphrases":["r\u00e9solution de la cor\u00e9f\u00e9rence","apprentissage automatique"],"prmu":["P","M"]} {"id":"taln-2013-long-010","title":"Apprentissage supervis\u00e9 pour l\u2019identification de relations s\u00e9mantiques au sein de structures \u00e9num\u00e9ratives parall\u00e8les","abstract":"Ce travail s\u2019inscrit dans le cadre de la construction et l\u2019enrichissement d\u2019ontologies \u00e0 partir de textes de type encyclop\u00e9dique ou scientifique. L\u2019originalit\u00e9 de notre travail r\u00e9side dans l\u2019extraction de relations s\u00e9mantiques exprim\u00e9es au-del\u00e0 de la lin\u00e9arit\u00e9 du texte. Pour cela, nous nous appuyons sur la s\u00e9mantique v\u00e9hicul\u00e9e par les caract\u00e8res typo-dispositionels qui ont pour fonction de suppl\u00e9er des formulations strictement linguistiques qui seraient plus difficilement exploitables. L\u2019\u00e9tude que nous proposons concerne les relations s\u00e9mantiques port\u00e9es par les structures \u00e9num\u00e9ratives parall\u00e8les qui, bien qu\u2019affichant des discontinuit\u00e9s entre ses diff\u00e9rents composants, pr\u00e9sentent un tout sur le plan s\u00e9mantique. Ce sont des structures textuelles qui sont propices aux relations hi\u00e9rarchiques. Apr\u00e8s avoir d\u00e9fini une typologie des relations port\u00e9es par ce type de structure, nous proposons une approche par apprentissage visant \u00e0 leur identification. Sur la base de traits incorporant informations lexico-syntaxiques et typo-dispositionnelles, les premiers r\u00e9sultats aboutissent \u00e0 une exactitude de 61,1%.","translation":["A Supervised learning for the identification of semantic relations in parallel enumerative structures","This work falls within the framework of ontology engineering and learning from encyclopedic or scientific texts. Our original contribution lies within the extraction of semantic relations expressed beyond the text linearity. To this end, we relied on the semantics behind the typo-dispositional characters whose function is to supplement the strictly linguistic formulations that could be more difficult to exploit. The work reported here is dealing with the semantic relations carried by the parallel enumerative structures. Although they display discontinuities between their various components, these enumerative structures form a whole at the semantic level. They are textual structures that are prone to hierarchic relations. After defining a typology of the relationships carried by this type of structure, we are proposing a learning approach aimed at their identification. Based on features including lexico-syntactic and typo-dispositional informations, the first results led an accuracy of 61.1%.","relationship extraction, parallel enumerative structures, material shaping, supervised learning, ontology learning"],"keyphrases":["apprentissage supervis\u00e9","structures \u00e9num\u00e9ratives parall\u00e8les","extraction de relations","mise en forme mat\u00e9rielle","construction d\u2019ontologies"],"prmu":["P","P","P","U","R"]} {"id":"taln-2013-long-011","title":"Techniques de TAL et corpus pour faciliter les formulations en anglais scientifique \u00e9crit","abstract":"Nous pr\u00e9sentons l'adaptation de la base d'\u00e9crits scientifiques en ligne Scientext pour un \u00ab nouveau \u00bb public : chercheurs et autres auteurs fran\u00e7ais d'\u00e9crits scientifiques, ayant besoin de r\u00e9diger en anglais. Cette adaptation a consist\u00e9 \u00e0 ajouter dans la base des requ\u00eates pr\u00e9cod\u00e9es qui permettent d'afficher les contextes dans lesquels les auteurs d'articles scientifiques en anglais expriment leur objectif de recherche et \u00e0 enrichir l'interface ScienQuest de nouvelles fonctionnalit\u00e9s pour m\u00e9moriser et r\u00e9afficher les contextes pertinents, pour faciliter la consultation par un public plus large. Les nombreuses descriptions linguistiques de la rh\u00e9torique des articles scientifiques insistent sur l'importance de la cr\u00e9ation et de l'occupation d'une \u00ab niche \u00bb de recherche. Chercheurs et doctorants ont ici un moyen d'en visualiser des exemples sans conna\u00eetre sa formulation a priori, via nos requ\u00eates. Notre \u00e9valuation sur le corpus de test en donne une pr\u00e9cision globale de 86,5 %.","translation":["NLP and corpus techniques for finding formulations that facilitate scientific writing in English","This paper presents adaptations of the query options integrated into the online corpus Scientext so as to better serve a new audience: French scientists writing in English. We added pre-coded queries that display the contexts in which authors of scientific articles in English state their research objective. Furthermore, new functional options enrich the ScienQuest interface allowing results to be filtered for noise and then saved for consultation by a larger public. Previous studies on the scientific discourse and rhetoric of scientific articles have highlighted the importance of establishing and occupying a research niche. Here, francophone researchers and doctoral students without prior discursive knowledge, can access authentic and multiple ways of formulating a research objective. Our evaluation of a test corpus showed an overall accuracy of 86.5 %.","ESP, lexico-syntactic patterns, ScienQuest, Scientext"],"keyphrases":["anglais","Scientext","ScienQuest","patrons lexico-syntaxiques"],"prmu":["P","P","P","U"]} {"id":"taln-2013-long-012","title":"Construction d\u2019un large corpus \u00e9crit libre annot\u00e9 morpho-syntaxiquement en fran\u00e7ais","abstract":"Cet article \u00e9tudie la possibilit\u00e9 de cr\u00e9er un nouveau corpus \u00e9crit en fran\u00e7ais annot\u00e9 morphosyntaxiquement \u00e0 partir d\u2019un corpus annot\u00e9 existant. Nos objectifs sont de se lib\u00e9rer de la licence d\u2019exploitation contraignante du corpus d\u2019origine et d\u2019obtenir une modernisation perp\u00e9tuelle des textes. Nous montrons qu\u2019un corpus pr\u00e9-annot\u00e9 automatiquement peut permettre d\u2019entra\u00eener un \u00e9tiqueteur produisant des performances \u00e9tat-de-l\u2019art, si ce corpus est suffisamment grand.","translation":["Construction of a Free Large Part-of-Speech Annotated Corpus in French","This paper studies the possibility of creating a new part-of-speech annotated corpus in French from an existing one. The objectives are to propose an exit from the restrictive licence of the source corpus and to obtain a perpetual modernisation of texts. Results show that it is possible to train a state-of-the-art POS-tagger from an automatically tagged corpus if this one is large enough.","French treebank, Building a corpus, Part-of-Speech Tagging"],"keyphrases":["corpus arbor\u00e9","construction de corpus","\u00e9tiquetage morpho-syntaxique"],"prmu":["M","R","M"]} {"id":"taln-2013-long-013","title":"Vers un treebank du fran\u00e7ais parl\u00e9","abstract":"Nous pr\u00e9sentons les premiers r\u00e9sultats d\u2019un corpus arbor\u00e9 pour le fran\u00e7ais parl\u00e9. Il a \u00e9t\u00e9 r\u00e9alis\u00e9 dans le cadre du projet ANR Etape (resp. G. Gravier) en 2011 et 2012. Contrairement \u00e0 d\u2019autres langues comme l\u2019anglais (voir le Switchboard treebank de (Meteer, 1995)), il n\u2019existe pas de grand corpus oral du francais annot\u00e9 et valid\u00e9 pour les constituants et les fonctions syntaxiques. Nous souhaitons construire une ressource comparable, qui serait une extension naturelle du Corpus arbor\u00e9 de Paris 7 (FTB : (Abeill\u00e9 et al., 2003))) bas\u00e9 sur des textes du journal Le Monde. Nous serons ainsi en mesure de comparer, avec des annotations comparables, l\u2019\u00e9crit et l\u2019oral. Les premiers r\u00e9sultats, qui consistent \u00e0 r\u00e9utiliser l\u2019analyseur de (Petrov et al., 2006) entra\u00een\u00e9 sur l\u2019\u00e9crit, avec une phase de correction manuelle, sont encourageants.","translation":["Towards a treebank of spoken French","We present the first results of an attempt to build a spoken treebank for French. It has been conducted as part of the ANR project Etape (resp. G. Gravier). Contrary to other languages such as English (see the Switchboard treebank (Meteer, 1995)), there is no sizable spoken corpus for French annotated for syntactic constituents and grammatical functions. Our project is to build such a resource which will be a natural extension of the Paris 7 treebank (FTB : (Abeill\u00e9 et al., 2003))) for written French, in order to be able to compare with similar annotations written and spoken French. We have reused and adapted the parser (Petrov et al., 2006) which has been trained on the written treebank, with manual correction and validation. The first results are promising.","Treebank, spoken French, spoken corpus, parsing"],"keyphrases":["fran\u00e7ais parl\u00e9","Corpus arbor\u00e9","corpus oral","analyse syntaxique automatique"],"prmu":["P","P","P","M"]} {"id":"taln-2013-long-014","title":"L\u2019apport du faisceau dans l\u2019analyse syntaxique en d\u00e9pendances par transitions : \u00e9tudes de cas avec l\u2019analyseur Talismane","abstract":"L\u2019analyse syntaxique (ou parsing) en d\u00e9pendances par transitions se fait souvent de fa\u00e7on d\u00e9terministe, o\u00f9 chaque \u00e9tape du parsing propose une seule solution comme entr\u00e9e de l\u2019\u00e9tape suivante. Il en va de m\u00eame pour la cha\u00eene compl\u00e8te d\u2019analyse qui transforme un texte brut en graphe de d\u00e9pendances, g\u00e9n\u00e9ralement d\u00e9compos\u00e9 en quatre modules (segmentation en phrases, en mots, \u00e9tiquetage et parsing) : chaque module ne fournit qu\u2019une seule solution au module suivant. On sait cependant que certaines ambigu\u00eft\u00e9s ne peuvent pas \u00eatre lev\u00e9es sans prendre en consid\u00e9ration le niveau sup\u00e9rieur. Dans cet article, nous pr\u00e9sentons l\u2019analyseur Talismane, outil libre et complet d\u2019analyse syntaxique probabiliste du fran\u00e7ais, et nous \u00e9tudions plus pr\u00e9cis\u00e9ment l\u2019apport d\u2019une recherche par faisceau (beam search) \u00e0 l\u2019analyse syntaxique. Les r\u00e9sultats nous permettent \u00e0 la fois de d\u00e9gager la taille de faisceau la plus adapt\u00e9e (qui permet d\u2019atteindre un score de 88,5 % d\u2019exactitude, l\u00e9g\u00e8rement sup\u00e9rieur aux outils comparables), ainsi que les meilleures strat\u00e9gies concernant sa propagation.","translation":["Applying a Beam Search to Transition-based Dependency Parsing: a Case Study for French with the Talismane Suite","Transition-based dependency parsing often uses deterministic techniques, where each parse step provides a single solution as the input to the next step. The same is true for the entire analysis chain which transforms raw text into a dependency graph, generally composed of four modules (sentence detection, tokenising, pos-tagging and parsing): each module provides only a single solution to the following module. However, some ambiguities cannot be resolved without taking the next level into consideration. In this article, we present Talismane, an open-source suite of tools providing a complete statistical parser of French. More specifically, we study the contribution of a beam search to syntax parsing. Our analysis allows us to conclude on the most appropriate beam width (enabling us to attain an accuracy of 88.5%, slightly higher than comparable tools), and on the best strategies concerning beam propagation from one level of analysis to the next.","Dependency parsing, ambiguities, evaluation, beam search"],"keyphrases":["Analyse syntaxique en d\u00e9pendances","ambigu\u00eft\u00e9s","beam search","\u00e9valuation"],"prmu":["P","P","P","U"]} {"id":"taln-2013-long-015","title":"Un mod\u00e8le segmental probabiliste combinant coh\u00e9sion lexicale et rupture lexicale pour la segmentation th\u00e9matique","abstract":"L\u2019identification d\u2019une structure th\u00e9matique dans des donn\u00e9es textuelles quelconques est une t\u00e2che difficile. La plupart des techniques existantes reposent soit sur la maximisation d\u2019une mesure de coh\u00e9sion lexicale au sein d\u2019un segment, soit sur la d\u00e9tection de ruptures lexicales. Nous proposons une nouvelle technique combinant ces deux crit\u00e8res de mani\u00e8re \u00e0 obtenir le meilleur compromis entre coh\u00e9sion et rupture. Nous d\u00e9finissons un nouveau mod\u00e8le probabiliste, fond\u00e9 sur l\u2019approche propos\u00e9e par Utiyama et Isahara (2001), en pr\u00e9servant les propri\u00e9t\u00e9s d\u2019ind\u00e9pendance au domaine et de faible a priori de cette derni\u00e8re. Des \u00e9valuations sont men\u00e9es sur des textes \u00e9crits et sur des transcriptions automatiques de la parole \u00e0 la t\u00e9l\u00e9vision, transcriptions qui ne respectent pas les normes des textes \u00e9crits, ce qui accro\u00eet la difficult\u00e9. Les r\u00e9sultats exp\u00e9rimentaux obtenus d\u00e9montrent la pertinence de la combinaison des crit\u00e8res de coh\u00e9sion et de rupture.","translation":["A probabilistic segment model combining lexical cohesion and disruption for topic segmentation","Identifying topical structure in any text-like data is a challenging task. Most existing techniques rely either on maximizing a measure of the lexical cohesion or on detecting lexical disruptions. A novel method combining the two criteria so as to obtain the best trade-off between cohesion and disruption is proposed in this paper. A new statistical model is defined, based on the work of Isahara and Utiyama (2001), maintaining the properties of domain independence and limited a priori of the latter. Evaluations are performed both on written texts and on automatic transcripts of TV shows, the latter not respecting the norms of written texts, thus increasing the difficulty of the task. Experimental results demonstrate the relevance of combining lexical cohesion and disrupture.","topic segmentation, lexical cohesion, lexical disrupture, TV broadcast news"],"keyphrases":["coh\u00e9sion lexicale","segmentation th\u00e9matique","rupture de coh\u00e9sion","journaux t\u00e9l\u00e9vis\u00e9s"],"prmu":["P","P","R","M"]} {"id":"taln-2013-long-016","title":"Traitements d\u2019ellipses : deux approches par les grammaires cat\u00e9gorielles abstraites","abstract":"L\u2019\u00e9tude de ph\u00e9nom\u00e8nes d\u2019ellipses dans les mod\u00e8les de l\u2019interface syntaxe-s\u00e9mantique pose certains probl\u00e8mes du fait que le mat\u00e9riel linguistique effac\u00e9 au niveau phonologique est n\u00e9anmoins pr\u00e9sent au niveau s\u00e9mantique. Tel est le cas d\u2019une ellipse verbale ou d\u2019une \u00e9lision du sujet, par exemple, ph\u00e9nom\u00e8nes qui interviennent lorsque deux phrases reli\u00e9es par une conjonction partagent le m\u00eame verbe, ou le m\u00eame sujet. Nous proposons un traitement de ces ph\u00e9nom\u00e8nes dans le formalisme des grammaires cat\u00e9gorielles abstraites selon un patron que nous intitulons extraction\/instanciation et que nous impl\u00e9mentons de deux mani\u00e8res diff\u00e9rentes dans les ACGs.","translation":["Treating ellipsis : two abstract categorial grammar perspectives","The treatment of ellipsis in models of the syntax-semantics interface is troublesome as the linguistic material removed in the phonologic interpretation is still necessary in the semantics. Examples are particular cases of coordination, especially the ones involving verbal phrase ellipsis or subject elision. We show a way to use abstract categorial grammars so as to implement a pattern we call extraction\/instantiation in order to deal with some of these phenomena ; we exhibit two different constructions of this principle into ACGs.","ellipsis, coordination, syntax-semantics interface, abstract categorial grammars, tree-adjoining grammars, IO tree-grammars"],"keyphrases":["ellipse","grammaires cat\u00e9gorielles abstraites","interface syntaxe-s\u00e9mantique","coordination","grammaires d\u2019arbres adjoints","grammaires IO d\u2019arbres"],"prmu":["P","P","P","U","M","M"]} {"id":"taln-2013-long-017","title":"Chunks et activation : un mod\u00e8le de facilitation du traitement linguistique","abstract":"Nous proposons dans cet article d\u2019int\u00e9grer la notion de chunk au sein d\u2019une architecture globale de traitement de la phrase. Les chunks jouent un r\u00f4le important dans les th\u00e9ories cognitives comme ACT-R (Anderson et al., 2004) : il s\u2019agit d\u2019unit\u00e9s de traitement globales auxquelles il est possible d\u2019acc\u00e9der directement via des buffers en m\u00e9moire \u00e0 court ou long terme. Ces chunks sont construits par une fonction d\u2019activation (processus cognitif pouvant \u00eatre quantifi\u00e9) s\u2019appuyant sur l\u2019\u00e9valuation de leur relation au contexte. Nous proposons une interpr\u00e9tation de cette th\u00e9orie appliqu\u00e9e \u00e0 l\u2019analyse syntaxique. Un m\u00e9canisme de construction des chunks est propos\u00e9. Nous d\u00e9veloppons pour cela une fonction d\u2019activation tirant parti de la repr\u00e9sentation de l\u2019information linguistique sous forme de contraintes. Cette fonction permet de montrer en quoi les chunks sont faciles \u00e0 construire et comment leur existence facilite le traitement de la phrase. Plusieurs exemples sont propos\u00e9s, illustrant cette hypoth\u00e8se de facilitation.","translation":["Chunks and the notion of activation : a facilitation model for sentence processing","We propose in this paper to integrate the notion of chunk within a global architecture for sentence processing. Chunks play an important role in cognitive theories such as ACT-R cite Anderson04 : they constitute global processing units which can be accessed directly via short or long term memory buffers. Chunks are built on the basis of an activation function evaluating their relationship to the context. We propose an interpretation of this theory applied to parsing. A construction mechanism is proposed, based on an adapted version of the activation function which takes advantage of the representation of linguistic information in terms of constraints. This feature allows to show how chunks are easy to build and how they can facilitate treatment. Several examples are given, illustrating this hypothesis of facilitation.","Chunks, ACT-R, activation, memory, parsing, sentence processing, experimentation"],"keyphrases":["Chunks","activation","traitement de la phrase","ACT-R","m\u00e9moire","parsing","exp\u00e9rimentation"],"prmu":["P","P","P","P","P","U","U"]} {"id":"taln-2013-long-018","title":"Extraction de lexiques bilingues \u00e0 partir de corpus comparables par combinaison de repr\u00e9sentations contextuelles","abstract":"La caract\u00e9risation du contexte des mots constitue le coeur de la plupart des m\u00e9thodes d\u2019extraction de lexiques bilingues \u00e0 partir de corpus comparables. Dans cet article, nous revisitons dans un premier temps les deux principales strat\u00e9gies de repr\u00e9sentation contextuelle, \u00e0 savoir celle par fen\u00eatre ou sac de mots et celle par relations de d\u00e9pendances syntaxiques. Dans un second temps, nous proposons deux nouvelles approches qui exploitent ces deux repr\u00e9sentations de mani\u00e8re conjointe. Nos exp\u00e9riences montrent une am\u00e9lioration significative des r\u00e9sultats sur deux corpus de langue de sp\u00e9cialit\u00e9.","translation":["Bilingual Lexicon Extraction from Comparable Corpora by Combining Contextual Representations","Words context characterisation constitute the heart of most methods of bilingual lexicon extraction from comparable corpora. In this article, we first revisit the two main strategies of context representation, that is : the window-based and the syntactic based context representation. Secondly, we propose two new methods that exploit jointly these different representations . Our experiments show a significant improvement of the results obtained on two different domain specific comparable corpora.","Multilingualism, comparable corpora, bilingual lexicon, context vectors, syntactic dependencies"],"keyphrases":["lexique bilingue","corpus comparables","d\u00e9pendances syntaxiques","Multilingualisme","vecteurs de contexte"],"prmu":["P","P","P","U","M"]} {"id":"taln-2013-long-019","title":"D\u00e9couverte de connaissances dans les s\u00e9quences par CRF non-supervis\u00e9s","abstract":"Les t\u00e2ches de d\u00e9couverte de connaissances ont pour but de faire \u00e9merger des groupes d\u2019entit\u00e9s coh\u00e9rents. Ils reposent le plus souvent sur du clustering, tout l\u2019enjeu \u00e9tant de d\u00e9finir une notion de similarit\u00e9 pertinentes entre ces entit\u00e9s. Dans cet article, nous proposons de d\u00e9tourner les champs al\u00e9atoires conditionnels (CRF), qui ont montr\u00e9 leur int\u00e9r\u00eat pour des t\u00e2ches d\u2019\u00e9tiquetage supervis\u00e9es, pour calculer indirectement ces similarit\u00e9s sur des s\u00e9quences de textes. Pour cela, nous g\u00e9n\u00e9rons des probl\u00e8mes d\u2019\u00e9tiquetage factices sur les donn\u00e9es \u00e0 traiter pour faire appara\u00eetre des r\u00e9gularit\u00e9s dans les \u00e9tiquetages des entit\u00e9s. Nous d\u00e9crivons comment ce cadre peut \u00eatre mis en oeuvre et l\u2019exp\u00e9rimentons sur deux t\u00e2ches d\u2019extraction d\u2019informations. Les r\u00e9sultats obtenus d\u00e9montrent l\u2019int\u00e9r\u00eat de cette approche non-supervis\u00e9e, qui ouvre de nombreuses pistes pour le calcul de similarit\u00e9s dans des espaces de repr\u00e9sentations complexes de s\u00e9quences.","translation":["Unsupervised CRF for knowledge discovery","Knowledge discovery aims at bringing out coherent groups of entities. They are usually based on clustering ; the challenge is then to define a notion of similarity between the relevant entities. In this paper, we propose to divert Conditional Random Fields (CRF), which have shown their interest in supervised labeling tasks, in order tocalculate indirectly the similarities among text sequences. Our approach consists in generate artificial labeling problems on the data to be processed to reveal regularities in the labeling of the entities. We describe how this framework can be implemented and experiment it on two information retrieval tasks. The results demonstrate the usefulness of this unsupervised approach, which opens many avenues for defining similarities for complex representations of sequential data.","Knowledge discovery, CRF, clustering, unsupervised machine learning, information extraction"],"keyphrases":["D\u00e9couverte de connaissances","CRF","clustering","extraction d\u2019informations","apprentissage non-supervis\u00e9"],"prmu":["P","P","P","P","M"]} {"id":"taln-2013-long-020","title":"Annotation automatique d'un corpus d'apprenants d'anglais avec un jeu d'\u00e9tiquettes modifi\u00e9 du Penn Treebank","abstract":"Cet article aborde la probl\u00e9matique de l'annotation automatique d'un corpus d'apprenants d'anglais. L'objectif est de montrer qu'il est possible d'utiliser un \u00e9tiqueteur PoS pour annoter un corpus d'apprenants afin d'analyser les erreurs faites par les apprenants. Cependant, pour permettre une analyse suffisamment fine, des \u00e9tiquettes fonctionnelles sp\u00e9cifiques aux ph\u00e9nom\u00e8nes linguistiques \u00e0 \u00e9tudier sont ins\u00e9r\u00e9es parmi celles de l'\u00e9tiqueteur. Celuici est entra\u00een\u00e9 avec ce jeu d'\u00e9tiquettes \u00e9tendu sur un corpus de natifs avant d'\u00eatre appliqu\u00e9 sur le corpus d'apprenants. Dans cette exp\u00e9rience, on s'int\u00e9resse aux usages erron\u00e9s de this et that par les apprenants. On montre comment l'ajout d'une couche fonctionnelle sous forme de nouvelles \u00e9tiquettes pour ces deux formes, permet de discriminer des usages variables chez les natifs et nonnatifs et, partant, d\u2019identifier des sch\u00e9mas incorrects d'utilisation. Les \u00e9tiquettes fonctionnelles \u00e9clairent sur le fonctionnement discursif.","translation":["Automatic tagging of a learner corpus of English with a modified version of the Penn Treebank tagset","This article covers the issue of automatic annotation of a learner corpus of English. The objective is to show that it is possible to PoStag the corpus with a tagger to prepare the ground for learner error analysis. However, in order to have a finegrain analysis, some functional tags for the study of specific linguistic points are inserted within the tagger's tagset. This tagger is trained on a native-English corpus with an extended tagset and the tagging is done on the learner corpus. This experiment focuses on the incorrect use of this and that by learners. We show how the insertion of a functional layer by way of new tags for the forms allows us to discriminate varying uses among natives and nonnatives. This opens the path to the identification of incorrect patterns of use. The functional tags cast a light on the way the discourse functions.","Second Language Acquisition, learner corpus, linguistic error analysis, automated tagging, this, that"],"keyphrases":["corpus d'apprenants","this","that","Apprentissage L2","analyse linguistique d'erreurs","\u00e9tiquetage automatique"],"prmu":["P","P","P","U","R","M"]} {"id":"taln-2013-long-021","title":"GL\u00c0FF, un Gros Lexique \u00c0 tout Faire du Fran\u00e7ais","abstract":"Cet article pr\u00e9sente GL\u00c0FF, un lexique du fran\u00e7ais \u00e0 large couverture extrait du Wiktionnaire, le dictionnaire collaboratif en ligne. GL\u00c0FF contient pour chaque entr\u00e9e une description morphosyntaxique et une transcription phon\u00e9mique. Il se distingue des autres lexiques existants principalement par sa taille, sa licence libre et la possibilit\u00e9 de le faire \u00e9voluer de fa\u00e7on constante. Nous d\u00e9crivons ici comment nous l\u2019avons construit, puis caract\u00e9ris\u00e9 en le comparant \u00e0 diff\u00e9rentes ressources connues. Cette comparaison montre que sa taille et sa qualit\u00e9 font de GL\u00c0FF un candidat s\u00e9rieux comme nouvelle ressource standard pour le TAL, la linguistique et la psycholinguistique.","translation":["GL\u00c0FF, a Large Versatile French Lexicon","This paper introduces GL\u00c0FF, a large-scale versatile French lexicon extracted from Wiktionary, the collaborative online dictionary. GL\u00c0FF contains, for each entry, a morphosyntactic description and a phonetic transcription. It distinguishes itself from the other available lexicons mainly by its size, its potential for constant updating and its copylefted license that makes it available for use, modification and redistribution. We explain how we have built GL\u00c0FF and compare it to other known resources. We show that its size and quality are strong assets that could allow GL\u00c0FF to become a reference lexicon for NLP, linguistics and psycholinguistics.","Morpho-phonological lexicon, free lexical resources, French Wiktionary"],"keyphrases":["Wiktionnaire","Lexique morpho-phonologique","ressources lexicales libres"],"prmu":["P","M","M"]} {"id":"taln-2013-long-022","title":"Constitution d\u2019une ressource s\u00e9mantique arabe \u00e0 partir de corpus multilingue align\u00e9","abstract":"Cet article porte sur la mise en oeuvre etsur l'\u00e9tudede techniques d'extraction de relations s\u00e9mantiques \u00e0 partir d'un corpus multilingue align\u00e9, en vue de construire une ressource lexicale pour l\u2019arabe. Ces relations sontextraites par transitivit\u00e9 de l'\u00e9quivalence traductionnelle, deux lex\u00e8mes qui poss\u00e8dent les m\u00eames \u00e9quivalents dans une langue cible \u00e9tant susceptibles de partager un m\u00eame sens. A partir d\u2019\u00e9quivalences extraites d\u2019un corpus multilingue align\u00e9, nous t\u00e2chons d'extraire des \"cliques\", ou sous-graphes maximaux complets connexes, dont toutes les unit\u00e9s sont en interrelation, du fait d'une probable intersection s\u00e9mantique. Ces cliques pr\u00e9sentent l'int\u00e9r\u00eat de renseigner \u00e0 la fois sur la synonymie et la polys\u00e9mie des unit\u00e9s, et d'apporter une forme de d\u00e9sambigu\u00efsation s\u00e9mantique. Ensuite nous t\u00e2chons de relier ces cliques avec un lexique s\u00e9mantique (de type Wordnet) afin d'\u00e9valuer la possibilit\u00e9 de r\u00e9cup\u00e9rer pour les unit\u00e9s arabes des relations s\u00e9mantiques d\u00e9finies pour des unit\u00e9s en d\u2019autres langues (fran\u00e7ais, anglais ou espagnol). Les r\u00e9sultats sont encourageants, et montrent qu\u2019avec des corpus adapt\u00e9s ces relations pourraient permettrede construire automatiquement un r\u00e9seau utile pour certaines applications de traitement de la langue arabe.","translation":["The constitution of an Arabic semantic resource from a multilingual aligned corpus","This paper aims at the implementation and evaluation of techniques for extracting semantic relations from a multilingual alignedcorpus, in order to build a lexical resource for Arabic language. We first extract translational equivalents froma multilingual aligned corpus. From these equivalences, we try to extract \"cliques\", which are maximum complete related sub-graphs, where all units are interrelated because of a probable semantic intersection. These cliques have the advantage of giving information on both the synonymy and polysemy of units, providing a kindof semantic disambiguation. Secondly, we attempt to link these cliques with a semantic lexicon (like WordNet) in order to assess the possibility of recovering, for the Arabicunits, a semantic relationships already defined for English, French or Spanish units. These relations would automatically build a semantic resource which would be useful for different applications of NLP, such as Question Answering systems, Machine Translation, alignment systems, Information Retrieval\u2026etc.","Multilingual aligned corpus, semantic disambiguation, cliques, multilingual lexicons, word net, Arabic Language Processing"],"keyphrases":["Corpus multilingues align\u00e9s","cliques","d\u00e9sambig\u00fcisation s\u00e9mantique","lexiques multilingues","r\u00e9seaux s\u00e9mantiques","traitement de l\u2019arabe"],"prmu":["P","P","M","R","R","R"]} {"id":"taln-2013-long-023","title":"Identification, alignement, et traductions des adjectifs relationnels en corpus comparables","abstract":"Dans cet article, nous extrayons des adjectifs relationnels fran\u00e7ais et nous les alignons automatiquement avec les noms dont ils sont d\u00e9riv\u00e9s en utilisant un corpus monolingue. Les alignements adjectif-nom seront ensuite utilis\u00e9s dans la traduction compositionelle des termes complexes de la forme [N AdjR] \u00e0 partir d\u2019un corpus comparable fran\u00e7ais-anglais. Un nouveau terme [N N0] (ex. cancer du poumon) sera obtenu en rempla\u00e7ant l\u2019adjectif relationnel Ad jR (ex. pulmonaire) dans [N AdjR] (ex. cancer pulmonaire) par le nom N0 (ex. poumon) avec lequel il est align\u00e9. Si aucune traduction n\u2019est propos\u00e9e pour [N AdjR], nous consid\u00e9rons que ses traduction(s) sont \u00e9quivalentes \u00e0 celle(s) de sa paraphrase [N N0]. Nous exp\u00e9rimentons avec un corpus comparable dans le domaine de cancer du sein, et nous obtenons des alignements adjectif-nom qui aident \u00e0 traduire des termes complexes de la forme [N AdjR] vers l\u2019anglais avec une pr\u00e9cision de 86 %.","translation":["Identification, Alignment, and Tranlsation of Relational Adjectives from Comparable Corpora","In this paper, we extract French relational adjectives and automatically align them with the nouns they are derived from by using a monolingual corpus. The obtained adjective-noun alignments are then used in the compositional translation of compound nouns of the form [N ADJR] with a French-English comparable corpora. A new term [N N0] (eg, cancer du poumon) is obtained by replacing the relational adjective Ad jR (eg, pulmonaire) in [N AdjR] (eg, cancer pulmonaire) by its corresponding N0 (eg, poumon). If no translation(s) are obtained for [N AdjR], we consider the one(s) obtained for its paraphrase [N N0]. We experiment with a comparable corpora in the field of breast cancer, and we get adjective-noun alignments that help in translating French compound nouns of the form [N AdjR] to English with a precision of 86%.","Relational adjectives, Comparable corpora, Compositional method, Complex terms"],"keyphrases":["Adjectifs relationnels","Corpus comparables","Termes complexes","M\u00e9thode compositionnelle"],"prmu":["P","P","P","U"]} {"id":"taln-2013-long-024","title":"Utilisation de la similarit\u00e9 s\u00e9mantique pour l\u2019extraction de lexiques bilingues \u00e0 partir de corpus comparables","abstract":"Cet article pr\u00e9sente une nouvelle m\u00e9thode visant \u00e0 am\u00e9liorer les r\u00e9sultats de l\u2019approche standard utilis\u00e9e pour l\u2019extraction de lexiques bilingues \u00e0 partir de corpus comparables sp\u00e9cialis\u00e9s. Nous tentons de r\u00e9soudre le probl\u00e8me de la polys\u00e9mie des mots dans les vecteurs de contexte par l\u2019introduction d\u2019un processus de d\u00e9sambigu\u00efsation s\u00e9mantique bas\u00e9 sur WordNet. Pour traduire les vecteurs de contexte, au lieu de consid\u00e9rer toutes les traductions propos\u00e9es par le dictionnaire bilingue, nous n\u2019utilisons que les mots caract\u00e9risant au mieux les contextes en langue cible. Les exp\u00e9riences men\u00e9es sur deux corpus comparables sp\u00e9cialis\u00e9s fran\u00e7ais-anglais (financier et m\u00e9dical) montrent que notre m\u00e9thode am\u00e9liore les r\u00e9sultats de l\u2019approche standard plus particuli\u00e8rement lorsque plusieurs mots du contexte sont ambigus.","translation":["","This paper presents a new method that aims to improve the results of the standard approach used for bilingual lexicon extraction from specialized comparable corpora. We attempt to solve the problem of context vector word polysemy. Instead of using all the entries of the dictionary to translate a context vector, we only use the words of the lexicon that are more likely to give the best characterization of context vectors in the target language. On two specialised French-English comparable corpora, empirical experimental results show that our method improves the results obtained by the standard approach especially when many words are ambiguous.","bilingual lexicon, specialized comparable corpora, semantic disambiguation, Word-Net"],"keyphrases":["lexique bilingue","corpus comparable sp\u00e9cialis\u00e9","d\u00e9sambigu\u00efsation s\u00e9mantique","WordNet"],"prmu":["P","P","P","P"]} {"id":"taln-2013-long-025","title":"Inf\u00e9rences d\u00e9ductives et r\u00e9conciliation dans un r\u00e9seau lexico-s\u00e9mantique","abstract":"La construction et la validation des r\u00e9seaux lexico-s\u00e9mantiques est un enjeu majeur en TAL. Ind\u00e9pendamment des strat\u00e9gies de construction utilis\u00e9es, inf\u00e9rer automatiquement de nouvelles relations \u00e0 partir de celles d\u00e9j\u00e0 existantes est une approche possible pour am\u00e9liorer la couverture et la qualit\u00e9 globale de la ressource. Dans ce contexte, le moteur d\u2019inf\u00e9rences a pour but de formuler de nouvelles conclusions (c\u2019est-\u00e0-dire des relations entre les termes) \u00e0 partir de pr\u00e9misses (des relations pr\u00e9existantes). L\u2019approche que nous proposons est bas\u00e9e sur une m\u00e9thode de triangulation impliquant la transitivit\u00e9 s\u00e9mantique avec un m\u00e9canisme de blocage pour \u00e9viter de proposer des relations douteuses. Les relations inf\u00e9r\u00e9es sont propos\u00e9es aux contributeurs pour \u00eatre valid\u00e9es. Dans le cas d\u2019invalidation, une strat\u00e9gie de r\u00e9conciliation est engag\u00e9e pour identifier la cause de l\u2019inf\u00e9rence erron\u00e9e : une exception, une erreur dans les pr\u00e9misses, ou une confusion d\u2019usage caus\u00e9e par la polys\u00e9mie.","translation":["Inductive and deductive inferences in a Crowdsourced Lexical-Semantic Network","In Computational Linguistics, validated lexical-semantic networks are crucial resources. Regardless the construction strategies used, automatically inferring new relations from already existing ones may improve coverage and global quality of the resource. In this context, an inference engine aims at producing new conclusions (i.e. potential relations) from premises (pre-existing relations). The approach we propose is based on a triangulation method involving the semantic transitivity with a blocking mechanism to avoid proposing dubious relations. Inferred relations are then proposed to contributors to be validated or rejected. In cas of invalidation, a reconciliation strategy is implemented to identify the cause of the erroneous inference : an exception, an error in the premises, or a confusion caused by polysemy.","relation inferences, reconcialiation, enrichment, lexical network, crowdsourcing"],"keyphrases":["r\u00e9conciliation","inf\u00e9rence de relations","enrichissement","r\u00e9seau lexical","peuplonomie"],"prmu":["P","R","U","M","U"]} {"id":"taln-2013-long-026","title":"Regroupement s\u00e9mantique de relations pour l\u2019extraction d\u2019information non supervis\u00e9e","abstract":"Beaucoup des recherches men\u00e9es en extraction d\u2019information non supervis\u00e9e se concentrent sur l\u2019extraction des relations et peu de travaux proposent des m\u00e9thodes pour organiser les relations extraites. Nous pr\u00e9sentons dans cet article une m\u00e9thode de clustering en deux \u00e9tapes pour regrouper des relations s\u00e9mantiquement \u00e9quivalentes : la premi\u00e8re \u00e9tape regroupe des relations proches par leur expression tandis que la seconde fusionne les premiers clusters obtenus sur la base d\u2019une mesure de similarit\u00e9 s\u00e9mantique. Nos exp\u00e9riences montrent en particulier que les mesures distributionnelles permettent d\u2019obtenir pour cette t\u00e2che de meilleurs r\u00e9sultats que les mesures utilisant WordNet. Nous montrons \u00e9galement qu\u2019un clustering \u00e0 deux niveaux permet non seulement de limiter le nombre de similarit\u00e9s s\u00e9mantiques \u00e0 calculer mais aussi d\u2019am\u00e9liorer la qualit\u00e9 des r\u00e9sultats du clustering.","translation":["Semantic relation clustering for unsupervised information extraction","Most studies in unsupervised information extraction concentrate on the relation extraction and few work has been proposed on the organization of the extracted relations. We present in this paper a two-step clustering procedure to group semantically equivalent relations : a first step clusters relations with similar expressions while a second step groups these first clusters into larger semantic clusters, using different semantic similarities. Our experiments show the stability of distributional similarities over WordNet-based similarities for semantic clustering. We also demonstrate that the use of a multi-level clustering not only reduces the calculations from all relation pairs to basic clusters pairs, but it also improves the clustering results.","Unsupervised Information Extraction, Semantic Similarity, Relation Clustering"],"keyphrases":["Extraction d\u2019Information Non Supervis\u00e9e","Clustering","Similarit\u00e9 S\u00e9mantique"],"prmu":["P","P","P"]} {"id":"taln-2013-long-027","title":"S\u00e9mantique des d\u00e9terminants dans un cadre richement typ\u00e9","abstract":"La variation du sens des mots en contexte nous a conduit \u00e0 enrichir le syst\u00e8me de types utilis\u00e9s dans notre analyse syntaxico-s\u00e9mantique du fran\u00e7ais bas\u00e9 sur les grammaires cat\u00e9gorielles et la s\u00e9mantique de Montague (ou la lambda-DRT). L\u2019avantage majeur d\u2019une telle s\u00e9mantique profonde est de repr\u00e9senter le sens par des formules logiques ais\u00e9ment exploitables, par exemple par un moteur d\u2019inf\u00e9rence. D\u00e9terminants et quantificateurs jouent un r\u00f4le fondamental dans la construction de ces formules, et il nous a fallu leur trouver des termes s\u00e9mantiques adapt\u00e9s \u00e0 ce nouveau cadre. Nous proposons une solution inspir\u00e9e des op\u00e9rateurs epsilon et tau de Hilbert, \u00e9l\u00e9ments g\u00e9n\u00e9riques qui s\u2019apparentent \u00e0 des fonctions de choix. Cette mod\u00e9lisation unifie le traitement des diff\u00e9rents types de d\u00e9terminants et de quantificateurs et autorise le liage dynamique des pronoms. Surtout, cette description calculable des d\u00e9terminants s\u2019int\u00e8gre parfaitement \u00e0 l\u2019analyseur \u00e0 large \u00e9chelle du fran\u00e7ais Grail, tant en th\u00e9orie qu\u2019en pratique.","translation":["On the semantics of determiners in a rich type-theoretical framework","The variation of word meaning according to the context led us to enrich the type system of our syntactical and semantic analyser of French based on categorial grammars and Montague semantics (or lambda-DRT). The main advantage of a deep semantic analyse is too represent meaning by logical formulae that can be easily used e.g. for inferences. Determiners and quantifiers play a fundamental role in the construction of those formulae and we needed to provide them with semantic terms adapted to this new framework. We propose a solution inspired by the tau and epsilon operators of Hilbert, generic elements that resemble choice functions. This approach unifies the treatment of the different determiners and quantifiers and allows a dynamic binding of pronouns. Above all, this fully computational view of determiners fits in well within the wide coverage parser Grail, both from a theoretical and a practical viewpoint.","Automated semantic analysis, Formal Semantics, Compositional Semantics"],"keyphrases":["Analyse s\u00e9mantique automatique","S\u00e9mantique formelle","Compositionnalit\u00e9"],"prmu":["M","M","U"]} {"id":"taln-2013-long-028","title":"D\u00e9tection de zones parall\u00e8les \u00e0 l\u2019int\u00e9rieur de multi-documents pour l\u2019alignement multilingue","abstract":"Cet article aborde une question centrale de l\u2019alignement automatique, celle du diagnostic de parall\u00e9lisme des documents \u00e0 aligner. Les recherches en la mati\u00e8re se sont jusqu\u2019alors concentr\u00e9es sur l\u2019analyse de documents parall\u00e8les par nature : corpus de textes r\u00e9glementaires, documents techniques ou phrases isol\u00e9es. Les ph\u00e9nom\u00e8nes d\u2019inversions et de suppressions\/ajouts pouvant exister entre les diff\u00e9rentes versions d\u2019un document sont ainsi souvent ignor\u00e9es. Nous proposons donc une m\u00e9thode pour diagnostiquer en contexte des zones parall\u00e8les \u00e0 l\u2019int\u00e9rieur des documents. Cette m\u00e9thode permet la d\u00e9tection d\u2019inversions ou de suppressions entre les documents \u00e0 aligner. Elle repose sur l\u2019affranchissement de la notion de mot et de phrase, ainsi que sur la prise en compte de la Mise en Forme Mat\u00e9rielle du texte (MFM). Sa mise en oeuvre est bas\u00e9e sur des similitudes de r\u00e9partition de cha\u00eenes de caract\u00e8res r\u00e9p\u00e9t\u00e9es dans les diff\u00e9rents documents. Ces r\u00e9partitions sont repr\u00e9sent\u00e9es sous forme de matrices et l\u2019identification des zones parall\u00e8les est effectu\u00e9e \u00e0 l\u2019aide de m\u00e9thodes de traitement d\u2019image.","translation":["Parallel areas detection in multi-documents for multilingual alignment","This article broaches a central issue of the automatic alignment : diagnosing the parallelism of documents. Previous research was concentrated on the analysis of documents which are parallel by nature such as corpus of regulations, technical documents or simple sentences. Inversions and deletions\/additions phenomena that may exist between different versions of a document has often been overlooked. To the contrary, we propose a method to diagnose in context the parallel areas allowing the detection of deletions or inversions between documents to align. This original method is based on the freeing from word and sentence as well as the consideration of the text formatting. The implementation is based on the detection of repeated character strings and the identification of parallel segments by image processing.","area detection and alignment, character N-grams matching, multidocuments corpora"],"keyphrases":["d\u00e9tection et alignement de zones","appariement de N-grammes de caract\u00e8res","corpus de multidocuments"],"prmu":["R","M","M"]} {"id":"taln-2013-long-029","title":"Un syst\u00e8me de traduction de verbes entre arabe standard et arabe dialectal par analyse morphologique profonde","abstract":"Le d\u00e9veloppement d\u2019outils de TAL pour les dialectes de l\u2019arabe se heurte \u00e0 l\u2019absence de ressources pour ces derniers. Comme cons\u00e9quence d\u2019une situation de diglossie, il existe une variante de l\u2019arabe, l\u2019arabe moderne standard, pour laquelle de nombreuses ressources ont \u00e9t\u00e9 d\u00e9velopp\u00e9es et ont permis de construire des outils de traitement automatique de la langue. Etant donn\u00e9 la proximit\u00e9 des dialectes de l\u2019arabe, le tunisien dans notre cas, avec l\u2019arabe moderne standard, une voie consiste \u00e0 r\u00e9aliser une traduction surfacique du dialecte vers l\u2019arabe moderne standard afin de pouvoir utiliser les outils existants pour l\u2019arabe standard. Nous d\u00e9crivons dans cet article une architecture pour une telle traduction et nous l\u2019\u00e9valuons sur les verbes.","translation":["Translating verbs between MSA and arabic dialects through deep morphological analysis","The developpment of NLP tools for dialects faces the severe problem of lack of resources for such dialects. In the case of diglossia, as in arabic, a variant of arabic, Modern Standard Arabic, exists, for which many resources have been developped which can be used to build NLP tools. Taking advantage of the closeness of MSA and dialects, one way to solve the problem consist in performing a surfacic translation of the dialect into MSA in order to use the tools developped for MSA. We describe in this paper an achitecture for such a translation and we evaluate it on arabic verbs.","dialects, Arabic NLP, morphological analysis"],"keyphrases":["dialectes","analyse morphologique","langues peu dot\u00e9es","traitement automatique de l\u2019arabe"],"prmu":["P","P","M","R"]} {"id":"taln-2013-long-030","title":"Extension dynamique de lexiques morphologiques pour le fran\u00e7ais \u00e0 partir d\u2019un flux textuel","abstract":"L\u2019incompl\u00e9tude lexicale est un probl\u00e8me r\u00e9current lorsque l\u2019on cherche \u00e0 traiter le langage naturel dans sa variabilit\u00e9. Effectivement, il semble aujourd\u2019hui n\u00e9cessaire de v\u00e9rifier et compl\u00e9ter r\u00e9guli\u00e8rement les lexiques utilis\u00e9s par les applications qui analysent d\u2019importants volumes de textes. Ceci est plus particuli\u00e8rement vrai pour les flux textuels en temps r\u00e9el. Dans ce contexte, notre article pr\u00e9sente des solutions d\u00e9di\u00e9es au traitement des mots inconnus d\u2019un lexique. Nous faisons une \u00e9tude des n\u00e9ologismes (linguistique et sur corpus) et d\u00e9taillons la mise en oeuvre de modules d\u2019analyse d\u00e9di\u00e9s \u00e0 leur d\u00e9tection et \u00e0 l\u2019inf\u00e9rence d\u2019informations (forme de citation, cat\u00e9gorie et classe flexionnelle) \u00e0 leur sujet. Nous y montrons que nous sommes en mesure, gr\u00e2ce notamment \u00e0 des modules d\u2019analyse des d\u00e9riv\u00e9s et des compos\u00e9s, de proposer en temps r\u00e9el des entr\u00e9es pour ajout aux lexiques avec une bonne pr\u00e9cision.","translation":["Dynamic extension of a French morphological lexicon based a text stream","Lexical incompleteness is a recurring problem when dealing with natural language and its variability. It seems indeed necessary today to regularly validate and extend lexica used by tools processing large amounts of textual data. This is even more true when processing real-time text flows. In this context, our paper introduces techniques aimed at addressing words unknown to a lexicon. We first study neology (from a theoretic and corpus-based point of view) and describe the modules we have developed for detecting them and inferring information about them (lemma, category, inflectional class). We show that we are able, using among others modules for analyzing derived and compound neologisms, to generate lexical entries candidates in real-time and with a good precision.","Neologisms, Morphological Analysis, Dynamic Lexica"],"keyphrases":["N\u00e9ologismes","analyse morphologique","lexiques dynamiques"],"prmu":["P","R","R"]} {"id":"taln-2013-long-031","title":"Fouille de r\u00e8gles d\u2019annotation partielles pour la reconnaissance des entit\u00e9s nomm\u00e9es","abstract":"Ces derni\u00e8res d\u00e9cennies, l\u2019accroissement des volumes de donn\u00e9es a rendu disponible une diversit\u00e9 toujours plus importante de types de contenus \u00e9chang\u00e9s (texte, image, audio, vid\u00e9o, SMS, tweet, donn\u00e9es statistiques, spatiales, etc.). En cons\u00e9quence, de nouvelles probl\u00e9matiques ont vu le jour, dont la recherche d\u2019information au sein de donn\u00e9es potentiellement bruit\u00e9es. Dans cet article, nous nous penchons sur la reconnaissance d\u2019entit\u00e9s nomm\u00e9es au sein de transcriptions (manuelles ou automatiques) d\u2019\u00e9missions radiodiffus\u00e9es et t\u00e9l\u00e9visuelles. \u00c0 cet effet, nous mettons en oeuvre une approche originale par fouille de donn\u00e9es afin d\u2019extraire des motifs, que nous nommons r\u00e8gles d\u2019annotation. Au sein d\u2019un mod\u00e8le, ces r\u00e8gles r\u00e9alisent l\u2019annotation automatique de transcriptions. Dans le cadre de la campagne d\u2019\u00e9valuation Etape, nous mettons \u00e0 l\u2019\u00e9preuve le syst\u00e8me impl\u00e9ment\u00e9, mXS, \u00e9tudions les r\u00e8gles extraites et rapportons les performances du syst\u00e8me. Il obtient de bonnes performances, en particulier lorsque les transcriptions sont bruit\u00e9es.","translation":["Mining Partial Annotation Rules for Named Entity Recognition","During the last decades, the unremitting increase of numeric data available has led to a more and more urgent need for efficient solution of information retrieval (IR). This paper concerns a problematic of first importance for the IR on linguistic data : the recognition of named entities (NE) on speech transcripts issued from radio or TV broadcasts.We present an original approach for named entity recognition which is based on data mining techniques. More precisely, we propose to adapt hierarchical sequence mining techniques to extract automatically from annotated corpora intelligible rules of NE detection. This research was carried out in the framework of the Etape NER evaluation campaign, where mXS, our text-mining based system has shown good performances challenging the best symbolic or data-driven systems","Named Entities, Data Mining, Annotation Rules"],"keyphrases":["R\u00e8gles d\u2019annotation","Entit\u00e9s nomm\u00e9es","Fouille de donn\u00e9es"],"prmu":["P","P","P"]} {"id":"taln-2013-long-032","title":"Segmentation de textes arabes en unit\u00e9s discursives minimales","abstract":"La segmentation d\u2019un texte en Unit\u00e9s Discursives Minimales (UDM) a pour but de d\u00e9couper le texte en segments qui ne se chevauchent pas. Ces segments sont ensuite reli\u00e9s entre eux afin de construire la structure discursive d\u2019un texte. La plupart des approches existantes utilisent une analyse syntaxique extensive. Malheureusement, certaines langues ne disposent pas d'analyseur syntaxique robuste. Dans cet article, nous \u00e9tudions la faisabilit\u00e9 de la segmentation discursive de textes arabes en nous basant sur une approche d'apprentissage supervis\u00e9e qui pr\u00e9dit les UDM et les UDM imbriqu\u00e9s. La performance de notre segmentation a \u00e9t\u00e9 \u00e9valu\u00e9e sur deux genres de corpus : des textes de livres de l\u2019enseignement secondaire et des textes du corpus Arabic Treebank. Nous montrons que la combinaison de traits typographiques, morphologiques et lexicaux permet une bonne reconnaissance des bornes de segments. De plus, nous montrons que l'ajout de traits syntaxiques n\u2019am\u00e9liore pas les performances de notre segmentation.","translation":["Segmenting Arabic Texts into Elementary Discourse Units","Discourse segmentation aims at splitting texts into Elementary Discourse Units (EDUs) which are non-overlapping units that serve to build a discourse structure of a document. Current state of the art approaches in discourse segmentation make an extensive use of syntactic information. Unfortunately, some languages do not have any robust parser. In this paper, we investigate the feasibility of Arabic discourse segmentation using a supervised learning approach that predicts nested EDUs. The performance of our segmenter was assessed on two genres of corpora: elementary school textbooks that we build ourselves and documents extracted from the Arabic Treebank. We show that a combination of typographical, morphological and lexical features is sufficient to achieve good results in segment boundaries detection. In addition, we show that adding low-level syntactic features that are manually encoded in ATB does not enhance the performance of our segmenter.","Discourse segmentation, Elementary discourse units, Arabic language"],"keyphrases":["unit\u00e9 discursive minimale","Segmentation discursive","langue arabe"],"prmu":["P","P","R"]} {"id":"taln-2013-long-033","title":"Un cadre d\u2019apprentissage int\u00e9gralement discriminant pour la traduction statistique","abstract":"Une faiblesse des syst\u00e8mes de traduction statistiques est le caract\u00e8re ad hoc du processus d\u2019apprentissage, qui repose sur un empilement d\u2019heuristiques et conduit \u00e0 apprendre des param\u00e8tres dont la valeur est sous-optimale. Dans ce travail, nous reformulons la traduction automatique sous la forme famili\u00e8re de l\u2019apprentissage d\u2019un mod\u00e8le probabiliste structur\u00e9 utilisant une param\u00e9trisation log-lin\u00e9aire. Cette entreprise est rendue possible par le d\u00e9veloppement d\u2019une implantation efficace qui permet en particulier de prendre en compte la pr\u00e9sence de variables latentes dans le mod\u00e8le. Notre approche est compar\u00e9e, avec succ\u00e8s, avec une approche de l\u2019\u00e9tat de l\u2019art sur la t\u00e2che de traduction de donn\u00e9es du BTEC pour le couple Fran\u00e7ais-Anglais.","translation":["A fully discriminative training framework for Statistical Machine Translation","A major pitfall of existing statistical machine translation systems is their lack of a proper training procedure. In fact, the phrase extraction and scoring processes that underlie the construction of the translation model typically rely on a chain of crude heuristics, a situation deemed problematic by many. In this paper, we recast machine translation in the familiar terms of a probabilistic structure learning problem, using a standard log-linear parameterization. The tractability of this enterprise is achieved through an efficient implementation that can take into account all the aspects of the underlying translation process through latent variables. We also address the reference reachability issue by using oracle decoding techniques. This approach is experimentally contrasted with a state-of-the-art system on the French-English BTEC translation task.","Machine Translation, Discriminative Learning"],"keyphrases":["Traduction Automatique","Apprentissage Discriminant"],"prmu":["P","R"]} {"id":"taln-2013-long-034","title":"Annotation s\u00e9mantique pour des domaines sp\u00e9cialis\u00e9s et des ontologies riches","abstract":"Explorer et maintenir une documentation technique est une t\u00e2che difficile pour laquelle on pourrait b\u00e9n\u00e9ficier d\u2019un outillage efficace, \u00e0 condition que les documents soient annot\u00e9s s\u00e9mantiquement. Les annotations doivent \u00eatre riches, coh\u00e9rentes, suffisamment sp\u00e9cialis\u00e9es et s\u2019appuyer sur un mod\u00e8le s\u00e9mantique explicite \u2013 habituellement une ontologie \u2013 qui mod\u00e9lise la s\u00e9mantique du domaine cible. Il s\u2019av\u00e8re que les approches d\u2019annotation traditionnelles donnent pour cette t\u00e2che des r\u00e9sultats limit\u00e9s. Nous proposons donc une nouvelle approche, l\u2019annotation s\u00e9mantique statistique bas\u00e9e sur les syntagmes, qui pr\u00e9dit les annotations s\u00e9mantiques \u00e0 partir d\u2019un ensemble d\u2019apprentissage r\u00e9duit. Cette mod\u00e9lisation facilite l\u2019annotation s\u00e9mantique sp\u00e9cialis\u00e9e au regard de mod\u00e8les s\u00e9mantiques de domaine arbitrairement riches. Nous l\u2019\u00e9valuons \u00e0 l\u2019aide de plusieurs m\u00e9triques et sur deux textes d\u00e9crivant des r\u00e9glementations m\u00e9tier. Notre approche obtient de bons r\u00e9sultats. En particulier, la F-mesure est de l\u2019ordre de 91, 9% et 97, 6% pour la pr\u00e9diction de l\u2019\u00e9tiquette et de la position avec diff\u00e9rents param\u00e8tres. Cela sugg\u00e8re que les annotateurs humains peuvent \u00eatre fortement aid\u00e9s pour l\u2019annotation s\u00e9mantique dans des domaines sp\u00e9cifiques.","translation":["Semantic Annotation in Specific Domains with rich Ontologies","Technical documentations are generally difficult to explore and maintain. Powerful tools can help, but they require that the documents have been semantically annotated. The annotations must be sufficiently specialized, rich and consistent. They must rely on some explicit semantic model \u2013 usually an ontology \u2013 that represents the semantics of the target domain. We observed that traditional approaches have limited success on this task and we propose a novel approach, phrase-based statistical semantic annotation, for predicting semantic annotations from a limited training data set. Such a modeling makes the challenging problem, domain specific semantic annotation regarding arbitrarily rich semantic models, easily handled. Our approach achieved a good performance, with several evaluation metrics and on two different business regulatory texts. In particular, it obtained 91.9% and 97.65% F-measure in the label and position predictions with different settings. This suggests that human annotators can be highly supported in domain specific semantic annotation tasks.","Semantic Annotation, Domain Ontology, Automatic annotation, Semantic Text Analysis, Statistical methods"],"keyphrases":["Annotation s\u00e9mantique","Ontologie de domaine","Annotation automatique","Analyse s\u00e9mantique des textes","M\u00e9thodes statistiques"],"prmu":["P","R","M","M","M"]} {"id":"taln-2013-long-035","title":"Pr\u00e9-segmentation de pages web et s\u00e9lection de documents pertinents en Questions-R\u00e9ponses","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation de pages web en blocs de texte pour la s\u00e9lection de documents pertinents en questions-r\u00e9ponses. La segmentation des documents se fait pr\u00e9alablement \u00e0 leur indexation en plus du d\u00e9coupage des segments obtenus en passages au moment de l\u2019extraction des r\u00e9ponses. L\u2019extraction du contenu textuel des pages est faite \u00e0 l\u2019aide d\u2019un extracteur maison. Nous avons test\u00e9 deux m\u00e9thodes de segmentation. L\u2019une segmente les textes extraits des pages web uniform\u00e9ment en blocs de taille fixe, l\u2019autre les segmente par TextTiling (Hearst, 1997) en blocs th\u00e9matiques de taille variable. Les exp\u00e9riences men\u00e9es sur un corpus de 500K pages web et un jeu de 309 questions factuelles en fran\u00e7ais, issus du projet Quaero (Quintard et al., 2010), montrent que la m\u00e9thode employ\u00e9e tend \u00e0 am\u00e9liorer la pr\u00e9cision globale (top-10) du syst\u00e8me RITEL\u2013QR (Rosset et al., 2008) dans sa t\u00e2che.","translation":["Web pages segmentation for document selection in Question Answering","In this paper, we study two different kinds of web pages segmentation for document selection in question answering. The segmentation is applied prior to indexation in addition to the traditionnal passage retrieval step in question answering. In both cases, the segmentation is textual and processed once the web pages textual content has been extracted using our own extraction system. In the first case, a document is tilled homogeneously in text blocs of fixed size while in the second case the segmentation is based on the TextTiling algorithm (Hearst, 1997). Evaluation on 309 factoid questions and a collection of 500K French web pages, coming from the Quaero project (Quintard et al., 2010), showed that such approaches tend to support properly the RITEL\u2013QR system (Rosset et al., 2008) in this task.","web pages, TextTiling, document selection, question answering, Quaero, Ritel, textual segmentation, topic segmentation"],"keyphrases":["pages web","s\u00e9lection de documents","questions-r\u00e9ponses","TextTiling","Quaero","Ritel","segmentation textuelle","segmentation th\u00e9matique"],"prmu":["P","P","P","P","P","U","R","R"]} {"id":"taln-2013-long-036","title":"Approches \u00e0 base de fr\u00e9quences pour la simplification lexicale","abstract":"La simplification lexicale consiste \u00e0 remplacer des mots ou des phrases par leur \u00e9quivalent plus simple. Dans cet article, nous pr\u00e9sentons trois mod\u00e8les de simplification lexicale, fond\u00e9s sur diff\u00e9rents crit\u00e8res qui font qu\u2019un mot est plus simple \u00e0 lire et \u00e0 comprendre qu\u2019un autre. Nous avons test\u00e9 diff\u00e9rentes tailles de contextes autour du mot \u00e9tudi\u00e9 : absence de contexte avec un mod\u00e8le fond\u00e9 sur des fr\u00e9quences de termes dans un corpus d\u2019anglais simplifi\u00e9 ; quelques mots de contexte au moyen de probabilit\u00e9s \u00e0 base de n-grammes issus de donn\u00e9es du web ; et le contexte \u00e9tendu avec un mod\u00e8le fond\u00e9 sur les fr\u00e9quences de cooccurrences.","translation":["Studying frequency-based approaches to process lexical simplification","Lexical simplification aims at replacing words or phrases by simpler equivalents. In this paper, we present three models for lexical simplification, focusing on the criteria that make one word simpler to read and understand than another. We tested different contexts of the considered word : no context, with a model based on word frequencies in a simplified English corpus ; a few words context, with n-grams probabilites on Web data, and an extended context, with a model based on co-occurrence frequencies.","lexical simplification, lexical frequency, language model"],"keyphrases":["simplification lexicale","fr\u00e9quence lexicale","mod\u00e8le de langue"],"prmu":["P","R","M"]} {"id":"taln-2013-court-001","title":"TALN Archives : une archive num\u00e9rique francophone des articles de recherche en Traitement Automatique de la Langue","abstract":"La recherche scientifique est un processus incr\u00e9mental. La premi\u00e8re \u00e9tape \u00e0 effectuer avant de d\u00e9buter des travaux consiste \u00e0 r\u00e9aliser un \u00e9tat de l\u2019art des m\u00e9thodes existantes. La communaut\u00e9 francophone du Traitement Automatique de la Langue (TAL) produit de nombreuses publications scientifiques qui sont malheureusement dispers\u00e9es sur diff\u00e9rents sites et pour lesquelles aucune m\u00e9ta-donn\u00e9e n\u2019est disponible. Cet article pr\u00e9sente la construction de TALN Archives, une archive num\u00e9rique francophone des articles de recherche en TAL dont le but est d\u2019offrir un acc\u00e8s simplifi\u00e9 aux diff\u00e9rents travaux effectu\u00e9s dans notre domaine. Nous pr\u00e9sentons \u00e9galement une analyse du r\u00e9seau de collaboration construit \u00e0 partir des m\u00e9ta-donn\u00e9es que nous avons extraites et d\u00e9voilons l\u2019identit\u00e9 du Kevin Bacon de TALN Archives, i.e. l\u2019auteur le plus central dans le r\u00e9seau de collaboration.","translation":["TALN Archives : a digital archive of French research articles in Natural Language Processing","Scientific research is an incremental process. Reviewing the literature is the first step to do before starting a new research project. The French Natural Language Processing (NLP) community produces numerous scientific publications which are scattered across different sources and for which no metadata is available. This paper presents the construction of TALN Archives, a digital archive of French research articles whose aim is to provide efficient access to articles in the NLP field. We also present an analysis of the collaboration network constructed from the metadata and disclose the identity of the Kevin Bacon of the TALN Archives, i.e. the most central author in the collaboration network.","TALN Archives, digital archive, scientific articles"],"keyphrases":["TALN Archives","archive num\u00e9rique","articles scientifiques"],"prmu":["P","P","R"]} {"id":"taln-2013-court-002","title":"Similarit\u00e9s induites par mesure de comparabilit\u00e9 : signification et utilit\u00e9 pour le clustering et l\u2019alignement de textes comparables","abstract":"En pr\u00e9sence de corpus comparables bilingues, nous sommes confront\u00e9s \u00e0 des donn\u00e9es qu\u2019il est naturel de plonger dans deux espaces de repr\u00e9sentation linguistique distincts, chacun \u00e9ventuellement muni d\u2019une mesure quantifiable de similarit\u00e9 (ou d\u2019une distance). D\u00e8s lors que ces donn\u00e9es bilingues sont comparables au sens d\u2019une mesure de comparabilit\u00e9 \u00e9galement calculable (Li et Gaussier, 2010), nous pouvons \u00e9tablir une connexion entre ces deux espaces de repr\u00e9sentation linguistique en exploitant une carte d\u2019association pond\u00e9r\u00e9e (\"mapping\") appr\u00e9hend\u00e9e sous la forme d\u2019un graphe bi-directionnel dit de comparabilit\u00e9. Nous abordons dans cet article les cons\u00e9quences conceptuelles et pratique d\u2019une telle connexion similarit\u00e9-comparabilit\u00e9 en d\u00e9veloppant un algorithme (Hit-ComSim) bas\u00e9 sur sur le principe de similarit\u00e9 induite par la topologie du graphe de comparabilit\u00e9. Nous essayons de qualifier qualitativement l\u2019int\u00e9r\u00eat de cet algorithme en consid\u00e9rant quelques exp\u00e9riences pr\u00e9liminaires de clustering de documents comparables bilingues (Fran\u00e7ais\/Anglais) collect\u00e9s sur des flux RSS.","translation":["Similarities induced by a comparability mapping : meaning and utility in the context of the clustering of comparable texts","In the presence of bilingual comparable corpora it is natural to embed the data in two distinct linguistic representation spaces in which a \"computational\" notion of similarity is potentially defined. As far as these bilingual data are comparable in the sense of a measure of comparability also computable (Li et Gaussier, 2010), we can establish a connection between these two areas of linguistic representation by exploiting a weighted mapping that can be represented in the form of a weighted bidirectional graph of comparability. We study in this paper the conceptual and practical consequences of such a similarity-comparability connection, while developing an algorithm (Hit-ComSim) based on the concept of similarities induced by the topology of the graph of comparability. We try to evaluate the benefit of this algorithm considering some preliminary categorization or clustering tasks of bilingual (English\/French) documents collected from RSS feeds.","Comparability graph, Induced similarities, Comparable documents, Clustering"],"keyphrases":["Similarit\u00e9s induites","Clustering","Graphe de comparabilit\u00e9","Documents comparables"],"prmu":["P","P","P","P"]} {"id":"taln-2013-court-003","title":"ProLMF version 1.2. Une ressource libre de noms propres avec des expansions contextuelles","abstract":"ProLMF est la version LMF de la base lexicale multilingue de noms propres Prolexbase. Disponible librement sur le site du CNRTL, la version 1.2 a \u00e9t\u00e9 largement am\u00e9lior\u00e9e et augment\u00e9e par de nouvelles entr\u00e9es en fran\u00e7ais, compl\u00e9t\u00e9es par des expansions contextuelles, et par de petits lexiques en une huitaine de langues.","translation":["ProLMF 1.2, Proper Names with their Expansions","ProLMF is the LMF version of Prolexbase, a multilingual lexical database of Proper Names. It can be freely downloaded on the CNRTL Website. Version 1.2 had been widely improved and increased, with new French entries whose description includes contextual expansions, and eight small lexica for other languages.","free resource, multilingual lexical database, Proper Names, context, semantic relations, alias, point of view, Prolexbase"],"keyphrases":["ressource libre","noms propres","expansions contextuelles","base lexicale multilingue","Prolexbase","sch\u00e9mas de contextualisation","relations s\u00e9mantiques","alias","point de vue"],"prmu":["P","P","P","P","P","M","U","U","M"]} {"id":"taln-2013-court-004","title":"Vers un d\u00e9codage guid\u00e9 pour la traduction automatique","abstract":"R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l\u2019utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d\u2019envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l\u2019application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d\u2019enrichir le mod\u00e8le log-lin\u00e9aire d\u2019un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais\/Anglais issue de la campagne d\u2019\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.","translation":["Driven Decoding for machine translation","Recently, the concept of driven decoding (DD), has been sucessfully applied to the automatic speech recognition (speech-to-text) task : an auxiliary transcription guide the decoding process. There is a strong interest in applying this concept to statistical machine translation (SMT). This paper presents our approach on this topic. Our first attempt in driven decoding consists in adding several feature functions corresponding to the distance between the current hypothesis decoded and the auxiliary translations available. Experimental results done for a french-to-english machine translation task, in the framework of the WMT 2011 evaluation, show the potential of the DD approach proposed.","Driven Decoding, machine translation, system combination"],"keyphrases":["D\u00e9codage guid\u00e9","traduction automatique","combinaison de syst\u00e8mes"],"prmu":["P","P","P"]} {"id":"taln-2013-court-005","title":"La La pr\u00e9\u00e9dition avec des r\u00e8gles peu co\u00fbteuses, utile pour la TA statistique des forums ?","abstract":"Cet article s\u2019int\u00e9resse \u00e0 la traduction automatique statistique des forums, dans le cadre du projet europ\u00e9en ACCEPT (\u00ab Automated Community Content Editing Portal \u00bb). Nous montrons qu\u2019il est possible d\u2019\u00e9crire des r\u00e8gles de pr\u00e9\u00e9dition peu co\u00fbteuses sur le plan des ressources linguistiques et applicables sans trop d\u2019effort avec un impact tr\u00e8s significatif sur la traduction automatique (TA) statistique, sans avoir \u00e0 modifier le syst\u00e8me de TA. Nous d\u00e9crivons la m\u00e9thodologie propos\u00e9e pour \u00e9crire les r\u00e8gles de pr\u00e9\u00e9dition et les \u00e9valuer, ainsi que les r\u00e9sultats obtenus par type de r\u00e8gles.","translation":["Can lightweight pre-editing rules improve statistical MT of forum content?","This paper focuses on the statistical machine translation (SMT) of forums within the context of the European Framework ACCEPT (\u00abAutomated Community Content Editing Portal\u00bb) project. We demonstrate that it is possible to write lightweight pre-editing rules that require few linguistic resources, are relatively easy to apply and have significant impact on SMT without any changes to the machine translation system. We describe methodologies for rule development and evaluation, and provide results obtained for different rule types.","pre-edition, controlled language, statistical machine translation, forums"],"keyphrases":["pr\u00e9\u00e9dition","forums","langage contr\u00f4l\u00e9","traduction statistique"],"prmu":["P","P","U","R"]} {"id":"taln-2013-court-006","title":"\u00c9dition interactive d\u2019\u00e9nonc\u00e9s en langue des signes fran\u00e7aise d\u00e9di\u00e9e aux avatars signeurs","abstract":"Les avatars signeurs en Langue des Signes Fran\u00e7aise (LSF) sont de plus en plus utilis\u00e9s en tant qu\u2019interface de communication \u00e0 destination de la communaut\u00e9 sourde. L\u2019un des crit\u00e8res d\u2019acceptation de ces avatars est l\u2019aspect naturel et r\u00e9aliste des gestes produits. Par cons\u00e9quent, des m\u00e9thodes de synth\u00e8se de gestes ont \u00e9t\u00e9 \u00e9labor\u00e9es \u00e0 l\u2019aide de corpus de mouvements captur\u00e9s et annot\u00e9s provenant d\u2019un signeur r\u00e9el. N\u00e9anmoins, l\u2019enrichissement d\u2019un tel corpus, en faisant fi des s\u00e9ances de captures suppl\u00e9mentaires, demeure une probl\u00e9matique certaine. De plus, l\u2019application automatique d\u2019op\u00e9rations sur ces mouvements (e.g. concat\u00e9nation, m\u00e9lange, etc.) ne garantit pas la consistance s\u00e9mantique du geste r\u00e9sultant. Une alternative est d\u2019ins\u00e9rer l\u2019op\u00e9rateur humain dans la boucle de construction des \u00e9nonc\u00e9s en LSF. Dans cette optique, cet article propose un premier syst\u00e8me interactif d\u2019\u00e9dition de gestes en LSF, bas\u00e9 \"donn\u00e9es captur\u00e9es\" et d\u00e9di\u00e9 aux avatars signeurs.","translation":["Interactive editing of utterances in French sign language dedicated to signing avatars","Signing avatars dedicated to French Sign Language (LSF) are more and more used as a communication interface for the deaf community. One of the acceptation criteria of these avatars is the natural and realistic aspect of the constructed gestures. Consequently, gestures synthesis methods have been designed thanks to some corpus of captured and annotated motions, performed by a real signer. However, the enlarging of such a corpus, without requiring of some additional capture sessions, is a major issue. Furthermore, the automatic application of motion transformations (e.g. concatenation, blending, etc.) does not guarantee the semantic consistency of the resulting gesture. Another option is to insert the human operator in the utterance building loop. In this context, this paper provides a first interactive editing system of FSL gestures, based on captured motions and dedicated to signing avatars.","French sign language, editing, gesture, semantic data base, virtual signer, interaction"],"keyphrases":["\u00e9dition","interaction","Langue des Signes Fran\u00e7aise","geste","base de donn\u00e9es s\u00e9mantiques","signeur virtuel"],"prmu":["P","P","P","P","R","M"]} {"id":"taln-2013-court-007","title":"ANCOR, premier corpus de fran\u00e7ais parl\u00e9 d\u2019envergure annot\u00e9 en cor\u00e9f\u00e9rence et distribu\u00e9 librement","abstract":"Cet article pr\u00e9sente la r\u00e9alisation d\u2019ANCOR, qui constitue par son envergure (453 000 mots) le premier corpus francophone annot\u00e9 en anaphores et cor\u00e9f\u00e9rences permettant le d\u00e9veloppement d\u2019approches centr\u00e9es sur les donn\u00e9es pour la r\u00e9solution des anaphores et autres traitements de la cor\u00e9f\u00e9rence. L\u2019annotation a \u00e9t\u00e9 r\u00e9alis\u00e9e sur trois corpus de parole conversationnelle (Accueil_UBS, OTG et ESLO) qui le destinent plus particuli\u00e8rement au traitement du langage parl\u00e9. En l\u2019absence d\u2019\u00e9quivalent pour le langage \u00e9crit, il est toutefois susceptible d\u2019int\u00e9resser l\u2019ensemble de la communaut\u00e9 TAL. Par ailleurs, le sch\u00e9ma d\u2019annotation retenu est suffisamment riche pour permettre des \u00e9tudes en linguistique de corpus. Le corpus sera diffus\u00e9 librement \u00e0 la mi-2013 sous licence Creative Commons BY-NC-SA. Cet article se concentre sur sa mise en oeuvre et d\u00e9crit bri\u00e8vement quelques r\u00e9sultats obtenus sur la partie d\u00e9j\u00e0 annot\u00e9e de la ressource.","translation":["ANCOR, the first large French speaking corpus of conversational speech annotated in coreference to be freely available","This paper presents the first French spoken corpus annotated in coreference whose size (453,000 words) is sufficient to investigate the achievement of data oriented systems of coreference resolution. The annotation was conducted on three different corpora of conversational speech (Accueil_UBS, OTG, ESLO) but this resource can also be interesting for NLP researchers working on written language, considering the lack of a large written French corpus annotated in coreference. We followed a rich annotation scheme which enables also research motivated by linguistic considerations. This corpus will be freely available (Creative Commons BY-NC-SA) around mid-2013. The paper details the achievement of the resource as well as preliminary experiments conducted on the part of the corpus already annotated.","Corpus, annotation, coreference, anaphora, conversational speech"],"keyphrases":["Corpus","annotation","cor\u00e9f\u00e9rence","anaphore","parole conversationnelle"],"prmu":["P","P","P","P","P"]} {"id":"taln-2013-court-008","title":"Segmentation Multilingue des Mots Compos\u00e9s","abstract":"La composition est un ph\u00e9nom\u00e8ne fr\u00e9quent dans plusieurs langues, surtout dans des langues ayant une morphologie riche. Le traitement des mots compos\u00e9s est un d\u00e9fi pour les syst\u00e8mes de TAL car pour la plupart, ils ne sont pas pr\u00e9sents dans les lexiques. Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation des compos\u00e9s qui combine des caract\u00e9ristiques ind\u00e9pendantes de la langue (mesure de similarit\u00e9, donn\u00e9es du corpus) avec des r\u00e8gles de transformation sur les fronti\u00e8res des composants sp\u00e9cifiques \u00e0 une langue. Nos exp\u00e9riences de segmentation de termes compos\u00e9s allemands et russes montrent une exactitude jusqu\u2019\u00e0 95 % pour l\u2019allemand et jusqu\u2019\u00e0 91 % pour le russe. Nous constatons que l\u2019utilisation de corpus sp\u00e9cialis\u00e9s relevant du m\u00eame domaine que les compos\u00e9s am\u00e9liore la qualit\u00e9 de segmentation.","translation":["Multilingual Compound Splitting","Compounding is a common phenomenon for many languages, especially those with a rich morphology. Dealing with compounds is a challenge for natural language processing systems since all compounds can not be included in lexicons. In this paper, we present a compound splitting method combining language independent features (similarity measure, corpus data) and language dependent features (component transformation rules). We report on our experiments in splitting of German and Russian compound terms giving accuracy up to 95% for German and up to 91% for Russian language. We observe that the usage of a corpus of the same domain as compounds improves splitting quality.","compound splitting, multilingual tool, similarity measure, component transformation rules, specialized corpora"],"keyphrases":["mesure de similarit\u00e9","corpus sp\u00e9cialis\u00e9s","segmentation des mots compos\u00e9s","outil multilingue","r\u00e8gles de transformation des composants"],"prmu":["P","P","R","M","R"]} {"id":"taln-2013-court-009","title":"Gestion des terminologies riches : l'exemple des acronymes","abstract":"La gestion des terminologies pose encore des probl\u00e8mes, en particulier pour des constructions complexes comme les acronymes. Dans cet article, nous proposons une solution en reliant plusieurs termes diff\u00e9rents \u00e0 un seul r\u00e9f\u00e9rent via les notions de pivot et de prolex\u00e8me. Ces notions permettent par exemple de faire le lien entre plusieurs termes qui d\u00e9signent un m\u00eame et unique r\u00e9f\u00e9rent : Nations Unies, ONU, Organisation des Nations Unies et onusien. Il existe Jibiki, une plate-forme g\u00e9n\u00e9rique de gestion de bases lexicales permettant de g\u00e9rer n'importe quel type de structure (macro et microstructure). Nous avons impl\u00e9ment\u00e9 une nouvelle macrostructure de ProAxie dans la plate-forme Jibiki pour r\u00e9aliser la gestion des acronymes.","translation":["Complex terminologies management - the case of acronyms","Terminology management is still problematic, especially for complex constructions such as acronyms. In this paper, we propose a solution to connect several different terms with a single referent through using the concepts of pivot and prolexeme. These concepts allow for example to link several terms for the same referent: Nations Unies, ONU, Organisation des Nations Unies and onusien. Jibiki is a generic platform for lexical database management, allowing the representation of any type of structure (macro and microstructure). We have implemented a new macrostructure ProAxie in the Jibiki platform to achieve acronym management.","multilingual lexical database, macrostructure, Jibiki, Common Dictionary Markup, Proaxie, Prolexeme"],"keyphrases":["Jibiki","macrostructure","Proaxie","base lexicale multilingue","Common Dictionary Markup","Prol\u00e8xeme"],"prmu":["P","P","P","M","U","U"]} {"id":"taln-2013-court-010","title":"Ngrammes et Traits Morphosyntaxiques pour la Identification de Vari\u00e9t\u00e9s de l\u2019Espagnol","abstract":"Notre article pr\u00e9sente exp\u00e9rimentations portant sur la classification supervis\u00e9e de vari\u00e9t\u00e9s nationales de l\u2019espagnol. Outre les approches classiques, bas\u00e9es sur l\u2019utilisation de ngrammes de caract\u00e8res ou de mots, nous avons test\u00e9 des mod\u00e8les calcul\u00e9s selon des traits morphosyntaxiques, l\u2019objectif \u00e9tant de v\u00e9rifier dans quelle mesure il est possible de parvenir \u00e0 une classification automatique des vari\u00e9t\u00e9s d\u2019une langue en s\u2019appuyant uniquement sur des descripteurs grammaticaux. Les calculs ont \u00e9t\u00e9 effectu\u00e9s sur la base d\u2019un corpus de textes journalistiques de quatre pays hispanophones (Espagne, Argentine, Mexique et P\u00e9rou).","translation":["N-gram Language Models and POS Distribution for the Identification of Spanish Varieties","This article presents supervised computational methods for the identification of Spanish varieties. The features used for this task were the classical character and word n-gram language models as well as POS and morphological information. The use of these features is to our knowledge new and we aim to explore the extent to which it is possible to identify language varieties solely based on grammatical differences. Four journalistic corpora from different countries were used in these experiments : Spain, Argentina, Mexico and Peru.","automatic classification, n-grams, Spanish, language varieties"],"keyphrases":["ngrammes","espagnol","vari\u00e9t\u00e9s nationales","classification automatique"],"prmu":["P","P","P","P"]} {"id":"taln-2013-court-011","title":"L\u2019apport des Entit\u00e9s Nomm\u00e9es pour la classification des opinions minoritaires","abstract":"La majeure partie des travaux en fouille d\u2019opinion et en analyse de sentiment concerne le classement des opinions majoritaires. Les m\u00e9thodes d\u2019apprentissage supervis\u00e9 \u00e0 base de ngrammes sont souvent employ\u00e9es. Elles ont l\u2019inconv\u00e9nient d\u2019avoir un biais en faveur des opinions majoritaires si on les utilise de mani\u00e8re classique. En fait la pr\u00e9sence d\u2019un terme particulier, fortement associ\u00e9 \u00e0 la cible de l\u2019opinion dans un document peut parfois suffire \u00e0 faire basculer le classement de ce document dans la classe de ceux qui expriment une opinion majoritaire sur la cible. C\u2019est un ph\u00e9nom\u00e8ne positif pour l\u2019exactitude globale du classifieur, mais les documents exprimant des opinions minoritaires sont souvent mal class\u00e9s. Ce point est un probl\u00e8me dans le cas o\u00f9 l\u2019on s\u2019int\u00e9resse \u00e0 la d\u00e9tection des signaux faibles (d\u00e9tection de rumeur) ou pour l\u2019anticipation de renversement de tendance. Nous proposons dans cet article d\u2019am\u00e9liorer la classification des opinions minoritaires en prenant en compte les Entit\u00e9s Nomm\u00e9es dans le calcul de pond\u00e9ration destin\u00e9 \u00e0 corriger le biais en faveur des opinions majoritaires.","translation":["Improving Minor Opinion Polarity Classification with Named Entity Analysis","The main part of the work on opinion mining and sentiment analysis concerns polarity classification of majority opinions. Supervised machine learning with n-gram features is a common approach to polarity classification, which is often biased towards the majority of opinions about a given opinion target, when using this kind of approach with traditional settings. The presence of a specific term, strongly associated to the opinion target in a document, is often enough to tip the classifier decision toward the majority opinion class. This is actually a good thing for overall accuracy. Howeverm documents about the opinion taget, but expressing a polarity different from the majority one, get misclassified. It is a problem if we want to detect weak signals (rumor detection) or for anticipating opinion reversal trends. We propose in this paper to improve minor reviews polarity classification by taking into account Named Entity information in the computation of specific weighting scheme used for correcting the bias toward majority opinions.","Opinion Mining, Minor Opinion, Named Entities, Machine Learning, N-grams, Weighting Scheme"],"keyphrases":["Entit\u00e9s Nomm\u00e9es","Apprentissage","Pond\u00e9ration","Fouille d\u2019opinions","Opinion minoritaires","N-grammes"],"prmu":["P","P","P","R","R","U"]} {"id":"taln-2013-court-012","title":"Trouver les mots dans un simple r\u00e9seau de co-occurrences","abstract":"Au cours des deux derni\u00e8res d\u00e9cennies des psychologues et des linguistes informaticiens ont essay\u00e9 de mod\u00e9liser l'acc\u00e8s lexical en construisant des simulations ou des ressources. Cependant, parmi ces chercheurs, pratiquement personne n'a vraiment cherch\u00e9 \u00e0 am\u00e9liorer la navigation dans des 'dictionnaires \u00e9lectroniques destin\u00e9s aux producteurs de langue'. Pourtant, beaucoup de travaux ont \u00e9t\u00e9 consacr\u00e9s \u00e0 l'\u00e9tude du ph\u00e9nom\u00e8ne du mot sur le bout de la langue et \u00e0 la construction de r\u00e9seaux lexicaux. Par ailleurs, vu les progr\u00e8s r\u00e9alis\u00e9s en neurosciences et dans le domaine des r\u00e9seaux complexes, on pourrait \u00eatre tent\u00e9 de construire un simulacre du dictionnaire mental, ou, \u00e0 d\u00e9faut une ressource destin\u00e9e aux producteurs de langue (\u00e9crivains, conf\u00e9renciers). Nous sommes restreints en construisant un r\u00e9seau de co-occurrences \u00e0 partir des r\u00e9sum\u00e9s de Wikipedia, le but \u00e9tant de v\u00e9rifier jusqu'o\u00f9 l'on pouvait pousser une telle ressource pour trouver un mot, sachant que la ressource ne contient pas de liens s\u00e9mantiques, car le r\u00e9seau est construit de mani\u00e8re automatique et \u00e0 partir de textes non-annot\u00e9s.","translation":["Lexical access via a simple co-occurrence network","During the last two decades psychologists and computational linguists have attempted to tackle the problem of word access via computational resources, yet hardly none of them has seriously tried to support 'interactive' word finding. Yet, a lot of work has been done to understand the causes of the tip-of-the-tongue problem (TOT). Given the progress made in neuroscience, corpus linguistics, and graph theory (complex graphs), one may be tempted to emulate the mental lexicon, or to build a resource likely to help authors (speakers, writers) to overcome word-finding problems. Our goal here is much more limited. We try to identify good hints for finding a target word. To this end we have built a co-occurrence network on the basis of Wikipedia abstracts. Since the network is built automatically and from raw data, i.e. non-annotated text, it does not reveal the kind of relationship holding between the nodes. Despite this shortcoming we tried to see whether we can find a given word, or, to identify what is a good clue word.","lexical access, anomia, tip of the tongue (TOT), lexical networks"],"keyphrases":["acc\u00e8s lexical","mot sur le bout de la langue","r\u00e9seaux lexicaux","anomie"],"prmu":["P","P","P","U"]} {"id":"taln-2013-court-013","title":"Analyse statique des interactions entre structures \u00e9l\u00e9mentaires d\u2019une grammaire","abstract":"Nous nous int\u00e9ressons ici \u00e0 la construction semi-automatique de grammaires computationnelles et \u00e0 leur utilisation pour l\u2019analyse syntaxique. Nous consid\u00e9rons des grammaires lexicalis\u00e9es dont les structures \u00e9l\u00e9mentaires sont des arbres, sous-sp\u00e9cifi\u00e9s ou pas. Nous pr\u00e9sentons un algorithme qui vise \u00e0 pr\u00e9voir l\u2019ensemble des arbres \u00e9l\u00e9mentaires attach\u00e9s aux mots qui peuvent s\u2019intercaler entre deux mots donn\u00e9s d\u2019une phrase, dont on sait que les arbres \u00e9l\u00e9mentaires associ\u00e9es sont des compagnons, c\u2019est-\u00e0-dire qu\u2019ils interagiront n\u00e9cessairement dans la composition syntaxique de la phrase.","translation":["Static Analysis of Interactions between Elementary Structures of a Grammar","We are interested in the semi-automatic construction of computational grammars and in their use for parsing. We consider lexicalized grammars with elementary structures which are trees, underspecified or not. We present an algorithm that aims at foreseeing all elementary trees attached at words which can come between two given words of a sentence, whose associated elementary trees are companions, that is, they will necessarily interact in the syntactic composition of the sentence.","Lexicalized Grammar, Interaction Grammar, Grammar Construction"],"keyphrases":["grammaire lexicalis\u00e9e","grammaire d\u2019interaction","construction de grammaires"],"prmu":["P","R","R"]} {"id":"taln-2013-court-014","title":"Influence des annotations s\u00e9mantiques sur un syst\u00e8me de d\u00e9tection de cor\u00e9f\u00e9rence \u00e0 base de perceptron multi-couches","abstract":"La s\u00e9rie de campagnes d\u2019\u00e9valuation CoNLL-2011\/2012 a permis de comparer diverses propositions d\u2019architectures de syst\u00e8mes de d\u00e9tection de co-r\u00e9f\u00e9rences. Cet article d\u00e9crit le syst\u00e8me de r\u00e9solution de cor\u00e9f\u00e9rence Poly-co d\u00e9velopp\u00e9 dans le cadre de la campagne d\u2019\u00e9valuation CoNLL-2011 et \u00e9value son potentiel d\u2019am\u00e9lioration en introduisant des propri\u00e9t\u00e9s s\u00e9mantiques dans son mod\u00e8le de d\u00e9tection. Notre syst\u00e8me s\u2019appuie sur un classifieur perceptron multi-couches. Nous d\u00e9crivons les heuristiques utilis\u00e9es pour la s\u00e9lection des paires de mentions candidates, ainsi que l\u2019approche de s\u00e9lection des traits caract\u00e9ristiques que nous avons utilis\u00e9e lors de la campagne CoNLL-2011. Nous introduisons ensuite un trait s\u00e9mantique compl\u00e9mentaire et \u00e9valuons son influence sur les performances du syst\u00e8me.","translation":["Semantic annotation influence on coreference detection using perceptron approach","The ConLL-2011\/2012 evaluation campaign was dedicated to coreference detection systems. This paper presents the coreference resolution system Poly-co submitted to the closed track of the CoNLL-2011 Shared Task and evaluate is potential of evolution when it includes a semantic feature. Our system integrates a multilayer perceptron classifier in a pipeline approach. We describe the heuristic used to select the candidate coreference pairs that are fed to the network for training, and our feature selection method. We introduce a complementary semantic feature and evaluate the performances improvement.","Coreference, Multilayer perceptron"],"keyphrases":["Cor\u00e9f\u00e9rence","Perceptron multi-couches"],"prmu":["P","P"]} {"id":"taln-2013-court-015","title":"Traduction automatique statistique pour l\u2019arabe-fran\u00e7ais am\u00e9lior\u00e9e par le pr\u00e9traitement et l\u2019analyse de la langue","abstract":"Dans cet article, nous nous int\u00e9ressons au pr\u00e9traitement de la langue arabe comme langue source \u00e0 des fins de traduction automatique statistique. Nous pr\u00e9sentons une \u00e9tude sur la traduction automatique statistique bas\u00e9e sur les syntagmes, pour la paire de langues arabe-fran\u00e7ais utilisant le d\u00e9codeur Moses ainsi que d\u2019autres outils de base. Les propri\u00e9t\u00e9s morphologiques et syntaxiques de la langue arabe sont complexes, ce qui rend cette langue difficile \u00e0 ma\u00eetriser dans le domaine du TALN. Aussi, les performances d\u2019un syst\u00e8me de traduction statistique d\u00e9pendent consid\u00e9rablement de la quantit\u00e9 et de la qualit\u00e9 des corpus d\u2019apprentissage. Dans cette \u00e9tude, nous montrons qu\u2019un pr\u00e9traitement bas\u00e9 sur les mots de la langue source (arabe) et l\u2019introduction de quelques r\u00e8gles linguistiques par rapport \u00e0 la syntaxe de la langue cible (fran\u00e7ais), permet d\u2019obtenir des am\u00e9liorations du score BLEU. Cette am\u00e9lioration est r\u00e9alis\u00e9e sans augmenter la quantit\u00e9 des corpus d\u2019apprentissage.","translation":["Pre-processing and Language Analysis for Arabic to French Statistical Machine Translation","Arabic is a morphologically rich and complex language, which presents significant challenges for natural language processing and machine translation. In this paper, we describe an ongoing effort to build a competitive Arabic-French phrase\u2013based machine translation system using the Moses decoder and other tools. The results show an increase in terms of BLEU score after introducing some pre-processing schemes for Arabic and applying additional language analysis rules in relation to the target language. The proposed approach is completed using pre-processing and language analysis rules without increasing the amount of training data.","Statistical machine translation, Arabic-French translation, Corpus pre-processing, Arabic morphology"],"keyphrases":["Traduction automatique statistique","traduction arabe-fran\u00e7ais","pr\u00e9-traitement de corpus","morphologie de l\u2019Arabe"],"prmu":["P","R","M","R"]} {"id":"taln-2013-court-016","title":"Exp\u00e9riences de formalisation d\u2019un guide d\u2019annotation : vers l\u2019annotation agile assist\u00e9e","abstract":"Nous proposons dans cet article une m\u00e9thodologie, qui s\u2019inspire du d\u00e9veloppement agile et qui permettrait d\u2019assister la pr\u00e9paration d\u2019une campagne d\u2019annotation. Le principe consiste \u00e0 formaliser au maximum les instructions contenues dans le guide d\u2019annotation afin de v\u00e9rifier automatiquement si le corpus en construction est coh\u00e9rent avec le guide en cours d\u2019\u00e9criture. Pour exprimer la partie formelle du guide, nous utilisons la r\u00e9\u00e9criture de graphes, qui permet de d\u00e9crire par des motifs les constructions d\u00e9finies. Cette formalisation permet de rep\u00e9rer les constructions pr\u00e9vues par le guide et, par contraste, celles qui ne sont pas coh\u00e9rentes avec le guide. En cas d\u2019incoh\u00e9rence, un expert peut soit corriger l\u2019annotation, soit mettre \u00e0 jour le guide et relancer le processus.","translation":["Formalizing an annotation guide : some experiments towards assisted agile annotation","This article presents a methodology, inspired from the agile development paradigm, that helps preparing an annotation campaign. The idea behind the methodology is to formalize as much as possible the instructions given in the guidelines, in order to automatically check the consistency of the corpus being annotated with the guidelines, as they are being written. To formalize the guidelines, we use a graph rewriting tool, that allows us to use a rich language to describe the instructions. This formalization allows us to spot the rightfully annotated constructions and, by contrast, those that are not consistent with the guidelines. In case of inconsistency, an expert can either correct the annotation or update the guidelines and rerun the process.","annotation, annotation guide, agile annotation, graph rewriting"],"keyphrases":["guide d\u2019annotation","annotation","annotation agile","r\u00e9\u00e9criture de graphes"],"prmu":["P","P","P","P"]} {"id":"taln-2013-court-017","title":"Rep\u00e9rer des toponymes dans des titres de cartes topographiques","abstract":"Les titres de cartes topographiques personnalis\u00e9es composent un corpus sp\u00e9cifique caract\u00e9ris\u00e9 par des variations orthographiques et un nombre \u00e9lev\u00e9 de d\u00e9signations de lieux. L'article pr\u00e9sente le rep\u00e9rage des toponymes dans ces titres. Ce rep\u00e9rage est fond\u00e9 sur l'utilisation de BDNyme, la base de donn\u00e9es de toponymes g\u00e9or\u00e9f\u00e9renc\u00e9s de l'IGN, et sur une analyse de surface \u00e0 l'aide de patrons. La m\u00e9thode propos\u00e9e \u00e9largit la d\u00e9finition du toponyme pour tenir compte de la nature du corpus et des donn\u00e9es qu'il contient. Elle se d\u00e9compose en trois \u00e9tapes successives qui tirent parti du contexte extralinguistique de g\u00e9or\u00e9f\u00e9rencement des toponymes et du contexte linguistique. Une quatri\u00e8me \u00e9tape qui ne retient pas le g\u00e9or\u00e9f\u00e9rencement est aussi \u00e9tudi\u00e9e. Le balisage et le typage des toponymes permettent de mettre en avant d'une part la diversit\u00e9 des d\u00e9signations de lieux et d'autre part leurs variations d'\u00e9criture. La m\u00e9thode est \u00e9valu\u00e9e (rappel, pr\u00e9cision, F-mesure) et les erreurs analys\u00e9es.","translation":["Localizing toponyms in topographic map titles","The titles of customized topographic maps constitute a specific corpus which is characterized by spelling variations and a very significant number of place names. This paper is about identifying toponyms in these titles. The toponym tracking is based on IGN's toponym data base as well as light parsing according to patterns. The method used broadens the definition of the toponym to include the nature of the corpus and the data in it. It consists of three successive stages where both the extralinguistic context - in this case georeferencing toponyms - and the linguistic context are taken into account. The fourth stage which is without georeferencing is examined too. Toponym tagging and typing allow to highlight toponym naming and spelling variations. The method has been assessed (recall, precision, F-measure) and the results analysed.","toponyme, spatial information, toponyme writing, BDNyme, lexical resource"],"keyphrases":["toponyme","BDNyme","information spatiale","\u00e9criture des toponymes","ressource lexicale"],"prmu":["P","P","U","R","U"]} {"id":"taln-2013-court-018","title":"Extraction des relations temporelles entre \u00e9v\u00e9nements m\u00e9dicaux dans des comptes rendus hospitaliers","abstract":"Le d\u00e9fi i2b2\/VA 2012 \u00e9tait d\u00e9di\u00e9 \u00e0 la d\u00e9tection de relations temporelles entre \u00e9v\u00e9nements et expressions temporelles dans des comptes rendus hospitaliers en anglais. Les situations consid\u00e9r\u00e9es \u00e9taient beaucoup plus vari\u00e9es que dans les d\u00e9fis TempEval. Nous avons donc ax\u00e9 notre travail sur un examen syst\u00e9matique de 57 situations diff\u00e9rentes et de leur importance dans le corpus d\u2019apprentissage en utilisant un oracle, et avons d\u00e9termin\u00e9 empiriquement le classifieur qui se comportait le mieux dans chaque situation, atteignant ainsi une F-mesure globale de 0,623.","translation":["Extraction of temporal relations between clinical events in clinical documents","The 2012 i2b2\/VA challenge focused on the detection of temporal relations between events and temporal expressions in English clinical texts. The addressed situations were much more diverse than in the TempEval challenges. We thus focused on the systematic study of 57 distinct situations and their importance in the training corpus by using an oracle, and empirically determined the best performing classifier for each situation, thereby achieving a 0.623 F-measure.","Information Extraction, Clinical Events, Temporal Relations, Medicine"],"keyphrases":["relations temporelles","\u00e9v\u00e9nements m\u00e9dicaux","extraction d\u2019information","m\u00e9decine"],"prmu":["P","P","M","U"]} {"id":"taln-2013-court-019","title":"Similarit\u00e9 de second ordre pour l\u2019exploration de bases textuelles multilingues","abstract":"Cet article d\u00e9crit l\u2019utilisation de la technique de similarit\u00e9 de second ordre pour l\u2019identification de textes semblables au sein d\u2019une base de rapports d\u2019incidents a\u00e9ronautiques m\u00e9langeant les langues fran\u00e7aise et anglaise. L\u2019objectif du syst\u00e8me est, pour un document donn\u00e9, de retrouver des documents au contenu similaire quelle que soit leur langue. Nous utilisons un corpus bilingue align\u00e9 de rapports d\u2019accidents a\u00e9ronautiques pour construire des paires de pivots et indexons les documents avec des vecteurs de similarit\u00e9s, tels que chaque coordonn\u00e9e correspond au score de similarit\u00e9 entre un document dans une langue donn\u00e9e et la partie du pivot de la m\u00eame langue. Nous \u00e9valuons les performances du syst\u00e8me sur un volumineux corpus de rapports d\u2019incidents a\u00e9ronautiques pour lesquels nous disposons de traductions. Les r\u00e9sultats sont prometteurs et valident la technique.","translation":["Second order similarity for exploring multilingual textual databases","This paper describes the use of second order similarities for identifying similar texts inside a corpus of aviation incident reports written in both French and English. We use a second bilingual corpus to construct pairs of reference documents and map each target document to a vector so each coordinate represents a similarity score between this document and the part of the reference corpus written in the same language. We evaluate the system using a large corpus of translated incident reports. The results are promising and validate the approach.","second order similarity, multilingual, ESA"],"keyphrases":["similarit\u00e9 de second ordre","multilingue","ESA"],"prmu":["P","P","U"]} {"id":"taln-2013-court-020","title":"Apprentissage d\u2019une classification th\u00e9matique g\u00e9n\u00e9rique et cross-langue \u00e0 partir des cat\u00e9gories de la Wikip\u00e9dia","abstract":"La cat\u00e9gorisation de textes n\u00e9cessite g\u00e9n\u00e9ralement un investissement important en amont, avec une adaptation de domaine. L\u2019approche que nous proposons ici permet d\u2019associer finement \u00e0 un texte tout-venant \u00e9crit dans une langue donn\u00e9e, un graphe de cat\u00e9gories de la Wikip\u00e9dia dans cette langue. L\u2019utilisation de l\u2019index inter-langues de l\u2019encyclop\u00e9die en ligne permet de plus d\u2019obtenir un sous-ensemble de ce graphe dans la plupart des autres langues.","translation":["Cross-lingual and generic text categorization","Text categorization usually requires a significant investment, which must often be associated to a field adaptation. The approach we propose here allows to finely associate a graph of Wikipedia categories to any text written in a given language. Moreover, the inter-lingual index of the online encyclopedia allows to get a subset of this graph in most other languages.","categorization, machine learning, information retrieval, Wikipedia, graphs"],"keyphrases":["apprentissage","Wikip\u00e9dia","cat\u00e9gorisation","graphes","recherche d\u2019information"],"prmu":["P","P","P","P","M"]} {"id":"taln-2013-court-021","title":"Apprentissage supervis\u00e9 sur ressources encyclop\u00e9diques pour l\u2019enrichissement d\u2019un lexique de noms propres destin\u00e9 \u00e0 la reconnaissance des entit\u00e9s nomm\u00e9es","abstract":"Cet article pr\u00e9sente une m\u00e9thode hybride d\u2019enrichissement d\u2019un lexique de noms propres \u00e0 partir de la base encyclop\u00e9dique en ligne Wikipedia. Une des particularit\u00e9s de cette recherche est de viser l\u2019enrichissement d\u2019une ressource existante (Prolexbase) tr\u00e8s contr\u00f4l\u00e9e d\u00e9crivant finement les noms propres. A la diff\u00e9rence d\u2019autres travaux destin\u00e9s \u00e0 la reconnaissance des entit\u00e9s nomm\u00e9es, notre objectif est donc de r\u00e9aliser un enrichissement automatique de qualit\u00e9. Notre approche repose sur l\u2019utilisation en pipe-line de r\u00e8gles d\u00e9terministes bas\u00e9es sur certaines informations DBpedia et d\u2019une cat\u00e9gorisation supervis\u00e9e \u00e0 base de classifieur SVM. Nos r\u00e9sultats montrent qu\u2019il est ainsi possible d\u2019enrichir un lexique de noms propres avec une tr\u00e8s bonne pr\u00e9cision.","translation":["Supervised learning on encyclopaedic resources for the extension of a lexicon of proper names dedicated to the recognition of named entities","This paper concerns the automatic extension of a lexicon of proper names by means of a hybrid mining of Wikipedia. The specificity of this research is to focus on the quality of the added lexical entries, since the mining process is supposed to extend a controlled existing resource (Prolexbase). Our approach consists in the successive application of deterministic rules based on some specific information of the DBpedia and of a supervised classification with a SVM classifier. Our experiments show that it is possible to extend automatically such a lexicon without adding a perceptible noise to the resource.","named entities recognition, proper names lexicon, automatic extension of lexicon, Wikipedia, rules, supervised classification, support vector machines, SVM"],"keyphrases":["lexique de nom propre","reconnaissance des entit\u00e9s nomm\u00e9es","Wikipedia","r\u00e8gles","SVM","enrichissement automatique de lexique","classification supervis\u00e9e","machine \u00e0 vecteurs de support"],"prmu":["P","P","P","P","P","R","M","M"]} {"id":"taln-2013-court-022","title":"Convertir des analyses syntaxiques en d\u00e9pendances vers les relations fonctionnelles PASSAGE","abstract":"Nous pr\u00e9sentons ici les premiers travaux concernant l\u2019\u00e9tablissement d\u2019une passerelle bidirectionnelle entre d\u2019une, part les sch\u00e9mas d\u2019annotation syntaxique en d\u00e9pendances qui ont \u00e9t\u00e9 d\u00e9finis pour convertir les annotations du French Treebank en arbres de d\u00e9pendances de surface pour l\u2019analyseur syntaxique Bonsai, et d\u2019autre part le formalisme d\u2019annotation PASSAGE d\u00e9velopp\u00e9 initialement pour servir de support \u00e0 des campagnes d\u2019\u00e9valuation ouvertes en mode objectif quantitatif bo\u00eete-noire pour l\u2019analyse syntaxique du fran\u00e7ais.","translation":["Converting dependencies for syntactic analysis of French into PASSAGE functional relations","We present here a first attempt at building a bidrictionnal converter between, on the one hand the dependency based syntaxtic formalism which has been defined to map the French Treebank annotation onto surface dependency trees used by the Bonsai parser, on the other hand the PASSAGE formalism developped intially for French parsing quantitative black-box objective open evaluation campaigns.","Parsing, Treebank, Dependencies, DepFTB, ConLL, PASSAGE"],"keyphrases":["Analyse Syntaxique","PASSAGE","Corpus arbor\u00e9","Dependances","DepFTB","ConLL"],"prmu":["P","P","U","U","U","U"]} {"id":"taln-2013-court-023","title":"R\u00e9solution d\u2019anaphores et traitement des pronoms en traduction automatique \u00e0 base de r\u00e8gles","abstract":"La traduction des pronoms est l\u2019un des probl\u00e8mes actuels majeurs en traduction automatique. \u00c9tant donn\u00e9 que les pronoms ne transmettent pas assez de contenu s\u00e9mantique en euxm\u00eames, leur traitement automatique implique la r\u00e9solution des anaphores. La recherche en r\u00e9solution des anaphores s\u2019int\u00e9resse \u00e0 \u00e9tablir le lien entre les entit\u00e9s sans contenu lexical (potentiellement des syntagmes nominaux et pronoms) et leurs r\u00e9f\u00e9rents dans le texte. Dans cet article, nous mettons en oeuvre un premier prototype d\u2019une m\u00e9thode inspir\u00e9e de la th\u00e9orie du liage chomskyenne pour l\u2019interpr\u00e9tation des pronoms dans le but d\u2019am\u00e9liorer la traduction des pronoms personnels entre l\u2019espagnol et le fran\u00e7ais.","translation":["Anaphora Resolution for Machine Translation","Pronoun translation is one of the current problems within Machine Translation. Since pronouns do not convey enough semantic content by themselves, pronoun processing requires anaphora resolution. Research in anaphora resolution is interested in establishing the link between entities (NPs and pronouns) and their antecedents in the text. In this article, we implement a prototype of a linguistic anaphora resolution method inspired from the Chomskyan Binding Theory in order to improve the translation of personal pronouns between Spanish and French.","Anaphora Resolution, Rule-based Machine Translation, nul subjects"],"keyphrases":["R\u00e9solution d\u2019anaphores","traduction automatique \u00e0 base de r\u00e8gles","sujets nuls"],"prmu":["P","P","U"]} {"id":"taln-2013-court-024","title":"Lexiques de corpus comparables et recherche d\u2019information multilingue","abstract":"Nous \u00e9valuons l\u2019utilit\u00e9 de trois lexiques bilingues dans un cadre de recherche interlingue fran\u00e7ais vers anglais sur le corpus CLEF. Le premier correspond \u00e0 un dictionnaire qui couvre le corpus, alors que les deux autres ont \u00e9t\u00e9 construits automatiquement \u00e0 partir des sous-ensembles fran\u00e7ais et anglais de CLEF, en les consid\u00e9rant comme des corpus comparables. L\u2019un contient des mots simples, alors que le deuxi\u00e8me ne contient que des termes complexes. Les lexiques sont int\u00e9gr\u00e9s dans des interfaces diff\u00e9rentes dont les performances de recherche interlingue sont \u00e9valu\u00e9es par 5 utilisateurs sur 15 th\u00e8mes de recherche CLEF. Les meilleurs r\u00e9sultats sont obtenus en int\u00e9grant le lexique de mots simples g\u00e9n\u00e9r\u00e9 \u00e0 partir des corpus comparables dans une interface proposant les cinq \u00ab meilleures \u00bb traductions pour chaque mot de la requ\u00eate.","translation":["Lexicons from Comparable Corpora for Multilingual Information Retrieval","We evaluate the utility of three bilingual lexicons for English-to-French crosslingual search on the CLEF corpus. The first one is a kind of dictionary whose content covers the corpus. The other two have been automatically built on the French and English subparts of the CLEF corpus, by considering them as comparable corpora. One is made of simple words, the other one of complex words. The lexicons are integrated in different interfaces whose crosslingual search performances are evaluated by 5 users on 15 topics of CLEF. The best results are given with the interface having the simple-words lexicon generated on comparable corpora and proposing 5 translations for each query term.","multilingual information retrieval, comparable corpora, multilingual lexicons"],"keyphrases":["corpus comparables","recherche d\u2019information multilingue","lexiques multilingues"],"prmu":["P","P","R"]} {"id":"taln-2013-court-025","title":"Utilisation de contextes pour la correction automatique ou semi-automatique de r\u00e9clamations clients","abstract":"Cet article pr\u00e9sente deux m\u00e9thodes permettant de corriger des r\u00e9clamations contenant des erreurs r\u00e9dactionnelles, en s\u2019appuyant sur le graphe des voisins orthographiques et contextuels. Ce graphe est constitu\u00e9 des formes ou mots trouv\u00e9s dans un corpus d\u2019apprentissage. Un lien entre deux formes traduit le fait que les deux formes se \u00ab ressemblent \u00bb et partagent des contextes similaires. La premi\u00e8re m\u00e9thode est semi-automatique et consiste \u00e0 produire un dictionnaire de substitution \u00e0 partir de ce graphe. La seconde m\u00e9thode, plus ambitieuse, est enti\u00e8rement automatis\u00e9e. Elle s\u2019appuie sur les contextes pour d\u00e9terminer \u00e0 quel mot correspond telle forme abr\u00e9g\u00e9e ou erron\u00e9e. Les r\u00e9sultats ainsi obtenus permettent d\u2019am\u00e9liorer le processus d\u00e9j\u00e0 existant de constitution d\u2019un dictionnaire de substitution mis en place au sein d\u2019EDF.","translation":["Using contexts for automatic or semi-automatic correction of customer complaints","This article presents two methods allowing correcting complaints containing spelling errors, by using the spelling and contextual neighbors' graph. This graph is made of forms or words found in a learning corpus. A link between two forms conveys the fact that the two forms ''look alike'' and share similar contexts. The first method is semi-automatic and consists in producing a substitutional dictionary from this graph. The second method, more ambitious, is fully automatic. It is based on contexts to determine to which word corresponds such abbreviated or erroneous form. The results thus obtained allow us to improve the existing process regarding the creation of a substitutional dictionary at EDF.","Spelling correction, distributional analysis, graph, context"],"keyphrases":["contexte","Correction automatique","graphe","analyse distributionnelle"],"prmu":["P","P","P","U"]} {"id":"taln-2013-court-026","title":"SegCV : traitement efficace de CV avec analyse et correction d\u2019erreurs","abstract":"Le march\u00e9 d\u2019offres d\u2019emploi et des candidatures sur Internet a connu, ces derniers temps, une croissance exponentielle. Ceci implique des volumes d\u2019information (majoritairement sous la forme de textes libres) intraitables manuellement. Les CV sont dans des formats tr\u00e8s divers : .pdf, .doc, .dvi, .ps, etc., ce qui peut provoquer des erreurs lors de la conversion en texte plein. Nous proposons SegCV, un syst\u00e8me qui a pour but l\u2019analyse automatique des CV des candidats. Dans cet article, nous pr\u00e9sentons des algorithmes reposant sur une analyse de surface, afin de segmenter les CV de mani\u00e8re pr\u00e9cise. Nous avons \u00e9valu\u00e9 la segmentation automatique selon des corpus de r\u00e9f\u00e9rence que nous avons constitu\u00e9s. Les exp\u00e9riences pr\u00e9liminaires r\u00e9alis\u00e9es sur une grande collection de CV en fran\u00e7ais avec correction du bruit montrent de bons r\u00e9sultats en pr\u00e9cision, rappel et F-Score.","translation":["SegCV : Eficient parsing of r\u00e9sum\u00e9s with analysis and correction of errors","Over the last years, the online market of jobs and candidatures offers has reached an exponential growth. This has implied great amounts of information (mainly in a text free style) which cannot be processed manually. The r\u00e9sum\u00e9s are in several formats : .pdf, .doc, .dvi, .ps, etc., that can provoque errors or noise during the conversion to plain text. We propose SegCV, a system that has as goal the automatic parsing of candidates\u2019 r\u00e9sum\u00e9s. In this article we present the algoritms, which are based over a surface analysis, to segment the r\u00e9sum\u00e9s in an accurate way. We evaluated the automatic segmentation using a reference corpus that we have created. The preliminary experiments, done over a large collection of r\u00e9sum\u00e9s in French with noise correction, show good results in precision, recall and F-score.","Information Retrieval, Human Resources, CV Parsing, Rules Model"],"keyphrases":["RI","Ressources humaines","traitement de CV","Mod\u00e8le \u00e0 base de r\u00e8gles"],"prmu":["U","U","R","M"]} {"id":"taln-2013-court-027","title":"Recherche et utilisation d'entit\u00e9s nomm\u00e9es conceptuelles dans une t\u00e2che de cat\u00e9gorisation","abstract":"Les recherches pr\u00e9sent\u00e9es sont directement li\u00e9es aux travaux men\u00e9s pour r\u00e9soudre les probl\u00e8mes de cat\u00e9gorisation automatique de texte. Les mots porteurs d\u2019opinions jouent un r\u00f4le important pour d\u00e9terminer l\u2019orientation du message. Mais il est essentiel de pouvoir identifier les cibles auxquelles ils se rapportent pour en contextualiser la port\u00e9e. L\u2019analyse peut \u00e9galement \u00eatre men\u00e9e dans l\u2019autre sens, on cherchant dans le contexte d\u2019une cible d\u00e9tect\u00e9e les termes polaris\u00e9s. Une premi\u00e8re \u00e9tape d\u2019apprentissage depuis des donn\u00e9es permet d'obtenir automatiquement les marqueurs de polarit\u00e9 les plus importants. A partir de cette base, nous cherchons les cibles qui apparaissent le plus fr\u00e9quemment \u00e0 proximit\u00e9 de ces marqueurs d'opinions. Ensuite, nous construisons un ensemble de couples (marqueur de polarit\u00e9, cible) pour montrer qu\u2019en s\u2019appuyant sur ces couples, on arrive \u00e0 expliquer plus finement les prises de positions tout en maintenant (voire am\u00e9liorant) le niveau de performance du classifieur.","translation":["Search and usage of named conceptual entities in a categorisazion task","The researchs presented are part of a text automatic categorization task. Words bearing opinions play an important role in determining the overall direction of the message. But it is essential to identify the elements (targets) which they are intended to relativize the scope. The analysis can also be conducted in the reverse direction. When a target is detected we need to search polarized terms in the context. A first step in an automatic learning from data will allow us to obtain the most important polarity markers. From this basis, we look for targets that appear most frequently in the vicinity of these opinions markers. Then, we construct a set of pairs (polarity marker, target) to show that relying on these couples we can maintain (or improve) the performance of the classifier.","Opinion Mining, Named Entity Recognition"],"keyphrases":["Marqueurs de polarit\u00e9","Fouille d\u2019opinion","Reconnaissance d\u2019entit\u00e9s nomm\u00e9es"],"prmu":["P","M","M"]} {"id":"taln-2013-court-028","title":"Un corpus d\u2019erreurs de traduction","abstract":"Avec le d\u00e9veloppement de la post-\u00e9dition, de plus en plus de corpus contenant des corrections de traductions sont disponibles. Ce travail pr\u00e9sente un corpus de corrections d\u2019erreurs de traduction collect\u00e9 dans le cadre du projet ANR\/TRACE et illustre les diff\u00e9rents types d\u2019analyses auxquels il peut servir. Nous nous int\u00e9resserons notamment \u00e0 la d\u00e9tection des erreurs fr\u00e9quentes et \u00e0 l\u2019analyse de la variabilit\u00e9 des post-\u00e9ditions.","translation":["A corpus of post-edited translations","More and more datasets of post-edited translations are being collected. These corpora have many applications, such as failure analysis of SMT systems and the development of quality estimation systems for SMT. This work presents a large corpus of post-edited translations that has been gathered during the ANR\/TRACE project. Applications to the detection of frequent errors and to the analysis of the inter-rater agreement of hTER are also reported.","Machine Translation, Failure Analysis, Post-edition"],"keyphrases":["Traduction automatique","Analyse d\u2019erreur","Post-\u00e9diition"],"prmu":["M","R","U"]} {"id":"taln-2013-court-029","title":"Une m\u00e9thode d\u2019\u00e9valuation des r\u00e9sum\u00e9s bas\u00e9e sur la combinaison de m\u00e9triques automatiques et de complexit\u00e9 textuelle","abstract":"Cet article pr\u00e9sente une m\u00e9thode automatique d\u2019\u00e9valuation du contenu des r\u00e9sum\u00e9s automatiques. La m\u00e9thode propos\u00e9e est bas\u00e9e sur une combinaison de caract\u00e9ristiques englobant des scores de contenu et d\u2019autres de complexit\u00e9 textuelle et ce en s\u2019appuyant sur une technique d\u2019apprentissage, \u00e0 savoir la r\u00e9gression lin\u00e9aire. L\u2019objectif de cette combinaison consiste \u00e0 pr\u00e9dire le score manuel PYRAMID \u00e0 partir des caract\u00e9ristiques utilis\u00e9es. Afin d\u2019\u00e9valuer la m\u00e9thode pr\u00e9sent\u00e9e, nous nous sommes int\u00e9ress\u00e9s \u00e0 deux niveaux de granularit\u00e9 d\u2019\u00e9valuation : la premi\u00e8re est qualifi\u00e9e de Micro-\u00e9valuation et propose l\u2019\u00e9valuation de chaque r\u00e9sum\u00e9, alors que la deuxi\u00e8me est une Macro-\u00e9valuation et s\u2019applique au niveau de chaque syst\u00e8me.","translation":["An evaluation summary method based on combination of automatic and textual complexity metrics","This article presents an automatic method for evaluating content summaries. The proposed method is based on a combination of features encompassing scores of content and others of textual complexity. This method relies on a learning technique namely the linear regression. The objective of this combination is to predict the PYRAMID score from used features. In order to evaluate the presented method, we are interested in two levels of granularity evaluation: the first is named Micro-evaluation and proposes an evaluation of each summary, while the second is called Macro-evaluation and it applies at the level of each system.","Intrinsic evaluation, content evaluation, automatic summary, textual complexity, linear regression"],"keyphrases":["complexit\u00e9 textuelle","\u00e9valuation du contenu","r\u00e9sum\u00e9 automatique","r\u00e9gression lin\u00e9aire","Evaluation intrins\u00e8que"],"prmu":["P","P","P","P","U"]} {"id":"taln-2013-court-030","title":"Segmentation th\u00e9matique : processus it\u00e9ratif de pond\u00e9ration intra-contenu","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 la segmentation th\u00e9matique d\u2019\u00e9missions t\u00e9l\u00e9vis\u00e9es exploitant la coh\u00e9sion lexicale. Le but est d\u2019\u00e9tudier une approche g\u00e9n\u00e9rique, reposant uniquement sur la transcription automatique sans aucune information externe ni aucune information structurelle sur le contenu trait\u00e9. L\u2019\u00e9tude porte plus particuli\u00e8rement sur le m\u00e9canisme de pond\u00e9ration des mots utilis\u00e9s lors du calcul de la coh\u00e9sion lexicale. Les poids TF-IDF sont estim\u00e9s \u00e0 partir du contenu lui-m\u00eame, qui est consid\u00e9r\u00e9 comme une collection de documents mono-th\u00e8me. Nous proposons une approche it\u00e9rative, int\u00e9gr\u00e9e \u00e0 un algorithme de segmentation, visant \u00e0 raffiner la partition du contenu en documents pour l\u2019estimation de la pond\u00e9ration. La segmentation obtenue \u00e0 une it\u00e9ration donn\u00e9e fournit un ensemble de documents \u00e0 partir desquels les poids TF-IDF sont r\u00e9-estim\u00e9s pour la prochaine it\u00e9ration. Des exp\u00e9riences men\u00e9es sur un corpus couvrant diff\u00e9rents formats des journaux t\u00e9l\u00e9vis\u00e9s issus de 8 cha\u00eenes fran\u00e7aises montrent une am\u00e9lioration du processus global de segmentation.","translation":["An iterative topic segmentation algorithm with intra-content term weighting","This paper deals with topic segmentation of TV Broadcasts using lexical cohesion. The aim is to propose a generic approach, only relying on the automatic speech transcription with no external nor a priori information on the TV content. The study focuses on a new weighting scheme for lexical cohesion computation. TF-IDF weights are estimated from the content itself which is considered as a collection of mono-thematic documents. We propose an iterative process, integrated to a segmentation algorithm, aiming to refine the partition of a content into documents in order to estimate the weights. Topic segmentation obtained at a given iteration provides a set of documents from which TF-IDF weights are re-estimated for the next iteration. An experiment on a rich corpus covering various formats of Broadcast News shows from 8 French TV channels improves the overall topic segmentation process.","Topic segmentation, TF-IDF weighting, lexical cohesion, TextTiling"],"keyphrases":["Segmentation th\u00e9matique","coh\u00e9sion lexicale","pond\u00e9ration TF-IDF","TextTiling"],"prmu":["P","P","R","U"]} {"id":"taln-2013-court-031","title":"Recherche et visualisation de mots s\u00e9mantiquement li\u00e9s","abstract":"Nous pr\u00e9sentons PatternSim, une nouvelle mesure de similarit\u00e9 s\u00e9mantique qui repose d\u2019une part sur des patrons lexico-syntaxiques appliqu\u00e9s \u00e0 de tr\u00e8s vastes corpus et d\u2019autre part sur une formule de r\u00e9ordonnancement des candidats extraits. Le syst\u00e8me, initialement d\u00e9velopp\u00e9 pour l\u2019anglais, a \u00e9t\u00e9 adapt\u00e9 au fran\u00e7ais. Nous rendons compte de cette adaptation, nous en proposons une \u00e9valuation et d\u00e9crivons l\u2019usage de ce nouveau mod\u00e8le dans la plateforme de consultation en ligne Serelex.","translation":["Search and Visualization of Semantically Related Words","We present PatternSim, a new semantic similarity measure that relies on morpho-syntactic patterns applied to very large corpora and on a re-ranking formula that reorder extracted candidates. The system, originally developed for English, was adapted to French. We explain this adaptation, propose a first evaluation of it and we describe how this new model was used to build the Serelex online search platform.","Semantic similarity measure, semantic relations"],"keyphrases":["Mesure de similarit\u00e9 s\u00e9mantique","relations s\u00e9mantiques"],"prmu":["P","M"]} {"id":"taln-2013-court-032","title":"Un analyseur morphologique \u00e9tendu de l'allemand traitant les formes verbales \u00e0 particule s\u00e9par\u00e9e","abstract":"Nous d\u00e9crivons l\u2019organisation et l'\u00e9tat courant de l\u2019analyseur morphologique de l\u2019allemand AMALD de grande taille couvrant (pr\u00e8s de 103000 lemmes et 500000 formes fl\u00e9chies simples, en croissance) d\u00e9velopp\u00e9 dans le cadre du projet ANR-\u00c9mergence Traouiero. C\u2019est le premier lemmatiseur de l\u2019allemand capable de traiter non seulement les mots simples et les mots compos\u00e9s, mais aussi les verbes \u00e0 particules s\u00e9parables quand elles sont s\u00e9par\u00e9es, m\u00eame par un grand nombre de mots (ex : Hier schlagen wir eine neue Methode f\u00fcr die morphologische Analyse vor).","translation":["An extended morphological analyzer of German handling verbal forms with separated separable particles","We describe the organisation and the current state of the large-scale (nearly 103000 lemmas and 500000 simple inflected forms, growing) morphological analyzer AMALD developed in the framework of the ANR-\u00c9mergence Traouiero project. It is the first lemmatizer of German able to handle not only simple and compound words, but also verbs with separable particles when they are separated, even by many words (e.g. Hier schlagen wir eine neue Methode f\u00fcr die morphologische Analyse vor.).","morphological analysis, lemmatization, German, verbs with separable particles"],"keyphrases":["allemand","verbes \u00e0 particule s\u00e9parable","analyse morphologique","lemmatisation"],"prmu":["P","P","R","U"]} {"id":"taln-2013-court-033","title":"Construction et exploitation d\u2019un corpus fran\u00e7ais pour l\u2019analyse de sentiment","abstract":"Ce travail pr\u00e9sente un corpus en fran\u00e7ais d\u00e9di\u00e9 \u00e0 l\u2019analyse de sentiment. Nous y d\u00e9crivons la construction et l\u2019organisation du corpus. Nous pr\u00e9sentons ensuite les r\u00e9sultats de l\u2019application de techniques d\u2019apprentissage automatique pour la t\u00e2che de classification d\u2019opinion (positive ou n\u00e9gative) v\u00e9hicul\u00e9e par un texte. Deux techniques sont utilis\u00e9es : la r\u00e9gression logistique et la classification bas\u00e9e sur des Support Vector Machines (SVM). Nous mentionnons \u00e9galement l\u2019int\u00e9r\u00eat d\u2019appliquer une s\u00e9lection de variables avant la classification (par r\u00e9gularisation par elastic net).","translation":["Building and exploiting a French corpus for sentiment analysis","This work introduces a French corpus for sentiment analysis. We describe the construction and organization of the corpus. We then apply machine learning techniques to automatically predict whether a text is positive or negative (the opinion classification task). Two techniques are used : logistic regression and classification based on Support Vector Machines (SVM). Finally, we briefly evaluate the merits of applying feature selection algorithms to our models (via elastic net regularization).","Sentiment Analysis, Corpus, Opinion Mining, Classification, Machine Learning, Variable Selection"],"keyphrases":["Corpus","Analyse de sentiments","Apprentissage automatique","Classification","S\u00e9lection de variable"],"prmu":["P","P","P","P","P"]} {"id":"taln-2013-court-034","title":"R\u00e9solution d'anaphores appliqu\u00e9e aux collocations: une \u00e9valuation pr\u00e9liminaire","abstract":"Le traitement des collocations en analyse et en traduction est depuis de nombreuses ann\u00e9es au centre de nos int\u00e9r\u00eats de recherche. L\u2019analyseur Fips a \u00e9t\u00e9 r\u00e9cemment enrichi d\u2019un module de r\u00e9solution d\u2019anaphores. Dans cet article nous d\u00e9crivons comment la r\u00e9solution d\u2019anaphores a \u00e9t\u00e9 appliqu\u00e9e \u00e0 l\u2019identification des collocations et comment cela permet \u00e0 l\u2019analyseur de rep\u00e9rer une collocation m\u00eame si un de ses termes a \u00e9t\u00e9 pronominalis\u00e9. Nous d\u00e9crivons aussi la m\u00e9thodologie de l\u2019\u00e9valuation, notamment la pr\u00e9paration des donn\u00e9es pour le calcul du rappel. Dans la t\u00e2che d\u2019identification des collocations pronominalis\u00e9es, Fips montre des r\u00e9sultats tr\u00e8s encourageants : la pr\u00e9cision mesur\u00e9e est de 98% alors que le rappel est proche de 50%. Dans cette \u00e9valuation nous nous int\u00e9ressons aux collocations de type verbe-objet direct en conjonction avec les pronoms anaphoriques \u00e0 la 3e personne. Le corpus utilis\u00e9 est un corpus anglais d\u2019environ dix millions de mots.","translation":["Anaphora Resolution Applied to Collocation Identification: A Preliminary Evaluation","Collocation identification and collocation translation have been at the center of our research interests for several years. Recently, the Fips parser has been enriched by an anaphora resolution mechanism. This article discusses how anaphora resolution has been applied to the collocation identification task, and how it enables the parser to identify a collocation when one of its terms is pronominalized. We also describe the evaluation methodology, in particular the preparation of data for the calculation of the recall. In the task of pronominalized collocation identification, Fips shows encouraging results: the measured precision is 98% while recall approaches 50%. In this paper we focus on collocations of the type verb-direct object and on a widespread type of anaphora: the third personal pronouns. The corpus used is a corpus of approximately ten million English words.","Parsing, anaphora resolution, personal pronoun, collocations, corpus"],"keyphrases":["collocations","Analyse","r\u00e9solution d\u2019anaphores","corpus","pronoms personnels"],"prmu":["P","P","P","P","M"]} {"id":"taln-2013-court-035","title":"Aide \u00e0 l\u2019enrichissement d\u2019un r\u00e9f\u00e9rentiel terminologique : propositions et exp\u00e9rimentations","abstract":"En s\u2019appuyant sur une exp\u00e9rience d\u2019enrichissement terminologique, cet article montre comment assister le travail d\u2019acquisition terminologique et surmonter concr\u00e8tement les deux difficult\u00e9s qu\u2019il pr\u00e9sente : la masse de candidats-termes \u00e0 consid\u00e9rer et la subjectivit\u00e9 des jugements terminologiques qui varient notamment en fonction du type de terminologie \u00e0 produire. Nous proposons des strat\u00e9gies simples pour filtrer a priori une partie du bruit des r\u00e9sultats des extracteurs et rendre ainsi la validation praticable pour des terminologues et nous d\u00e9montrons leur efficacit\u00e9 sur un \u00e9chantillon de candidats-termes propos\u00e9s \u00e0 la validation de deux sp\u00e9cialistes du domaine. Nous montrons \u00e9galement qu\u2019en appliquant \u00e0 une campagne de validation terminologique les m\u00eames principes m\u00e9thodologiques que pour une campagne d\u2019annotation, on peut contr\u00f4ler la qualit\u00e9 des jugements de validation pos\u00e9s et de la terminologie qui en r\u00e9sulte.","translation":["Help enrich a terminological repository : proposals and experiments","Based on an experience of terminological enrichment, this paper shows how to support the work of terminological acquisition and overcome practical difficulties it presents, i.e. the mass of candidate terms to consider and the subjectivity of terminological judgments which depends on the type of terminology to produce. We propose simple strategies to filter a priori part of the noise from the results of term extractors so as to make the validation practicable for terminologists. We demonstrate their effectiveness on a sample of candidate terms proposed for the validation of two experts. We also show that by applying to term validation campaigns the methodological principles that have been proposed for corpus annotation campaigns, we can control the quality of validation judgments and of the resulting terminologies.","Terminology acquisition, term candidate validation, term filtering, terminological distance, vote, inter-judge agreement"],"keyphrases":["Acquisition terminologique","validation de candidats-termes","filtrage de termes","distance terminologique","vote","accord inter-juges"],"prmu":["P","R","M","M","U","U"]} {"id":"taln-2013-demo-001","title":"DAnIEL : Veille \u00e9pid\u00e9miologique multilingue parcimonieuse","abstract":"DAnIEL est un syst\u00e8me multilingue de veille \u00e9pid\u00e9miologique. DAnIEL permet de traiter un grand nombre de langues \u00e0 faible co\u00fbt gr\u00e2ce \u00e0 une approche parcimonieuse en ressources.","translation":["DAnIEL, parsimonious yet high-coverage multilingual epidemic surveillance","DAnIEL is a multilingual epidemic surveillance system. DAnIEL relies on a parsimonious scheme making it possible to process new languages at small cost.","information extraction, information retrieval, news surveillance, multilingualism, news genre, character-level analysis"],"keyphrases":["veille","multilinguisme","extraction d\u2019information","recherche d\u2019information","genre journalistique","grain caract\u00e8re"],"prmu":["P","P","U","U","U","U"]} {"id":"taln-2013-demo-002","title":"Lexique multilingue dans le cadre du mod\u00e8le Compreno d\u00e9velopp\u00e9 ABBYY","abstract":"Le lexique multilingue bas\u00e9 sur une hi\u00e9rarchie s\u00e9mantique universelle fait partie du mod\u00e8le linguistique Compreno destin\u00e9 \u00e0 plusieurs applications du TALN, y compris la traduction automatique et l\u2019analyse s\u00e9mantique et syntaxique. La ressource est propri\u00e9taire et n\u2019est pas librement disponible.","translation":["Multilingual lexical database in the framework of COMPRENO linguistic model developed by ABBYY","The multilingual lexical database based on the universal semantic hierarchy is part of Compreno linguistic model. This model is meant for various NLP applications dealing with machine translation, semantic and syntactic analysis. The resource is private and is not freely available.","Multilingual lexical database, universal semantic hierarchy, machine translation"],"keyphrases":["Lexique multilingue","hi\u00e9rarchie s\u00e9mantique universelle","traduction automatique"],"prmu":["P","P","P"]} {"id":"taln-2013-demo-003","title":"Inbenta Semantic Search Engine : un moteur de recherche s\u00e9mantique inspir\u00e9 de la Th\u00e9orie Sens-Texte","abstract":"Avec la digitalisation massive de documents appara\u00eet la n\u00e9cessit\u00e9 de disposer de syst\u00e8mes de recherche capables de s\u2019adapter aux habitudes de recherche des utilisateurs et de leur permettre d\u2019acc\u00e9der \u00e0 l\u2019information rapidement et efficacement. INBENTA a ainsi cr\u00e9\u00e9 un moteur de recherche intelligent appell\u00e9 Inbenta Semantic Search Engine (ISSE). Les deux t\u00e2ches principales de l\u2019ISSE sont d\u2019analyser les questions des utilisateurs et de trouver la r\u00e9ponse appropri\u00e9e \u00e0 la requ\u00eate en effectuant une recherche dans une base de connaissances. Pour cela, la solution logicielle d\u2019INBENTA se base sur la Th\u00e9orie Sens-Texte qui se concentre sur le lexique et la s\u00e9mantique.","translation":["Inbenta Semantic Search Engine: a semantic search engine inspired by the Meaning-Text Theory","The need to have search systems able to adapt themselves to the particular way users pose their questions so that they can get a quick and efficient access to information is increasingly relevant due to the huge digitalization of documents. To cope with this reality, INBENTA has developed an intelligent search engine, called Inbenta Semantic Search Engine (ISSE). ISSE's main two tasks are analysing users' queries and finding the most appropriate answer to those questions in a knowledge-base. To carry out these tasks, INBENTA's software solution relies upon the Meaning-Text Theory, which focusses on the lexicon and semantics.","Semantic Search Engine, Meaning-Text Theory, lexical function"],"keyphrases":["Moteur de Recherche S\u00e9mantique","Th\u00e9orie Sens-Texte","fonction lexicale"],"prmu":["P","P","U"]} {"id":"taln-2013-demo-004","title":"FMO : un outil d\u2019analyse automatique de l\u2019opinion","abstract":"Nous d\u00e9crivons notre prototype d\u2019analyse automatique d\u2019opinion. Celui-ci est bas\u00e9 sur un moteur d\u2019analyse linguistique. Il permet de d\u00e9tecter finement les segments de texte porteurs d\u2019opinions, de les extraire, et de leur attribuer une note selon la polarit\u00e9 qu\u2019ils expriment. Nous pr\u00e9sentons enfin les diff\u00e9rentes perspectives que nous envisageons pour ce prototype.","translation":["FMO: a tool for automated opinion mining","We describe our prototype of automatic opinion mining. It is based on a linguistic analysis engine. It allows to subtly identifying the text phrases which bear some opinion, to extract them, and to give them a note according to the polarity that they express. Finally, we present the perspectives that we plan to carry out.","Opinion mining, e-reputation, information extraction"],"keyphrases":["Analyse d\u2019opinion","e-reputation","extraction d\u2019information"],"prmu":["R","U","M"]} {"id":"taln-2013-demo-005","title":"Corriger, analyser et repr\u00e9senter le texte Synapse D\u00e9veloppement","abstract":"Synapse D\u00e9veloppement souhaite \u00e9changer avec les conf\u00e9renciers autour des technologies qu'elle commercialise : correction de textes et analyse s\u00e9mantique. Plusieurs produits et d\u00e9monstrateurs seront pr\u00e9sent\u00e9s, notre but \u00e9tant d'instaurer un dialogue et de confronter notre approche du TAL, \u00e0 base de m\u00e9thodes symboliques et statistiques influenc\u00e9es par des contraintes de production, et celles utilis\u00e9es par les chercheurs, industriels ou passionn\u00e9s qui viendront \u00e0 notre rencontre.","translation":["Checking, analysing and representing texts","Synapse D\u00e9veloppement would like to demonstrate its grammar checker and semantic analysis technologies to open exciting discussions with natural language specialists. We are particularly interested in discussing the scientific issues we have to face and solve according to our industrial needs.","Grammar checker, POS tagging, semantic analysis, opinion mining"],"keyphrases":["analyse s\u00e9mantique","Correction grammaticale","analyse syntaxique","analyse d'opinions"],"prmu":["P","M","M","M"]} {"id":"taln-2013-demo-006","title":"Une interface pour la validation et l\u2019\u00e9valuation de chronologies th\u00e9matiques","abstract":"Cet article d\u00e9crit une interface graphique de visualisation de chronologies \u00e9v\u00e9nementielles construites automatiquement \u00e0 partir de requ\u00eates th\u00e9matiques en utilisant un corpus de d\u00e9p\u00eaches fourni par l\u2019Agence France Pressse (AFP). Cette interface permet \u00e9galement la validation des chronologies par des journalistes qui peuvent ainsi les \u00e9diter et les modifier.","translation":["An Interface for Validating and Evaluating Thematic Timelines","This demo paper presents a graphical interface for the visualization and evaluation of event timelines built automatically from a search query on a newswire article corpus provided by the Agence France Pressse (AFP). This interface also enables journalists to validate chronologies by editing and modifying them.","event timeline, evaluation, validation"],"keyphrases":["validation","\u00e9valuation","chronologie \u00e9v\u00e9nementielle"],"prmu":["P","P","P"]} {"id":"taln-2013-demo-007","title":"CasSys Un syst\u00e8me libre de cascades de transducteurs","abstract":"CasSys est un syst\u00e8me de cr\u00e9ation et de mise en oeuvre de cascades de transducteurs int\u00e9gr\u00e9 \u00e0 la plateforme Unitex. Nous pr\u00e9sentons dans cette d\u00e9monstration la nouvelle version implant\u00e9e fin 2012. En particulier ont \u00e9t\u00e9 ajout\u00e9es une interface plus conviviale et la possibilit\u00e9 d\u2019it\u00e9rer un m\u00eame transducteur jusqu\u2019\u00e0 ce qu\u2019il n\u2019ait plus d\u2019influence sur le texte. Un premier exemple concernera le traitement de texte avec une gestion complexe de balises XML et un deuxi\u00e8me pr\u00e9sentera la cascade CasEN de reconnaissance des entit\u00e9s nomm\u00e9es.","translation":["CasSys, a free transducer cascade system","CasSys is a free toolkit integrated in the Unitex platform to create and use transducer cascades. We are presenting the new version implemented at the end of 2012. The system interface has been improved and the Kleen star operation has been added: this operation allows applying the same transducer until it no longer produces changes in the text. The first example deals with complex XML text parsing and the second with CasEN, a free cascade for French Named Entity Recognition.","transducer cascade, Unitex graphs, XML text, French Named Entity Recognition"],"keyphrases":["cascade de transducteurs","graphes Unitex","texte avec balises XML","reconnaissance d'entit\u00e9s nomm\u00e9es"],"prmu":["P","M","R","M"]} {"id":"taln-2013-demo-008","title":"iMAG : post-\u00e9dition, \u00e9valuation de qualit\u00e9 de TA et production d'un corpus parall\u00e8le","abstract":"Une passerelle interactive d\u2019acc\u00e8s multilingue (iMAG) d\u00e9di\u00e9e \u00e0 un site Web S (iMAG-\u00ad\u2010S) est un bon outil pour rendre S accessible dans beaucoup de langues, imm\u00e9diatement et sans responsabilit\u00e9 \u00e9ditoriale. Les visiteurs de S ainsi que des post-\u00ad\u2010\u00e9diteurs et des mod\u00e9rateurs pay\u00e9s ou non contribuent \u00e0 l\u2019am\u00e9lioration continue et incr\u00e9mentale des segments textuels les plus importants, et \u00e9ventuellement de tous. Dans cette approche, les pr\u00e9-\u00ad\u2010traductions sont produites par un ou plusieurs syst\u00e8mes de Traduction Automatique (TA) gratuits. Il y a deux effets de bord int\u00e9ressants, obtenables sans co\u00fbt additionnel : les iMAGs peuvent \u00eatre utilis\u00e9es pour produire des corpus parall\u00e8les de haute qualit\u00e9, et pour mettre en place une \u00e9valuation permanente et finalis\u00e9e de multiples syst\u00e8mes de TA.","translation":["iMAG : MT-postediting, translation quality evaluation and parallel corpus production","An interactive Multilingual Access Gateway (iMAG) dedicated to a web site S (iMAG-\u00ad\u2010S) is a good tool to make S accessible in many languages immediately and without editorial responsibility. Visitors of S as well as paid or unpaid post-\u00ad\u2010editors and moderators contribute to the continuous and incremental improvement of the most important textual segments, and eventually of all. In this approach, pre-\u00ad\u2010translations are produced by one or more free machine translation systems. There are two interesting side effects obtainable without any added cost: iMAGs can be used to produce high-\u00ad\u2010quality parallel corpora and to set up a permanent task-\u00ad\u2010based evaluation of multiple MT systems.","post-edition, evaluation of MT systems, production of parallel corpora"],"keyphrases":["post-\u00e9dition","\u00e9valuation de syst\u00e8mes de TA","production d\u2019un corpus parall\u00e8le"],"prmu":["P","R","R"]} {"id":"taln-2013-demo-009","title":"Technologies du Web S\u00e9mantique pour l'exploitation de donn\u00e9es lexicales en r\u00e9seau (Lexical Linked Data)","abstract":"Nous pr\u00e9sentons un syst\u00e8me bas\u00e9 sur les technologies du Web S\u00e9mantique pour la gestion, le d\u00e9veloppement et l'exploitation de donn\u00e9es lexicales en r\u00e9seau (Lexical Linked Data, LLD).","translation":["Semantic Web technologies for Lexical Linked Data management","We present a system based on Semantic Web technologies for Lexical Linked Data management.","Lexical Linked Data, Multilingual Lexicon, Pivot, Axies, Sparql, Spin"],"keyphrases":["Lexical Linked Data","Lexique Multilingue","Pivot","Axies","Sparql","Spin"],"prmu":["P","U","U","U","U","U"]} {"id":"taln-2013-demo-010","title":"Adaptation de la plateforme corporale ScienQuest pour l'aide \u00e0 la r\u00e9daction en langue seconde","abstract":"La plateforme ScienQuest fut initialement cr\u00e9\u00e9e pour l'\u00e9tude linguistique du positionnement et du raisonnement dans le corpus Scientext. Cette d\u00e9monstration pr\u00e9sente les modifications apport\u00e9es \u00e0 cette plateforme, pour en faire une base phras\u00e9ologique adapt\u00e9e \u00e0 l'aide \u00e0 la r\u00e9daction en langue seconde. Cette adaptation est utilis\u00e9e dans le cadre de deux exp\u00e9rimentations en cours : l'aide \u00e0 la r\u00e9daction en anglais pour les scientifiques, et l'aide \u00e0 la r\u00e9daction acad\u00e9mique en fran\u00e7ais pour les apprenants.","translation":["Adaptation of the corpus platform ScienQuest for assistance to writing in a second language","The ScienQuest platform was initially created for the linguistic study of positioning and reasoning in the Scientext corpus. This demonstration introduces modifications to this platform, transforming it into a phraseological database adapted for assistance to writing in a second language. This adaptation is used as part of two ongoing experiments: an assistance to writing in English for scientists, and an assistance to academic writing in French for learners.","Writing assistance, second language, ScienQuest, Scientext"],"keyphrases":["ScienQuest","Aide \u00e0 la r\u00e9daction","langue seconde","Scientext"],"prmu":["P","P","P","P"]} {"id":"taln-2013-demo-011","title":"D\u00e9monstrateur Apopsis pour l\u2019analyse des tweets","abstract":"Le d\u00e9monstrateur Apopsis permet de d\u00e9limiter et de cat\u00e9goriser les opinions \u00e9mises sur les tweets en temps r\u00e9el pour un sujet choisi par l\u2019utilisateur au travers d\u2019une interface web.","translation":["Apopsis Demonstrator for Tweet Analysis","Apopsis web demonstrator detects and categorizes opinion expressions appearing in Twitter in real time thorigh a web interface.","opinion mining, polarity, twitter"],"keyphrases":["fouille d\u2019opinion","polarit\u00e9","twitter"],"prmu":["M","U","U"]} {"id":"taln-2013-demo-012","title":"L\u2019analyse des sentiments au service des centres d\u2019appels","abstract":"Les conversations t\u00e9l\u00e9phoniques qui contiennent du sentiment n\u00e9gatif sont particuli\u00e8rement int\u00e9ressantes pour les centres d\u2019appels, aussi bien pour \u00e9valuer la perception d\u2019un produit par les clients que pour am\u00e9liorer la formation des t\u00e9l\u00e9-conseillers. N\u00e9anmoins, ces conversations sont peu nombreuses et difficiles \u00e0 trouver dans la masse d\u2019enregistrements. Nous pr\u00e9sentons un module d\u2019analyse des sentiments qui permet de visualiser le d\u00e9roulement \u00e9motionnel des conversations. Il se greffe sur un moteur de recherche, ce qui permet de trouver rapidement les conversations probl\u00e9matiques gr\u00e2ce \u00e0 l\u2019ordonnancement par score de n\u00e9gativit\u00e9.","translation":["Sentiment Analysis for Call-centers","Phone conversations in which negative sentiment is expressed are particularly interesting for call centers, both to evaluate the clients\u2019 perception of a product and for the training of the agents. However, these conversations are scarce and hard to find in the mass of the recorded calls. We present a module for sentiment analysis that allows the user to visualize the emotional course of each conversation. In combination with a search engine, a user can rapidly find the problematic calls using the ranking by negativity score.","sentiment analysis, information retrieval, spontaneous speech, conversational speech"],"keyphrases":["analyse des sentiments","conversations t\u00e9l\u00e9phoniques","recherche d\u2019information","parole spontan\u00e9e","parole conversationnelle"],"prmu":["P","P","M","U","U"]} {"id":"taln-2013-demo-013","title":"TTC TermSuite alignement terminologique \u00e0 partir de corpus comparables","abstract":"TermSuite est outil libre multilingue r\u00e9alisant une extraction terminologique monolingue et une extraction terminologique bilingue \u00e0 partir de corpus comparables.","translation":["TTC TermSuite - Terminological Alignment from Comparable Corpora","TermSuite is based on a UIMA framework and performs monolingual and bilingual term extraction from comparable corpora for a range of languages.","comparable corpora, terminology extraction, terminology alignment, UIMA"],"keyphrases":["alignement","corpus comparable","extraction terminologique","UIMA"],"prmu":["P","P","P","U"]} {"id":"taln-1999-long-006","title":"Une biblioth\u00e8que d\u2019op\u00e9rateurs linguistiques pour la consultation de base de donn\u00e9es en langue naturelle","abstract":"L\u2019interrogation de bases de donn\u00e9es en langue naturelle est une application directe du traitement automatique des langues naturelles. Son utilit\u00e9 va en s\u2019accroissant avec le d\u00e9veloppement d\u2019outils d\u2019information accessibles au grand public \u00e0 travers la Toile Internet. L\u2019approche que nous proposons s\u2019appuie d\u2019une part sur les fondations linguistiques \u00e9tablies par la th\u00e9orie de Z. S. Harris (dans l\u2019\u00e9laboration du dictionnaire, et surtout dans la d\u00e9finition des op\u00e9rateurs linguistiques), et d\u2019autre part sur un outil informatique pr\u00e9cis (les transducteurs). Elle repr\u00e9sente une alternative aux traitements syntaxico-s\u00e9mantiques habituellement d\u00e9velopp\u00e9s dans des formalismes logiques. Elle s\u2019appuie sur la constitution d\u2019une biblioth\u00e8que d\u2019op\u00e9rateurs linguistiques pour les domaines d\u2019application.","translation":["","",""],"keyphrases":["op\u00e9rateurs linguistiques","interrogation de base de donn\u00e9es","langage naturel","transducteur (automate \u00e0 nombre fini d\u2019\u00e9tats)"],"prmu":["P","P","M","M"]} {"id":"taln-1999-long-014","title":"Peut-on couper \u00e0 la polys\u00e9mie verbale ?","abstract":"Dans ce bref document, nous pr\u00e9sentons des r\u00e9sultats pr\u00e9liminaires d\u2019une m\u00e9thode de description de la s\u00e9mantique des formes pr\u00e9dicatives dans un cadre g\u00e9n\u00e9ratif. Nous proposons une m\u00e9thode pour d\u00e9couper les sens, en identifiant les types d\u2019inf\u00e9rences qu\u2019ils entrainent. Nous proposons une analyse int\u00e9gr\u00e9e des m\u00e9taphores et des m\u00e9tonymies, ainsi qu\u2019une repr\u00e9sentation des sens sous forme typ\u00e9e et sous-sp\u00e9cifi\u00e9e.","translation":["","",""],"keyphrases":["s\u00e9mantique lexicale","pr\u00e9dicats","lexique g\u00e9n\u00e9ratif"],"prmu":["M","U","M"]} {"id":"taln-1999-long-023","title":"Apprentissage et Evaluation de Mod\u00e8les de Langage par des Techniques de Correction d\u2019Erreurs","abstract":"Cet article a pour but de d\u00e9crire la mise au point et l\u2019exp\u00e9rimentation de m\u00e9thodes d\u2019apprentissage de syntaxe \u00e0 partir d\u2019exemples positifs, en particulier pour des applications de Reconnaissance de la Parole et de Dialogue Oral. Les mod\u00e8les syntaxiques, destin\u00e9s \u00e0 \u00eatre int\u00e9gr\u00e9s dans une cha\u00eene de traitement de la parole, sont extraits des donn\u00e9es par des m\u00e9thodes d\u2019inf\u00e9rence grammaticale symbolique et stochastique. Ils sont fond\u00e9s sur des techniques de correction d\u2019erreurs dans les s\u00e9quences. L\u2019ensemble de ce travail a \u00e9t\u00e9 r\u00e9alis\u00e9 dans le cadre du contrat 97- 1B-004 avec France-Telecom (Centre National d\u2019Etudes des T\u00e9l\u00e9communications). Dans la premi\u00e8re partie de cet article, nous rappellons les distances entre s\u00e9quences bas\u00e9es sur des op\u00e9rations \u00e9l\u00e9mentaires de correction d\u2019erreur. Nous d\u00e9crivons ensuite un algorithme classique d\u2019inf\u00e9rence grammaticale fond\u00e9 sur cette notion, et nous en proposons une am\u00e9lioration. Nous abordons \u00e0 cet endroit le probl\u00e8me de l\u2019\u00e9valuation d\u2019un concept appris seulement \u00e0 partir d\u2019exemples positifs, sans contre-exemples. Par la suite, le mod\u00e8le syntaxique est \u00e9tendu en attribuant des probabilit\u00e9s (apprises \u00e0 partir des donn\u00e9es) aux r\u00e8gles de la grammaire. On dispose dans ce cadre d\u2019un outil d\u2019\u00e9valuation de la qualit\u00e9 de l\u2019apprentissage : la perplexit\u00e9 ; cependant pour obtenir des r\u00e9sultats significatifs, il faut \u00eatre capable de probabiliser l\u2019espace entier des s\u00e9quences, ce qui implique de lisser la grammaire stochastique apprise. Une technique de lissage est propos\u00e9e, qui permet alors d\u2019\u00e9valuer l\u2019apprentissage sur le corpus de donn\u00e9es issues de l\u2019exp\u00e9rimentation en dialogue oral.","translation":["","",""],"keyphrases":["Inf\u00e9rence grammaticale r\u00e9guli\u00e8re","analyse corrective","\u00e9valuation du mod\u00e8le de language"],"prmu":["M","M","M"]} {"id":"taln-2004-long-001","title":"Evaluation de m\u00e9thodes de segmentation th\u00e9matique lin\u00e9aire non supervis\u00e9es apr\u00e8s adaptation au fran\u00e7ais","abstract":"Nous proposons une \u00e9valuation de diff\u00e9rentes m\u00e9thodes et outils de segmentation th\u00e9matique de textes. Nous pr\u00e9sentons les outils de segmentation lin\u00e9aire et non supervis\u00e9e DotPlotting, Segmenter, C99, TextTiling, ainsi qu\u2019une mani\u00e8re de les adapter et de les tester sur des documents fran\u00e7ais. Les r\u00e9sultats des tests montrent des diff\u00e9rences en performance notables selon les sujets abord\u00e9s dans les documents, et selon que le nombre de segments \u00e0 trouver est fix\u00e9 au pr\u00e9alable par l\u2019utilisateur. Ces travaux font partie du projet Technolangue AGILE-OURAL.","translation":["","This paper presents an empirical comparison between different methods for segmenting texts. After presenting segmentation tools and more specifically linear segmentation algorithms, we present a comparison of these methods on both French and English text corpora. This evalutation points out that the performance of each method heavilly relies on the topic of the documents, and the number of boundaries to be found. This work is part of the project Technolangue AGILE-OURAL.","Topic segmentation, WindowDiff and Beeferman measures, lexical cohesion, lexical chains"],"keyphrases":["Segmentation th\u00e9matique","m\u00e9triques de Beeferman et WindowDiff","coh\u00e9sion lexicale","cha\u00eenes lexicales"],"prmu":["P","M","U","U"]} {"id":"taln-2004-long-002","title":"Ambigu\u00eft\u00e9 de rattachement pr\u00e9positionnel : introduction de ressources exog\u00e8nes de sous-cat\u00e9gorisation dans un analyseur syntaxique de corpus endog\u00e8ne","abstract":"Nous pr\u00e9sentons les r\u00e9sultats d\u2019exp\u00e9rimentations visant \u00e0 introduire des ressources lexicosyntaxiques g\u00e9n\u00e9riques dans un analyseur syntaxique de corpus \u00e0 base endog\u00e8ne (SYNTEX) pour la r\u00e9solution d\u2019ambigu\u00eft\u00e9s de rattachement pr\u00e9positionnel. Les donn\u00e9es de souscat\u00e9gorisation verbale sont \u00e9labor\u00e9es \u00e0 partir du lexique-grammaire et d\u2019une acquisition en corpus (journal Le Monde). Nous pr\u00e9sentons la strat\u00e9gie endog\u00e8ne de d\u00e9sambigu\u00efsation, avant d\u2019y int\u00e9grer les ressources construites. Ces strat\u00e9gies sont \u00e9valu\u00e9es sur trois corpus (scientifique, juridique et journalistique). La strat\u00e9gie mixte augmente le taux de rappel (+15% sur les trois corpus cumul\u00e9s) sans toutefois modifier le taux de pr\u00e9cision (~ 85%). Nous discutons ces performances, notamment \u00e0 la lumi\u00e8re des r\u00e9sultats obtenus par ailleurs sur la pr\u00e9position de.","translation":["","We report the results of experiments aimed at integrating general lexico-syntactic resources into a corpus syntactic parser (SYNTEX) based on endogenous learning. We tackle the issue of prepositional phrase attachment. We make use of both French lexico-syntactic resources and automatic acquisition to extract verb subcategorisation data. We describe both the endogenous and hybrid approaches and show how the latter improves the recall rate - +15% in average - but has no impact on the precision rate (~ 85%).","automatic parsing, prepositional phrase attachement disambiguation, endogenous learning, exogenous resources, hybrid approach"],"keyphrases":["ambigu\u00eft\u00e9 de rattachement pr\u00e9positionnel","ressources exog\u00e8nes","analyse syntaxique automatique","proc\u00e9dures endog\u00e8nes","approche mixte"],"prmu":["P","P","M","M","M"]} {"id":"taln-2004-long-003","title":"Vers un statut de l\u2019arbre de d\u00e9rivation : exemples de construction de representations s\u00e9mantiques pour les Grammaires d\u2019Arbres Adjoints","abstract":"Cet article propose une d\u00e9finition des arbres de d\u00e9rivation pour les Grammaires d\u2019Arbres Adjoints, \u00e9tendant la notion habituelle. Elle est construite sur l\u2019utilisation des Grammaires Cat\u00e9gorielles Abstraites et permet de mani\u00e8re sym\u00e9trique le calcul de la repr\u00e9sentation syntaxique (arbre d\u00e9riv\u00e9) et le calcul de la repr\u00e9sentation s\u00e9mantique.","translation":["","This paper suggests a definition for Tree Adjoining Grammar derivation trees, extending the usual notion. It results from using Abstract Categorial Grammars and enables, in a symmetric way, the computation of both the syntactic representation (derived tree) and the semantic representation.","Semantics, tree adjoining grammars, categorial grammars, \u03bb-calculus"],"keyphrases":["S\u00e9mantique","grammaires d\u2019arbre adjoints","grammaires cat\u00e9gorielles","\u03bb-calcul"],"prmu":["P","P","P","U"]} {"id":"taln-2004-long-004","title":"Extension de requ\u00eates par lien s\u00e9mantique nom-verbe acquis sur corpus","abstract":"En recherche d\u2019information, savoir reformuler une id\u00e9e par des termes diff\u00e9rents est une des clefs pour l\u2019am\u00e9lioration des performances des syst\u00e8mes de recherche d\u2019information (SRI) existants. L\u2019un des moyens pour r\u00e9soudre ce probl\u00e8me est d\u2019utiliser des ressources s\u00e9mantiques sp\u00e9cialis\u00e9es et adapt\u00e9es \u00e0 la base documentaire sur laquelle les recherches sont faites. Nous proposons dans cet article de montrer que les liens s\u00e9mantiques entre noms et verbes appel\u00e9s liens qualia, d\u00e9finis dans le mod\u00e8le du Lexique g\u00e9n\u00e9ratif (Pustejovsky, 1995), peuvent effectivement am\u00e9liorer les r\u00e9sultats des SRI. Pour cela, nous extrayons automatiquement des couples nom-verbe en relation qualia de la base documentaire \u00e0 l\u2019aide du syst\u00e8me d\u2019acquisition ASARES (Claveau, 2003a). Ces couples sont ensuite utilis\u00e9s pour \u00e9tendre les requ\u00eates d\u2019un syst\u00e8me de recherche. Nous montrons, \u00e0 l\u2019aide des donn\u00e9es de la campagne d\u2019\u00e9valuation Amaryllis, que cette extension permet effectivement d\u2019obtenir des r\u00e9ponses plus pertinentes, et plus particuli\u00e8rement pour les premiers documents retourn\u00e9s \u00e0 l\u2019utilisateur.","translation":["","In the information retrieval field, managing the equivalent reformulations of a same idea is a key point to improve the performances of existing retrieval systems. One way to reach this goal is to use specialised semantic resources that are suited to the document database on which the queries are processed. In this paper, we show that the semantic links between nouns and verbs called qualia links, defined in the Generative lexicon framework (Pustejovsky, 1995), enable us to improve the results of retrieval systems. To achieve this goal, we automatically extract from the document database noun-verb pairs that are in qualia relation with the acquisition system ASARES (Claveau, 2003a). These pairs are then used to expand the queries of a retrieval system. With the help of the Amaryllis evaluation campaign data, we show that these expansions actually lead to better results, especially for the first documents proposed to the user.","Semantic lexicon, corpus-based acquisition, information retrieval, Generative lexicon, query expansion"],"keyphrases":["extension de requ\u00eate","recherche d\u2019information","Lexique g\u00e9n\u00e9ratif","Lexique s\u00e9mantique","acquisition sur corpus"],"prmu":["P","P","P","R","R"]} {"id":"taln-2004-long-005","title":"D\u00e9couvrir des sens de mots \u00e0 partir d\u2019un r\u00e9seau de cooccurrences lexicales","abstract":"Les r\u00e9seaux lexico-s\u00e9mantiques de type WordNet ont fait l\u2019objet de nombreuses critiques concernant la nature des sens qu\u2019ils distinguent ainsi que la fa\u00e7on dont ils caract\u00e9risent ces distinctions de sens. Cet article pr\u00e9sente une solution possible \u00e0 ces limites, solution consistant \u00e0 d\u00e9finir les sens des mots \u00e0 partir de leur usage. Plus pr\u00e9cis\u00e9ment, il propose de diff\u00e9rencier les sens d\u2019un mot \u00e0 partir d\u2019un r\u00e9seau de cooccurrences lexicales construit sur la base d\u2019un large corpus. Cette m\u00e9thode a \u00e9t\u00e9 test\u00e9e \u00e0 la fois pour le fran\u00e7ais et pour l\u2019anglais et a fait l\u2019objet dans ce dernier cas d\u2019une premi\u00e8re \u00e9valuation par comparaison avec WordNet.","translation":["","Lexico-semantic networks such as WordNet have been criticized a lot on the nature of the senses they distinguish as well as on the way they define these senses. In this article, we present a possible solution to overcome these limits by defining the sense of words from the way they are used. More precisely, we propose to differentiate the senses of a word from a network of lexical cooccurrences built from a large corpus. This method was tested both for French and English and for English, was evaluated through a comparison with WordNet.","Lexical semantics, word sense discovery, lexico-semantic networks"],"keyphrases":["r\u00e9seaux lexico-s\u00e9mantiques","S\u00e9mantique lexicale","d\u00e9couverte du sens des mots"],"prmu":["P","M","M"]} {"id":"taln-2004-long-006","title":"D\u00e9sambigu\u00efsation par proximit\u00e9 structurelle","abstract":"L\u2019article pr\u00e9sente une m\u00e9thode de d\u00e9sambigu\u00efsation dans laquelle le sens est d\u00e9termin\u00e9 en utilisant un dictionnaire. La m\u00e9thode est bas\u00e9e sur un algorithme qui calcule une distance \u00ab s\u00e9mantique \u00bb entre les mots du dictionnaire en prenant en compte la topologie compl\u00e8te du dictionnaire, vu comme un graphe sur ses entr\u00e9es. Nous l\u2019avons test\u00e9e sur la d\u00e9sambigu\u00efsation des d\u00e9finitions du dictionnaire elles-m\u00eames. L\u2019article pr\u00e9sente des r\u00e9sultats pr\u00e9liminaires, qui sont tr\u00e8s encourageants pour une m\u00e9thode ne n\u00e9cessitant pas de corpus annot\u00e9.","translation":["","This paper presents a disambiguation method in which word senses are determined using a dictionary. We use a semantic proximity measure between words in the dictionary, taking into account the whole topology of the dictionary, seen as a graph on its entries. We have tested the method on the problem of disambiguation of the dictionary entries themselves, with promising results considering we do not use any prior annotated data.","Word sense desambiguation, hierarchical small words, dictionaries"],"keyphrases":["dictionnaires","D\u00e9sambigu\u00efsation s\u00e9mantique","r\u00e9seaux petits mondes hi\u00e9rarchiques"],"prmu":["P","R","U"]} {"id":"taln-2004-long-007","title":"Fusionner pour mieux analyser : Conception et \u00e9valuation de la plate-forme de combinaison","abstract":"L\u2019objectif de cet article est de pr\u00e9senter nos travaux concernant la combinaison d\u2019analyseurs syntaxiques pour produire un analyseur plus robuste. Nous avons cr\u00e9\u00e9 une plate-forme nous permettant de comparer des analyseurs syntaxiques pour une langue donn\u00e9e en d\u00e9coupant leurs r\u00e9sultats en informations \u00e9l\u00e9mentaires, en les normalisant, et en les comparant aux r\u00e9sultats de r\u00e9f\u00e9rence. Cette m\u00eame plate-forme est utilis\u00e9e pour combiner plusieurs analyseurs pour produire un analyseur de d\u00e9pendance plus couvrant et plus robuste. \u00c0 long terme, il sera possible de \u201ccompiler\u201d les connaissances extraites de plusieurs analyseurs dans un analyseur de d\u00e9pendance autonome.","translation":["","The goal of this article is to present our works about the combination of syntactic parsers to produce a more robust parser. We have built a platform which allows us to compare syntactic parsers for a given language by splitting their results in elementary pieces, normalizing them, and comparing them with reference results. The same platform is used to combine several parsers to produce a dependency parser, which is big construction broader and more robust than its component parsers. In the future, it should by possible to \u201ccompile\u201d the knowledge extracted from several analyzers into an autonomous dependency parser.","Dependency parsing, syntactic parsing, Information combination"],"keyphrases":["Analyse de d\u00e9pendance","analyse syntaxique","combinaisons d\u2019informations"],"prmu":["R","R","R"]} {"id":"taln-2004-long-008","title":"Un mod\u00e8le d\u2019acquisition de la syntaxe \u00e0 l\u2019aide d\u2019informations s\u00e9mantiques","abstract":"Nous pr\u00e9sentons dans cet article un algorithme d\u2019apprentissage syntaxico-s\u00e9mantique du langage naturel. Les donn\u00e9es de d\u00e9part sont des phrases correctes d\u2019une langue donn\u00e9e, enrichies d\u2019informations s\u00e9mantiques. Le r\u00e9sultat est l\u2019ensemble des grammaires formelles satisfaisant certaines conditions et compatibles avec ces donn\u00e9es. La strat\u00e9gie employ\u00e9e, valid\u00e9e d\u2019un point de vue th\u00e9orique, est test\u00e9e sur un corpus de textes fran\u00e7ais constitu\u00e9 pour l\u2019occasion.","translation":["","This paper presents a syntactico-semantic learning algorithm for natural languages. Input data are syntactically correct sentences of a given natural language, enriched with semantic information. The output is the set of compatible formal grammars satisfying certain conditions. The strategy used, which has been proved theoretically valid, is tested on a corpus of French texts built for this purpose.","Categorial grammars, semantic types, syntactico-semantic learning"],"keyphrases":["apprentissage syntaxico-s\u00e9mantique","Grammaires cat\u00e9gorielles","types s\u00e9mantiques"],"prmu":["P","M","M"]} {"id":"taln-2004-long-009","title":"Cat\u00e9gorisation de patrons syntaxiques par Self Organizing Maps","abstract":"Dans cet article, nous pr\u00e9sentons quelques r\u00e9sultats en cat\u00e9gorisation automatique de donn\u00e9es du langage naturel sans recours \u00e0 des connaissances pr\u00e9alables. Le syst\u00e8me part d\u2019une liste de formes grammaticales fran\u00e7aises et en construit un graphe qui repr\u00e9sente les cha\u00eenes rencontr\u00e9es dans un corpus de textes de taille raisonnable ; les liens sont pond\u00e9r\u00e9s \u00e0 partir de donn\u00e9es statistiques extraites du corpus. Pour chaque cha\u00eene de formes grammaticales significative, un vecteur refl\u00e9tant sa distribution est extrait et pass\u00e9 \u00e0 un r\u00e9seau de neurones de type carte topologique auto-organisatrice. Une fois le processus d\u2019apprentissage termin\u00e9, la carte r\u00e9sultante est convertie en un graphe d\u2019\u00e9tiquettes g\u00e9n\u00e9r\u00e9es automatiquement, utilis\u00e9 dans un tagger ou un analyseur de bas niveau. L\u2019algorithme est ais\u00e9ment adaptable \u00e0 toute langue dans la mesure o\u00f9 il ne n\u00e9cessite qu\u2019une liste de marques grammaticales et un corpus important (plus il est gros, mieux c\u2019est). Il pr\u00e9sente en outre un int\u00e9r\u00eat suppl\u00e9mentaire qui est son caract\u00e8re dynamique : il est extr\u00eamement ais\u00e9 de recalculer les donn\u00e9es \u00e0 mesure que le corpus augmente.","translation":["","The present paper presents some results in automatic categorization of natural language data without previous knowledge. The system starts with a list of French grammatical items, builds them into a graph that represents the strings encountered in a reasonable corpus of texts; the links are weighted based upon statistical data extracted from the corpus. For each significant string of grammatical items a vector reflecting its distribution is extracted, and fed into a Self- Organizing Map neural network. Once the learning process is achieved, the resulting map will be converted into a graph of automatically generated tags, used in a tagger or a shallow parser. The algorithm may easily be adapted to any language, as it needs only the list of grammatical markers and a large corpus (the bigger the better). Another point of interest is its dynamic character: it is easy to recompute the data as the corpus grows.","Natural languages, neural networks, knowledge extraction"],"keyphrases":["Langues naturelles","r\u00e9seaux neuronaux","extraction de connaissances"],"prmu":["R","M","M"]} {"id":"taln-2004-long-010","title":"Couplage d\u2019un \u00e9tiqueteur morpho-syntaxique et d\u2019un analyseur partiel repr\u00e9sent\u00e9s sous la forme d\u2019automates finis pond\u00e9r\u00e9s","abstract":"Cet article pr\u00e9sente une mani\u00e8re d\u2019int\u00e9grer un \u00e9tiqueteur morpho-syntaxique et un analyseur partiel. Cette integration permet de corriger des erreurs effectu\u00e9es par l\u2019\u00e9tiqueteur seul. L\u2019\u00e9tiqueteur et l\u2019analyseur ont \u00e9t\u00e9 r\u00e9alis\u00e9s sous la forme d\u2019automates pond\u00e9r\u00e9s. Des r\u00e9sultats sur un corpus du fran\u00e7ais ont montr\u00e9 une dimintion du taux d\u2019erreur de l\u2019ordre de 12%.","translation":["","This paper presents a method of integrating a part-of-speech tagger and a chunker. This integration lead to the correction of a number of errors made by the tagger when used alone. Both tagger and chunker are implemented as weighted finite state machines. Experiments on a French corpus showed a decrease of the word error rate of about 12%.","Part-of-speech tagging, chunking, weighted finite state machines"],"keyphrases":["automates finis pond\u00e9r\u00e9s","Analyse morpho-syntaxique","analyse syntaxique partielle"],"prmu":["P","M","M"]} {"id":"taln-2004-long-011","title":"Deux premi\u00e8res \u00e9tapes vers les documents auto-explicatifs","abstract":"Dans le cadre du projet LIDIA, nous avons montr\u00e9 que dans de nombreuses situations, la TA Fond\u00e9e sur le Dialogue (TAFD) pour auteur monolingue peut offrir une meilleure solution en traduction multicible que les aides aux traducteurs, ou la traduction avec r\u00e9vision, m\u00eame si des langages contr\u00f4l\u00e9s sont utilis\u00e9s. Nos premi\u00e8res exp\u00e9riences ont mis en \u00e9vidence le besoin de conserver les \u00ab intentions de l\u2019auteur \u00bb au moyen \u00ab d\u2019annotations de d\u00e9sambigu\u00efsation \u00bb. Ces annotations permettent de transformer le document source en un Document Auto-Explicatif (DAE). Nous pr\u00e9sentons ici une solution pour int\u00e9grer ces annotations dans un document XML et les rendre visibles et utilisables par un lecteur pour une meilleure compr\u00e9hension du \u00ab vrai contenu \u00bb du document. Le concept de Document Auto-Explicatif pourrait changer profond\u00e9ment notre fa\u00e7on de comprendre des documents importants ou \u00e9crits dans un style complexe. Nous montrerons aussi qu\u2019un DAE, traduit dans une langue cible L, pourrait aussi \u00eatre transform\u00e9, sans interaction humaine, en un DAE en langue L si un analyseur et un d\u00e9sambigu\u00efseur sont disponibles pour cette langue L. Ainsi, un DAE pourrait \u00eatre utilis\u00e9 dans un contexte monolingue, mais aussi dans un contexte multilingue sans travail humain additionnel.","translation":["","In the LIDIA project, we have demonstrated that, in many situations, Dialogue-Based MT (DBMT) for monolingual author is likely to offer better solutions to multitarget translation needs than machine aids to translators or batch MT, even if controlled languages are used. First experiments have shown the need to keep a memory of the \u201cauthor\u2019s intention\u201d by means of \u201cdisambiguating annotations\u201d transforming the source document into a \u201cselfexplaining document\u201d (SED). We present ways to integrate these annotations into an XML document (SED-XML), and to make them visible and usable by readers for better understanding of the \u201ctrue content\u201d of a document. The very concept of SED might deeply change our way of understanding important or difficult written material. We also show that a SED, once translated into a target language L, might be transformed into an SED in L with no human interaction, if an analyzer and a disambiguator are available for L. Hence, the SED structure might be used in multilingual as well as in monolingual contexts, without addition of human work.","Self-Explaining Document (SED), interactive disambiguation, active documents"],"keyphrases":["Document Auto-Explicatifs (DAE)","d\u00e9sambigu\u00efsation interactive","documents actifs"],"prmu":["P","R","M"]} {"id":"taln-2004-long-012","title":"Interpr\u00e9tariat \u00e0 distance et collecte de dialogues spontan\u00e9s bilingues, sur une plate-forme g\u00e9n\u00e9rique multifonctionnelle","abstract":"Parall\u00e8lement \u00e0 l\u2019int\u00e9gration du fran\u00e7ais en TA de Parole multilingue (projets C-STAR, NESPOLE!), nous avons d\u00e9velopp\u00e9 plusieurs plates-formes, dans le cadre des projets ERIM (Environnement R\u00e9seau pour l\u2019Interpr\u00e9tariat Multimodal) et ChinFaDial (collecte de dialogues parl\u00e9s spontan\u00e9s fran\u00e7ais-chinois), pour traiter diff\u00e9rents aspects de la communication orale spontan\u00e9e bilingue non finalis\u00e9e sur le web : interpr\u00e9tariat humain \u00e0 distance, collecte de donn\u00e9es, int\u00e9gration d\u2019aides automatiques (serveur de TA de Parole utilisant des composants du march\u00e9, interaction multimodale entre interlocuteurs, et prochainement aides en ligne aux intervenants, locuteurs ou interpr\u00e8tes). Les corpus collect\u00e9s devraient \u00eatre disponibles sur un site DistribDial au printemps 2004. Ces plates-formes sont en cours d\u2019int\u00e9gration, en un syst\u00e8me g\u00e9n\u00e9rique multifonctionnel unique ERIMM d\u2019aide \u00e0 la communication multilingue multimodale, dont une variante s\u2019\u00e9tendra \u00e9galement \u00e0 la formation \u00e0 distance (e-training) \u00e0 l\u2019interpr\u00e9tariat.","translation":["","In parallel with integrating the French language into multilingual Speech Machine Translation (within the C-STAR and NESPOLE! projects), we have developed in recent years several platforms, in the framework of projects ERIM (Network-based Environment for Multimodal Interpreting) and ChinFaDial (collecting French-Chinese spontaneously spoken dialogues), allowing to handle various aspects of spontaneous, general-purpose bilingual spoken dialogues on the web: distant human interpreting, data collection, integration of machine aids including server-based speech translation based on commercial products, multimodal user interaction, and next, online aids to speakers and\/or interpreters. Collected data should be available on the web (DistribDial) in spring 2004. All platforms are being integrated into one single multifunctional ERIMM generic system, which should then be extended to distant e-training in interpreting.","Web-based interpreting, bilingual spoken corpora collection, spontaneous dialogues, multilingual communication, resource mutualization"],"keyphrases":["dialogues spontan\u00e9s","communication multilingue","Interpr\u00e9tariat \u00e0 distance sur r\u00e9seau","collecte de corpus oraux bilingues","mutualisation de ressources"],"prmu":["P","P","R","R","M"]} {"id":"taln-2004-long-013","title":"Extraction de terminologies bilingues \u00e0 partir de corpus comparables","abstract":"Cet article pr\u00e9sente une m\u00e9thode pour extraire, \u00e0 partir de corpus comparables d\u2019un domaine de sp\u00e9cialit\u00e9, un lexique bilingue comportant des termes simples et complexes. Cette m\u00e9thode extrait d\u2019abord les termes complexes dans chaque langue, puis les aligne \u00e0 l\u2019aide de m\u00e9thodes statistiques exploitant le contexte des termes. Apr\u00e8s avoir rappel\u00e9 les difficult\u00e9s que pose l\u2019alignement des termes complexes et pr\u00e9cis\u00e9 notre approche, nous pr\u00e9sentons le processus d\u2019extraction de terminologies bilingues adopt\u00e9 et les ressources utilis\u00e9es pour nos exp\u00e9rimentations. Enfin, nous \u00e9valuons notre approche et d\u00e9montrons son int\u00e9r\u00eat en particulier pour l\u2019alignement de termes complexes non compositionnels.","translation":["","This article presents a method of extracting bilingual lexica composed of simple and multi-word terms from comparable corpora of a technical domain. First, this method extracts the multiword terms in each language, and then uses statistical methods to align them by exploiting the term contexts. After explaining the difficulties involved in aligning multi-word terms and specifying our approach, we show the adopted process for bilingual terminology extraction and the resources used in our experiments. Finally, we evaluate our approach and demonstrate its significance, particularly in relation to non-compositional multi-word term alignment.","Bilingual terminology, comparable corpora, multi-word terms"],"keyphrases":["Terminologie bilingue","corpus comparable","termes complexes"],"prmu":["P","P","P"]} {"id":"taln-2004-long-014","title":"Traduction, traduction de mots, traduction de phrases","abstract":"Une des cons\u00e9quences du d\u00e9veloppement d\u2019Internet et de la globalisation des \u00e9changes est le nombre consid\u00e9rable d\u2019individus amen\u00e9s \u00e0 consulter des documents en ligne dans une langue autre que la leur. Apr\u00e8s avoir montr\u00e9 que ni la traduction automatique, ni les aides terminologiques en ligne ne constituent une r\u00e9ponse pleinement ad\u00e9quate \u00e0 ce nouveau besoin, cet article pr\u00e9sente un syst\u00e8me d\u2019aide \u00e0 la lecture en langue \u00e9trang\u00e8re bas\u00e9 sur un analyseur syntaxique puissant. Pour un mot s\u00e9lectionn\u00e9 par l\u2019usager, ce syst\u00e8me analyse la phrase enti\u00e8re, de mani\u00e8re (i) \u00e0 choisir la lecture du mot s\u00e9lectionn\u00e9 la mieux adapt\u00e9e au contexte morphosyntaxique et (ii) \u00e0 identifier une \u00e9ventuelle expression idiomatique ou une collocation dont le mot serait un \u00e9l\u00e9ment. Une d\u00e9monstration de ce syst\u00e8me, baptis\u00e9 TWiC (Translation of words in context \"Traduction de mots en contexte\"), pourra \u00eatre pr\u00e9sent\u00e9e.","translation":["","As a consequence of globalisation and the development of the Internet, an increasing number of people are struggling with on-line documents in languages other than their own. In this paper, we will first argue that neither machine translation nor existing on-line terminology tools constitute an adequate answer to this problem, and then present a new system conceived as a foreign-language reading assistant, based on a powerful syntactic parser. Given a word selected by the user, this system carries out a syntactic analysis of the whole sentence in order (i) to select the most appropriate reading of the selected word, given the morpho-syntactic context, and (ii) to identify a possible idiom or collocation the selected word might be part of. A demo of this system, dubbed TWiC (Translation of words in context) will be available.","Machine translation, Translation aids, syntactic parsing, collocations"],"keyphrases":["Traduction automatique","collocations","aide \u00e0 la traduction","analyse syntaxique"],"prmu":["P","P","R","R"]} {"id":"taln-2004-long-015","title":"Extraction d\u2019information en domaine restreint pour la g\u00e9n\u00e9ration multilingue de r\u00e9sum\u00e9s cibl\u00e9s","abstract":"Dans cet article nous pr\u00e9sentons une application de g\u00e9n\u00e9ration de r\u00e9sum\u00e9s multilingues cibl\u00e9s \u00e0 partir de textes d\u2019un domaine restreint. Ces r\u00e9sum\u00e9s sont dits cibl\u00e9s car ils sont produits d\u2019apr\u00e8s les sp\u00e9cifications d\u2019un utilisateur qui doit d\u00e9cider a priori du type de l\u2019information qu\u2019il souhaite voir appara\u00eetre dans le r\u00e9sum\u00e9 final. Pour mener \u00e0 bien cette t\u00e2che, nous effectuons dans un premier temps l\u2019extraction de l\u2019information sp\u00e9cifi\u00e9e par l\u2019utilisateur. Cette information constitue l\u2019entr\u00e9e d\u2019un syst\u00e8me de g\u00e9n\u00e9ration multilingue qui produira des r\u00e9sum\u00e9s normalis\u00e9s en trois langues (anglais, fran\u00e7ais et espagnol) \u00e0 partir d\u2019un texte en anglais.","translation":["","We present an application of oriented multilingual summarization from domain specific texts. These summaries are oriented because the user has to define in a first step the kind of information he\/she wants to be present in the final summary. In order to acheive this task, a first step of information extraction is performed. This extracted information which corresponds to the user\u2019s specification is then the input of a multilingual generator that produces the desired summaries in three languages (english, french and spanish) from an english input text.","Multilingual oriented summaries, information extraction, multilingual generation"],"keyphrases":["extraction d\u2019information","g\u00e9n\u00e9ration multilingue","R\u00e9sum\u00e9 multilingue cibl\u00e9"],"prmu":["P","P","P"]} {"id":"taln-2004-long-016","title":"Rep\u00e9rage et exploitation d\u2019\u00e9nonc\u00e9s d\u00e9finitoires en corpus pour l\u2019aide \u00e0 la construction d\u2019ontologie","abstract":"Pour construire une ontologie, un mod\u00e9liseur a besoin d\u2019objecter des informations s\u00e9mantiques sur les termes principaux de son domaine d\u2019\u00e9tude. Les outils d\u2019exploration de corpus peuvent aider \u00e0 rep\u00e9rer ces types d\u2019information, et l\u2019identification de couples d\u2019hyperonymes a fait l\u2019objet de plusieurs travaux. Nous proposons d\u2019exploiter des \u00e9nonc\u00e9s d\u00e9finitoires pour extraire d\u2019un corpus des informations concernant les trois axes de l\u2019ossature ontologique : l\u2019axe vertical, li\u00e9 \u00e0 l\u2019hyperonymie, l\u2019axe horizontal, li\u00e9 \u00e0 la co-hyponymie et l\u2019axe transversal, li\u00e9 aux relations du domaine. Apr\u00e8s un rappel des travaux existants en rep\u00e9rage d\u2019\u00e9nonc\u00e9s d\u00e9finitoires en TAL, nous d\u00e9veloppons la m\u00e9thode que nous avons mise en place, puis nous pr\u00e9sentons son \u00e9valuation et les premiers r\u00e9sultats obtenus. Leur rep\u00e9rage atteint de 10% \u00e0 69% de pr\u00e9cision suivant les patrons, celui des unit\u00e9s lexicales varie de 31% \u00e0 56%, suivant le r\u00e9f\u00e9rentiel adopt\u00e9.","translation":["","In order to build an ontology, a modeler needs to objectivate semantic information about the main terms of his domain. Some tools meant to explore corpora can help pointing out this information, and previous work has focused on the identification of hyperonyms. We propose here to rely on lay definitions to extract the information necessary to build an ontology structure: the vertical axis, related to hypernymy, the horizontal axis, related to co-hyponymy, and the transversal axis, linked to domain-related cross relations. After a survey of previous work about the extraction of definitions in NLP, we develop the method we followed, then present its evaluation criteria and the first results. The mining of lay definitions reached from 10 to 69% of precision, depending on the pattern involved, the mining of lexical items varied from 31 to 56%, following the reference considered.","Mining definitions, semantic relations, lexico-syntactic pattern"],"keyphrases":["Rep\u00e9rage d\u2019\u00e9nonc\u00e9s d\u00e9finitoires","relations s\u00e9mantiques","patrons lexico-syntaxiques"],"prmu":["P","R","M"]} {"id":"taln-2004-long-017","title":"Anonymisation de d\u00e9cisions de justice","abstract":"La publication de d\u00e9cisions de justice sur le Web permet de rendre la jurisprudence accessible au grand public, mais il existe des domaines du droit pour lesquels la Loi pr\u00e9voit que l\u2019identit\u00e9 de certaines personnes doit demeurer confidentielle. Nous d\u00e9veloppons actuellement un syst\u00e8me d\u2019anonymisation automatique \u00e0 l\u2019aide de l\u2019environnement de d\u00e9veloppement GATE. Le syst\u00e8me doit reconna\u00eetre certaines entit\u00e9s nomm\u00e9es comme les noms de personne, les lieux et les noms d\u2019entreprise, puis d\u00e9terminer automatiquement celles qui sont de nature \u00e0 permettre l\u2019identification des personnes vis\u00e9es par les restrictions l\u00e9gales \u00e0 la publication.","translation":["","Publishing court decisions on theWeb can make case law available to the general public, but the Law sometimes prohibits the disclosure of the identity of people named in decisions. We are currently developing an automatic anonymization system, using the GATE development environment. The tasks of the system are the recognition of some named entities like person names, locations and company names, then the automatic selection of the ones that may lead to the identification of people whose identities must be legally kept confidential.","Anonymization, de-identification, named entity recognition, law texts"],"keyphrases":["Anonymisation","d\u00e9sidentification","reconnaissance d\u2019entit\u00e9s nomm\u00e9es","textes juridiques"],"prmu":["P","U","M","U"]} {"id":"taln-2004-long-018","title":"Syst\u00e8me d\u2019aide \u00e0 l\u2019acc\u00e8s lexical : trouver le mot qu\u2019on a sur le bout de la langue","abstract":"Le Mot sur le Bout de la Langue (Tip Of the Tongue en anglais), ph\u00e9nom\u00e8ne tr\u00e8s \u00e9tudi\u00e9 par les psycholinguistes, nous a amen\u00e9 nombre d\u2019informations concernant l\u2019organisation du lexique mental. Un locuteur en \u00e9tat de TOT reconna\u00eet instantan\u00e9ment le mot recherch\u00e9 pr\u00e9sent\u00e9 dans une liste. Il en conna\u00eet le sens, la forme, les liens avec d\u2019autres mots... Nous pr\u00e9sentons ici une \u00e9tude de d\u00e9veloppement d\u2019outil qui prend en compte ces sp\u00e9cificit\u00e9s, pour assister un locuteur\/r\u00e9dacteur \u00e0 trouver le mot qu\u2019il a sur le bout de la langue. Elle consiste \u00e0 recr\u00e9er le ph\u00e9nom\u00e8ne du TOT, o\u00f9, dans un contexte de production un mot, connu par le syst\u00e8me, est momentan\u00e9ment inaccessible. L\u2019acc\u00e8s au mot se fait progressivement gr\u00e2ce aux informations provenant de bases de donn\u00e9es linguistiques. Ces derni\u00e8res sont essentiellement des relations de type paradigmatique et syntagmatique. Il s\u2019av\u00e8re qu\u2019un outil, tel que SVETLAN, capable de structurer automatiquement un dictionnaire par domaine, peut \u00eatre avantageusement combin\u00e9 \u00e0 une base de donn\u00e9es riche en liens paradigmatiques comme EuroWordNet, augmentant consid\u00e9rablement les chances de trouver le mot auquel on ne peut acc\u00e9der.","translation":["","The study of the Tip of the Tongue phenomenon (TOT) provides valuable clues and insights concerning the organisation of the mental lexicon (meaning, number of syllables, relation with other words, etc.). This paper describes a tool based on psycho-linguistic observations concerning the TOT phenomenon. We\u2019ve built it to enable a speaker\/writer to find the word he is looking for, word he may know, but which he is unable to access in time. We try to simulate the TOT phenomenon by creating a situation where the system knows the target word, yet is unable to access it. In order to find the target word we make use of the paradigmatic and syntagmatic associations stored in the linguistic databases. Our experiment allows the following conclusion: a tool like SVETLAN, capable to structure (automatically) a dictionary by domains can be used sucessfully to help the speaker\/writer to find the word he is looking for, if it is combined with a database rich in terms of paradigmatic links like EuroWordNet.","TOT, word access, semantic relations, associations, SVETLAN, EWN"],"keyphrases":["acc\u00e8s lexical","SVETLAN","MBL","relations s\u00e9mantiques","associations","EWN"],"prmu":["P","P","U","M","U","U"]} {"id":"taln-2004-long-019","title":"De l\u2019\u00e9crit \u00e0 l\u2019oral : analyses et g\u00e9n\u00e9rations","abstract":"Longtemps consid\u00e9r\u00e9e comme ornementale, la structure informationnelle des documents \u00e9crits prise en charge par la morpho-disposition devient un objet d\u2019\u00e9tude \u00e0 part enti\u00e8re dans diverses disciplines telles que la linguistique, la psycholinguistique ou l\u2019informatique. En particulier, nous nous int\u00e9ressons \u00e0 l\u2019utilit\u00e9 de cette dimension et, le cas \u00e9ch\u00e9ant, son utilisabilit\u00e9, dans le cadre de la transposition automatique \u00e0 l\u2019oral des textes. Dans l\u2019objectif de fournir des solutions qui permettent de r\u00e9agir efficacement \u00e0 cette \u00ab inscription morphologique \u00bb, nous proposons la synoptique d\u2019un syst\u00e8me d\u2019oralisation. Nous avons mod\u00e9lis\u00e9 et partiellement r\u00e9alis\u00e9 le module sp\u00e9cifique aux strat\u00e9gies d\u2019oralisation, afin de rendre \u00ab articulables \u00bb certaines parties signifiantes des textes souvent \u00ab oubli\u00e9es \u00bb par les syst\u00e8mes de synth\u00e8se. Les premiers r\u00e9sultats de cette \u00e9tude ont conduit \u00e0 des sp\u00e9cifications en cours d\u2019int\u00e9gration par un partenaire industriel. Les perspectives de ce travail peuvent int\u00e9resser la communaut\u00e9 TAL en reconnaissance de la parole, en g\u00e9n\u00e9ration\/r\u00e9sum\u00e9 de texte ou en multimodalit\u00e9.","translation":["","Considered for a long time as ornamental, the informational structure of written documents carried by texts morpho-disposition becomes a full object of investigation in various disciplines such as linguistic, psycholinguistic or computer sciences. In Particular, we are interested in the utility of these aspects of documents and, if the need arises, their usability, within the framework of their oral transposition. In the objective to provide solutions which make it possible to react effectively to this \u201cmorphological inscription\u201d, we propose the synoptic of an oralisation system. We modelled and partially realized the module specific to the oralisation strategies, in order to render some signifying parts of the text often \u201cforgotten\u201d by synthesis systems. The first results of this study led to specifications in the course of integration by an industrial partner. The prospects of this work can interest NLP community in voice recognition, text generation\/summarization or multimodality.","Textual architecture, speech synthesis, oralisation strategies"],"keyphrases":["strat\u00e9gies d\u2019oralisation","Architecture textuelle","synth\u00e8se de la parole"],"prmu":["P","U","R"]} {"id":"taln-2004-long-020","title":"D\u00e9sambigu\u00efsation de corpus monolingues par des approches de type Lesk","abstract":"Cet article pr\u00e9sente une analyse d\u00e9taill\u00e9e des facteurs qui d\u00e9terminent les performances des approches de d\u00e9sambigu\u00efsation d\u00e9riv\u00e9es de la m\u00e9thode de Lesk (1986). Notre \u00e9tude porte sur une s\u00e9rie d\u2019exp\u00e9riences concernant la m\u00e9thode originelle de Lesk et des variantes que nous avons adapt\u00e9es aux caract\u00e9ristiques de WORDNET. Les variantes impl\u00e9ment\u00e9es ont \u00e9t\u00e9 \u00e9valu\u00e9es sur le corpus de test de SENSEVAL2, English All Words, ainsi que sur des extraits du corpus SEMCOR. Notre \u00e9valuation se base d\u2019un c\u00f4t\u00e9, sur le calcul de la pr\u00e9cision et du rappel, selon le mod\u00e8le de SENSEVAL, et d\u2019un autre c\u00f4t\u00e9, sur une taxonomie des r\u00e9ponses qui permet de mesurer la prise de risque d\u2019un d\u00e9cideur par rapport \u00e0 un syst\u00e8me de r\u00e9f\u00e9rence.","translation":["","This paper deals with a detailed analysis of the factors determining the performances of Leskbased WSD methods. Our study consists in a series of experiments on the original Lesk algorithm and on its variants that we adapted to WORDNET. These methods were evaluated on the test corpus from SENSEVAL2, English All Words, and on excerpts from SEMCOR. The evaluation metrics are based on precision and recall, as in SENSEVAL exercises, and on a new method estimating the risk taken by each variant.","Word sense desambiguation, Lesk\u2019s algorithm, naive Bayes, WORDNET"],"keyphrases":["WORDNET","D\u00e9sambigu\u00efsation s\u00e9mantique","algorithme de Lesk","naive Bayes"],"prmu":["P","M","M","U"]} {"id":"taln-2004-long-021","title":"Densit\u00e9 d'information syntaxique et gradient de grammaticalit\u00e9","abstract":"Cet article propose l'introduction d'une notion de densit\u00e9 syntaxique permettant de caract\u00e9riser la complexit\u00e9 d'un \u00e9nonc\u00e9 et au-del\u00e0 d'introduire la sp\u00e9cification d'un gradient de grammaticalit\u00e9. Un tel gradient s'av\u00e8re utile dans plusieurs cas : quantification de la difficult\u00e9 d'interpr\u00e9tation d'une phrase, gradation de la quantit\u00e9 d'information syntaxique contenue dans un \u00e9nonc\u00e9, explication de la variabilit\u00e9 et la d\u00e9pendances entre les domaines linguistiques, etc. Cette notion exploite la possibilit\u00e9 de caract\u00e9risation fine de l'information syntaxique en termes de contraintes : la densit\u00e9 est fonction des contraintes satisfaites par une r\u00e9alisation pour une grammaire donn\u00e9e. Les r\u00e9sultats de l'application de cette notion \u00e0 quelques corpus sont analys\u00e9s.","translation":["","This paper introduces the notion of syntactic density that makes it possible to characterize the complexity of an utterance and to specify a gradient of grammaticality. Such a gradient is useful in several cases: quantification of the difficulty of interpreting an utterance, quantification of syntactic information of an utterance, description of variability and linguistic domains interaction, etc. This notion exploits the possibility of fine syntactic characterization in terms of constraints: density if function of satisfied constraints by an utterance for a given grammar. Some results are presented and analyzed.","Syntax, parsing, robustness, constraints, linguistic information, syntactic complexity"],"keyphrases":["Syntaxe","contraintes","analyse","robustesse","information linguistique","complexit\u00e9 syntaxique"],"prmu":["P","P","P","U","R","R"]} {"id":"taln-2004-long-022","title":"Application des programmes de contraintes orient\u00e9s objet \u00e0 l\u2019analyse du langage naturel","abstract":"Les \u00e9volutions r\u00e9centes des formalismes et th\u00e9ories linguistiques font largement appel au concept de contrainte. De plus, les caract\u00e9ristiques g\u00e9n\u00e9rales des grammaires de traits ont conduit plusieurs auteurs \u00e0 pointer la ressemblance existant entre ces notions et les objets ou frames. Une \u00e9volution r\u00e9cente de la programmation par contraintes vers les programmes de contraintes orient\u00e9s objet (OOCP) poss\u00e8de une application possible au traitement des langages naturels. Nous proposons une traduction syst\u00e9matique des concepts et contraintes d\u00e9crits par les grammaires de propri\u00e9t\u00e9s sous forme d\u2019un OOCP. Nous d\u00e9taillons l\u2019application de cette traduction au langage \"context free\" arch\u00e9typal anbn, en montrant que cette approche permet aussi bien l\u2019analyse que la g\u00e9n\u00e9ration de phrases, de prendre en compte la s\u00e9mantique au sein du m\u00eame mod\u00e8le et ne requiert pas l\u2019utilisation d\u2019algorithmes ad hoc pour le parsage.","translation":["","Recent evolutions of linguistic theories heavily rely upon the concept of constraint. Also, several authors have pointed the similitude existing between the categories of feature based theories and the notions of objects or frames. A recent evolution of constraint programming to object oriented constraint programs (OOCP) can be applied to natural language parsing. We propose here a systematic translation of the concepts and constraints introduced by property grammars to an OOCP. We apply this translation to the archetypal context free language anbn, and show that this approach allows to both parse and generate, to account for the semantics in the same formalism, and also that it does not require the use of ad hoc algorithms.","Property grammars, natural language processing, constraints, configuration"],"keyphrases":["contraintes","Grammaires de propri\u00e9t\u00e9s","traitement du langage naturel","configuration"],"prmu":["P","P","R","U"]} {"id":"taln-2004-long-023","title":"Grammaires d'unification polaris\u00e9es","abstract":"Cet article propose un formalisme math\u00e9matique g\u00e9n\u00e9rique pour la combinaison de structures. Le contr\u00f4le de la saturation des structures finales est r\u00e9alis\u00e9 par une polarisation des objets des structures \u00e9l\u00e9mentaires. Ce formalisme permet de mettre en \u00e9vidence et de formaliser les m\u00e9canismes proc\u00e9duraux masqu\u00e9s de nombreux formalismes, dont les grammaires de r\u00e9\u00e9criture, les grammaires de d\u00e9pendance, TAG, HPSG et LFG.","translation":["","This paper proposes a generic mathematical formalism for the combination of structures. The control of saturation of the final structures is realized by a polarization of the objects of the elementary structures. This formalism allows us to bring to the fore and to formalize the hidden procedural mechanisms of numerous formalisms, including rewriting systems, dependency grammars, TAG, HPSG and LFG.","Formal grammar, unification, polarization, rewriting system, dependency grammar, TAG, HPSG, LFG, graph, tree, dag"],"keyphrases":["unification","polarisation","grammaire de r\u00e9\u00e9criture","grammaire de d\u00e9pendance","TAG","HPSG","LFG","Grammaire formelle","graphe","arbre","dag"],"prmu":["P","P","P","P","P","P","P","M","U","U","U"]} {"id":"taln-2004-long-025","title":"Une mesure de pertinence pour le tri de l\u2019information dans un index de \u201cfin de livre\u201d","abstract":"Nous nous int\u00e9ressons \u00e0 la construction des index de fin de livres. Nous avons d\u00e9velopp\u00e9 le syst\u00e8me IndDoc qui aide la construction de tels index. L\u2019un des enjeux de la construction d\u2019index est la s\u00e9lection des informations : s\u00e9lection des entr\u00e9es les plus pertinentes et des renvois au texte les plus int\u00e9ressants. Cette s\u00e9lection est \u00e9videmment utile pour le lecteur qui doit trouver suffisamment d\u2019information mais sans en \u00eatre submerg\u00e9. Elle est \u00e9galement pr\u00e9cieuse pour l\u2019auteur de l\u2019index qui doit valider et corriger une \u00e9bauche d\u2019index produite automatiquement par IndDoc. Nous montrons comment cette s\u00e9lection de l\u2019information est r\u00e9alis\u00e9e par IndDoc. Nous proposons une mesure qui permet de trier les entr\u00e9es par ordre de pertinence d\u00e9croissante et une m\u00e9thode pour calculer les renvois au texte \u00e0 associer \u00e0 chaque entr\u00e9e de l\u2019index.","translation":["","This paper deals with the construction of end-of-book indexes. We have developed the IndDoc system which assists the construction of such indexes. One of the stakes of the construction of an index is the information selection: selection of the most relevant entries and the most interesting textual fragments. This selection is obviously useful for the reader who is looking for information. It is also invaluable for the index author who has to validate and correct an outline of index produced automatically by IndDoc. We show how this information selection is carried out by IndDoc. We put forward a measure which sorts the entries in decreasing relevance order and a method to calculate the references to text for each entry.","Text segmentation, information extraction, automatic indexing"],"keyphrases":["Segmentation th\u00e9matique de texte","extraction d\u2019information","indexation automatique"],"prmu":["M","M","R"]} {"id":"taln-2004-long-026","title":"Approche statistique pour le rep\u00e9rage de mots informatifs dans les textes oraux","abstract":"Nous pr\u00e9sentons les r\u00e9sultats de l\u2019approche statistique que nous avons d\u00e9velopp\u00e9e pour le rep\u00e9rage de mots informatifs \u00e0 partir de textes oraux. Ce travail fait partie d\u2019un projet lanc\u00e9 par le d\u00e9partement de la d\u00e9fense canadienne pour le d\u00e9veloppement d\u2019un syst\u00e8me d\u2019extraction d\u2019information dans le domaine de la Recherche et Sauvetage maritime (SAR). Il s\u2019agit de trouver et annoter les mots pertinents avec des \u00e9tiquettes s\u00e9mantiques qui sont les concepts d\u2019une ontologie du domaine (SAR). Notre m\u00e9thode combine deux types d\u2019information : les vecteurs de similarit\u00e9 g\u00e9n\u00e9r\u00e9s gr\u00e2ce \u00e0 l\u2019ontologie du domaine et le dictionnaire-th\u00e9saurus Wordsmyth ; le contexte d\u2019\u00e9nonciation repr\u00e9sent\u00e9 par le th\u00e8me. L\u2019\u00e9valuation est effectu\u00e9e en comparant la sortie du syst\u00e8me avec les r\u00e9ponses de formulaires d\u2019extraction d\u2019information pr\u00e9d\u00e9finis. Les r\u00e9sultats obtenus sur les textes oraux sont comparables \u00e0 ceux obtenus dans le cadre de MUC7 pour des textes \u00e9crits.","translation":["","We present results of a statistical method we developped for the detection of informative words from manually transcribed conversations. This work is part of an ongoing project for an information extraction system in the field of maritime Search And Rescue (SAR). Our purpose is to automatically detect relevant words and annotate them with concepts from a SAR ontology. Our approach combines similarity score vectors and topical information. Similarity vectors are generated using a SAR ontology and theWordsmyth dictionary-thesaurus. Evaluation is carried out by comparing the output of the system with key answers of predefined extraction templates. Results on speech transcriptions are comparable to those on written texts in MUC7.","Semantic tagging, information extraction"],"keyphrases":["extraction d\u2019information","\u00c9tiquetage s\u00e9mantique"],"prmu":["P","M"]} {"id":"taln-2004-long-027","title":"Fiabilit\u00e9 de la r\u00e9f\u00e9rence humaine dans la d\u00e9tection de th\u00e8me","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 la t\u00e2che de d\u00e9tection de th\u00e8me dans le cadre de la reconnaissance automatique de la parole. La combinaison de plusieurs m\u00e9thodes de d\u00e9tection montre ses limites, avec des performances de 93.1 %. Ces performances nous m\u00e8nent \u00e0 remetttre en cause le th\u00e8me de r\u00e9f\u00e9rence des paragraphes de notre corpus. Nous avons ainsi effectu\u00e9 une \u00e9tude sur la fiabilit\u00e9 de ces r\u00e9f\u00e9rences, en utilisant notamment les mesures Kappa et erreur de Bayes. Nous avons ainsi pu montrer que les \u00e9tiquettes th\u00e9matiques des paragraphes du corpus de test comportaient vraisemblablement des erreurs, les performances de d\u00e9tection de th\u00e8me obtenues doivent donc \u00eatres exploit\u00e9es prudemment.","translation":["","In this paper, topic detection is studied in the frame of automatic speech recognition. Topic detection methods combination reaches 93.1% correct detection. This rate makes us throw the reference labeling back into question. We have then studied the reliability of the topic labeling of our test corpus, by using the Kappa statistics and the Bayes error. With these measures, we show the topic label of some paragraphs may be wrong, then performance of topic detection may be carefully exploited.","Topic detection, topic assignment, Kappa statistics, Bayes error"],"keyphrases":["D\u00e9tection de th\u00e8me","erreur de Bayes","Etiquetage th\u00e9matique","statistique Kappa"],"prmu":["P","P","M","M"]} {"id":"taln-2004-long-028","title":"R\u00e9solution des anaphores pronominales : quelques postulats du TALN mis \u00e0 l\u2019\u00e9preuve du dialogue oral finalis\u00e9","abstract":"Cet article \u00e9tudie l'adaptation au dialogue oral homme-machine des techniques de r\u00e9solution des anaphores pronominales qui ont \u00e9t\u00e9 d\u00e9velopp\u00e9es par le TALN pour les documents \u00e9crits. A partir d'une \u00e9tude de corpus de dialogue oral, il \u00e9tudie la faisabilit\u00e9 de ce portage de l'\u00e9crit vers l'oral. Les r\u00e9sultats de cette \u00e9tude montrent que certains indices utilis\u00e9s \u00e0 l'\u00e9crit (accord en nombre, distance entre le pronom est son ant\u00e9c\u00e9dent) sont plus friables en dialogue oral finalis\u00e9. Les techniques d\u00e9velopp\u00e9es pour l'\u00e9crit ne peuvent donc pas \u00eatre r\u00e9utilis\u00e9es directement \u00e0 l'oral.","translation":["","In this paper, we present a corpus analysis on pronominal anaphora that investigate the adaptation of anaphora resolution techniques which have been developed for written language processing and that should apply to spoken man-machine dialogue. Unfortunately, this corpus study shows that the criteria that are used on written texts (gender and number agreement, distance between the pronoun and its antecedent) seems to lack robustness on interactive spoken language.","Reference, pronominal anaphora, spoken man-machine dialogue, corpus analysis"],"keyphrases":["anaphore pronominale","dialogue oral homme-machine","R\u00e9f\u00e9rence","analyse des usages sur corpus"],"prmu":["P","P","U","M"]} {"id":"taln-2004-long-029","title":"Une m\u00e9thode pour l\u2019annotation de relations temporelles dans des textes et son \u00e9valuation","abstract":"Cet article traite de l\u2019annotation automatique d\u2019informations temporelles dans des textes et vise plus particuli\u00e8rement les relations entre \u00e9v\u00e9nements introduits par les verbes dans chaque clause. Si ce probl\u00e8me a mobilis\u00e9 beaucoup de chercheurs sur le plan th\u00e9orique, il reste en friche pour ce qui est de l\u2019annotation automatique syst\u00e9matique (et son \u00e9valuation), m\u00eame s\u2019il existe des d\u00e9buts de m\u00e9thodologie pour faire r\u00e9aliser la t\u00e2che par des humains. Nous proposons ici \u00e0 la fois une m\u00e9thode pour r\u00e9aliser la t\u00e2che automatiquement et une mani\u00e8re de mesurer \u00e0 quel degr\u00e9 l\u2019objectif est atteint. Nous avons test\u00e9 la faisabilit\u00e9 de ceci sur des d\u00e9p\u00eaches d\u2019agence avec des premiers r\u00e9sultats encourageants.","translation":["","This paper focuses on the automated processing of temporal information in written texts, more specifically on relations between events introduced by verbs in every clause. While this latter problem has been largely studied from a theoretical point of view, it has very rarely been applied to real texts, if ever, with quantified results. The methodology required is still to be defined, even though there have been proposals in the human annotation case. We propose here both a procedure to achieve this task and a way of measuring the results. We have been testing the feasability of this on neswire articles, with promising first results.","Text annotation, Time, Discourse"],"keyphrases":["Annotation","Temps","Discours"],"prmu":["P","U","U"]} {"id":"taln-2004-long-030","title":"Annoter les documents XML avec un outil d\u2019analyse syntaxique","abstract":"Cet article pr\u00e9sente l\u2019int\u00e9gration au sein d\u2019un analyseur syntaxique (Xerox Incremental Parser) de r\u00e8gles sp\u00e9cifiques qui permettent de lier l\u2019analyse grammaticale \u00e0 la s\u00e9mantique des balises XML sp\u00e9cifiques \u00e0 un document donn\u00e9. Ces r\u00e8gles sont bas\u00e9es sur la norme XPath qui offre une tr\u00e8s grande finesse de description et permet de guider tr\u00e8s pr\u00e9cis\u00e9ment l\u2019application de l\u2019analyseur sur une famille de documents partageant une m\u00eame DTD. Le r\u00e9sultat est alors \u00eatre int\u00e9gr\u00e9 directement comme annotation dans le document trait\u00e9.","translation":["","This article presents the embedding within a syntactic parser (Xerox Incremental Parser or XIP) of specific rules which are used to bind the grammatical analysis to the semantic of the XML mark up tags specific to a given document. The goal of these rules is to guide the application of a natural language processing tool through the use of XPath instructions to describe documents that share the same DTD. The result can then be embedded within the input document in order to annotate that document.","XML, parsing, natural language processing, document processing, XPath, XIP"],"keyphrases":["XML","analyse syntaxique","Xpath","traitement automatique des langues","traitement de documents","XIP"],"prmu":["P","P","P","M","R","U"]} {"id":"taln-2004-long-031","title":"La FREEBANK : vers une base libre de corpus annot\u00e9s","abstract":"Les corpus fran\u00e7ais librement accessibles annot\u00e9s \u00e0 d\u2019autres niveaux linguistiques que morpho-syntaxique sont insuffisants \u00e0 la fois quantitativement et qualitativement. Partant de ce constat, la FREEBANK -- construite sur la base d\u2019outils d\u2019analyse automatique dont la sortie est r\u00e9vis\u00e9e manuellement -- se veut une base de corpus du fran\u00e7ais annot\u00e9s \u00e0 plusieurs niveaux (structurel, morphologique, syntaxique, cor\u00e9f\u00e9rentiel) et \u00e0 diff\u00e9rents degr\u00e9s de finesse linguistique qui soit libre d\u2019acc\u00e8s, cod\u00e9e selon des sch\u00e9mas normalis\u00e9s, int\u00e9grant des ressources existantes et ouverte \u00e0 l\u2019enrichissement progressif.","translation":["","The few available French resources for evaluating linguistic models or algorithms on other linguistic levels than morpho-syntax are either insufficient from quantitative as well as qualitative point of view or not freely accessible. Based on this fact, the FREEBANK project intends to create French corpora constructed using manually revised output from a hybrid Constraint Grammar parser and annotated on several linguistic levels (structure, morphosyntax, syntax, coreference), with the objective to make them available on-line for research purposes. Therefore, we will focus on using standard annotation schemes, integration of existing resources and maintenance allowing for continuous enrichment of the annotations.","free resources, multi-level annotation, treebank, reference annotation, normalisation"],"keyphrases":["normalisation","ressources libres","annotation multiniveau","corpus arbor\u00e9","codage r\u00e9f\u00e9rentiel"],"prmu":["P","R","M","M","U"]} {"id":"taln-2004-long-032","title":"Annoter en constituants pour \u00e9valuer des analyseurs syntaxiques","abstract":"Cet article pr\u00e9sente l\u2019annotation en constituants men\u00e9e dans le cadre d\u2019un protocole d\u2019\u00e9valuation des analyseurs syntaxiques (mis au point dans le pr\u00e9-projet PEAS, puis dans le projet EASY). Le choix des constituants est d\u00e9crit en d\u00e9tail et une premi\u00e8re \u00e9valuation effectu\u00e9e \u00e0 partir des r\u00e9sultats de deux analyseurs est donn\u00e9e.","translation":["","This paper focuses on constituent annotation in a syntactic parsers evaluation protocol (which was elaborated in PEAS pre-project and EASY project). The choice of the constituents is described in details, and the results of a first evaluation between two parsers are given.","constituent annotation, evaluation, syntactic parser"],"keyphrases":["annotation en constituants","\u00e9valuation","analyseurs syntaxiques"],"prmu":["P","P","P"]} {"id":"taln-2004-long-033","title":"D\u00e9termination de contenu dans GEPHOX","abstract":"Le g\u00e9n\u00e9rateur GEPHOX que nous r\u00e9alisons a pour ambition de produire des textes pour des d\u00e9finition ou preuves math\u00e9matiques \u00e9crites \u00e0 l\u2019aide de l\u2019assistant de preuve PHOX. Dans cet article nous nous concentrons sur le module de d\u00e9termination de contenu ContDet de GEPHOX. Apr\u00e8s un aper\u00e7u sur l\u2019entr\u00e9e du g\u00e9n\u00e9rateur, i.e. la preuve formelle et l\u2019ensemble des r\u00e8gles ayant permis de l\u2019obtenir, nous d\u00e9crivons les base de connaissances du g\u00e9n\u00e9rateur et le fonctionnement de l\u2019algorithme de d\u00e9termination de contenu.","translation":["","This paper deals with content determination in a text proofs generation system. Our system, GEPHOX produces a textual version of a mathematical proof formalized using the proof assistant PHOX. We start with a quick presentation of the input of the generator : the formal proof and the set of rules that the proof assistant user employs in order to find it. We describe the generator knowledge bases and define the reasoning tasks associated with the KB and show how the content determination algorithm work.","Natural language generation, description logic, content determination, knowledge bases, proof assistant"],"keyphrases":["d\u00e9termination de contenu","assistant de preuve","bases de connaissance","G\u00e9n\u00e9ration de textes","logique de description"],"prmu":["P","P","P","R","M"]} {"id":"taln-2004-long-034","title":"Apprentissage partiel de grammaires cat\u00e9gorielles","abstract":"Cet article traite de l\u2019apprentissage symbolique de r\u00e8gles syntaxiques dans le mod\u00e8le de Gold. Kanazawa a montr\u00e9 que certaines classes de grammaires cat\u00e9gorielles sont apprenables dans ce mod\u00e8le. L\u2019algorithme qu\u2019il propose n\u00e9cessite une grande quantit\u00e9 d\u2019information en entr\u00e9e pour \u00eatre efficace. En changeant la nature des informations en entr\u00e9e, nous proposons un algorithme d\u2019apprentissage de grammaires cat\u00e9gorielles plus r\u00e9aliste dans la perspective d\u2019applications au langage naturel.","translation":["","This article deals with symbolic learning of syntactic rules in Gold\u2019s model. Kanazawa showed that some classes of categorial grammars are learnable in this model. But the algorithm needs a high amount of information as input to be efficient. By changing the kind of information taken as input, we propose a learning algorithm for categorial grammars which is more realistic in the perspective of applications to natural language.","Partial learning, grammatical inference, categorial grammars"],"keyphrases":["Apprentissage partiel","grammaire cat\u00e9gorielles","inf\u00e9rence grammaticale"],"prmu":["P","P","U"]} {"id":"taln-2004-long-035","title":"La s\u00e9mantique dans les grammaires d\u2019interaction","abstract":"Nous proposons d\u2019int\u00e9grer la s\u00e9mantique dans les grammaires d\u2019interaction, formalisme qui a \u00e9t\u00e9 con\u00e7u pour repr\u00e9senter la syntaxe des langues. Pour cela, nous ajoutons au formalisme un niveau suppl\u00e9mentaire qui s\u2019appuie sur les m\u00eames principes fondamentaux que le niveau syntaxique : contr\u00f4le de la composition par un syst\u00e8me de polarit\u00e9s et utilisation de la notion de description de structure pour exprimer la sous-sp\u00e9cification. A la diff\u00e9rence du niveau syntaxique, les structures sont des graphes acycliques orient\u00e9s et non des arbres localement ordonn\u00e9s. L\u2019interface entre les deux niveaux est assur\u00e9e de fa\u00e7on souple par une fonction de liage qui associe \u00e0 tout noeud syntaxique au plus un noeud s\u00e9mantique.","translation":["","We propose an integration of semantics into Interaction Grammars, a formalism that was designed for representing the syntax of natural languages. It consists in the addition of a new level to the formalism and this level is based on the same fundamental principles as the syntactical level: the control of composition with a system of polarities and the use of the notion of structure description for expressing underspecification. Unlike the syntactical level, structures are directed acyclic graphs and not locally ordered trees. The interface between the two levels is performed in a flexible way by a linking function which maps every syntactical node to at most one semantical node.","grammatical formalism, syntax-semantics interface, underspecification, polarities"],"keyphrases":["polarit\u00e9s","sous-sp\u00e9cification","formalisme grammatical","interface syntaxe-s\u00e9mantique"],"prmu":["P","P","M","M"]} {"id":"taln-2004-long-036","title":"Les Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles (RCG) comme formalisme grammatical pour la linguistique","abstract":"Le but de cet article est de montrer pourquoi les Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles (Range Concatenation Grammars, ou RCG) sont un formalisme particuli\u00e8rement bien adapt\u00e9 \u00e0 la description du langage naturel. Nous expliquons d\u2019abord que la puissance n\u00e9cessaire pour d\u00e9crire le langage naturel est celle de PTIME. Ensuite, parmi les formalismes grammaticaux ayant cette puissance d\u2019expression, nous justifions le choix des RCG. Enfin, apr\u00e8s un aper\u00e7u de leur d\u00e9finition et de leurs propri\u00e9t\u00e9s, nous montrons comment leur utilisation comme grammaires linguistiques permet de traiter des ph\u00e9nom\u00e8nes syntagmatiques complexes, de r\u00e9aliser simultan\u00e9ment l\u2019analyse syntaxique et la v\u00e9rification des diverses contraintes (morphosyntaxiques, s\u00e9mantique lexicale), et de construire dynamiquement des grammaires linguistiques modulaires.","translation":["","The aim of this paper is to show why Range Concatenation Grammars (RCG) are a formalism particularly suitable to describe natural language. We first explain that the power necessary to describe natural language is that of PTIME. Then, among grammatical formalisms that have this expressing power, we justify the choice of RCGs. Finally, after an overview of their definition and properties, we show how their use as linguistic grammars makes it possible to deal with complex syntactic phenomena, to achieve simultaneously both syntactic parsing and constraints checking (e.g., morphosyntactic and\/or lexical semantic constraints), and to build dynamically modular linguistic grammars.","Rewriting Systems, Mildly Context-Sensitive Grammars, Complexity of Natural Language, Range Concatenation Grammars (RCG)"],"keyphrases":["Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles (RCG)","Grammaires de r\u00e9\u00e9criture","Grammaires Faiblement Contextuelles","complexit\u00e9 du langage naturel"],"prmu":["P","M","M","R"]} {"id":"taln-2004-poster-001","title":"Mots compos\u00e9s dans les mod\u00e8les de langue pour la recherche d\u2019information","abstract":"Une approche classique en recherche d\u2019information (RI) consiste \u00e0 b\u00e2tir une repr\u00e9sentation des documents et des requ\u00eates bas\u00e9e sur les mots simples les constituant. L\u2019utilisation de mod\u00e8les bigrammes a \u00e9t\u00e9 \u00e9tudi\u00e9e, mais les contraintes sur l\u2019ordre et l\u2019adjacence des mots dans ces travaux ne sont pas toujours justifi\u00e9es pour la recherche d\u2019information. Nous proposons une nouvelle approche bas\u00e9e sur les mod\u00e8les de langue qui incorporent des affinit\u00e9s lexicales (ALs), c\u2019est \u00e0 dire des paires non ordonn\u00e9es de mots qui se trouvent proches dans un texte. Nous d\u00e9crivons ce mod\u00e8le et le comparons aux plus traditionnels mod\u00e8les unigrammes et bigrammes ainsi qu\u2019au mod\u00e8le vectoriel.","translation":["","Previous language modeling approaches to information retrieval have focused primarily on single terms. The use of bigram models has been studied, but the restriction on word order and adjacency may not be justified for information retrieval. We propose a new language modeling approach to information retrieval that incorporates lexical affinities (LAs), or pairs of words that occur near each other, without a constraint on word order. We explore the use of LAs in a language modeling approach, and compare our results with the vector space model, and unigram and bigram language model approaches.","Language models, information retrieval, compound terms, word pairs"],"keyphrases":["mots compos\u00e9s","Mod\u00e8les de langue","recherche d\u2019information"],"prmu":["P","P","P"]} {"id":"taln-2004-poster-002","title":"Le Regroupement de Types de Mots et l'Unification d'Occurrences de Mots dans des Cat\u00e9gories grammaticales de mots","abstract":"Ce papier discute la N\u00e9oposie: l'inf\u00e9rence auto-adaptive de cat\u00e9gories grammaticales de mots de la langue naturelle. L'inf\u00e9rence grammaticale peut \u00eatre divis\u00e9e en deux parties : l'inf\u00e9rence de cat\u00e9gories grammaticales de mots et l'inf\u00e9rence de la structure. Nous examinons les \u00e9l\u00e9ments de base de l'apprentissage auto-adaptif du marquage des cat\u00e9gories grammaticales, et discutons l'adaptation des trois types principaux de marqueurs des cat\u00e9gories grammaticales \u00e0 l'inf\u00e9rence auto-adaptive de cat\u00e9gories grammaticales de mots. Des marqueurs statistiques de n-grammes sugg\u00e8rent une approche de regroupement statistique, mais le regroupement n'aide ni avec les types de mots peu fr\u00e9quents, ni avec les types de mots nombreux qui peuvent se pr\u00e9senter dans plus d'une cat\u00e9gorie grammaticale. Le marqueur alternatif d'apprentissage bas\u00e9 sur la transformation sugg\u00e8re une approche bas\u00e9e sur la contrainte de l'unification de contextes d'occurrences de mots. Celle-ci pr\u00e9sente un moyen de regrouper des mots peu fr\u00e9quents, et permet aux occurrences diff\u00e9rentes d'un seul type de mot d'appartenir \u00e0 des cat\u00e9gories diff\u00e9rentes selon les contextes grammaticaux o\u00f9 ils se pr\u00e9sentent. Cependant, la simple unification de contextes d'occurrences de mots produit un nombre incroyablement grand de cat\u00e9gories grammaticales de mots. Nous avons essay\u00e9 d'unifier plus de cat\u00e9gories en mod\u00e9rant le contexte de la correspondance pour permettre l'unification des cat\u00e9gories de mots aussi bien que des occurrences de mots, mais cela entra\u00eene des unifications fausses. Nous concluons que l'avenir peut \u00eatre un hybride qui comprend le regroupement de types de mots peu fr\u00e9quents, l'unification de contextes d'occurrences de mots, et le `seeding' avec une connaissance linguistique limit\u00e9e. Nous demandons un programme de nouvelles recherches pour d\u00e9velopper une valise pour la d\u00e9couverte de la langue naturelle.","translation":["Clustering of Word Types and Unification of Word Tokens into Grammatical Word-Classes","This paper discusses Neoposy: unsupervised inference of grammatical word-classes in Natural Language. Grammatical Inference can be divided into inference of grammatical word-classes and inference of structure. We review the background of supervised learning of Part-of-Speech tagging; and discuss the adaptation of the three main types of Part-of-Speech tagger to unsupervised inference of grammatical word-classes. Statistical N-gram taggers suggest a statistical clustering approach, but clustering does not help with low-frequency word-types, or with the many word-types which can appear in more than one grammatical category. The alternative Transformation-Based Learning tagger suggests a constraint-based approach of unification of word-token contexts. This offers a way to group together low-frequency word-types, and allows different tokens of one word-type to belong to different categories according to grammatical contexts they appear in. However, simple unification of word-token-contexts yields an implausibly large number of Part-of-Speech categories; we have attempted to merge more categories by \"relaxing\" matching context to allow unification of word-categories as well as word-tokens, but this results in spurious unifications. We conclude that the way ahead may be a hybrid involving clustering of frequent word-types, unification of word-token-contexts, and \"seeding\" with limited linguistic knowledge. We call for a programme of further research to develop a Language Discovery Toolkit.","Corpus, Part-of-Speech tagging, clustering, unification, word classes, type\/token, evaluation"],"keyphrases":["regroupement","unification","marquage des cat\u00e9gories grammaticales","cat\u00e9gories de mots","Corpus","type\/occurrence","\u00e9valuation"],"prmu":["P","P","P","P","U","M","U"]} {"id":"taln-2004-poster-003","title":"Temporalit\u00e9 linguistique et S-Langages","abstract":"Apr\u00e8s un rappel de la probl\u00e9matique de l\u2019ordonnancement temporel dans un texte, nous d\u00e9crivons les S-langages qui offrent une repr\u00e9sentation unifi\u00e9e des relations temporelles et une op\u00e9ration (la jointure) permettant de calculer les combinaisons entre celles-ci.","translation":["","After a brief overview of the problem of text temporal structures calculus, we describe the formal language of S-languages. This framework offers an unified representation of temporal relations and an operation (the joint) which computes combinations between such relations.","Narratives temporal structure(s), S-langages"],"keyphrases":["S-langages","Structure(s) temporelle(s) dans un texte narratif"],"prmu":["P","M"]} {"id":"taln-2004-poster-004","title":"Mod\u00e9lisation de la modulation","abstract":"Le dialogue est un processus interactif pendant lequel les diff\u00e9rents agents impliqu\u00e9s vont s\u2019engager sur un certain nombre d\u2019\u00e9l\u00e9ments propositionnels. La modulation implique des ajouts propositionnels - r\u00e9vis\u00e9s et att\u00e9nu\u00e9s - qui ne constituent pas n\u00e9cessairement une base pour un accord. L\u2019objectif de cet article est donc de proposer une description formelle du ph\u00e9nom\u00e8ne de modulation dans le cadre du mod\u00e8le de J. Ginzburg.","translation":["","Dialogue is an interactive process in which agents involved must commit about some propositional elements. These elements are then available into the common ground shared by the agents. Mitigation is a particularly productive phenomenon which is problematic for the update of the common ground. We propose a formalisation of the phenomenon into the model of J. Ginzburg.","Mitigation, discourse, verbal interaction, models of dialogue, annotation"],"keyphrases":["Modulation","discours","mod\u00e8les de dialogue","interaction verbale","annotation"],"prmu":["P","U","R","M","U"]} {"id":"taln-2004-poster-005","title":"Traduction de dialogue: r\u00e9sultats du projet NESPOLE! et pistes pour le domaine","abstract":"Dans cet article, nous d\u00e9taillons les r\u00e9sultats de la seconde \u00e9valuation du projet europ\u00e9en NESPOLE! auquel nous avons pris part pour le fran\u00e7ais. Dans ce projet, ainsi que dans ceux qui l\u2019ont pr\u00e9c\u00e9d\u00e9, des techniques d\u2019\u00e9valuation subjectives \u2014 r\u00e9alis\u00e9es par des \u00e9valuateurs humains \u2014 ont \u00e9t\u00e9 mises en oeuvre. Nous pr\u00e9sentons aussi les nouvelles techniques objectives \u2014 automatiques \u2014 propos\u00e9es en traduction de l\u2019\u00e9crit et mises en oeuvre dans le projet C-STAR III. Nous conclurons en proposant quelques id\u00e9es et perspectives pour le domaine.","translation":["","",""],"keyphrases":["Traduction de dialogue","\u00e9valuation subjective et objective de composants de TALN"],"prmu":["P","M"]} {"id":"taln-2004-poster-006","title":"Sp\u00e9cification et implantation informatique d\u2019un langage de description des structures discursives","abstract":"Cet article pr\u00e9sente le langage de repr\u00e9sentation des connaissances linguistiques LangTex qui permet de sp\u00e9cifier d\u2019une mani\u00e8re unifi\u00e9e les descriptions linguistiques n\u00e9cessaires au rep\u00e9rage d\u2019objets textuels qui organisent les textes \u00e9crits.","translation":["","This article presents LangTex, a language for linguistic knowledge representation. This language allows to specify in a unified way the linguistic descriptions necessary for the location of textual objects which organize written texts.","Representation of discourse structures, linguistic knowledge language representation"],"keyphrases":["langage de repr\u00e9sentation des connaissances linguistiques","Repr\u00e9sentation des structures discursives"],"prmu":["P","R"]} {"id":"taln-2004-poster-007","title":"@GEWEB : Agents personnels d\u2019aide \u00e0 la recherche sur le Web","abstract":"Nous pr\u00e9sentons dans cet article un logiciel permettant d\u2019assister l\u2019usager, de mani\u00e8re personnalis\u00e9e lors de la recherche documentaire sur le Web. L\u2019architecture du logiciel est bas\u00e9e sur l\u2019int\u00e9gration d\u2019outils num\u00e9riques de traitements des langues naturelles (TLN). Le syst\u00e8me utilise une strat\u00e9gie de traitement semi-automatique o\u00f9 la contribution de l\u2019utilisateur assure la concordance entre ses attentes et les r\u00e9sultats obtenus.","translation":["","We here present a new software that can help the user to formulate his web search queries and customize the information retrieval tasks to her individual and subjective needs. The software\u2019s architecture is based on numeric natural language processing tools. The software involves a semi-automatic processing strategy in which the user\u2019s contribution ensures that the results are useful and meaningful to her.","Text mining, Web customization, Query reformulation, Information retrieval"],"keyphrases":["Personnalisation","Reformulation de requ\u00eates","Extraction de l\u2019information"],"prmu":["P","M","M"]} {"id":"taln-2004-poster-008","title":"Pr\u00e9diction d\u2019actes et attentes en dialogue : exp\u00e9rience avec un assistant virtuel simul\u00e9","abstract":"Dans cet article, nous pr\u00e9sentons une plate-forme de test et de recueil de dialogue oral homme-machine. Dans son architecture g\u00e9n\u00e9rale, des magiciens d\u2019Oz simulent la compr\u00e9hension des \u00e9nonc\u00e9s des utilisateurs et le contr\u00f4le du dialogue. Puis, nous comparons, dans un tel corpus, la pr\u00e9diction statistique d\u2019acte de dialogue avec les attentes du locuteur.","translation":["","This paper presents a platform for testing and building human-computer spoken dialog system. In the general architecture of the platform, understanding and dialog management are simulated. Thus, comparison between statistic act prediction and expectation will be made. First results obtained show a credible way of capturing and annotate spoken dialogs.","Dialog, expectations, magicien d\u2019Oz, pragmatics, analysis, statistics"],"keyphrases":["attentes","Dialogue","magicien d\u2019Oz","statistique","pragmatique","analyse"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2004-poster-010","title":"Le projet G\u00c9RAF : Guide pour l\u2019\u00c9valuation des R\u00e9sum\u00e9s Automatiques Fran\u00e7ais","abstract":"Dans cet article, nous pr\u00e9sentons le projet G\u00c9RAF (Guide pour l\u2019\u00c9valuation des R\u00e9sum\u00e9s Automatiques Fran\u00e7ais), lequel vise l\u2019\u00e9laboration de protocoles et la construction de corpus de r\u00e9sum\u00e9s de r\u00e9f\u00e9rence pour l\u2019\u00e9valuation des syst\u00e8mes r\u00e9sumant des textes fran\u00e7ais. La finalit\u00e9 de ce projet est de mettre \u00e0 la disposition des chercheurs les ressources ainsi cr\u00e9\u00e9es.","translation":["","In this paper, we introduce G\u00c9RAF (Guide pour l\u2019\u00c9valuation des R\u00e9sum\u00e9s Automatiques Fran\u00e7ais), which aims at elaborating protocols and creating human-generated summaries for summarization evaluation in the context of French texts. The goal of this project is to provide researchers with protocols and corpora needed for French summarization evaluation.","evaluation, automatic summarization, French texts, G\u00c9RAF"],"keyphrases":["G\u00c9RAF","\u00e9valuation","r\u00e9sum\u00e9 automatique","textes fran\u00e7ais"],"prmu":["P","P","P","P"]} {"id":"taln-2004-poster-011","title":"Rep\u00e9rage de relations terminologiques transversales en corpus","abstract":"Les relations transversales encodent des relations sp\u00e9cifiques entre les termes, par exemple localis\u00e9-dans, consomme, etc. Elles sont tr\u00e8s souvent d\u00e9pendantes des domaines, voire des corpus. Les m\u00e9thodes automatiques consacr\u00e9es au rep\u00e9rage de relations terminologiques plus classiques (hyperonymie, synonymie), peuvent g\u00e9n\u00e9rer occasionnellement les relations transversales. Mais leur rep\u00e9rage et typage restent sujets \u00e0 une conceptualisation : ces relations ne sont pas attendues et souvent pas connues \u00e0 l\u2019avance pour un nouveau domaine \u00e0 explorer. Nous nous attachons ici \u00e0 leur rep\u00e9rage mais surtout \u00e0 leur typage. En supposant que les relations sont souvent exprim\u00e9es par des verbes, nous misons sur l\u2019\u00e9tude des verbes du corpus et de leurs divers d\u00e9riv\u00e9s afin d\u2019aborder plus directement la d\u00e9couverte des relations du domaine. Les exp\u00e9riences montrent que ce point d\u2019attaque peut \u00eatre int\u00e9ressant, mais reste pourtant d\u00e9pendant de la polys\u00e9mie verbale et de la synonymie.","translation":["","Transversal relations describe specific information existing between terms, for instance consumes, located-in, etc. They are often dependent on domains and even on corpora. Automatic methods, conceived to detect classical terminological relations (hyperonymy, synonymy), can occasionnally generate transversal relations. But their detection and typology depend on their conceptualisation : these relations are not expected and often not known for a newly explored domain. We aim here at their detection, but mainly at their typology. Since we suppose these relations are often expressed with verbs, we concentrate our investigation on the study of verbs and their derivatives to attack directly their discovering. Experiences show that this approach proposes interesting results which are nevertheless dependent on verbal polysemy and synonymy.","Terminology, Specialised Corpora, Terminology Structuring, Transversal Relations, Verbs"],"keyphrases":["Terminologie","relations transversales","verbes","corpus sp\u00e9cialis\u00e9s","structuration de terminologies"],"prmu":["P","P","P","M","M"]} {"id":"taln-2004-poster-012","title":"Classification automatique de d\u00e9finitions en sens","abstract":"Dans le cadre de la recherche en s\u00e9mantique lexicale, l\u2019\u00e9quipe TAL du LIRMM d\u00e9veloppe actuellement un syst\u00e8me d\u2019analyse des aspects th\u00e9matiques des textes et de d\u00e9sambiguisation lexicale bas\u00e9 sur les vecteurs conceptuels. Pour la construction des vecteurs, les d\u00e9finitions provenant de sources lexicales diff\u00e9rentes (dictionnaires \u00e0 usage humain, listes de synonymes, d\u00e9finitions de th\u00e9saurus, . . .) sont analys\u00e9es. Aucun d\u00e9coupage du sens n\u2019est pr\u00e9sent dans la repr\u00e9sentation : un vecteur conceptuel est associ\u00e9 \u00e0 chaque d\u00e9finition et un autre pour repr\u00e9senter le sens global du mot. Nous souhaitons effectuer une cat\u00e9gorisation afin que chaque \u00e9l\u00e9ment ne soit plus une d\u00e9finition mais un sens. Cette am\u00e9lioration concerne bien sur directement les applications courantes (d\u00e9sambigu\u00efsation, transfert lexical, . . .) mais a aussi pour objectif majeur d\u2019am\u00e9liorer l\u2019apprentissage de la base.","translation":["","In the framework of research in meaning representation in NLP, we focus our attention on thematic aspects and conceptual vectors. A vectorial base is built upon a morphosyntactic analysis of several lexical resources to reduce isolated problems. A conceptual vector is associated with each definition and another one with the global meaning of a word. There is no effective meaning division and representation the the knowledge base. We study in the article a clustering method that merge definitions into senses. This applies on common problems (word sense disambiguation, word translation, . . .) and mainly to improve knowledge base learning.","Natural language processing, unsupervised clustering, word sense disambiguation"],"keyphrases":["classification automatique","Traitement automatique des langues naturelles","d\u00e9sambigu\u00efsation s\u00e9mantique lexicale"],"prmu":["P","M","R"]} {"id":"taln-2004-poster-015","title":"Gestion de buts de dialogue","abstract":"La gestion du but de dialogue est une t\u00e2che d\u00e9licate pour le contr\u00f4leur de dialogue, car bien souvent il est en concurrence avec le gestionnaire de t\u00e2ches avec lequel on le confond parfois dans certains syst\u00e8mes. Dans cet article, nous pr\u00e9sentons une strat\u00e9gie dynamique de gestion de buts qui permet au contr\u00f4leur de dialogue de r\u00e9duire sa d\u00e9pendance au gestionnaire de t\u00e2che et lui apporte une meilleure r\u00e9utilisabilit\u00e9. Nous exp\u00e9rimentons le syst\u00e8me dans le cadre du projet PVE (Portail Vocal d\u2019Entreprise) dans lequel le dialogue peut se d\u00e9rouler en plusieurs sessions et avec des interlocuteurs diff\u00e9rents.","translation":["","The dialogue goal management is an difficult task because often, dialogue management and task control are strong mixed together. We present in this paper a dynamic strategy to manage dialogue goals that enhances more independence of the dialogue manager with the task manager and brings a better reusability to the whole dialogue system. Our experiment in the framework of PVE (Vocal Portal for Enterprise) shows the possibility to use the dialogue system along a series of sessions and with different speakers.","Human-machine spoken dialogue, dialogue model, dialogue goal"],"keyphrases":["but de dialogue","Dialogue oral homme-machine","mod\u00e8le de dialogue"],"prmu":["P","M","M"]} {"id":"taln-2004-poster-016","title":"Un mod\u00e8le d\u2019interpr\u00e9tation constructionnelle pour les expressions r\u00e9f\u00e9rentielles extensionnelles","abstract":"Dans le dialogue finalis\u00e9, les expressions r\u00e9f\u00e9rentielles portant sur les objets du contexte peuvent contenir des pr\u00e9dicats vagues ou relationnels, qu\u2019il est difficile de traiter avec une logique propositionnelle. Inversement, les approches adapt\u00e9es \u00e0 ces types de pr\u00e9dicats sont difficilement impl\u00e9mentables dans un mod\u00e8le g\u00e9n\u00e9rique et adaptable aux th\u00e9ories d\u2019analyse linguistique. Nous proposons un mod\u00e8le d\u2019interpr\u00e9tation constructionnelle inspir\u00e9 des grammaires de construction qui permet de mod\u00e9liser le processus de r\u00e9solution d\u2019expressions r\u00e9f\u00e9rentielles extensionnelles tout en restant compatible avec la grammaire dont nous nous sommes inspir\u00e9s.","translation":["","In practical dialogue, vague or relational predicates play an important role in referential expressions that refer to the objects in the context. These kind of referential expressions are difficult to handle using propositional logic but in the same time, approaches dealing with such predicates are hardly adaptable to language analysis theories. We propose a model of constructional interpretation that allow modelisation of resolution of extensional referential expressions while keeping compatibility with construction grammar theory.","Construction Grammar, Extensionnal Reference Resolution, Reference Domains"],"keyphrases":["Grammaire de Construction","R\u00e9f\u00e9rence Extensionnelle","Domaines de R\u00e9f\u00e9rence"],"prmu":["P","M","M"]} {"id":"taln-2004-poster-017","title":"Apprentissage collectif et lexique","abstract":"Cet article pr\u00e9sente l\u2019influence de la zone de travail que poss\u00e8de une entit\u00e9 logicielle pour lui permettre de pr\u00e9dire l\u2019\u00e9tat futur de son environnement, sur la constitution d\u2019un lexique partag\u00e9 par les diff\u00e9rents membres d\u2019une population, dans le cadre d\u2019une variante \u201cdu jeu de d\u00e9signation\u201d (naming game).","translation":["","In this paper, we show the influence that the work area used by software entities to predict the future state of their environment, has on the establishment of a common lexicon shared by the members of a population involved in a variant of the naming game.","lexicon, machine learning, multi-agent system"],"keyphrases":["lexique","apprentissage automatique","syst\u00e8me multi-agents"],"prmu":["P","M","U"]} {"id":"taln-2004-poster-018","title":"L\u2019outil de traitement de corpus LIKES","abstract":"LIKES (LInguistic and Knowledge Engineering Station) est une station d\u2019ing\u00e9nierie linguistique destin\u00e9e \u00e0 traiter des corpus, elle fonctionne pour l\u2019instant sur la plupart des langues europ\u00e9ennes et slaves en utilisant des ressources minimales pour chaque langue. Les corpus sont constitu\u00e9s d\u2019un ou plusieurs textes en ASCII ou en HTML, l\u2019interface donne la possibilit\u00e9 de constituer son corpus et d\u2019y ex\u00e9cuter un certain nombre de t\u00e2ches allant de simples t\u00e2ches de d\u00e9coupage en mot, de tri ou de recherche de motifs \u00e0 des t\u00e2ches plus complexes d\u2019aide \u00e0 la synth\u00e8se de grammaire, d\u2019aide au rep\u00e9rage de relations, d\u2019aide \u00e0 la construction d\u2019une terminologie. Nous d\u00e9crivons ici les principales fonctionnalit\u00e9s de LIKES en rapport avec le traitement des corpus et ce qui fait sa sp\u00e9cificit\u00e9 par rapport \u00e0 d\u2019autres environnements comparables : l\u2019utilisation minimale de ressources linguistiques.","translation":["","LIKES (Llnguistic and Knowledge Engineering Station) is a linguistic engineering environment, build for corpora processing. Its provides different modules able to process most european and slavian languages. Corpora in Likes must be constituted by Texts in TXT format or in HTML texts of one particular. Tasks available are elementary likes classical basic corpora processing tasks (making list of forms, segmenting, sorting) and also more sophisticated as term extraction, help in relation extraction, pattern search, aimed at helping terminology building and ontology building. Main functionalities usefull for corpora processing are presented here.","Corpus processing, repeated segments, search of semantic relations, automata, transducers"],"keyphrases":["Traitement de corpus","segments r\u00e9p\u00e9t\u00e9s","recherches de relations","automates","transducteurs"],"prmu":["P","U","R","U","U"]} {"id":"taln-2004-poster-019","title":"R\u00e9solution automatique d\u2019anaphores infid\u00e8les en fran\u00e7ais : Quelles ressources pour quels apports ?","abstract":"La performance d\u2019une r\u00e9solution automatique d\u2019anaphores infid\u00e8les pour le fran\u00e7ais pourrait atteindre une F-mesure de 30%. Ce r\u00e9sultat repose toutefois sur une ressource \u00e9quivalente \u00e0 un bon dictionnaire de la langue fran\u00e7aise, une analyse syntaxique de qualit\u00e9 satisfaisante et un traitement performant des entit\u00e9s nomm\u00e9es. En l\u2019absence de telles ressources, les meilleurs r\u00e9sultats plafonnent autour d\u2019une F-mesure de 15%.","translation":["","A system for solving indirect anaphora in French seems to be able to achieve a F-measure of 30%. However, this result supposes a high quality lexical database (equivalent to a classical dictionary), a good parser and a high precision named entity recognition. In case such resources are not available, the best results are obtained by using simple heuristics and are limited to a F-measure of 15%.","indirect anaphor, lexical database, anaphora resolution, multi-level corpus annotation"],"keyphrases":["anaphore infid\u00e8le","ressource s\u00e9mantique","r\u00e9solution d\u2019anaphore","corpus annot\u00e9 multiniveau"],"prmu":["P","M","R","U"]} {"id":"taln-2004-poster-020","title":"SibyMot : Mod\u00e9lisation stochastique du langage int\u00e9grant la notion de chunks","abstract":"Cet article pr\u00e9sente le mod\u00e8le de langage d\u00e9velopp\u00e9 pour le syst\u00e8me Sibylle, un syst\u00e8me d\u2019aide \u00e0 la communication pour les personnes handicap\u00e9es. L\u2019utilisation d\u2019un mod\u00e8le de langage permet d\u2019am\u00e9liorer la pertinence des mots propos\u00e9s en tenant compte du contexte gauche de la saisie en cours. L\u2019originalit\u00e9 de notre mod\u00e8le se situe dans l\u2019int\u00e9gration de la notion de chunks afin d\u2019\u00e9largir la taille du contexte pris en compte pour l\u2019estimation de la probabilit\u00e9 d\u2019apparition des mots.","translation":["","We present in this article the language model of Sibyl, a new Alternative and Augmentative Communication (AAC) system. The use of language modeling improves the relevance of displayed words by taking into account the left context of the current sentence. The originality of our model is to introduce chunking. This enlarges the context taken into account to estimate the words probability.","AAC, stochastic language modeling, n-gram, chunks"],"keyphrases":["mod\u00e9lisation stochastique du langage","chunks","Aide \u00e0 la communication","n-gramme"],"prmu":["P","P","P","U"]} {"id":"taln-2004-poster-022","title":"Analogies dans les s\u00e9quences : un solveur \u00e0 \u00e9tats finis","abstract":"L\u2019apprentissage par analogie se fonde sur un principe inf\u00e9rentiel potentiellement pertinent pour le traitement des langues naturelles. L\u2019utilisation de ce principe pour des t\u00e2ches d\u2019analyse linguistique pr\u00e9suppose toutefois une d\u00e9finition formelle de l\u2019analogie entre s\u00e9quences. Dans cet article, nous proposons une telle d\u00e9finition et montrons qu\u2019elle donne lieu \u00e0 l\u2019implantation efficace d\u2019un solveur d\u2019\u00e9quations analogiques sous la forme d\u2019un transducteur fini. Munis de ces r\u00e9sultats, nous caract\u00e9risons empiriquement l\u2019extension analogique de divers langages finis, correspondant \u00e0 des dictionnaires de quatre langues.","translation":["","Analogical reasoning provides us with an inferential mecanism of potential interest for NLP applications. An effective use of this process requires a formal definition of the notion of an analogy between strings of symbols. In this paper, we propose such a definition, from which we derive the implementation of a finite-state transducer solving analogical equations on sequences. We finally present the results of an empirical study of the analogical extension of several finite languages, corresponding to dictionnaries of four European languages.","Analogical Learning, Finite-State Automaton"],"keyphrases":["Apprentissage par Analogie","Automates finis"],"prmu":["P","M"]} {"id":"taln-2004-poster-024","title":"Mod\u00e8le de langage s\u00e9mantique pour la reconnaissance automatique de parole dans un contexte de traduction","abstract":"Le travail pr\u00e9sent\u00e9 dans cet article a \u00e9t\u00e9 r\u00e9alis\u00e9 dans le cadre d'un projet global de traduction automatique de la parole. L\u2019approche de traduction est fond\u00e9e sur un langage pivot ou Interchange Format (IF), qui repr\u00e9sente le sens de la phrase ind\u00e9pendamment de la langue. Nous proposons une m\u00e9thode qui int\u00e8gre des informations s\u00e9mantiques dans le mod\u00e8le statistique de langage du syst\u00e8me de Reconnaissance Automatique de Parole. Le principe consiste a utiliser certaines classes d\u00e9finies dans l'IF comme des classes s\u00e9mantiques dans le mod\u00e8le de langage. Ceci permet au syst\u00e8me de reconnaissance de la parole d'analyser partiellement en IF les tours de parole. Les exp\u00e9rimentations realis\u00e9es montrent qu\u2019avec cette approche, le syst\u00e8me de reconnaissance peut analyser directement en IF une partie des donn\u00e9es de dialogues de notre application, sans faire appel au syst\u00e8me de traduction (35% des mots ; 58% des tours de parole), tout en maintenant le m\u00eame niveau de performance du syst\u00e8me global.","translation":["","This paper relates a methodology to include some semantic information early in the statistical language model for Automatic Speech Recognition (ASR). This work is done in the framework of a global speech-to-speech translation project. An Interchange Format (IF) based approach, representing the meaning of phrases independently of languages, is adopted. The methodology consists in introducing semantic information by using a class-based statistical language model for which classes directly correspond to IF entries. With this new Language Model, the ASR module can analyze into IF part of dialogue data: 35% dialogue words; 58% speaker turns, without degrading the overall system performance.","Speech-to-speech translation, language modeling, interchange format"],"keyphrases":["mod\u00e8les de langage","Traduction de parole","repr\u00e9sentation pivot"],"prmu":["P","R","R"]} {"id":"taln-2003-long-001","title":"Quand le TAL robuste s\u0092attaque au langage parl\u00e9 : analyse incr\u00e9mentale pour la compr\u00e9hension de la parole spontan\u00e9e","abstract":"Dans cet article, nous discutons de l\u0092application au langage parl\u00e9 des techniques d\u0092analyse syntaxique robuste d\u00e9velopp\u00e9es pour l\u0092\u00e9crit. Nous pr\u00e9sentons deux syst\u00e8mes de compr\u00e9hension de parole spontan\u00e9 en situation de dialogue homme-machine finalis\u00e9, dont les performances montrent la pertinence de ces m\u00e9thodes pour atteindre une compr\u00e9hension fine et robuste des \u00e9nonc\u00e9s oraux.","translation":["","This papers discusses the relevance of robust parsing techniques for the analysis of spontaneous spoken language. It presents two speech understanding systems devoted to human-machine communication that implement such robust methods. Their performances suggest that robust parsing should apply usefully to spontaneous speech.","Robust parsing, spoken language understanding, human-machine dialogue"],"keyphrases":["compr\u00e9hension de la parole","dialogue homme-machine","Analyse syntaxique robuste"],"prmu":["P","P","R"]} {"id":"taln-2003-long-002","title":"Etude des crit\u00e8res de d\u00e9sambigu\u00efsation s\u00e9mantique automatique : r\u00e9sultats sur les cooccurrences","abstract":"Nous pr\u00e9sentons dans cet article une \u00e9tude sur les crit\u00e8res de d\u00e9sambigu\u00efsation s\u00e9mantique automatique bas\u00e9s sur les cooccurrences. L\u0092algorithme de d\u00e9sambigu\u00efsation utilis\u00e9 est du type liste de d\u00e9cision, il s\u00e9lectionne une cooccurrence unique suppos\u00e9e v\u00e9hiculer l\u2019information la plus fiable dans le contexte cibl\u00e9. Cette \u00e9tude porte sur 60 vocables r\u00e9partis, de mani\u00e8re \u00e9gale, en trois classes grammaticales (nom, adjectif et verbe) avec une granularit\u00e9 fine au niveau des sens. Nous commentons les r\u00e9sultats obtenus par chacun des crit\u00e8res \u00e9valu\u00e9s de mani\u00e8re ind\u00e9pendante et nous nous int\u00e9ressons aux particularit\u00e9s qui diff\u00e9rencient les trois classes grammaticales \u00e9tudi\u00e9es. Cette \u00e9tude s\u0092appuie sur un corpus fran\u00e7ais \u00e9tiquet\u00e9 s\u00e9mantiquement dans le cadre du projet SyntSem.","translation":["","This paper describes a study on cooccurrence-based criteria for automatic word sense disambiguation. We use a decision-list algorithm which selects the best disambiguating cue in the target context. The algorithm is tested on 60 words equally distributed among three parts of speech (noun, adjective and verb) with a fine sense granularity. We present the results obtained by each criterion evaluated in an independent way and we discuss the characteristics which differentiate the three parts of speech studied. The study uses a French sense-tagged corpus developed in the SyntSem project.","Word sense disambiguation, sense tagged corpora, cooccurrences"],"keyphrases":["D\u00e9sambigu\u00efsation s\u00e9mantique automatique","cooccurrences","corpus s\u00e9mantiquement \u00e9tiquet\u00e9"],"prmu":["P","P","R"]} {"id":"taln-2003-long-003","title":"Nouvelle approche de la s\u00e9lection de vocabulaire pour la d\u00e9tection de th\u00e8me","abstract":"En reconnaissance de la parole, un des moyens d\u2019am\u00e9liorer les performances des syst\u00e8mes est de passer par l\u2019adaptation des mod\u00e8les de langage. Une \u00e9tape cruciale de ce processus consiste \u00e0 d\u00e9tecter le th\u00e8me du document trait\u00e9 et \u00e0 adapter ensuite le mod\u00e8le de langage. Dans cet article, nous proposons une nouvelle approche de cr\u00e9ation des vocabulaires utilis\u00e9s pour la d\u00e9tection de th\u00e8me. Cette derni\u00e8re est fond\u00e9e sur le d\u00e9veloppement de vocabulaires sp\u00e9cifiques et caract\u00e9ristiques des diff\u00e9rents th\u00e8mes. Nous montrons que cette approche permet non seulement d\u2019am\u00e9liorer les performances des m\u00e9thodes, mais exploite \u00e9galement des vocabulaires de taille r\u00e9duite. De plus, elle permet d\u2019am\u00e9liorer de fa\u00e7on tr\u00e8s significative les performances de m\u00e9thodes de d\u00e9tection lorsqu\u2019elles sont combin\u00e9es.","translation":["","One way to improve performance of Automatic Speech Recognition (ASR) systems consists in adapting language models. We are particularly interested in adapting language models to the topic related in data. Before adapting the language model, this topic has to be detected. In this work, we present a new way to create vocabularies used to detect the topic in a given text. This new method results in the improvement of topic detection performance of the methods studied, it also results in the reduction of the vocabulary size required. Finally, we show a large improvement of the performance when combining topic identification methods, when new vocabularies are used.","Topic detection, vocabulary creation, combination"],"keyphrases":["D\u00e9tection de th\u00e8me","cr\u00e9ation de vocabulaire","combinaison"],"prmu":["P","P","U"]} {"id":"taln-2003-long-004","title":"Classification automatique de textes \u00e0 partir de leur analyse syntaxico-s\u00e9mantique","abstract":"L\u2019hypoth\u00e8se soutenue dans cet article est que l\u2019analyse de contenu, quand elle est r\u00e9alis\u00e9e par un analyseur syntaxique robuste avec calcul s\u00e9mantique dans un mod\u00e8le ad\u00e9quat, est un outil de classification tout aussi performant que les m\u00e9thodes statistiques. Pour \u00e9tudier les possibilit\u00e9s de cette hypoth\u00e8se en mati\u00e8re de classification, \u00e0 l\u2019aide de l\u2019analyseur du Fran\u00e7ais, SYGMART, nous avons r\u00e9alis\u00e9 un projet en grandeur r\u00e9elle avec une soci\u00e9t\u00e9 qui propose des s\u00e9lections d\u2019articles en revue de presse. Cet article pr\u00e9sente non seulement les r\u00e9sultats de cette \u00e9tude (sur 4843 articles finalement s\u00e9lectionn\u00e9s), mais aussi cherche \u00e0 montrer que l\u2019analyse de contenu automatis\u00e9e, quand elle est possible, est un moyen fiable de produire une cat\u00e9gorisation issue du sens (quand il est calculable), et pas simplement cr\u00e9\u00e9e \u00e0 partir d\u2019une reconnaissance de \"similarit\u00e9s\"de surface.","translation":["","This paper presents the assumption that discourse analysis, when perfomed by a robust parser backed up by an accurate semantic model, is a classification tool as efficient as statistical methods. To study the capabilities of discourse analysis in classification, we have used a parser for French, SYGMART, and applied it to a real project of press articles classification. This article presents the results of this research (on a corpus of 4843 texts), and tries to show that automatic discourse analysis, when possible, is an efficient way of classification through meaning discrimination, and not simply relying on surface similarities recognition.","Parsing, Categorization, Information Extraction"],"keyphrases":["Classification","Analyse","Extraction d\u2019information"],"prmu":["P","P","M"]} {"id":"taln-2003-long-005","title":"Extraction de couples nom-verbe s\u00e9mantiquement li\u00e9s : une technique symbolique automatique","abstract":"Dans le mod\u00e8le du Lexique g\u00e9n\u00e9ratif (Pustejovsky, 1995), certaines propri\u00e9t\u00e9s s\u00e9mantiques des noms sont exprim\u00e9es \u00e0 l\u2019aide de verbes. Les couples nom-verbe ainsi form\u00e9s pr\u00e9sentent un int\u00e9r\u00eat applicatif notamment en recherche d\u2019information. Leur acquisition sur corpus constitue donc un enjeu, mais la d\u00e9couverte des patrons qui les d\u00e9finissent en contexte est \u00e9galement importante pour la compr\u00e9hension m\u00eame du mod\u00e8le du Lexique g\u00e9n\u00e9ratif. Cet article pr\u00e9sente une technique enti\u00e8rement automatique permettant de r\u00e9pondre \u00e0 ce double besoin d\u2019extraction sur corpus de couples et de patrons morpho-syntaxiques et s\u00e9mantiques. Elle combine pour ce faire deux approches d\u2019acquisition\u2014 l\u2019approche statistique et l\u2019approche symbolique\u2014 en conservant les avantages propres \u00e0 chacune d\u2019entre elles : robustesse et automatisation des m\u00e9thodes statistiques, qualit\u00e9 et expressivit\u00e9 des r\u00e9sultats des techniques symboliques.","translation":["","In the Generative Lexicon framework (Pustejovsky, 1995), some semantic properties of common nouns are expressed with the help of verbs. These noun-verb pairs are relevant in various domains, especially in Information Retrieval. Their corpus-based acquisition is thus an interesting issue; moreover discovering the contextual patterns in which these pairs can occur is also important in order to understand the Generative Lexicon model. This paper presents a fully automated technique that allows us to acquire from a corpus both noun-verb pairs, and semantic and morpho-syntactic patterns. This technique combines two acquisition approaches\u2014the statistical one and the symbolic one\u2014and keeps advantages of each approach: robustness and automation of statistical methods, quality of the results and expressiveness of symbolic ones.","Lexicon acquisition, morpho-syntactic and semantic pattern extraction, Generative Lexicon, inductive logic programming, bootstrapping, semi-supervised learning"],"keyphrases":["lexique g\u00e9n\u00e9ratif","Acquisition de lexique","extraction de patrons morpho-syntaxiques et s\u00e9mantiques","programmation logique inductive","bootstrapping","apprentissage semi-supervis\u00e9"],"prmu":["P","R","R","U","U","U"]} {"id":"taln-2003-long-006","title":"Une plate-forme de conception et d\u0092exploitation d\u0092une grammaire d\u0092arbres adjoints lexicalis\u00e9s","abstract":"Dans cet article, nous pr\u00e9sentons un ensemble d\u0092outils de conception et d\u0092exploitation pour des grammaires d\u0092arbres adjoints lexicalis\u00e9s. Ces outils s\u0092appuient sur une repr\u00e9sentation XML des ressources (lexique et grammaire). Dans notre repr\u00e9sentation, \u00e0 chaque arbre de la grammaire est associ\u00e9 un hypertag d\u00e9crivant les ph\u00e9nom\u00e8nes linguistiques qu\u0092il recouvre. De ce fait, la liaison avec le lexique se trouve plus compact\u00e9e et devient plus ais\u00e9e \u00e0 maintenir. Enfin, un analyseur permet de valider les grammaires et les lexiques ainsi con\u00e7us aussi bien de fa\u00e7on interactive que diff\u00e9r\u00e9e sur des corpus.","translation":["","Grammar, parser, lexical resources, LTAG, compact lexical representation",""],"keyphrases":["Grammaire","analyse syntaxique","ressources lexicales","LTAG","repr\u00e9sentation compacte du lexique"],"prmu":["P","U","M","U","M"]} {"id":"taln-2003-long-007","title":"Peut-on trouver la taille de contexte optimale en d\u00e9sambigu\u00efsation s\u00e9mantique?","abstract":"Dans la t\u00e2che de d\u00e9sambigu\u00efsation s\u00e9mantique, la d\u00e9termination de la taille optimale de fen\u00eatre de contexte \u00e0 utiliser, a fait l'objet de plusieurs \u00e9tudes. Dans cet article, nous proposons une approche \u00e0 deux niveaux pour r\u00e9pondre \u00e0 cette probl\u00e9matique de mani\u00e8re automatique. Trois syst\u00e8mes concurrents \u00e0 base d'arbres de classification s\u00e9mantique sont, dans un premier temps, utilis\u00e9s pour d\u00e9terminer les trois sens les plus vraisemblables d'un mot. Ensuite, un syst\u00e8me d\u00e9cisionnel tranche entre ces sens au regard d'un contexte plus \u00e9tendu. Les am\u00e9liorations constat\u00e9es lors d'exp\u00e9riences men\u00e9es sur les donn\u00e9es de SENSEVAL-1 et v\u00e9rifi\u00e9es sur les donn\u00e9es SENSEVAL-2 sont significatives.","translation":["","The determination of context length to use for Word Sense Disambiguation (WSD) has been the object of several studies. In this paper, we propose to use a monitoring system in order to select automatically the optimal window size among three possibilities. We used a two-step strategy based on Semantic Classification Trees (SCT) and on a similarity measure. Whereas SCTs are employed on a short window size of 3, 5 and 7 words, the technique based on similarity measure is appllied to a \u2018wider\u2019 context size. The improvements observed in the SENSEVAL-1 lexical-sample task are verified on the SENSEVAL-2 data.","Word sense disambiguation, semantic classification trees, monitoring system"],"keyphrases":["D\u00e9sambigu\u00efsation s\u00e9mantique","arbres de classification s\u00e9mantique"],"prmu":["P","P"]} {"id":"taln-2003-long-008","title":"Repr\u00e9sentation s\u00e9mantique sous-sp\u00e9cifi\u00e9e pour les conjonctions de subordination","abstract":"Cet article concerne les phrases complexes avec deux conjonctions de subordination. Nous montrerons que de telles phrases peuvent s\u2019interpr\u00e9ter de quatre fa\u00e7ons diff\u00e9rentes. Il s\u2019agit donc de formes fortement ambigu\u00ebs pour lesquelles il est opportun d\u2019avoir recours \u00e0 des repr\u00e9sentations s\u00e9mantiques sous-sp\u00e9cifi\u00e9es, et c\u2019est ce que nous proposerons.","translation":["","This paper concerns sentences with two subordination conjunctions. It shows that such sentences can be given four interpretations. They are heavily ambiguous forms for which an underspecified semantic representation is proposed.","Discourses, SDRT, DAG, Underspecified semantic representation, LTAG"],"keyphrases":["Repr\u00e9sentation s\u00e9mantique sous-sp\u00e9cifi\u00e9e","Discours","SDRT (Segmented Discourse repr\u00e9sentation Theory)","DAG (Directed Acyclic Graph)","LTAG (Lexicalized Tree Adjoining Grammar)"],"prmu":["P","U","M","U","U"]} {"id":"taln-2003-long-009","title":"Confronter des sources de connaissances diff\u00e9rentes pour obtenir une r\u00e9ponse plus fiable","abstract":"La fiabilit\u00e9 des r\u00e9ponses qu\u2019il propose, ou un moyen de l\u2019estimer, est le meilleur atout d\u2019un syst\u00e8me de question-r\u00e9ponse. A cette fin, nous avons choisi d\u2019effectuer des recherches dans des ensembles de documents diff\u00e9rents et de privil\u00e9gier des r\u00e9sultats qui sont trouv\u00e9s dans ces diff\u00e9rentes sources. Ainsi, le syst\u00e8me QALC travaille \u00e0 la fois sur une collection finie d\u2019articles de journaux et sur le Web.","translation":["","A question answering system will be more convincing if it can give a user elements concerning the reliability of it propositions. In order to address this problem, we choose to take the advice of several searches. First we search for answers in a reliable document collection, and second on the Web. When the two sources of knowledge give the system QALC common answers, we are confident with them and boost them at the first places.","Question answering system, information retrieval, answer reliability"],"keyphrases":["fiabilit\u00e9 des r\u00e9ponses","Syst\u00e8me de question-r\u00e9ponse","recherche d\u2019information"],"prmu":["P","P","M"]} {"id":"taln-2003-long-010","title":"Apprentissage Automatique de Paraphrases pour l\u2019Am\u00e9lioration d\u2019un Syst\u00e8me de Questions-R\u00e9ponses","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thodologie d\u2019apprentissage faiblement supervis\u00e9 pour l\u2019extraction automatique de paraphrases \u00e0 partir du Web. \u00c0 partir d\u2019un seule exemple de paire (pr\u00e9dicat, arguments), un corpus est progressivement accumul\u00e9 par sondage duWeb. Les phases de sondage alternent avec des phases de filtrage, durant lesquelles les paraphrases les moins plausibles sont \u00e9limin\u00e9es \u00e0 l\u2019aide d\u2019une proc\u00e9dure de clustering non supervis\u00e9e. Ce m\u00e9canisme d\u2019apprentissage s\u2019appuie sur un syst\u00e8me de Questions-R\u00e9ponses existant et les paraphrases apprises seront utilis\u00e9es pour en am\u00e9liorer le rappel. Nous nous concentrons ici sur le m\u00e9canisme d\u2019apprentissage de ce syst\u00e8me et en pr\u00e9sentons les premiers r\u00e9sultats.","translation":["","In this paper, we present a nearly unsupervised learning methodology for automatically extracting paraphrases from theWeb. Starting with one single instance of a pair (predicate,arguments), a corpus is incrementally built by sampling the Web. Sampling stages alternate with filteringstages, during which implausible paraphrases are filtered out using an EM-based unsupervised clustering procedure. This learning machinery is built on top of an existing questionanswering system and the learnt paraphrases will eventually be used to improve its recall. We focus here on the learning aspect of this system and report preliminary results.","Question Answering, Machine Learning, Paraphrase extraction"],"keyphrases":["Apprentissage Automatique","Questions-R\u00e9ponses","Acquisition de Paraphrase"],"prmu":["P","P","M"]} {"id":"taln-2003-long-011","title":"La topologie comme interface entre syntaxe et prosodie : un syst\u00e8me de g\u00e9n\u00e9ration appliqu\u00e9 au grec moderne","abstract":"Dans cet article, nous d\u00e9veloppons les modules syntaxique et topologique du mod\u00e8le Sens- Texte et nous montrons l\u0092utilit\u00e9 de la topologie comme repr\u00e9sentation interm\u00e9diaire entre les repr\u00e9sentations syntaxique et phonologique. Le mod\u00e8le est impl\u00e9ment\u00e9 dans un g\u00e9n\u00e9rateur et nous pr\u00e9sentons la grammaire du grec moderne dans cette approche.","translation":["","In this paper, we develop the syntactic and topological modules of the Meaning-Text model. We show the use of topology as the interface of syntax and phonology. The model is implemented in a speech generator and we present its Greek grammar.","dependency grammar, word order, prosody, topology, language generation, Greek"],"keyphrases":["topologie","prosodie","grec","grammaires de d\u00e9pendance","ordre des mots","g\u00e9n\u00e9rateur de parole"],"prmu":["P","P","P","M","M","M"]} {"id":"taln-2003-long-013","title":"Entre syntaxe et s\u00e9mantique : Normalisation de la sortie de l\u2019analyse syntaxique en vue de l\u2019am\u00e9lioration de l\u2019extraction d\u2019information \u00e0 partir de textes","abstract":"Cet article pr\u00e9sente la normalisation de la sortie d\u2019un analyseur robuste de l\u2019anglais. Nous montrons quels sont les enrichissements que nous avons effectu\u00e9s afin de pouvoir obtenir \u00e0 la sortie de notre analyseur des relations syntaxiques plus g\u00e9n\u00e9rales que celles que nous offrent habituellement les analyseurs robustes existants. Pour cela nous utilisons non seulement des propri\u00e9t\u00e9s syntaxiques, mais nous faisons appel aussi \u00e0 de l\u2019information de morphologie d\u00e9rivationnelle. Cette t\u00e2che de normalisation est men\u00e9e \u00e0 bien gr\u00e2ce \u00e0 notre analyseur XIP qui int\u00e8gre tous les traitements allant du texte brut tout venant au texte normalis\u00e9. Nous pensons que cette normalisation nous permettra de mener avec plus de succ\u00e8s des t\u00e2ches d\u2019extraction d\u2019information ou de d\u00e9tection de similarit\u00e9 entre documents.","translation":["","This article presents our work on the normalization of the output of a robust dependency parser for English. We show how we have enriched our grammar to yield syntactic relations that are more general than those usually obtained with other available robust parsers. In order to achieve this result, we use syntactic properties, together with derivational morphology information. This normalization task is carried out with XIP which handles all the process that transform our input text into its normalized output. We consider that this normalization will improve the result of information extraction and similarity detection process between documents.","robust parsing, normalization for information extraction"],"keyphrases":["analyse syntaxique robuste","normalisation en vue de l\u2019extraction d\u2019information"],"prmu":["R","R"]} {"id":"taln-2003-long-014","title":"L\u0092identification des structures discursives engendr\u00e9es par les cadres organisationnels","abstract":"Cet article pr\u00e9sente tout d\u0092abord une analyse linguistique des cadres organisationnels et son impl\u00e9mentation informatique. Puis \u00e0 partir de ce travail, une mod\u00e9lisation g\u00e9n\u00e9ralisable \u00e0 l\u0092ensemble des cadres de discours est propos\u00e9e. Enfin, nous discutons du concept d\u0092indicateur propos\u00e9 dans le cadre th\u00e9orique de l\u0092exploration contextuelle.","translation":["","To begin with, this paper outlines a linguistic analysis of textual enumerating frameworks and its computational making. Then, from this work, a modelling for all textual frameworks is suggested. Finally, we discuss the relevance of the concept of clue which is central in the theoretical framework of contextual exploration method.","Enumerating frameworks, linear integration markers, discourse frames, automatic text segmentation, contextual exploration method, automatic text filtering"],"keyphrases":["cadres de discours","S\u00e9ries de cadres organisationnels","marqueurs d\u0092int\u00e9gration lin\u00e9aire","segmentation automatique de textes","m\u00e9thode d\u0092exploration contextuelle","filtrage automatique de textes"],"prmu":["P","M","U","M","M","M"]} {"id":"taln-2003-long-015","title":"Vers la compr\u00e9hension automatique de la parole : extraction de concepts par r\u00e9seaux bay\u00e9siens","abstract":"La compr\u00e9hension automatique de la parole peut \u00eatre consid\u00e9r\u00e9e comme un probl\u00e8me d\u2019association entre deux langages diff\u00e9rents. En entr\u00e9e, la requ\u00eate exprim\u00e9e en langage naturel et en sortie, juste avant l\u2019\u00e9tape d\u2019interpr\u00e9tation, la m\u00eame requ\u00eate exprim\u00e9e en terme de concepts. Un concept repr\u00e9sente un sens bien d\u00e9termin\u00e9. Il est d\u00e9fini par un ensemble de mots partageant les m\u00eames propri\u00e9t\u00e9s s\u00e9mantiques. Dans cet article, nous proposons une m\u00e9thode \u00e0 base de r\u00e9seau bay\u00e9sien pour l\u2019extraction automatique des concepts ainsi que trois approches diff\u00e9rentes pour la repr\u00e9sentation vectorielle des mots. Ces repr\u00e9sentations aident un r\u00e9seau bay\u00e9sien \u00e0 regrouper les mots, construisant ainsi la liste ad\u00e9quate des concepts \u00e0 partir d\u2019un corpus d\u2019apprentissage. Nous conclurons cet article par la description d\u2019une \u00e9tape de post-traitement au cours de laquelle, nous \u00e9tiquetons nos requ\u00eates et nous g\u00e9n\u00e9rons les commandes SQL appropri\u00e9es validant ainsi, notre approche de compr\u00e9hension.","translation":["","The automatic speech understanding can be considered as association problem between two different languages. At the entry, the request expressed in natural language and at the end, just before the stage of interpretation, the same request is expressed in term of concepts. One concept represents given meaning, it is defined by the set of words sharing the same semantic properties. In this paper, we propose a new Bayesian network based method to automatically extract the underlined concepts. We also propose three different approaches for the vector representation of words. These representations help Bayesian network to build the adequate list of concepts for the considered application. We finish this paper by description of the postprocessing step during which, we label our sentences and we generate the corresponding SQL queries. This step allows us to validate our speech understanding approach.","Speech understanding, semantic concepts, Bayesian networks, semantic labelling, automatic categorization"],"keyphrases":["r\u00e9seaux bay\u00e9siens","Compr\u00e9hension de la parole","concepts s\u00e9mantiques","\u00e9tiquetage s\u00e9mantique","cat\u00e9gorisation automatique"],"prmu":["P","R","R","M","M"]} {"id":"taln-2003-long-016","title":"Les signes grammaticaux dans l\u2019interface s\u00e9mantique-syntaxe d\u2019une grammaire d\u2019unification","abstract":"Cet article pr\u00e9sente une grammaire d\u2019unification dans laquelle les morph\u00e8mes grammaticaux sont trait\u00e9s similairement aux morph\u00e8mes lexicaux!: les deux types de morph\u00e8mes sont trait\u00e9s comme des signes \u00e0 part enti\u00e8re et sont d\u00e9cris par des structures \u00e9l\u00e9mentaires qui peuvent s\u2019unifier directement les unes aux autres (ce qui en fait une grammaire de d\u00e9pendance). Nous illustrerons notre propos par un fragment de l\u2019interface s\u00e9mantique-syntaxe du fran\u00e7ais pour le verbe et l\u2019adjectif!: voix, modes, temps, impersonnel et tough-movement.","translation":["","This paper presents a unification grammar where the grammatical morphemes are handled as the lexical morphemes: Both kinds of morphemes are handled as signs and described by elementary structures which directly unify to each other (making the grammar a dependency grammar). Our purpose will be illustrated by a fragment of the semantics-syntax interface of French for verbs and adjectives: voices, moods, tenses, impersonal, and tough-movement.","Grammatical morpheme, syntax-semantics interface, unification grammar, dependency grammar, passive, impersonal, tough-movement"],"keyphrases":["grammaire d\u2019unification","Morph\u00e8me grammatical","grammaire de d\u00e9pendance","impersonnel","tough-movement","interface syntaxe-s\u00e9mantique","HPSG","passif"],"prmu":["P","P","P","P","P","M","U","U"]} {"id":"taln-2003-long-017","title":"Une caract\u00e9risation de la pertinence pour les actions de r\u00e9f\u00e9rence","abstract":"Que ce soit pour la compr\u00e9hension ou pour la g\u00e9n\u00e9ration d\u2019expressions r\u00e9f\u00e9rentielles, la Th\u00e9orie de la Pertinence propose un crit\u00e8re cognitif permettant de comparer les pertinences de plusieurs expressions dans un contexte linguistique. Nous voulons ici aller plus loin dans cette voie en proposant une caract\u00e9risation pr\u00e9cise de ce crit\u00e8re, ainsi que des pistes pour sa quantification. Nous \u00e9tendons l\u2019analyse \u00e0 la communication multimodale, et nous montrons comment la perception visuelle, le langage et le geste ostensif interagissent dans la production d\u2019effets contextuels. Nous nous attachons \u00e0 d\u00e9crire l\u2019effort de traitement d\u2019une expression multimodale \u00e0 l\u2019aide de traits. Nous montrons alors comment des comparaisons entre ces traits permettent d\u2019exploiter efficacement le crit\u00e8re de pertinence en communication homme-machine. Nous soulevons quelques points faibles de notre proposition et nous en tirons des perspectives pour une formalisation de la pertinence.","translation":["","For automatic comprehension or generation of referring expressions, Relevance Theory proposes a cognitive criterion that allows to compare the relevance of several expressions in a linguistic context. We want here to pursue this work. We propose a more precise characterization of this criterion and foundations for its computation. We extend the analysis to multimodal communication, and we show how visual perception, speech and gesture present multiple interactions between each other in the production of contextual effects. We describe with some features the processing effort of a multimodal expression. Then we show how comparisons between these features lead to an efficient exploitation of the relevance criterion in man-machine dialogue. We raise some weak points of our proposal and we deduce future plans for a formalization of relevance.","Relevance, reference to objects, multimodal dialogue, contextual effects, processing effort"],"keyphrases":["Pertinence","effets contextuels","effort de traitement","r\u00e9f\u00e9rence aux objets","dialogue multimodal"],"prmu":["P","P","P","M","M"]} {"id":"taln-2003-long-018","title":"De la traduction probabiliste aux m\u00e9moires de traduction (ou l\u2019inverse)","abstract":"En d\u00e9pit des travaux r\u00e9alis\u00e9s cette derni\u00e8re d\u00e9cennie dans le cadre g\u00e9n\u00e9ral de la traduction probabiliste, nous sommes toujours bien loin du jour o\u00f9 un engin de traduction automatique (probabiliste ou pas) sera capable de r\u00e9pondre pleinement aux besoins d\u2019un traducteur professionnel. Dans une \u00e9tude r\u00e9cente (Langlais, 2002), nous avons montr\u00e9 comment un engin de traduction probabiliste pouvait b\u00e9n\u00e9ficier de ressources terminologiques ext\u00e9rieures. Dans cette \u00e9tude, nous montrons que les techniques de traduction probabiliste peuvent \u00eatre utilis\u00e9es pour extraire des informations sous-phrastiques d\u2019une m\u00e9moire de traduction. Ces informations peuvent \u00e0 leur tour s\u2019av\u00e9rer utiles \u00e0 un engin de traduction probabiliste. Nous rapportons des r\u00e9sultats sur un corpus de test de taille importante en utilisant la m\u00e9moire de traduction d\u2019un concordancier bilingue commercial.","translation":["","Despite the exciting work accomplished over the past decade in the field of Statistical Machine Translation (SMT), we are still far from the point of being able to say that machine translation fully meets the needs of real-life users. In a previous study (Langlais, 2002), we have shown how a SMT engine could benefit from terminological resources, especially when translating texts very different from those used to train the system. In the present paper, we discuss the opening of SMT to examples automatically extracted from a Translation Memory (TM). We report results on a fair-sized translation task using the database of a commercial bilingual concordancer.","Automatic translation, translation memories, word alignment"],"keyphrases":["Traduction automatique","m\u00e9moire de traduction sous-phrastique","alignement sous-phrastique"],"prmu":["P","R","M"]} {"id":"taln-2003-long-019","title":"Une analyse des emplois du d\u00e9monstratif en corpus","abstract":"Cet article propose une nouvelle classification des utilisations des d\u00e9monstratifs, une mise en oeuvre de cette classification dans une analyse de corpus et pr\u00e9sente les resultats obtenus au terme de cette analyse. La classification propos\u00e9e est bas\u00e9e sur celles existant dans la litt\u00e9rature et \u00e9tendues pour permettre la g\u00e9n\u00e9ration de groupes nominaux d\u00e9monstratifs. L\u2019analyse de corpus montre en particulier que la nature \"reclassifiante\" du d\u00e9monstratif lui permet d\u2019assumer deux fonctions (une fonction anaphorique et une fonction de support pour de l\u2019information nouvelle) et qu\u2019il existe des moyens vari\u00e9s de r\u00e9aliser ces fonctions.","translation":["","This paper presents a new classification for the use of demonstrative descriptions, its application in a corpus analysis and the results of this analysis. The proposed classification is based on the existing literature and extended to support the generation of demonstrative NPs. The corpus analysis shows in particular, that the \"reclassifying power\" of the demonstrative allows it to perform two functions (anaphora and supporting new information) and that there are various ways of realising these functions.","Demonstrative, corpus analysis, corpus annotation, text generation"],"keyphrases":["D\u00e9monstratifs","analyse de corpus","annotation de corpus","g\u00e9n\u00e9ration de texte"],"prmu":["P","P","M","M"]} {"id":"taln-2003-long-020","title":"MULTI-ANALYSE vers une analyse syntaxique plus fiable","abstract":"Dans cet article, nous proposons de montrer que la combinaison de plusieurs analyses syntaxiques permet d\u2019extraire Panalyse la plus fiable pour une phrase donn\u00e9e. De plus, chaque information syntaxique sera affect\u00e9e d\u2019un score de confiance d\u00e9termin\u00e9 selon le nombre d\u2019analyseurs syntaxiques la confirmant. Nous verrons que cette approche implique l\u2019\u00e9tude des diff\u00e9rents analyseurs syntaxiques existants ainsi que leur \u00e9valuation.","translation":["","In this paper, we propose an algorithm of combination between several syntactic parses in order to extract the most reliable syntactic parse for the sentence given and to affect these syntactical informations with the confidence rate, determined with regard to the number of parsers returning the same information. This approach involves the study of syntactic parsers and their evaluation.","Syntactic parsers, Information combination, Evaluation"],"keyphrases":["Analyseurs syntaxiques","Combinaison d\u2019informations","Evaluation"],"prmu":["P","R","U"]} {"id":"taln-2003-long-021","title":"Apprentissage discriminant pour les Grammaires \u00e0 Substitution d'Arbres","abstract":"Les grammaires stochastiques standards utilisent des mod\u00e8les probabilistes de nature g\u00e9n\u00e9rative, fond\u00e9s sur des probabilit\u00e9s de r\u00e9criture conditionn\u00e9es par le symbole r\u00e9crit. Les exp\u00e9riences montrent qu'elles tendent ainsi par nature \u00e0 p\u00e9naliser les d\u00e9rivations les plus longues pour une m\u0088eme entr\u00e9e, ce qui n'est pas forc\u00e9ment un comportement souhaitable, ni en analyse syntaxique, ni en reconnaissance de la parole. Dans cet article, nous proposons une approche probabiliste non-g\u00e9n\u00e9rative du mod\u00e8le STSG (grammaire stochastique \u00e0 substitution d'arbres), selon laquelle les probabilit\u00e9s sont conditionn\u00e9es par les feuilles des arbres syntaxiques plut\u0088ot que par leur racine, et qui par nature fait appel \u00e0 un apprentissage discriminant. Plusieurs exp\u00e9riences sur ce mod\u00e8le sont pr\u00e9sent\u00e9es.","translation":["","Standard stochastic grammars use generative probabilistic models, focussing on rewriting probabilities conditioned by the rewritten symbol. Such grammars therefore tend to give penalty to longer derivations of the same input, which could be a drawback when they are used for analysis (e.g. speech recognition). In this contribution, we propose a novel non-generative probabilistic model of STSGs (Stochastic Tree Substitution Grammars), where probabilities are conditioned by the leaves of the syntactic trees (i.e. the input symbols) rather than by the root. Several experiments of this new model are presented.","STSG, Gibbs-Markov, Maximum Entropy, Conditionnal likelihood"],"keyphrases":["STSG","Gibbs-Markov","Maximum d'Entropie","Vraisemblance Conditionnelle"],"prmu":["P","U","M","U"]} {"id":"taln-2003-long-022","title":"Am\u00e9lioration de liens entre acceptions par fonctions lexicales vectorielles sym\u00e9triques","abstract":"Dans le cadre du projet Papillon qui vise \u00e0 la construction de bases lexicales multilingues par acceptions, nous avons d\u00e9fini des strat\u00e9gies pour peupler un dictionnaire pivot de liens interlingues \u00e0 partir d\u2019une base vectorielle monolingue. Il peut y avoir un nombre important de sens par entr\u00e9e et donc l\u2019identification des acceptions correspondantes peut \u00eatre erron\u00e9e. Nous am\u00e9liorons l\u2019int\u00e9grit\u00e9 de la base d\u2019acception gr\u00e2ce \u00e0 des agents experts dans les fonctions lexicales comme la synonymie, l\u2019antonymie, l\u2019hyp\u00e9ronymie ou l\u2019holonymie. Ces agents sont capable de calculer la pertinence d\u2019une relation s\u00e9mantique entre deux acceptions par les diverses informations lexicales r\u00e9colt\u00e9es et les vecteurs conceptuels. Si une certaine pertinence est au-dessus d\u2019un seuil, ils cr\u00e9ent un lien s\u00e9mantique qui peut \u00eatre utilis\u00e9 par d\u2019autres agents charg\u00e9s par exemple de la d\u00e9sambigu\u00efsation ou du transfert lexical. Les agents v\u00e9rifiant l\u2019int\u00e9grit\u00e9 de la base cherchent les incoh\u00e9rences de la base et en avertissent les lexicographes le cas \u00e9ch\u00e9ant.","translation":["","In the framework of the Papillon project, we have defined strategies for populating a pivot dictionnary of interlingual links from monolingual vectorial bases. There are quite a number of acceptions per entry thus, the proper identification may be quite troublesome and some added clues beside acception links may be useful. We improve the integrity of the acception base through well known semantic relations like synonymy, antonymy, hyperonymy and holonymy relying on lexical functions agents. These semantic relation agents can compute the pertinence of a semantic relation between two acceptions thanks to various lexical informations and conceptual vectors. When a given pertinence score is above a threshold they create a semantic link which can be walked through by other agents in charge of WSD ot lexical transfert. Base integrity agents walk throw the acceptions, look for incoherences in the base and emit warning toward lexicographs when needed.","thematic representation, conceptuals vectors, lexical functions, acceptions"],"keyphrases":["acceptions","fonctions lexicales","vecteurs conceptuels","repr\u00e9sentation th\u00e9matique"],"prmu":["P","P","P","U"]} {"id":"taln-2003-long-024","title":"Une grammaire formelle du cr\u00e9ole martiniquais pour la g\u00e9n\u00e9ration automatique","abstract":"Nous pr\u00e9senterons dans cette communication les premiers travaux de mod\u00e9lisation informatique d\u2019une grammaire de la langue cr\u00e9ole martiniquaise, en nous inspirant des descriptions fonctionnelles de Damoiseau (1984) ainsi que du manuel de Pinalie & Bernab\u00e9 (1999). Prenant appui sur des travaux ant\u00e9rieurs en g\u00e9n\u00e9ration de texte (Vaillant, 1997), nous utilisons un formalisme de grammaires d\u2019unification, les grammaires d\u2019adjonction d\u2019arbres (TAG d\u2019apr\u00e8s l\u2019acronyme anglais), ainsi qu\u2019une mod\u00e9lisation de cat\u00e9gories lexicales fonctionnelles \u00e0 base syntaxico-s\u00e9mantique, pour mettre en oeuvre une grammaire du cr\u00e9ole martiniquais utilisable dans une maquette de syst\u00e8me de g\u00e9n\u00e9ration automatique. L\u2019un des int\u00e9r\u00eats principaux de ce syst\u00e8me pourrait \u00eatre son utilisation comme logiciel outil pour l\u2019aide \u00e0 l\u2019apprentissage du cr\u00e9ole en tant que langue seconde.","translation":["","In this article, some first elements of a computational modelling of the grammar of the Martiniquese French Creole dialect are presented. The sources of inspiration for the modelling is the functional description given by Damoiseau (1984), and Pinalie\u2019s & Bernab\u00e9\u2019s (1999) grammar manual. Based on earlier works in text generation (Vaillant, 1997), a unification grammar formalism, namely Tree Adjoining Grammars (TAG), and a modelling of lexical functional categories based on syntactic and semantic properties, are used to implement a grammar of Martiniquese Creole which is used in a prototype of text generation system. One of the main applications of the system could be its use as a tool software supporting the task of learning Creole as a second language.","Creole, Martiniquese, Grammar, TAG, Generation"],"keyphrases":["Grammaire","Cr\u00e9ole","Martiniquais","G\u00e9n\u00e9ration","TAG"],"prmu":["P","P","P","P","P"]} {"id":"taln-2003-long-025","title":"Cartographie lexicale pour la recherche d\u0092'information","abstract":"Nous d\u00e9crivons un algorithme, HyperLex, de d\u00e9termination automatique des diff\u00e9rents usages d\u0092un mot dans une base textuelle sans utilisation d\u0092un dictionnaire. Cet algorithme bas\u00e9 sur la d\u00e9tection des composantes de forte densit\u00e9 du graphe des cooccurrences de mots permet, contrairement aux m\u00e9thodes pr\u00e9c\u00e9demment propos\u00e9es (vecteurs de mots), d\u0092isoler des usages tr\u00e8s peu fr\u00e9quents. Il est associ\u00e9 \u00e0 une technique de repr\u00e9sentation graphique permettant \u00e0 l\u0092utilisateur de naviguer de fa\u00e7on visuelle \u00e0 travers le lexique et d\u0092explorer les diff\u00e9rentes th\u00e9matiques correspondant aux usages discrimin\u00e9s.","translation":["","We describe the HyperLex algorithm for automatic discrimination of word uses in a textual database. The algorithm does not require a dictionary. It detects high density components in the word-cooccurrence graph, and, contrary to previous methods (word vectors), enables the recognition of very low frequency uses. HyperLex is associated with a graphic representation technique that makes it possible to navigate through the lexicon and explore visually the various themes corresponding to the discriminated uses.","Lexical disambiguation, information retrieval, graphic interfaces"],"keyphrases":["D\u00e9sambigu\u00efsation lexicale","recherche d\u0092information","interfaces graphiques"],"prmu":["M","M","M"]} {"id":"taln-2003-long-026","title":"Application d\u2019algorithmes de classification automatique pour la d\u00e9tection des contenus racistes sur l\u2019Internet","abstract":"Le filtrage de contenus illicites sur Internet est une probl\u00e9matique difficile qui est actuellement r\u00e9solue par des approches \u00e0 base de listes noires et de mots-cl\u00e9s. Les syst\u00e8mes de classification textuelle par apprentissage automatique n\u00e9cessitant peu d\u2019interventions humaines, elles peuvent avantageusement remplacer ou compl\u00e9ter les m\u00e9thodes pr\u00e9c\u00e9dentes pour faciliter les mises \u00e0 jour. Ces techniques, traditionnellement utilis\u00e9es avec des cat\u00e9gories d\u00e9finies par leur sujet (\u00e9conomie ou sport par exemple), sont fond\u00e9es sur la pr\u00e9sence ou l\u2019absence de mots. Nous pr\u00e9sentons une \u00e9valuation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas \u00eatre cat\u00e9goris\u00e9s suivant leur sujet mais suivant le point de vue \u00e9nonc\u00e9 (raciste ou antiraciste). Nos r\u00e9sultats montrent que les classifieurs, essentiellement lexicaux, sont n\u00e9anmoins bien adapt\u00e9es : plus de 90% des documents sont correctement class\u00e9s, voir m\u00eame 99% si l\u2019on accepte une classe de rejet (avec 20% d\u2019exemples non class\u00e9s).","translation":["","Filtering of illicit contents on the Internet is a difficult issue which is currently solved with black lists and keywords. Machine-learning text categorization techniques needing little human intervention can replace or complete the previous methods to keep the filtering up-to-date easily. These echniques, usually used with topic classes (economy or sport for instance), are based on the presence or absence of words.We present an evaluation of these techniques for racism filtering. Unlike the traditional systems, documents are not categorized according to their main topic but according to the expressed point of view (racist or anti-racist). Our results show that these lexical techniques are well adapted : more than 90% of the documents are correctly classified, or even 99% if a rejection class is accepted (20% of the examples are not classified).","Text classification, Rocchio, kNN, SVM, Internet, information filtering"],"keyphrases":["Classification automatique","Internet","Rocchio","kPPV","SVM","filtrage de l\u2019information"],"prmu":["P","P","U","U","U","M"]} {"id":"taln-2003-long-027","title":"Apprentissage de relations morphologiques en corpus","abstract":"Nous proposons une m\u00e9thode pour apprendre des relations morphologiques d\u00e9rivationnelles en corpus. Elle se fonde sur la cooccurrence en corpus de mots formellement proches et un filtrage compl\u00e9mentaire sur la forme des mots d\u00e9riv\u00e9s. Elle est mise en oeuvre et exp\u00e9riment\u00e9e sur un corpus m\u00e9dical. Les relations obtenues avant filtrage ont une pr\u00e9cision moyenne de 75,6 % au 5000\u00e8 rang (fen\u00eatre de 150 mots). L\u2019examen d\u00e9taill\u00e9 des d\u00e9riv\u00e9s adjectivaux d\u2019un \u00e9chantillon de 633 noms du champ de l\u2019anatomie montre une bonne pr\u00e9cision de 85\u201391 % et un rappel mod\u00e9r\u00e9 de 32\u201334 %. Nous discutons ces r\u00e9sultats et proposons des pistes pour les compl\u00e9ter.","translation":["","We propose a method to learn derivational morphological relations from a corpus. It relies on corpus cooccurrence of formally similar words, with additional filtering on the form of derived words. It is implemented and tested on a medical corpus. The relations obtained before filtering have an average precision of 75.6% at rank 5000 (150-word window). A detailed examination of derived adjectives for a sample of 633 anatomy nouns shows a good precision of 85\u201391% and a moderate recall of 32\u201334%. We discuss these results and propose directions for improvement.","Morphology, learning, corpus, specialized language, medicine"],"keyphrases":["apprentissage","Morphologie","corpus","langue de sp\u00e9cialit\u00e9","m\u00e9decine"],"prmu":["P","P","P","M","U"]} {"id":"taln-2003-poster-002","title":"Une m\u00e9tagrammaire pour les noms pr\u00e9dicatifs du fran\u00e7ais","abstract":"La grammaire FTAG du fran\u00e7ais a vu ces derni\u00e8res ann\u00e9es ses donn\u00e9es s\u2019accro\u00eetre tr\u00e8s fortement. D\u2019abord \u00e9crits manuellement, les arbres qui la composent, ont ensuite \u00e9t\u00e9 g\u00e9n\u00e9r\u00e9s semi-automatiquement gr\u00e2ce \u00e0 une M\u00e9tagrammaire, d\u00e9velopp\u00e9e tout sp\u00e9cialement. Apr\u00e8s la description des verbes en 1999, puis celle des adjectifs en 2001-2002, c\u2019est maintenant au tour des verbes supports et des noms pr\u00e9dicatifs de venir enrichir les descriptions syntaxiques de la grammaire. Apr\u00e8s un rappel linguistique et technique des notions de verbe support et de m\u00e9tagrammaire, cet article pr\u00e9sente les choix qui ont \u00e9t\u00e9 entrepris en vue de la description de ces nouvelles donn\u00e9es.","translation":["","We present here a new implementation of support verbs for the FTAG grammar, a french implementation of the Tree Adjoining Grammar model. FTAG has know over the years many improvements. (Candito, 1999) hence integrated an additional layer of syntactic representation within the system. The layer, we called MetaGrammar let us improve the syntactic coverage of our grammar by genrating semi-automatically thousands of new elementary trees.","Tree-Adjoining Grammars, FTAG, predicative noun, support verb constructions, metagrammar, constituency order"],"keyphrases":["m\u00e9tagrammaire","noms pr\u00e9dicatifs","FTAG","verbes supports","Grammaires d\u2019arbres adjoints","ordre des constituants"],"prmu":["P","P","P","P","M","M"]} {"id":"taln-2003-poster-003","title":"Remarques et perspectives sur les langages de pr\u00e9groupe d\u2019ordre 1\/2","abstract":"Cet article traite de l\u2019acquisition automatique des grammaires de Lambek, utilis\u00e9es pour la mod\u00e9lisation syntaxique des langues. R\u00e9cemment, des algorithmes ont \u00e9t\u00e9 propos\u00e9s dans le mod\u00e8le d\u2019apprentissage de Gold, pour certaines classes de grammaires cat\u00e9gorielles. En revenche, les grammaires de Lambek rigides ou k-valu\u00e9es ne sont pas apprenables \u00e0 partir des cha\u00eenes. Nous nous int\u00e9ressons ici au cas des grammaires de pr\u00e9groupe. Nous montrons que la classe des grammaires de pr\u00e9groupe n\u2019est pas apprenable \u00e0 partir des cha\u00eenes, m\u00eame si on limite fortement l\u2019ordre des types (ordre 1\/2) ; notre preuve revient \u00e0 construire un point limite pour cette classe.","translation":["","The article is concerned by the automatic acquistion of some grammars introduced by Lambek that are used for modeling the syntax of natural languages. Recently, some algorithms have been proposed in the model of Gold for several classes of categorial grammars. On the other hand, rigid or k-valued Lambek calculus grammars are not learnable from strings. We study here pregroup grammars. We prove that rigid grammars are not learnable from strings even if the order of types are bound by a constant (1\/2) ; Our proof gives a limit point for this class of grammars.","Automatic acquisition, grammatical inference, model of Gold, pregoup"],"keyphrases":["pr\u00e9groupe","Acquisition automatique","inf\u00e9rence grammaticale","mod\u00e8le de Gold"],"prmu":["P","P","U","R"]} {"id":"taln-2003-poster-004","title":"Indexation discursive pour la navigation intradocumentaire : cadres temporels et spatiaux dans l\u2019information g\u00e9ographique","abstract":"Cet article concerne la structuration automatique de documents par des m\u00e9thodes linguistiques. De telles proc\u00e9dures sont rendues n\u00e9cessaires par les nouvelles t\u00e2ches de recherche d\u2019information intradocumentaires (syst\u00e8mes de questions-r\u00e9ponses, navigation s\u00e9lective dans des documents...). Nous d\u00e9veloppons une m\u00e9thode exploitant la th\u00e9orie de l\u2019encadrement du discours de Charolles, avec une application vis\u00e9e en recherche d\u2019information dans les documents g\u00e9ographiques - d\u2019o\u00f9 l\u2019int\u00e9r\u00eat tout particulier port\u00e9 aux cadres spatiaux et temporels. Nous d\u00e9crivons une impl\u00e9mentation de la m\u00e9thode de d\u00e9limitation de ces cadres et son exploitation pour une t\u00e2che d\u2019indexation intratextuelle croisant les crit\u00e8res spatiaux et temporels avec des crit\u00e8res th\u00e9matiques.","translation":["","This paper proposes linguistics-based methods for the automatic identification of text segments. Such procedures are required by new tasks appearing in intra-document information retrieval (question-answer systems, selective browsing). Our method is based on Charolles\u2019 theory of discourse framing and focuses on temporal and spatial frames. We describe an implementation of our method for determining frame boundaries and its exploitation for intradocument indexing combining spatial, temporal and thematic criteria.","Automatic discourse analysis, Discourse framing, Information retrieval, Geographical documents"],"keyphrases":["Recherche d\u2019information","Document g\u00e9ographique","Analyse automatique de discours","Cadres de discours"],"prmu":["P","P","M","R"]} {"id":"taln-2003-poster-006","title":"Identification automatique des valeurs temporelles dans les textes","abstract":"Cet article pr\u00e9sente une application qui associe un certain nombre de valeurs s\u00e9mantiques \u00e0 des segments textuels en vue de proposer un traitement automatique de la temporalit\u00e9 dans les textes. Il s\u2019agit d\u2019automatiser une analyse s\u00e9mantique de surface \u00e0 l\u2019aide de r\u00e8gles heuristiques d\u2019exploration contextuelle et d\u2019une base organis\u00e9e de marqueurs linguistiques.","translation":["","This paper presents a system which associates semantic Values with textual segments in order to propose an automatic processing of temporality in texts. The purpose is to automate a semantic analysis driven with contextual exploration heuristic rules and an organized data base of linguistic markers.","Aspecto-temporal processing, time, temporality, contextual exploration, semantic analysis, linguistic resources"],"keyphrases":["temporalit\u00e9","analyse s\u00e9mantique de surface","exploration contextuelle","Traitement aspectuo-temporel","temps","ressources linguistiques"],"prmu":["P","P","P","M","U","M"]} {"id":"taln-2003-poster-007","title":"Structuration automatique de preuves math\u00e9matiques : de la logique \u00e0 la rh\u00e9torique","abstract":"Nous pr\u00e9sentons dans ses grandes lignes un mod\u00e8le de structuration de documents pour la g\u00e9n\u00e9ration automatique de preuves math\u00e9matiques. Le mod\u00e8le prend en entr\u00e9e des sorties d\u2019un prouveur automatique et vise \u00e0 produire des textes dont le style s\u2019approche le plus possible des d\u00e9monstrations r\u00e9dig\u00e9es par des humains. Cela implique la mise au point d\u2019une strat\u00e9gie de planification de document capable de s\u2019\u00e9carter de la structure purement logique de la preuve. La solution que nous proposons consiste \u00e0 int\u00e9grer de mani\u00e8re simple des informations de type intentionnel afin d\u2019enrichir la structure rh\u00e9torique finale du texte.","translation":["","","NLG, content determination, description logics, document structuring, SDRT"],"keyphrases":["structuration de document","G\u00e9n\u00e9ration automatique de textes","d\u00e9termination de contenu","logiques de description","SDRT"],"prmu":["P","R","M","M","U"]} {"id":"taln-2003-poster-008","title":"CoRRecT : D\u00e9marche coop\u00e9rative pour l\u2019\u00e9valuation de syst\u00e8mes de reconnaissance de termes","abstract":"La reconnaissance de termes dans les textes intervient dans de nombreux domaines du Traitement Automatique des Langues Naturelles, qu\u2019il s\u2019agisse d\u2019indexation automatique, de traduction, ou d\u2019extraction de connaissances. Nous pr\u00e9sentons une m\u00e9thodologie d\u2019\u00e9valuation de Syst\u00e8mes de Reconnaissance de Termes (SRT) qui vise \u00e0 minimiser le temps d\u2019expertise des sp\u00e9cialistes en faisant coop\u00e9rer des SRT. La m\u00e9thodologie est mise en oeuvre sur des textes en anglais dans le domaine de la chimie des m\u00e9taux et \u00e0 l\u2019aide de deux SRT : FASTR et SYRETE. Le banc de test construit selon cette m\u00e9thodologie a permis de valider les SRT et d\u2019\u00e9valuer leurs performances en termes de rappel et de pr\u00e9cision.","translation":["","Recognizing terms in texts is useful in many Natural Language Processing applications : automatic indexation, summarization, translation, or knowledge extraction. We present a new methodology to evaluate Term Recognition Systems (TRS) so as to minimize the time required by experts to evaluate the results. This is done by making several TRS cooperate. This methodology is applied on English texts on metal chemistry with two systems : FASTR and SYRETE. The test bank we compiled evaluated the two systems and calculated the recall and precision rates.","Recognition of terms, Term Recognition System, TRS, FASTR, SYRETE"],"keyphrases":["Reconnaissance de termes","SRT","FASTR","SYRETE","\u00e9valuation de la reconnaissance de termes"],"prmu":["P","P","P","P","R"]} {"id":"taln-2003-poster-009","title":"Filtrage th\u00e9matique d\u2019un r\u00e9seau de collocations","abstract":"Les r\u00e9seaux lexicaux de type WordNet pr\u00e9sentent une absence de relations de nature th\u00e9matique, relations pourtant tr\u00e8s utiles dans des t\u00e2ches telles que le r\u00e9sum\u00e9 automatique ou l\u2019extraction d\u2019information. Dans cet article, nous proposons une m\u00e9thode visant \u00e0 construire automatiquement \u00e0 partir d\u2019un large corpus un r\u00e9seau lexical dont les relations sont pr\u00e9f\u00e9rentiellement th\u00e9matiques. En l\u2019absence d\u2019utilisation de ressources de type dictionnaire, cette m\u00e9thode se fonde sur un principe d\u2019auto-amor\u00e7age : un r\u00e9seau de collocations est d\u2019abord construit \u00e0 partir d\u2019un corpus puis filtr\u00e9 sur la base des mots du corpus que le r\u00e9seau initial a permis de s\u00e9lectionner. Nous montrons au travers d\u2019une \u00e9valuation portant sur la segmentation th\u00e9matique que le r\u00e9seau final, bien que de taille bien inf\u00e9rieure au r\u00e9seau initial, permet d\u2019obtenir les m\u00eames performances que celui-ci pour cette t\u00e2che.","translation":["","Lexical networks such as WordNet are known to have a lack of topical relations although these ones are very useful for tasks such as text summarization or information extraction. In this article, we present a method for automatically building from a large corpus a lexical network whose relations are preferably topical ones. As it does not rely on resources such as dictionaries, this method is based on self-bootstrapping: a collocation network is first built from a corpus and then, is filtered by using the words of the corpus that are selected by the initial network. We report an evaluation about topic segmentation showing that the results got with the filtered network are the same as the results got with the initial network although the first one is signicantly smaller than the second one.","Collocations, lexical cooccurrences, topical lexical networks, topic analysis"],"keyphrases":["Collocations","cooccurrences lexicales","r\u00e9seaux lexicaux th\u00e9matiques","analyse th\u00e9matique"],"prmu":["P","M","R","M"]} {"id":"taln-2003-poster-010","title":"Une m\u00e9thode non supervis\u00e9e d\u2019apprentissage sur le Web pour la r\u00e9solution d\u2019ambigu\u00eft\u00e9s structurelles li\u00e9es au rattachement pr\u00e9positionnel","abstract":"Dans cet article, nous proposons une m\u00e9thode non supervis\u00e9e d\u2019apprentissage qui permet d\u2019am\u00e9liorer la d\u00e9sambigu\u00efsation du rattachement pr\u00e9positionnel dans le cadre d\u2019un analyseur robuste \u00e0 base de r\u00e8gles pour le fran\u00e7ais. Les rattachements ambigus d\u2019une premi\u00e8re analyse sont transform\u00e9s en requ\u00eates sur leWeb dans le but de cr\u00e9er un grand corpus qui sera analys\u00e9 et d\u2019o\u00f9 seront extraites automatiquement des informations lexicales et statistiques sur les rattachements. Ces informations seront ensuite utilis\u00e9es dans une deuxi\u00e8me analyse pour lever les ambigu\u00eft\u00e9s des rattachements. L\u2019avantage d\u2019une telle m\u00e9thode est la prise en compte de cooccurrences syntaxiques et non pas des cooccurrences purement textuelles. En effet, les mesures statistiques (poids) sont associ\u00e9es \u00e0 des mots apparaissant initialement dans une m\u00eame relation de d\u00e9pendance, c\u2019est-\u00e0-dire, des attachements produits par le parseur lors d\u2019une premi\u00e8re analyse.","translation":["","In this paper we describe an unsupervised method which improves the disambiguation of prepositional attachments in an existing rule-based dependency parser for French. The results obtained after a first analysis (ambiguous attachments) are transformed into queries to the Web in order to obtain a very big corpus. This big corpus being parsed, lexical and statistical information is extracted to create a database that will be used in a second analysis to disambiguate conflictual attachments. The advantage of such a method is to take into account syntactic cooccurrences as opposed to rough textual co-occurrences. That means that statistical measures (weights) are associated to words already co-occurring in a dependency relation, that is, attachments yield by the parser after a first analysis.","Robust parsing, dependency grammars, unsupervised learning, prepositional phrase attachment resolution"],"keyphrases":["d\u00e9sambigu\u00efsation du rattachement pr\u00e9positionnel","Analyse syntaxique robuste","grammaires de d\u00e9pendances","apprentissage non supervis\u00e9"],"prmu":["P","R","M","R"]} {"id":"taln-2003-poster-011","title":"Bases de connaissances pour asseoir la cr\u00e9dibilit\u00e9 des r\u00e9ponses d\u2019un syst\u00e8me de Q\/R","abstract":"Cet article pr\u00e9sente un prototype de Question\/R\u00e9ponse (Q\/R) impliquant un ensemble de bases de connaissances (BC) dont l\u2019objectif est d\u2019apporter un cr\u00e9dit suppl\u00e9mentaire aux r\u00e9ponses candidates trouv\u00e9es. Ces BC et leur influence sur la strat\u00e9gie d\u0092ordonnancement mise en \u009cuvre sont d\u00e9crites dans le cadre de la participation du syst\u00e8me \u00e0 la campagne Q\/R de TREC-2002.","translation":["","This paper presents a Question-Answering system using Knowledge Databases (KDB) to validate answers candidates.","Question Answering system, Knowledge Databases"],"keyphrases":["Bases de Connaissances","Syst\u00e8me de Question\/R\u00e9ponse"],"prmu":["P","R"]} {"id":"taln-2003-poster-012","title":"Un logiciel pour la mise au point de grammaires pour le filtrage d\u2019information en arabe (cas de l\u2019information citationnelle)","abstract":"Nous pr\u00e9sentons dans ce travail un logiciel de mise au point de grammaires pour le traitement morpho-syntaxique de l\u2019arabe et l\u2019\u00e9tablissement de grammaires pour le filtrage et l\u2019extraction d\u2019information en arabe. Ce logiciel est fond\u00e9 sur le principe des automates. L\u2019analyse morpho-syntaxique de l\u2019arabe est r\u00e9alis\u00e9 sans le recours au lexique.","translation":["","We present in this work a software of grammars development for the arabic morpho-syntactical processing and for the construction of filtering grammars and information retrieval. This software is founded on the automata. It can parse arabic text without lexicon.","Sarfiyya, Arabic processing, automaton, information retrieval"],"keyphrases":["filtrage d\u2019information","automate","Sarfiyya","traitement automatique de l\u2019arabe","citation"],"prmu":["P","P","U","R","U"]} {"id":"taln-2003-poster-014","title":"MDA-XML : une exp\u00e9rience de r\u00e9daction contr\u00f4l\u00e9e multilingue bas\u00e9e sur XML","abstract":"Nous d\u00e9crivons dans cet article l\u2019implantation d\u2019un syst\u00e8me de r\u00e9daction contr\u00f4l\u00e9e multilingue dans un environnement XML. Avec ce syst\u00e8me, un auteur r\u00e9dige interactivement un texte se conformant \u00e0 des r\u00e8gles de bonne formation aux niveaux du contenu s\u00e9mantique et de la r\u00e9alisation linguistique d\u00e9crites par un sch\u00e9ma XML. Nous discutons les avantages de cette approche ainsi que les difficult\u00e9s rencontr\u00e9es lors du d\u00e9veloppement de ce syst\u00e8me. Nous concluons avec un exemple d\u2019application \u00e0 une classe de documents pharmaceutiques.","translation":["","We describe an XML implementation of a multilingual authoring system. Using this system, an author can interactively write a text conforming to well-formedness content and realization rules described by an XML schema. We discuss the advantages of such an approach as well as the problems we met during the implementation of our system. We show in the end an example of an application for a class of pharmaceutical documents.","multilingual controlled authoring, XML"],"keyphrases":["XML","r\u00e9daction contr\u00f4l\u00e9e multilingue"],"prmu":["P","P"]} {"id":"taln-2003-poster-015","title":"Apport d\u0092un mod\u00e8le de langage statistique pour la reconnaissance de l\u0092\u00e9criture manuscrite en ligne","abstract":"Dans ce travail, nous \u00e9tudions l\u0092apport d\u0092un mod\u00e8le de langage pour am\u00e9liorer les performances des syst\u00e8mes de reconnaissance de l\u0092\u00e9criture manuscrite en-ligne. Pour cela, nous avons explor\u00e9 des mod\u00e8les bas\u00e9s sur des approches statistiques construits par apprentissage sur des corpus \u00e9crits. Deux types de mod\u00e8les ont \u00e9t\u00e9 \u00e9tudi\u00e9s : les mod\u00e8les n-grammes et ceux de type n-classes. En vue de l\u0092int\u00e9gration dans un syst\u00e8me de faible capacit\u00e9 (engin nomade), un mod\u00e8le n-classe combinant crit\u00e8res syntaxiques et contextuels a \u00e9t\u00e9 d\u00e9fini, il a permis d\u0092obtenir des r\u00e9sultats surpassant ceux donn\u00e9s avec un mod\u00e8le beaucoup plus lourd de type n-gramme. Les r\u00e9sultats pr\u00e9sent\u00e9s ici montrent qu\u0092il est possible de prendre en compte les sp\u00e9cificit\u00e9s d\u0092un langage en vue de reconna\u00eetre l\u0092\u00e9criture manuscrite avec des mod\u00e8les de taille tout \u00e0 fait raisonnable.","translation":["","This works highlights the interest of a language model in increasing the performances of on-line handwriting recognition systems. Models based on statistical approaches, trained on written corpora, have been investigated. Two kinds of models have been studied: n-gram models and n-class models. In order to integrate it into small capacity systems (mobile device), a n-class model has been designed by combining syntactic and contextual criteria. It outperforms bulkier models based on n-gram. The results we obtain show that it is possible to take advantage of language specificities to recognize handwritten sentences by using reasonable size models.","Handwriting recognition, language modelling, n-gram, n-class, perplexity"],"keyphrases":["mod\u00e8le de langage","Reconnaissance de l\u0092\u00e9criture manuscrite","n-gramme","n-classe","perplexit\u00e9"],"prmu":["P","P","P","P","U"]} {"id":"taln-2003-poster-016","title":"Prototypage rapide et \u00e9valuation de mod\u00e8les de dialogue finalis\u00e9s","abstract":"L\u2019objectif de cette contribution est de pr\u00e9senter l\u2019int\u00e9gration de la notion d\u2019\u00e9valuation dans la m\u00e9thodologie de prototypage rapide de mod\u00e8les de dialogue d\u00e9velopp\u00e9e et mise en oeuvre dans le cadre du projet InfoVox. L\u2019id\u00e9e centrale de cette m\u00e9thodologie est de d\u00e9river un mod\u00e8le de dialogue op\u00e9rationnel directement \u00e0 partir du mod\u00e8le de la t\u00e2che \u00e0 laquelle il est associ\u00e9. L\u2019int\u00e9gration syst\u00e9matique de diff\u00e9rents aspects de l\u2019\u00e9valuation dans le processus de prototypage est alors utile afin d\u2019identifier, d\u00e8s la phase de conception, les qualit\u00e9s et d\u00e9fauts de l\u2019interface. Toutes les conclusions pr\u00e9sent\u00e9es seront illustr\u00e9es par des r\u00e9sultats concrets obtenus au cours d\u2019exp\u00e9riences r\u00e9alis\u00e9es dans le cadre du projet InfoVox.","translation":["","",""],"keyphrases":["Prototypage Rapide","Evaluation","Dialogue Homme-Machine","Wizard-of-Oz"],"prmu":["P","U","M","U"]} {"id":"taln-2003-poster-018","title":"Le traitement automatique de la langue contre les erreurs judiciaires : une m\u00e9thodologie d\u0092analyse syst\u00e9matique des textes d\u0092un dossier d\u0092instruction","abstract":"Cet article pr\u00e9sente une m\u00e9thode d\u0092analyse syst\u00e9matique et scientifique des documents constituant un dossier d\u0092instruction. L\u0092objectif de cette approche est de pouvoir donner au juge d\u0092instruction de nouveaux moyens pour \u00e9valuer la coh\u00e9rence, les incoh\u00e9rences, la stabilit\u00e9 ou les variations dans les t\u00e9moignages. Cela doit lui permettre de d\u00e9finir des pistes pour mener de nouvelles investigations. Nous d\u00e9crivons les travaux que nous avons r\u00e9alis\u00e9s sur un dossier r\u00e9el puis nous proposons une m\u00e9thode d\u0092analyse des r\u00e9sultats.","translation":["","This article presents a systematic and scientific method to analyse the set of documents that constitutes a file of instruction. The goal of this approach is to give the examining magistrate new means to estimate the coherence, the incoherence, the stability or the variations in the testimonies. This analysis should help him in identifying the needs for new investigations. We applied our method to a real file and then we propose a way to read the results.","Text categorisation, text synthesis, text questionning, cognitive treatment of texts, Justice and natural language processing"],"keyphrases":["traitement automatique de la langue","dossier d\u0092instruction","Cat\u00e9gorisation","synth\u00e8se","questionnabilit\u00e9 d\u0092un texte","traitement cognitifs d\u0092un texte","Justice"],"prmu":["P","P","U","U","M","M","U"]} {"id":"taln-2003-poster-019","title":"Le contexte au service de la correction des graphies fautives arabes","abstract":"Les mots arabes sont lexicalement beaucoup plus proches les uns des autres que les mots fran\u00e7ais et anglais. Cette proximit\u00e9 a pour effet un grand nombre de propositions \u00e0 la correction d'une forme erron\u00e9e arabe. Nous proposons dans cet article une m\u00e9thode qui prend en consid\u00e9ration le contexte de l'erreur pour \u00e9liminer certaines propositions donn\u00e9es par le correcteur. Le contexte de l'erreur sera dans un premier temps les mots voisinant l'erreur et s'\u00e9tendra jusqu'\u00e0 l'ensemble des mots du texte contenant l'erreur. Ayant \u00e9t\u00e9 test\u00e9e sur un corpus textuel contenant des erreurs r\u00e9elles, la m\u00e9thode que nous proposons aura permis de r\u00e9duire le nombre moyen de propositions d'environ 75% (de 16,8 \u00e0 3,98 propositions en moyenne).","translation":["","Arabic words are lexically closer to each other than can be English or French words. This proximity mainly results a great number of candidates given by a spelling corrector when processing an erroneous word. We address in this paper a new method aiming to reduce the number of proposals given by automatic Arabic spelling correction tools. We suggest the use of error's context in order to eliminate some correction candidates. Context will be nearby words and can be extended to all words in the text. Our method was tested on a corpus containing genuine errors and has yield good results. The average number of proposals has been reduced of about 75% (from 16,8 to 3,98 proposals on average).","Language, Arabic, Misspelled word, Automatic correction, Context"],"keyphrases":["Contexte","Arabe","Langue","Erreur orthographique","Correction automatique"],"prmu":["P","P","U","M","M"]} {"id":"taln-2003-tutoriel-001","title":"Introduction \u00e0 la traduction guid\u00e9e par l\u2019exemple (Traduction par analogie)","abstract":"Le nombre d\u2019approches en traduction automatique s\u2019est multipli\u00e9 dans les derni\u00e8res ann\u00e9es. Il existe entre autres la traduction par r\u00e8gles, la traduction statistique et la traduction guid\u00e9e par l\u2019exemple. Dans cet article je decris les approches principales en traduction automatique. Je distingue les approches qui se basent sur des r\u00e8gles obtenues par l\u2019inspection des approches qui se basent sur des exemples de traduction. La traduction guid\u00e9e par l\u2019exemple se caract\u00e9rise par la phrase comme unit\u00e9 de traduction id\u00e9ale. Une nouvelle traduction est g\u00e9ner\u00e9e par analogie : seulement les parties qui changent par rapport \u00e0 un ensemble de traductions connues sont adapt\u00e9es, modifi\u00e9es ou substitu\u00e9es. Je pr\u00e9sente quelques techniques qui ont \u00e9t\u00e9 utilis\u00e9es pour ce faire. Je discuterai un syst\u00e8me sp\u00e9cifique, EDGAR, plus en detail. Je d\u00e9montrerai comment des textes traduits align\u00e9s peuvent \u00eatre prepar\u00e9s en termes de compilation pour extraire des unit\u00e9s de traduction sous-phrastiques. Je pr\u00e9sente des r\u00e9sultats en traduction Anglais -> Fran\u00e7ais produits avec le syst\u00e8me EDGAR en les comparant avec ceux d\u2019un syst\u00e8me statistique.","translation":["","In this paper I characterize a number of machine translation approaches: rule-based machine translation (RBMT), statistical machine translation (SMT) and example-based machine translation (EBMT). While RBMT systems make use of hand-build rules, SMT and EBMT systems explore and re-use a set of reference translations. EBMT systems are rooted in analogical reasoning, where the ideal translation unit is the sentence. Only if an identical sentence cannot be found in the reference material, EBMT systems modify, substitute and adapt sequences of the retrieved examples to generate a suitable translation. I discuss runtime and compilation time techniques and I present a system, EDGAR, in more detail. I show how translation units are extracted off-line and how they are re-used during translation. The description of a series of experiments for the translation English -> French conclude this paper. An extended bibliography provides further pointer for interested readers.","example-based machine translation, analogical translation, statistical machine translation, induction of translation grammar"],"keyphrases":["traduction guid\u00e9e par l\u2019exemple","traduction par analogie","traduction statistique","induction de grammaire de traduction"],"prmu":["P","P","P","M"]} {"id":"taln-2003-tutoriel-002","title":"Construction d\u0092ontologies \u00e0 partir de textes","abstract":"Cet article constitue le support d\u0092un cours pr\u00e9sent\u00e9 lors de la conf\u00e9rence TALN 2003. Il d\u00e9fend la place du Traitement Automatique des Langues comme discipline cl\u00e9 pour le d\u00e9veloppement de ressources termino-ontologiques \u00e0 partir de textes. Les contraintes et enjeux de ce processus sont identifi\u00e9s, en soulignant l\u0092importance de consid\u00e9rer cette t\u00e2che comme un processus supervis\u00e9 par un analyste. Sont pr\u00e9sent\u00e9s un certain nombre d\u0092outils logiciels et m\u00e9thodologiques venant de plusieurs disciplines comme le TAL et l\u0092ing\u00e9nierie des connaissances qui peuvent aider l\u0092analyste dans sa t\u00e2che. Divers retours d\u0092exp\u00e9rience sont pr\u00e9sent\u00e9s.","translation":["","This paper gathers the notes of a tutorial. We advocate in favour of the role of Natural Language Processing as a key discipline for the development of terminological and ontological resources from texts. The constraints and challenges of this process are identified, and lead to underline this task as a supervised processes carried out by an analyst. We present several software and methodological tools from NLP and knowledge engineering that can be use for to assist the analyst. Our suggestion rely on various experience feed-back.","Term extraction, relation extraction, Terminology, ontologies, Knowledge Engineering, method, knowledge modelling, crossdisciplinarity"],"keyphrases":["Extraction de termes","extraction de relations","Terminologie","Ontologies","Ing\u00e9nierie des connaissances","m\u00e9thode","mod\u00e9lisation de connaissances","interdisciplinarit\u00e9"],"prmu":["M","M","U","U","M","U","M","U"]} {"id":"taln-2002-long-001","title":"Analyse Factorielle Neuronale pour Documents Textuels","abstract":"En recherche documentaire, on repr\u00e9sente souvent les documents textuels par des vecteurs lexicaux de grande dimension qui sont redondants et co\u00fbteux. Il est utile de r\u00e9duire la dimension des ces repr\u00e9sentations pour des raisons \u00e0 la fois techniques et s\u00e9mantiques. Cependant les techniques classiques d'analyse factorielle comme l'ACP ne permettent pas de traiter des vecteurs de tr\u00e8s grande dimension. Nous avons alors utilis\u00e9 une m\u00e9thode adaptative neuronale (GHA) qui s'est r\u00e9v\u00e9l\u00e9e efficace pour calculer un nombre r\u00e9duit de nouvelles dimensions repr\u00e9sentatives des donn\u00e9es. L'approche nous a permis de classer un corpus r\u00e9el de pages Web avec de bons r\u00e9sultats.","translation":["","For document retrieval purposes, documents are often represented by high-dimensional lexical vectors, which are costly and redundant. Reducing vector dimensionality is then useful for both technical and semantic reasons. Classical data analysis methods such as PCA cannot unfortunately process vectors of very high dimension. We have used instead an adaptive neural network technique, the Generalized Hebbian Algorithm (GHA), which makes it possible to reduce high-dimension spaces. This approach allowed us to cluster areal end-user corpus of Web pages with very significant results.","Information retrieval, vector-space model, dimensionality reduction, data analysis, PCA, GHA, neural networks"],"keyphrases":["analyse factorielle","Recherche documentaire","ACP","GHA","mod\u00e8le vectoriel","r\u00e9duction de dimension","r\u00e9seaux de neurones"],"prmu":["P","P","P","P","U","M","M"]} {"id":"taln-2002-long-002","title":"Ressources terminologiques et traduction probabiliste: premiers pas positifs vers un syst\u00e8me adaptatif","abstract":"Cette derni\u00e8re d\u00e9cennie a \u00e9t\u00e9 le t\u00e9moin d\u2019importantes avanc\u00e9es dans le domaine de la traduction statistique (TS). Aucune \u00e9valuation fine n\u2019a cependant \u00e9t\u00e9 propos\u00e9e pour mesurer l\u2019ad\u00e9quation de l\u2019approche statistique dans un contexte applicatif r\u00e9el. Dans cette \u00e9tude, nous \u00e9tudions le comportement d\u2019un engin de traduction probabiliste lorsqu\u2019il traduit un texte de nature tr\u00e8s \u00e9loign\u00e9e de celle du corpus utilis\u00e9 lors de l\u2019entra\u00eenement. Nous quantifions en particulier la baisse de performance du syst\u00e8me et d\u00e9veloppons l\u2019id\u00e9e que l\u2019int\u00e9gration de ressources terminologiques dans le processus est une solution naturelle et salutaire \u00e0 la traduction. Nous d\u00e9crivons cette int\u00e9gration et \u00e9valuons son potentiel.","translation":["","The past decade witnessed exciting work in the field of Statistical Machine Translation (SMT). However, accurate evaluation of its potential in a real-life context is still a questionable issue. In this study, we investigate the behavior of a SMT engine faced with a corpus far different from the one it has been trained on. We show that terminological databases are obvious ressources that should be used to boost the performance of a statistical engine. We propose and evaluate a way of integrating terminology into a SMT engine which yields a significant reduction in word error rate.","Statistical machine translation, adaptativity, terminology"],"keyphrases":["terminologie","Traduction statistique","adapatabilit\u00e9"],"prmu":["P","P","U"]} {"id":"taln-2002-long-003","title":"Accentuation de mots inconnus : application au thesaurus biom\u00e9dical MeSH","abstract":"Certaines ressources textuelles ou terminologiques sont \u00e9crites sans signes diacritiques, ce qui freine leur utilisation pour le traitement automatique des langues. Dans un domaine sp\u00e9cialis\u00e9 comme la m\u00e9decine, il est fr\u00e9quent que les mots rencontr\u00e9s ne se trouvent pas dans les lexiques \u00e9lectroniques disponibles. Se pose alors la question de l\u2019accentuation de mots inconnus : c\u2019est le sujet de ce travail. Nous proposons deux m\u00e9thodes d\u2019accentuation de mots inconnus fond\u00e9es sur un apprentissage par observation des contextes d\u2019occurrence des lettres \u00e0 accentuer dans un ensemble de mots d\u2019entra\u00eenement, l\u2019une adapt\u00e9e de l\u2019\u00e9tiquetage morphosyntaxique, l\u2019autre adapt\u00e9e d\u2019une m\u00e9thode d\u2019apprentissage de r\u00e8gles morphologiques. Nous pr\u00e9sentons des r\u00e9sultats exp\u00e9rimentaux pour la lettre e sur un thesaurus biom\u00e9dical en fran\u00e7ais : le MeSH. Ces m\u00e9thodes obtiennent une pr\u00e9cision de 86 \u00e0 96 % (+-4 %) pour un rappel allant de 72 \u00e0 86 %.","translation":["","Some textual or terminological resources are written without diacritic marks, which hinders their use for natural language processing. Moreover, in a specialized domain such as medicine, all words are not always found in the available lexicons. The issue of accenting unknown words then arises. This is the subject of the present work. We propose two accentuation methods which both rely on a learning process, based on the observation of the contexts of occurrence of the accentuable letters in a training corpus. One is adapted from a part-of-speech tagging method, the other from a method for learning morphological rules. We present experimental results for letter e on a French biomedical thesaurus: the MeSH. These methods obtain a precision which ranges from 86 to 96% (+-4 %) and a recall from 72 to 86%.","Reaccenting, unknown words, tagging, specialized language, medicine"],"keyphrases":["mots inconnus","m\u00e9decine","\u00e9tiquetage","R\u00e9accentuation","langue de sp\u00e9cialit\u00e9"],"prmu":["P","P","P","U","M"]} {"id":"taln-2002-long-004","title":"Une m\u00e9thode pour l'analyse descendante et calculatoire de corpus multilingues : application au calcul des relations sujet-verbe","abstract":"Nous pr\u00e9sentons une m\u00e9thode d'analyse descendante et calculatoire. La d\u00e9marche d'analyse est descendante du document \u00e0 la proposition, en passant par la phrase. Le prototype pr\u00e9sent\u00e9 prend en entr\u00e9e des documents en anglais, fran\u00e7ais, italien, espagnol, ou allemand. Il segmente les phrases en propositions, et calcule les relations sujet-verbe dans les propositions. Il est calculatoire, car il ex\u00e9cute un petit nombre d'op\u00e9rations sur les donn\u00e9es. Il utilise tr\u00e8s peu de ressources (environ 200 mots et locutions par langue), et le traitement de la phrase fait environ 60 Ko de Perl, ressources lexicales comprises. La m\u00e9thode pr\u00e9sent\u00e9e se situe dans le cadre d'une recherche plus g\u00e9n\u00e9rale du Groupe Syntaxe et Ing\u00e9nierie Multilingue du GREYC sur l'exploration de solutions minimales et multilingues, ajust\u00e9es \u00e0 une t\u00e2che donn\u00e9e, exploitant peu de propri\u00e9t\u00e9s linguistiques profondes, la g\u00e9n\u00e9ricit\u00e9 allant de pair avec l'efficacit\u00e9.","translation":["","We present a method for top-down and calculatory parsing. The prototype we present is top-down from the document to the clause, through the sentence. Its inputs are documents in English, French, Italian, Spanish, or German. It tokenises sentences into clauses, and computes subject-verb links inside clauses. It is calculatory, as it executes few operations on data. It uses very few resources (about 200 words or locutions per natural language), and the sentence processing size is about 60 Kb Perl, including lexical resources. This method takes place in the frame of more general researches of the \"Groupe Syntaxe et Ing\u00e9nierie Multilingue du GREYC\" into exploring minimal and multilingual solutions, close fitted to a given task, exploiting few deep linguistic properties, presuming that genericity implies efficiency.","top-down parsing, calculatory parsing, multilingual corpora"],"keyphrases":["analyse descendante","corpus multilingues","analyse syntaxique","analyse calculatoire"],"prmu":["P","P","R","R"]} {"id":"taln-2002-long-005","title":"UPERY : un outil d'analyse distributionnelle \u00e9tendue pour la construction d\u2019ontologies \u00e0 partir de corpus","abstract":"Nous pr\u00e9sentons un module mettant en oeuvre une m\u00e9thode d'analyse distributionnelle dite \"\u00e9tendue\". L'analyseur syntaxique de corpus SYNTEX effectue l'analyse en d\u00e9pendance de chacune des phrases du corpus, puis construit un r\u00e9seau de mots et syntagmes, dans lequel chaque syntagme est reli\u00e9 \u00e0 sa t\u00eate et \u00e0 ses expansions. A partir de ce r\u00e9seau, le module d'analyse distributionnelle UPERY construit pour chaque terme du r\u00e9seau l'ensemble de ses contextes syntaxiques. Les termes et les contextes syntaxiques peuvent \u00eatre simples ou complexes. Le module rapproche ensuite les termes, ainsi que les contextes syntaxiques, sur la base de mesures de proximit\u00e9 distributionnelle. L'ensemble de ces r\u00e9sultats est utilis\u00e9 comme aide \u00e0 la construction d'ontologie \u00e0 partir de corpus sp\u00e9cialis\u00e9s.","translation":["","We present a software that implements a method of \"extended\" distributional analysis. The corpus syntactic analyser SYNTEX yields a dependency syntactic analyse of each sentence of the corpus. It builds a network of words and phrases in which each phrase is connected to its head and its expansion. The distributional analysis module UPERY relies on this network to associate to each term in the network a set of syntactic contexts. Syntactic contexts as well as terms may be simple or complex. The UPERY module calculates distributional proximities between terms as well as between contexts. The results are used for the building of ontological resources from specialized corpora.","parsing, distributional analysis, corpus, ontology, terminology"],"keyphrases":["analyse distributionnelle","ontologie","corpus","analyse syntaxique automatique","terminologie"],"prmu":["P","P","P","M","U"]} {"id":"taln-2002-long-006","title":"Construire des analyseurs avec DyALog","abstract":"Cet article survole les fonctionnalit\u00e9s offertes par le syst\u00e8me DyALog pour construire des analyseurs syntaxiques tabulaires. Offrant la richesse d\u2019un environnement de programmation en logique, DyALog facilite l\u2019\u00e9criture de grammaires, couvre plusieurs formalismes et permet le param\u00e9trage de strat\u00e9gies d\u2019analyse.","translation":["","This paper is a survey of the functionalities provided by system DyALog to build tabular parsers. Providing the expressiveness of logic programming, DyALog eases the development of grammars, covers several linguistic formalisms, and allows the parametrization of parsing strategies.","Parsing, Tabulation, DCG, TAG, RCG, BMG, TFS"],"keyphrases":["Analyse Syntaxique","Tabulation","DCG","TAG","RCG","BMG","TFS"],"prmu":["R","U","U","U","U","U","U"]} {"id":"taln-2002-long-007","title":"Une grammaire hors-contexte valu\u00e9e pour l\u2019analyse syntaxique","abstract":"Les grammaires hors-contexte stochastiques sont exploit\u00e9es par des algorithmes particuli\u00e8rement efficaces dans des t\u00e2ches de reconnaissance de la parole et d\u2019analyse syntaxique. Cet article propose une autre probabilisation de ces grammaires, dont les propri\u00e9t\u00e9s math\u00e9matiques semblent intuitivement plus adapt\u00e9es \u00e0 ces t\u00e2ches que celles des SCFG (Stochastique CFG), sans n\u00e9cessiter d\u2019algorithme d\u2019analyse sp\u00e9cifique. L\u2019utilisation de ce mod\u00e8le en analyse sur du texte provenant du corpus Susanne peut r\u00e9duire de 33% le nombre d\u2019analyses erron\u00e9es, en comparaison avec une SCFG entra\u00een\u00e9e dans les m\u00eames conditions.","translation":["","Weighted Context-Free Grammars can be used for speech recognition or syntactic analysis thanks to especially efficient algorithms. In this paper, we propose an instanciation of such a grammar, whose mathematical properties are intuitively more suitable for those tasks than SCFG\u2019s (Stochastic CFG), without requiring specific analysis algorithms. Results on Susanne text show that up to 33% of analysis errors made by a SCFG can be avoided with this model.","statistical learning, Syntax, Context-free grammars"],"keyphrases":["Syntaxe","SCFG","linguistique math\u00e9matique","apprentissage statistique","Gibbs"],"prmu":["P","P","M","U","U"]} {"id":"taln-2002-long-008","title":"Extraction d\u2019informations \u00e0 partir de corpus d\u00e9grad\u00e9s","abstract":"Nous pr\u00e9sentons une m\u00e9thode automatique d\u2019extraction d\u2019information \u00e0 partir d\u2019un corpus mono-domaine de mauvaise qualit\u00e9, sur lequel il est impossible d\u2019appliquer les m\u00e9thodes classiques de traitement de la langue naturelle. Cette approche se fonde sur la construction d\u2019une ontologie semi-formelle (mod\u00e9lisant les informations contenues dans le corpus et les relations entre elles). Notre m\u00e9thode se d\u00e9roule en trois phases : 1) la normalisation du corpus, 2) la construction de l\u2019ontologie, et 3) sa formalisation sous la forme d\u2019une grammaire. L\u2019extraction d\u2019information \u00e0 proprement parler exploite un \u00e9tiquetage utilisant les r\u00e8gles d\u00e9finies par la grammaire. Nous illustrons notre d\u00e9marche d\u2019une application sur un corpus bancaire.","translation":["","We present an information extraction automatic method from poor quality specific-domain corpus (with which it is impossible to apply classical natural language methods). This approach is based on building a semi-formal ontology in order to modelise information present in the corpus and their relation. Our method happens in three stage : 1) corpus normalisation, 2) ontology building and 3) model formalisation in grammar. The information extraction itself is made by a tagging process using grammar rules. We illustrate our approach by an application working on a bank corpus.","Information extraction, modelling, building ontology, poor quality corpus"],"keyphrases":["Extraction d\u2019information","corpus d\u00e9grad\u00e9s","mod\u00e9lisation","construction d\u2019ontologie"],"prmu":["P","P","P","R"]} {"id":"taln-2002-long-009","title":"Identification th\u00e9matique hi\u00e9rarchique : Application aux forums de discussions","abstract":"Les mod\u00e8les statistiques du langage ont pour but de donner une repr\u00e9sentation statistique de la langue mais souffrent de nombreuses imperfections. Des travaux r\u00e9cents ont montr\u00e9 que ces mod\u00e8les peuvent \u00eatre am\u00e9lior\u00e9s s\u2019ils peuvent b\u00e9n\u00e9ficier de la connaissance du th\u00e8me trait\u00e9, afin de s\u2019y adapter. Le th\u00e8me du document est alors obtenu par un m\u00e9canisme d\u2019identification th\u00e9matique, mais les th\u00e8mes ainsi trait\u00e9s sont souvent de granularit\u00e9 diff\u00e9rente, c\u2019est pourquoi il nous semble opportun qu\u2019ils soient organis\u00e9s dans une hi\u00e9rarchie. Cette structuration des th\u00e8mes implique la mise en place de techniques sp\u00e9cifiques d\u2019identification th\u00e9matique. Cet article propose un mod\u00e8le statistique \u00e0 base d\u2019unigrammes pour identifier automatiquement le th\u00e8me d\u2019un document parmi une arborescence pr\u00e9d\u00e9finie de th\u00e8mes possibles. Nous pr\u00e9sentons \u00e9galement un crit\u00e8re qui permet au mod\u00e8le de donner un degr\u00e9 de fiabilit\u00e9 \u00e0 la d\u00e9cision prise. L\u2019ensemble des exp\u00e9rimentations a \u00e9t\u00e9 r\u00e9alis\u00e9 sur des donn\u00e9es extraites du groupe \u2019fr\u2019 des forums de discussion.","translation":["","Statistical language modeling attempts to capture the regularities of natural language. The most accurate natural language processing systems still suffer from several shortcomings due to the complexity of natural language and from the weakness of the current language models. It is commonly conjectured that they should benefit from topic adaptation. The topic of the document is then obtained by a topic identification mechanism, but topics thus treated are often of different granularity. This is the reason why it seems appropriate to organize them in a hierarchy. This topic organization implies a development of specific techniques for topic identification. This paper proposes a statistical model based on unigrams to automatically identify the topic of a document among a tree structure of possible topics. We also present a criterion which reflects the degree of reliability of the decision. Experiments were carried out on data extracted from the French newsgroup \u2019fr\u2019.","Topic identification, language modeling, unigrams"],"keyphrases":["Identification th\u00e9matique","unigrammes","mod\u00e8les de langage"],"prmu":["P","P","R"]} {"id":"taln-2002-long-010","title":"Vers l\u2019apprentissage automatique, pour et par les vecteurs conceptuels, de fonctions lexicales. L\u2019exemple de l\u2019antonymie","abstract":"Dans le cadre de recherches sur le sens en traitement automatique du langage, nous nous concentrons sur la repr\u00e9sentation de l\u2019aspect th\u00e9matique des segments textuels \u00e0 l\u2019aide de vecteurs conceptuels. Les vecteurs conceptuels sont automatiquement appris \u00e0 partir de d\u00e9finitions issues de dictionnaires \u00e0 usage humain (Schwab, 2001). Un noyau de termes manuellement index\u00e9s est n\u00e9cessaire pour l\u2019amor\u00e7age de cette analyse. Lorsque l\u2019item d\u00e9fini s\u2019y pr\u00eate, ces d\u00e9finitions sont compl\u00e9t\u00e9es par des termes en relation avec lui. Ces relations sont des fonctions lexicales (Mel\u2019cuk and al, 95) comme l\u2019hyponymie, l\u2019hyperonymie, la synonymie ou l\u2019antonymie. Cet article propose d\u2019am\u00e9liorer la fonction d\u2019antonymie na\u00efve expos\u00e9e dans (Schwab, 2001) et (Schwab and al, 2002) gr\u00e2ce \u00e0 ces informations. La fonction s\u2019auto-modifie, par r\u00e9vision de listes, en fonction des relations d\u2019antonymie av\u00e9r\u00e9es entre deux items. Nous exposons la m\u00e9thode utilis\u00e9e, quelques r\u00e9sultats puis nous concluons sur les perspectives ouvertes.","translation":["","In the framework of research in the field of meaning representation, we focus our attention on thematic aspects of textual segments represented with conceptual vectors. Conceptual vectors are automatically learned and refined by analyzing human usage dictionary definitions (Schwab, 2001). A kernel of terms manually indexed is needed for bootstrapping this analysis. When possible, these definitions are completed with related terms. The considered relations are typically instances of lexical functions (Mel\u2019cuk and al, 95) as hyponymy, hyperonymy, synonymy and antonymy. This paper is an experimented proposal to take advantage of these information to enhance the naive antonymy function as proposed in (Schwab, 2001) and (Schwab and al, 2002) . The function can self-adjust, by modifications of antonym lists as extracted or induced from lexical data. We expose the overall method behind this process, some experimental results and conclude on some open perspectives.","thematic representation, conceptuals vectors, antonymy, potential antonymy mesure, automatic learning, lexical functions"],"keyphrases":["apprentissage automatique","vecteurs conceptuels","fonctions lexicales","antonymie","repr\u00e9sentation th\u00e9matique"],"prmu":["P","P","P","P","R"]} {"id":"taln-2002-long-011","title":"Filtrages syntaxiques de co-occurrences pour la repr\u00e9sentation vectorielle de documents","abstract":"L\u2019int\u00e9gration de co-occurrences dans les mod\u00e8les de repr\u00e9sentation vectorielle de documents s\u2019est av\u00e9r\u00e9e une source d\u2019am\u00e9lioration de la pertinence des mesures de similarit\u00e9s textuelles calcul\u00e9es dans le cadre de ces mod\u00e8les (Rajman et al., 2000; Besan\u00e7on, 2001). Dans cette optique, la d\u00e9finition des contextes pris en compte pour les co-occurrences est cruciale, par son influence sur les performances des mod\u00e8les \u00e0 base de co-occurrences. Dans cet article, nous proposons d\u2019\u00e9tudier deux m\u00e9thodes de filtrage des co-occurrences fond\u00e9es sur l\u2019utilisation d\u2019informations syntaxiques suppl\u00e9mentaires. Nous pr\u00e9sentons \u00e9galement une \u00e9valuation de ces m\u00e9thodes dans le cadre de la t\u00e2che de la recherche documentaire.","translation":["","The integration of co-occurrence information in the vector-space representation models for texts has proven to improve the relevance of textual similarities (Rajman et al., 2000; Besanc\u00b8on, 2001). In this framework, the definition of what is the context considered for the co-occurrences is an important issue. In this paper, we provide the study of two methods for the filtering of the co-occurrences, both using additional syntactic information. We also present an evaluation of these methods in the framework of information retrieval.","Textual similarities, vector space representation, distributional semantics, co-occurrence context"],"keyphrases":["Similarit\u00e9s textuelles","repr\u00e9esentation vectorielle de textes","s\u00e9mantique distributionnelle","contexte de co-occurrence"],"prmu":["P","M","U","R"]} {"id":"taln-2002-long-012","title":"WSIM : une m\u00e9thode de d\u00e9tection de th\u00e8me fond\u00e9e sur la similarit\u00e9 entre mots","abstract":"L\u2019adaptation des mod\u00e8les de langage dans les syst\u00e8mes de reconnaissance de la parole est un des enjeux importants de ces derni\u00e8res ann\u00e9es. Elle permet de poursuivre la reconnaissance en utilisant le mod\u00e8le de langage ad\u00e9quat : celui correspondant au th\u00e8me identifi\u00e9. Dans cet article nous proposons une m\u00e9thode originale de d\u00e9tection de th\u00e8me fond\u00e9e sur des vocabulaires caract\u00e9ristiques de th\u00e8mes et sur la similarit\u00e9 entre mots et th\u00e8mes. Cette m\u00e9thode d\u00e9passe la m\u00e9thode classique (TFIDF) de 14%, ce qui repr\u00e9sente un gain important en terme d\u2019identification. Nous montrons \u00e9galement l\u2019int\u00e9r\u00eat de choisir un vocabulaire ad\u00e9quat. Notre m\u00e9thode de d\u00e9termination des vocabulaires atteint des performances 3 fois sup\u00e9rieures \u00e0 celles obtenues avec des vocabulaires construits sur la fr\u00e9quence des mots.","translation":["","Speech recognition systems benefit from statistical language model adaptation, which is currently one of the most important challenge. This adaptation may go through the use of a particular language model : the one of the topic identified. In this article, a new and original topic identification method is presented, it is based on the similarity between words and topics. The performance of this method overcomes the one of reference, the TFIDF. The increase is 14% of topic identification. The importance of the choice of topic vocabularies is also put forward. A judicious way to create them, instead of choosing the most probable words, makes performance triple.","Automatic speech recognition, statistical language modeling, topic detection, mutual information, similarity"],"keyphrases":["d\u00e9tection de th\u00e8me","similarit\u00e9","Reconnaissance de la parole","mod\u00e9lisation statistique du langage","information mutuelle"],"prmu":["P","P","P","M","U"]} {"id":"taln-2002-long-013","title":"Segmenter et structurer th\u00e9matiquement des textes par l\u2019utilisation conjointe de collocations et de la r\u00e9currence lexicale","abstract":"Nous exposons dans cet article une m\u00e9thode r\u00e9alisant de fa\u00e7on int\u00e9gr\u00e9e deux t\u00e2ches de l\u2019analyse th\u00e9matique : la segmentation et la d\u00e9tection de liens th\u00e9matiques. Cette m\u00e9thode exploite conjointement la r\u00e9currence des mots dans les textes et les liens issus d\u2019un r\u00e9seau de collocations afin de compenser les faiblesses respectives des deux approches. Nous pr\u00e9sentons son \u00e9valuation concernant la segmentation sur un corpus en fran\u00e7ais et un corpus en anglais et nous proposons une mesure d\u2019\u00e9valuation sp\u00e9cifiquement adapt\u00e9e \u00e0 ce type de syst\u00e8mes.","translation":["","We present in this paper a method for achieving in an integrated way two tasks of topic analy-sis: segmentation and link detection. This method combines the lexical recurrence in texts and the relations from a collocation network to compensate for the respective weaknesses of the two approaches. We report its evaluation for segmentation on a corpus in French and another in English and we propose an evaluation measure that specifically suits that kind of systems.","Discourse analysis, topic analysis, topic segmentation, link detection"],"keyphrases":["segmentation","analyse th\u00e9matique","d\u00e9tection de liens th\u00e9matiques","Analyse du discours"],"prmu":["P","P","P","M"]} {"id":"taln-2002-long-014","title":"LOGUS : un syst\u00e8me formel de compr\u00e9hension du fran\u00e7ais parl\u00e9 spontan\u00e9-pr\u00e9sentation et \u00e9valuation","abstract":"Le syst\u00e8me de compr\u00e9hension pr\u00e9sent\u00e9 dans cet article propose une approche logique et lexicalis\u00e9e associant syntaxe et s\u00e9mantique pour une analyse non s\u00e9lective et hors-cadres s\u00e9mantiques pr\u00e9d\u00e9termin\u00e9s. L\u2019analyse se d\u00e9roule suivant deux grandes \u00e9tapes ; un chunking est suivi d\u2019une mise en relation des chunks qui aboutit \u00e0 la construction de la repr\u00e9sentation s\u00e9mantique finale : formule logique ou graphe conceptuel. Nous montrons comment le formalisme a d\u00fb \u00e9voluer pour accro\u00eetre l\u2019importance de la syntaxe et am\u00e9liorer la g\u00e9n\u00e9ricit\u00e9 des r\u00e8gles. Malgr\u00e9 l\u2019utilisation d\u2019une connaissance pragmatico-s\u00e9mantique li\u00e9e \u00e0 l\u2019application, la sp\u00e9cificit\u00e9 du syst\u00e8me est circonscrite au choix des mots du lexique et \u00e0 la d\u00e9finition de cette connaissance. Les r\u00e9sultats d\u2019une campagne d\u2019\u00e9valuation ont mis en \u00e9vidence une bonne tol\u00e9rance aux inattendus et aux ph\u00e9nom\u00e8nes complexes, prouvant ainsi la validit\u00e9 de l\u2019approche.","translation":["","We present in this paper a speech understanding system with a lexicalized logical approach combining syntax and pragmatic knowledge, but without selective methods or predefined semantic frames. The analysis is split into two phases: a chunking phase is followed with a second phase in which different chunks are combined in order to obtain the semantic representation of the sentence: logical formula or conceptual graph. We show how we have changed the formalism to increase the part of the syntax and to obtain generic rules. Despite the use of a semantic knowledge linked to the application, the specificity of the system is limited to the lexicon and to the definition of this knowledge. The results of an evaluation campaign have showed a good tolerance with the spontaneous spoken utterances and with the complex phenomena, and so, they have showed the value of this approach.","spontaneous spoken language, automated understanding, formal methods"],"keyphrases":["langue parl\u00e9e spontan\u00e9e","compr\u00e9hension automatique","m\u00e9thodes formelles"],"prmu":["M","M","M"]} {"id":"taln-2002-long-015","title":"Etude des relations entre pauses et ponctuations pour la synth\u00e8se de la parole \u00e0 partir de texte","abstract":"Nous pr\u00e9sentons dans cette communication la premi\u00e8re \u00e9tude \u00e0 grande \u00e9chelle de la relation entre pauses et ponctuations, \u00e0 l\u2019aide de l\u2019analyse de plusieurs milliers de pauses dans un corpus comportant pr\u00e8s de 5 heures de parole lue en cinq langues, faisant intervenir 50 locuteurs des deux sexes. Nos r\u00e9sultats remettent en cause l\u2019id\u00e9e re\u00e7ue de rapports bi-univoques entre pauses et ponctuations. Nous mettons en \u00e9vidence une proportion importante de pauses hors ponctuation, qui d\u00e9limitent des constituants, mais aussi un pourcentage \u00e9lev\u00e9 de ponctuations faibles r\u00e9alis\u00e9es sans pauses. Nous notons \u00e9galement une tr\u00e8s grande variabilit\u00e9 inter-locuteur, ainsi que des diff\u00e9rences importantes entre langues. Enfin, nous montrons que la dur\u00e9e des pauses est li\u00e9e au sexe des locuteurs.","translation":["","We present in this paper the first large-scale study of pause-punctuation relationships, based on the analysis of several thousand pauses in a corpus consisting of nearly 5 hours of read speech involving 50 male and female readers in five languages. Our results call into question the generally accepted idea of a one-to-one relationship between pauses and punctuation. We observe a large proportion of pauses outside punctuations (which mark phrases), but also a high percentage of weak punctuations with no pause. We also note a very high interspeaker variability, as well as important differences among languages.","Text-to-speech synthesis, pauses, punctuation"],"keyphrases":["pauses","ponctuation","Synth\u00e8se de la parole \u00e0 partir de textes"],"prmu":["P","P","P"]} {"id":"taln-2002-long-016","title":"G\u00e9n\u00e9ration automatique d\u2019exercices contextuels de vocabulaire","abstract":"Cet article explore l\u2019utilisation de ressources lexicales et textuelles ainsi que d\u2019outils issus du TAL dans le domaine de l\u2019apprentissage des langues assist\u00e9 par ordinateur (ALAO). Il aborde le probl\u00e8me de la g\u00e9n\u00e9ration automatique ou semi-automatique d\u2019exercices contextuels de vocabulaire \u00e0 partir d\u2019un corpus de textes et de donn\u00e9es lexicales au moyen d\u2019un \u00e9tiqueteur et d\u2019un parseur. Sont \u00e9tudi\u00e9es les caract\u00e9ristiques et les limites de ces exercices.","translation":["","This paper examines the use of lexical and textual resources and NLP tools in Computer-Assisted Language Learning (CALL). It tackles the issue of automatic or semi-automatic generation of contextual vocabulary exercises from a corpus of texts and lexical data by means of a tagger and a parser. It studies the characteristics and limits of these exercises.","Contextual exercises, lexicon, corpus, CALL"],"keyphrases":["Exercices contextuels","ALAO","corpus","lexique"],"prmu":["P","P","P","U"]} {"id":"taln-2002-long-017","title":"Les analyseurs syntaxiques : atouts pour une analyse des questions dans un syst\u00e8me de question-r\u00e9ponse ?","abstract":"Cet article montre que pour une application telle qu\u2019un syst\u00e8me de question \u2013 r\u00e9ponse, une analyse par mots cl\u00e9s de la question est insuffisante et qu\u2019une analyse plus d\u00e9taill\u00e9e passant par une analyse syntaxique permet de fournir des caract\u00e9ristiques permettant une meilleure recherche de la r\u00e9ponse.","translation":["","In this paper, we show that in a question-answer application, a light parsing using only keywords is not sufficient. A syntactico-semantic parsing of the question must be used and must be completed with some others characteristics, which will a best search for the good answer.","Syntactico-semantic parsing of questions, semantic knowledge, focus detection"],"keyphrases":["Analyse syntaxique de questions","connaissances s\u00e9mantiques","d\u00e9tection du focus"],"prmu":["R","U","U"]} {"id":"taln-2002-long-019","title":"Groupes pr\u00e9positionnels arguments ou circonstants : vers un rep\u00e9rage automatique en corpus","abstract":"Dans cette \u00e9tude, men\u00e9e dans le cadre de la r\u00e9alisation d\u2019un analyseur syntaxique de corpus sp\u00e9cialis\u00e9s, nous nous int\u00e9ressons \u00e0 la question des arguments et circonstants et \u00e0 leur rep\u00e9rage automatique en corpus. Nous proposons une mesure simple pour distinguer automatiquement, au sein des groupes pr\u00e9positionnels rattach\u00e9s au verbe, des types de compl\u00e9ments diff\u00e9rents. Nous r\u00e9alisons cette distinction sur corpus, en mettant en oeuvre une strat\u00e9gie endog\u00e8ne, et en utilisant deux mesures de productivit\u00e9 : la productivit\u00e9 du recteur verbal vis \u00e0 vis de la pr\u00e9position \u00e9value le degr\u00e9 de coh\u00e9sion entre le verbe et son groupe pr\u00e9positionnel (GP), tandis que la productivit\u00e9 du r\u00e9gi vis \u00e0 vis de la pr\u00e9position permet d'\u00e9valuer le degr\u00e9 de coh\u00e9sion interne du GP. Cet article pr\u00e9sente ces deux mesures, commente les donn\u00e9es obtenues, et d\u00e9termine dans quelle mesure cette partition recouvre la distinction traditionnelle entre arguments et circonstants.","translation":["","This paper addresses the issue of the automatic distinction between arguments and adjuncts within the framework of a corpus-based parser. We propose a simple measure aimed at distinguishing automatically different types of complements among prepositional phrases (PP) attached to the verb. This corpus-based approach relies on an endogeneous technique as well as two measures of productivity. The productivity of a governor and its preposition determines the degree of cohesion between a verb and its PP. Conversely, the productivity of a governee assesses the degree of autonomy of a PP. After presenting both measures, we comment on the output data and determine whether this division characterises the traditional distinction between arguments and adjuncts.","automatic parsing, endogeneous analysis, productivity, argument, adjunct"],"keyphrases":["argument","circonstant","productivit\u00e9","analyse syntaxique automatique","analyse endog\u00e8ne"],"prmu":["P","P","P","M","M"]} {"id":"taln-2002-long-020","title":"\u00c9valuation des taux de synonymie et de polys\u00e9mie dans un texte","abstract":"La polys\u00e9mie et la synonymie sont deux aspects fondamentaux de la langue. Nous pr\u00e9sentons ici une \u00e9valuation de l\u2019importance de ces deux ph\u00e9nom\u00e8nes \u00e0 l\u2019aide de statistiques bas\u00e9es sur le lexique WordNet et sur le SemCor. Ainsi, on a un taux de polys\u00e9mie th\u00e9orique de 5 sens par mot dans le SemCor. Mais si on regarde les occurrences r\u00e9elles, moins de 50 % des sens possibles sont utilis\u00e9s. De m\u00eame, s\u2019il y a, en moyenne, 2,7 mots possibles pour d\u00e9signer un concept qui appara\u00eet dans le corpus, plus de la moiti\u00e9 d\u2019entre eux ne sont jamais utilis\u00e9s. Ces r\u00e9sultats relativisent l\u2019utilit\u00e9 de telles ressources s\u00e9mantiques pour le traitement de la langue.","translation":["","Polysemy and synonymy are two basic problems for natural language processing. In this paper, an evaluation of the importance of these phenomena is presented. It is based on the semantic lexicon WordNet and its associated corpus SemCor. Thus, when there are, in average, 5 possible senses for each word in the corpus, only half of them are really used. Similarly, if 2,7 words can be used to designate a concept, more than half of them are never used. These results tend to put the usefulness of such a resource in perspective.","polysemy rate, synonymy rate, semantic lexicon, WordNet, SemCor"],"keyphrases":["taux de synonymie","WordNet","SemCor","taux de polys\u00e9mie","lexiques s\u00e9mantiques"],"prmu":["P","P","P","P","R"]} {"id":"taln-2002-long-021","title":"Acquisition automatique de sens \u00e0 partir d'op\u00e9rations morphologiques en fran\u00e7ais : \u00e9tudes de cas","abstract":"Cet article propose une m\u00e9thode de codage automatique de traits lexicaux s\u00e9mantiques en fran\u00e7ais. Cette approche exploite les relations fix\u00e9es par l'instruction s\u00e9mantique d'un op\u00e9rateur de construction morphologique entre la base et le mot construit. En cela, la r\u00e9flexion s'inspire des travaux de Marc Light (Light 1996) tout en exploitant le fonctionnement d\u2019un syst\u00e8me d'analyse morphologique existant : l\u2019analyseur D\u00e9riF. A ce jour, l'analyse de 12 types morphologiques conduit \u00e0 l'\u00e9tiquetage d\u2019environ 10 % d'un lexique compos\u00e9 de 99000 lemmes. L\u2019article s'ach\u00e8ve par la description de deux techniques utilis\u00e9es pour valider les traits s\u00e9mantiques.","translation":["","This paper presents an approach which aims at automatically tagging a French lexicon with semantic features. This approach makes use of correspondences which are fixed by the semantic instruction of morphological operators, between the base and the derived word. It is partly inspired by Light (1996) work, and makes use of an existing morphological parser : the DeriF system. So far, 12 morphological types have been analysed, enabling the semantic tagging of circa 10 % of a lexicon made up of 99000 lemmas. The paper ends up with the description of two techniques that have been applied to validate the semantic features.","Derivational Morphology, affixation and conversion, Semantic feature acquisition"],"keyphrases":["Morphologie d\u00e9rivationnelle","affixation et conversion","acquisition de traits s\u00e9mantiques"],"prmu":["M","M","R"]} {"id":"taln-2002-long-022","title":"Webaffix : un outil d\u2019acquisition morphologique d\u00e9rivationnelle \u00e0 partir du Web","abstract":"L\u2019article pr\u00e9sente Webaffix, un outil d\u2019acquisition de couples de lex\u00e8mes morphologiquement apparent\u00e9s \u00e0 partir du Web. La m\u00e9thode utilis\u00e9 est inductive et ind\u00e9pendante des langues particuli\u00e8res. Webaffix (1) utilise un moteur de recherche pour collecter des formes candidates qui contiennent un suffixe graph\u00e9mique donn\u00e9, (2) pr\u00e9dit les bases potentielles de ces candidats et (3) recherche sur le Web des cooccurrences des candidats et de leurs bases pr\u00e9dites. L\u2019outil a \u00e9t\u00e9 utilis\u00e9 pour enrichir Verbaction, un lexique de liens entre verbes et noms d\u2019action ou d\u2019\u00e9v\u00e9nement correspondants. L\u2019article inclut une \u00e9valuation des liens morphologiques acquis.","translation":["","This paper presents Webaffix, a tool for finding pairs of morphologically related words on the Web. The method used is inductive and language-independent. Using theWWWas a corpus, the Webaffix tool detects the occurrences of new derived lexemes based on a given graphemic suffix, proposes a base lexeme, and then performs a compatibility test on the word pairs produced, using the Web again, but as a source of cooccurrences. The resulting pairs of words are used to enrich the Verbaction lexical database, which contains French verbs and their related nominals. The results are described and evaluated.","Derivational morphology, lexical resource, Web as corpus, analogy"],"keyphrases":["Morphologie d\u00e9rivationnelle","ressource lexicale","Web comme corpus","analogie"],"prmu":["P","U","M","U"]} {"id":"taln-2002-long-023","title":"\u00c9valuer l\u2019acquisition semi-automatique de classes s\u00e9mantiques","abstract":"Cet article vise \u00e0 \u00e9valuer deux approches diff\u00e9rentes pour la constitution de classes s\u00e9mantiques. Une approche endog\u00e8ne (acquisition \u00e0 partir d\u2019un corpus) est contrast\u00e9e avec une approche exog\u00e8ne (\u00e0 travers un r\u00e9seau s\u00e9mantique riche). L\u2019article pr\u00e9sente une \u00e9valuation fine de ces deux techniques.","translation":["","This paper evaluates two different approaches for the elaboration of semantic classes. An endogeneous approach (corpus-based learning) is contrasted with a exogeneous one (the use of a large semantic network). The two techniques are finally evaluated.","Semantic classes, Evaluation, Resources, Semantic network"],"keyphrases":["\u00c9valuation","Classes s\u00e9mantiques","R\u00e9seau s\u00e9mantique","Ressources"],"prmu":["P","P","P","U"]} {"id":"taln-2002-long-024","title":"Nemesis, un syst\u00e8me de reconnaissance incr\u00e9mentielle des entit\u00e9s nomm\u00e9es pour le fran\u00e7ais","abstract":"Cet article pr\u00e9sente une \u00e9tude des conflits engendr\u00e9s par la reconnaissance des entit\u00e9s nomm\u00e9es (EN) pour le fran\u00e7ais, ainsi que quelques indices pour les r\u00e9soudre. Cette reconnaissance est r\u00e9alis\u00e9e par le syst\u00e8me Nemesis, dont les sp\u00e9cifications ont \u00e9t\u00e9 \u00e9labor\u00e9es cons\u00e9quemment \u00e0 une \u00e9tude en corpus. Nemesis se base sur des r\u00e8gles de grammaire, exploite des lexiques sp\u00e9cialis\u00e9s et comporte un module d\u2019apprentissage. Les performances atteintes par Nemesis, sur les anthroponymes et les toponymes, sont de 90% pour le rappel et 95% pour la pr\u00e9cision.","translation":["","This paper presents an investigation of the conflicts generated by the recognition of the French proper names (PN), and some indications to solve them. This recognition is carried out by the Nemesis system, whose specifications have been elaborated through corpus investigation. Nemesis is grammar-rule based, uses specialised lexicons, and includes a learning module. The system performance, evaluated on the categories composing the anthroponym and the toponym classes, achieves 95% precision and 90% recall.","Name Entities, incremental recognition, learning processing, referential composition"],"keyphrases":["reconnaissance incr\u00e9mentielle","Entit\u00e9s nomm\u00e9es","apprentissage","surcomposition r\u00e9f\u00e9rentielle"],"prmu":["P","P","P","U"]} {"id":"taln-2002-long-025","title":"La co\u00e9dition langue\u2194UNL pour partager la r\u00e9vision entre les langues d'un document multilingue : un concept unificateur","abstract":"La co\u00e9dition d'un texte en langue naturelle et de sa repr\u00e9sentation dans une forme interlingue semble le moyen le meilleur et le plus simple de partager la r\u00e9vision du texte vers plusieurs langues. Pour diverses raisons, les graphes UNL sont les meilleurs candidats dans ce contexte. Nous d\u00e9veloppons un prototype o\u00f9, dans le sc\u00e9nario avec partage le plus simple, des utilisateurs \"na\u00effs\" interagissent directement avec le texte dans leur langue (L0), et indirectement avec le graphe associ\u00e9 pour corriger les erreurs. Le graphe modifi\u00e9 est ensuite envoy\u00e9 au d\u00e9convertisseur UNL-L0 et le r\u00e9sultat est affich\u00e9. S'il est satisfaisant, les erreurs \u00e9taient probablement dues au graphe et non au d\u00e9convertisseur, et le graphe est envoy\u00e9 aux d\u00e9convertisseurs vers d'autres langues. Les versions dans certaines autres langues connues de l'utilisateur peuvent \u00eatre affich\u00e9es, de sorte que le partage de l'am\u00e9lioration soit visible et encourageant. Comme les nouvelles versions sont ajout\u00e9es dans le document multilingue original avec des balises et des attributs appropri\u00e9s, rien n'est jamais perdu, et le travail coop\u00e9ratif sur un m\u00eame document est rendu possible. Du c\u00f4t\u00e9 interne, des liaisons sont \u00e9tablies entre des \u00e9l\u00e9ments du texte et du graphe en utilisant des ressources largement disponibles comme un dictionnaire L0-anglais, ou mieux L0-UNL, un analyseur morphosyntaxique de L0, et une transformation canonique de graphe UNL \u00e0 arbre. On peut \u00e9tablir une \"meilleure\" correspondance entre \"l'arbre-UNL+L0\" et la \"structure MS-L0\", une treille, en utilisant le dictionnaire et en cherchant \u00e0 aligner l'arbre et une trajectoire avec aussi peu que possible de croisements de liaisons. Un but central de cette recherche est de fusionner les approches de la TA par pivot, de la TA interactive, et de la g\u00e9n\u00e9ration multilingue de texte.","translation":["","Coedition of a natural language text and its representation in some interlingual form seems the best and simplest way to share text revision across languages. For various reasons, UNL graphs are the best candidates in this context. We are developing a prototype where, in the simplest sharing scenario, naive users interact directly with the text in their language (L0), and indirectly with the associated graph, to correct errors. The modified graph is then sent to the UNL-L0 deconverter and the result shown. If it is satisfactory, the errors were probably due to the graph, not to the deconverter, and the graph is sent to deconverters in other languages. Versions in some other languages known by the user may be displayed, so that improvement sharing is visible and encouraging. As new versions are added with appropriate tags and attributes in the original multilingual document, nothing is ever lost, and cooperative working on a document is rendered feasible. On the internal side, liaisons are established between elements of the text and the graph by using broadly available resources such as a L0-English or better a L0-UNL dictionary, a morphosyntactic parser of L0, and a canonical graph2tree transformation. Establishing a \"best\" correspondence between the \"UNL-tree+L0\" and the \"MS-L0 structure\", a lattice, may be done using the dictionary and trying to align the tree and the selected trajectory with as few crossing liaisons as possible. A central goal of this research is to merge approaches from pivot MT, interactive MT, and multilingual text authoring.","Revision sharing, interlingual representation, coedition of text & UNL graph, multilingual communication"],"keyphrases":["Partage de r\u00e9vision","repr\u00e9sentation interlingue","co\u00e9dition de texte et de graphe UNL","communication multilingue"],"prmu":["R","R","R","M"]} {"id":"taln-2002-long-026","title":"Traduction automatique ancr\u00e9e dans l\u2019analyse linguistique","abstract":"Nous pr\u00e9sentons dans cet article le syst\u00e8me de traduction fran\u00e7ais-anglais MSR-MT d\u00e9velopp\u00e9 \u00e0 Microsoft dans le groupe de recherche sur le traitement du language (NLP). Ce syst\u00e8me est bas\u00e9 sur des analyseurs sophistiqu\u00e9s qui produisent des formes logiques, dans la langue source et la langue cible. Ces formes logiques sont align\u00e9es pour produire la base de donn\u00e9es du transfert, qui contient les correspondances entre langue source et langue cible, utilis\u00e9es lors de la traduction. Nous pr\u00e9sentons diff\u00e9rents stages du d\u00e9veloppement de notre syst\u00e8me, commenc\u00e9 en novembre 2000. Nous montrons que les performances d\u2019octobre 2001 de notre syst\u00e8me sont meilleures que celles du syst\u00e8me commercial Systran, pour le domaine technique, et d\u00e9crivons le travail linguistique qui nous a permis d\u2019arriver \u00e0 cette performance. Nous pr\u00e9sentons enfin les r\u00e9sultats pr\u00e9liminaires sur un corpus plus g\u00e9n\u00e9ral, les d\u00e9bats parlementaires du corpus du Hansard. Quoique nos r\u00e9sultats ne soient pas aussi concluants que pour le domaine technique, nous sommes convaincues que la r\u00e9solution des probl\u00e8mes d\u2019analyse que nous avons identifi\u00e9s nous permettra d\u2019am\u00e9liorer notre performance.","translation":["","In this paper, we present an overview of the MSR-MT translation system for French-English, developed at Microsoft Research in the NLP group. Our system is based on rule-based analysis which produces logical form representations of the source language and the target language. These are aligned to produce mappings then stored in an example-base. We examine the development of the system since November 2000, and show that by October 2001, we had exceeded the quality of the commercial system Systran in the technical domain. We describe the linguistic work that allowed our system to improve. We present preliminary results on the Hansard parliamentary corpus. While these results are less impressive currently, we are convinced that changes to linguistic analysis will allow the system performance to improve.","Automatic translation, French-English, example-base"],"keyphrases":["Traduction automatique","fran\u00e7ais-anglais","base d\u2019exemples"],"prmu":["P","P","M"]} {"id":"taln-2002-long-027","title":"Descriptions d\u2019arbres avec polarit\u00e9s : les Grammaires d\u2019Interaction","abstract":"Nous pr\u00e9sentons un nouveau formalisme linguistique, les Grammaires d\u2019Interaction, dont les objets syntaxiques de base sont des descriptions d\u2019arbres, c\u2019est-\u00e0-dire des formules logiques sp\u00e9cifiant partiellement des arbres syntaxiques. Dans ce contexte, l\u2019analyse syntaxique se traduit par la construction de mod\u00e8les de descriptions sous la forme d\u2019arbres syntaxiques compl\u00e8tement sp\u00e9cifi\u00e9s. L\u2019op\u00e9ration de composition syntaxique qui permet cette construction pas \u00e0 pas est contr\u00f4l\u00e9e par un syst\u00e8me de traits polaris\u00e9s agissant comme des charges \u00e9lectrostatiques.","translation":["","We present a new linguistic formalism, Interaction Grammars. The basic syntactic objects are tree descriptions, that is logical formulas which specify syntactic trees partially. In this context, parsing consists in building models of descriptions which are completely specified syntactic trees. The operation of syntactic composition which allows this construction to go step by step is controlled by a system of polarized features acting as electrostatic charges.","Formal Grammar, Categorial Grammar, Tree description"],"keyphrases":["Description d\u2019arbres","Grammaire formelle","Grammaire Cat\u00e9gorielle"],"prmu":["P","M","M"]} {"id":"taln-2002-long-028","title":"Recherche de la r\u00e9ponse fond\u00e9e sur la reconnaissance du focus de la question","abstract":"Le syst\u00e8me de question-r\u00e9ponse QALC utilise les documents s\u00e9lectionn\u00e9s par un moteur de recherche pour la question pos\u00e9e, les s\u00e9pare en phrases afin de comparer chaque phrase avec la question, puis localise la r\u00e9ponse soit en d\u00e9tectant l'entit\u00e9 nomm\u00e9e recherch\u00e9e, soit en appliquant des patrons syntaxiques d'extraction de la r\u00e9ponse, sortes de sch\u00e9mas fig\u00e9s de r\u00e9ponse pour un type donn\u00e9 de question. Les patrons d'extraction que nous avons d\u00e9finis se fondent sur la notion de focus, qui est l'\u00e9l\u00e9ment important de la question, celui qui devra se trouver dans la phrase r\u00e9ponse. Dans cet article, nous d\u00e9crirons comment nous d\u00e9terminons le focus dans la question, puis comment nous l'utilisons dans l'appariement question-phrase et pour la localisation de la r\u00e9ponse dans les phrases les plus pertinentes retenues.","translation":["","The QALC question answering system we are developing uses a search engine to select documents responding to the question, matches each sentence of the selected documents with the question, then extracts the answer from the more relevant sentences, either by locating the expected named entity, or by applying extraction patterns. Patterns are based on the focus, which is the main concept in the question and is expected to be present in an answer sentence. In this paper, we will describe the way we determine the focus of the question, and the way that we use it in the question-answer pairing and answer location processes.","Information retrieval, question answering system, focus, extraction pattern"],"keyphrases":["focus","syst\u00e8me de question-r\u00e9ponse","Recherche d\u2019information","patron d\u2019extraction"],"prmu":["P","P","M","M"]} {"id":"taln-2002-poster-001","title":"Corpus OTG et ECOLE_MASSY : vers la constitution d\u2019une collection de corpus francophones de dialogue oral diffus\u00e9s librement","abstract":"Cet article pr\u00e9sente deux corpus francophones de dialogue oral (OTG et ECOLE_MASSY) mis librement \u00e0 la disposition de la communaut\u00e9 scientifique. Ces deux corpus constituent la premi\u00e8re livraison du projet Parole Publique initi\u00e9 par le laboratoire VALORIA. Ce projet vise la constitution d\u2019une collection de corpus de dialogue oral enrichis par annotation morpho-syntaxique. Ces corpus de dialogue finalis\u00e9 sont essentiellement destin\u00e9s \u00e0 une utilisation en communication homme-machine.","translation":["","This paper presents two corpora (OTG et ECOLE_MASSY) of French spoken dialogue which are the first delivery of the Parole_Publique (in English : Public Speech) project held by the VALORIA laboratory. This project aims at the achievement of a collection of spoken dialogue corpora that is freely distributed on the WWW. It is primarily intended for researches on man-machine communication.","French speaking linguistic ressources, spoken dialogue, man-machine communication"],"keyphrases":["dialogue oral","communication homme-machine","ressources linguistiques francophones"],"prmu":["P","P","M"]} {"id":"taln-2002-poster-002","title":"Relatifs et r\u00e9f\u00e9rents inclus dans un SN : des param\u00e8tres pour pr\u00e9s\u00e9lectionner la saisie","abstract":"Notre objectif est de rep\u00e9rer l\u2019existence de r\u00e9gularit\u00e9s pour pr\u00e9voir l\u2019attachement du relatif et de son r\u00e9f\u00e9rent introduit par un SN de la forme d\u00e9t. N1 de (d\u00e9t.) N2 en vue d\u2019un traitement automatique. Pour \u00e9valuer les pr\u00e9f\u00e9rences, nous avons entrepris une analyse sur corpus. L\u2019examen des occurrences examin\u00e9es laisse entrevoir des variations en fonction de param\u00e8tres d\u2019ordre fonctionnel, syntaxique et s\u00e9mantiques : d\u00e9terminants, traits s\u00e9mantiques, saillance, relation \u00e9tablie par l\u2019utilisation de de, position grammaticale du SN qui introduit le r\u00e9f\u00e9rent dans le discours\u2026","translation":["","",""],"keyphrases":["r\u00e9f\u00e9rence","Anaphore","SN complexes","pr\u00e9position de","relatif qui"],"prmu":["P","U","M","M","R"]} {"id":"taln-2002-poster-003","title":"L'analyse s\u00e9mantique latente et l'identification des m\u00e9taphores","abstract":"Apr\u00e8s avoir pr\u00e9sent\u00e9 le mod\u00e8le computationnel de l'interpr\u00e9tation de m\u00e9taphores propos\u00e9 par Kintsch (2000), nous rapportons une \u00e9tude pr\u00e9liminaire qui \u00e9value son efficacit\u00e9 dans le traitement de m\u00e9taphores litt\u00e9raires et la possibilit\u00e9 de l'employer pour leur identification.","translation":["","Having introduced Kintsch's computational model of metaphor comprehension (2000), we report a preliminary study aiming at determining its efficiency in modeling the processing of literary metaphors and its ability to detect them.","Metaphor, Latent semantic analysis, interpretation and detection, literary texts"],"keyphrases":["Analyse s\u00e9mantique latente","M\u00e9taphore","interpr\u00e9tation et d\u00e9tection","textes litt\u00e9raires"],"prmu":["P","P","M","M"]} {"id":"taln-2002-poster-005","title":"Distinguer les termes des collocations : \u00e9tude sur corpus du patron en anglais m\u00e9dical","abstract":"Un bon nombre des applications de traitement automatique des langues qui ont pour domaine les langues de sp\u00e9cialit\u00e9 sont des outils d\u2019extraction terminologique. Elles se concentrent donc naturellement sur l\u2019identification des groupes nominaux et des groupes pr\u00e9positionnels ou pr\u00e9modificateurs qui leur sont associ\u00e9s. En nous fondant sur un corpus compos\u00e9 d\u2019articles de recherche m\u00e9dicale de langue anglaise, nous proposons un mod\u00e8le d\u2019extraction phras\u00e9ologique semi-automatis\u00e9e. Afin de distinguer, dans le cas des expressions de patron syntaxique , les termes de la langue m\u00e9dicale des simples collocations, nous nous sommes livr\u00e9 au rep\u00e9rage des adjectifs entrant en cooccurrence avec les adverbes. Cette m\u00e9thode, qui permet l\u2019\u00e9limination de la plupart des adjectifs relationnels, s\u2019av\u00e8re efficace en termes de pr\u00e9cision. L\u2019am\u00e9lioration de son rappel n\u00e9cessite toutefois l\u2019utilisation de corpus de grande taille ayant subi un \u00e9tiquetage morpho-syntaxique pr\u00e9alable.","translation":["","Many of the Natural Language Processing applications that deal with sublanguages are terminological extraction tools. They consequently tend to focus on the identification of noun and prepositional clauses and their modifiers. Using a corpus of English medical research articles, we suggest a semi-automatic phraseological extraction system. In order to separate terms from collocations within the category that fits the pattern, we experiment with the approach that consists in extracting adjectives that co-occur with adverbs. This method, which makes it possible to eliminate most relative adjectives, proves to provide good precision. However, the use of a larger POS-tagged corpus will be necessary in order to improve the method\u2019s recall.","Terms, collocations, adjectives, nouns, corpus, English for Specific Purposes"],"keyphrases":["Termes","collocations","corpus","adjectifs","noms","anglais de sp\u00e9cialit\u00e9"],"prmu":["P","P","P","P","P","R"]} {"id":"taln-2002-poster-006","title":"Une M\u00e9taGrammaire pour les adjectifs du fran\u00e7ais","abstract":"Initialement d\u00e9velopp\u00e9e au sein de l\u2019universit\u00e9 Paris VII depuis maintenant pr\u00e8s de quinze ans, la grammaire FTAG, une impl\u00e9mentation du mod\u00e8le des grammaires d\u2019arbres adjoints pour le fran\u00e7ais, a connu ses derni\u00e8res ann\u00e9es, diverses \u00e9volutions majeures. (Candito, 1996) a ainsi r\u00e9alis\u00e9 l\u2019int\u00e9gration d\u2019un mod\u00e8le de repr\u00e9sentation compact et hi\u00e9rarchique d\u2019informations redondantes que peut contenir une grammaire, au sein d\u2019un syst\u00e8me d\u00e9j\u00e0 existant. Ce mod\u00e8le, que nous appelons M\u00e9taGammaire (MG) nous a permis, en pratique, de g\u00e9n\u00e9rer semi-automatiquement des arbres \u00e9l\u00e9mentaires, et par l\u00e0 m\u00eame, d\u2019augmenter de fa\u00e7on consid\u00e9rable les diff\u00e9rents ph\u00e9nom\u00e8nes syntaxiques couverts par notre grammaire. Un soin tout particulier a donc \u00e9t\u00e9 apport\u00e9 pour traiter les pr\u00e9dicats verbaux, en laissant cependant (partiellement) de c\u00f4t\u00e9 le pr\u00e9dicat adjectival. Nous pr\u00e9sentons donc ici une nouvelle impl\u00e9mentation de ce pr\u00e9dicat dans le cadre d\u2019une extension de la grammaire FTAG existante.","translation":["","We present here a new implementation of the adjectival predicate for the FTAG grammar, a french implementation of the Tree Adjoining Grammar model. FTAG has known over the years many improvements. (Candito, 1996) hence integrated an additional layer of syntactic representation within the system. The layer, we called Meta- Grammar (MG) let us improve the syntactic coverage of our grammar by generating semi-automatically dozens of new elementary trees.","Tree-Adjoining Grammars, MetaGrammar, Development, French Adjectival constructions"],"keyphrases":["M\u00e9taGrammaire","D\u00e9veloppement","Grammaires d\u2019arbres adjoints","Constructions adjectivales"],"prmu":["P","P","P","M"]} {"id":"taln-2002-poster-008","title":"Reformuler des expressions multimodales","abstract":"Le domaine des \"Interfaces Utilisateur Intelligentes\" a vu ces derni\u00e8res ann\u00e9es la r\u00e9alisation de syst\u00e8mes complexes mettant en oeuvre une interaction multimodale dans laquelle les diff\u00e9rentes techniques de communication (textes, gestes, parole, s\u00e9lection graphique) sont coordonn\u00e9es en entr\u00e9e et\/ou en sortie. Nous nous int\u00e9ressons ici aux syst\u00e8mes qui prennent en entr\u00e9e des expressions multimodales et en produisent une reformulation en une expression unimodale s\u00e9mantiquement \u00e9quivalente. Nous proposons une mod\u00e9lisation du processus de traduction d'expressions multimodales en expressions unimodales, et nous d\u00e9crivons la mise en oeuvre d'un processus de ce type dans un logiciel d'aide \u00e0 l'apprentissage du langage.","translation":["","These last years, \"Intelligent User Interfaces\" have been developped, in which input and\/or output multimodality facilitates human-machine communication (written language, speech, graphic selection, gestures). This paper is concerned with systems in which multimodal input is translated into unimodal expressions semantically equivalent. A model for such a process is proposed. Then, an example is described, with an educational software enabling multimodal communication and implementing this process.","Multimodal language, coordination of modalities, semantic equivalence"],"keyphrases":["Langage multimodal","coordination des modes","expressions s\u00e9mantiquement \u00e9quivalentes"],"prmu":["R","M","R"]} {"id":"taln-2002-poster-009","title":"Un mod\u00e8le de dialogue par les attentes du locuteur","abstract":"Dans cet article, nous aborderons la notion d\u2019attentes, vue du c\u00f4t\u00e9 du locuteur, afin d\u2019am\u00e9liorer la mod\u00e9lisation du dialogue. Nous pr\u00e9senterons notre d\u00e9finition des attentes ainsi que notre notation, fond\u00e9e sur une approche pragmatique du dialogue. Nous comparerons deux approches, l\u2019une (uniquement stochastique) fond\u00e9e sur la pr\u00e9diction d\u2019actes de parole, l\u2019autre mettant en jeu les attentes du locuteur et leur gestion.","translation":["","In this paper, we will discuss about a generic dialog model. We will demonstrate the importance of a expectations based approach which consider them from user\u2019s side. We will present our definition of expectations and their notation based on a pragmatic approach of dialog. Thus, we will compare this approach (expectations and their management), and another stochastic approach which simply consist of act prediction.","Dialog, expectations, pragmatics, analysis, statistics, cognitive aspects"],"keyphrases":["Dialogue","attentes","pragmatique","analyse","statistique","aspects cognitifs"],"prmu":["P","P","P","U","U","U"]} {"id":"taln-2002-poster-010","title":"Segmentation en th\u00e8mes de conversations t\u00e9l\u00e9phoniques : traitement en amont pour l\u2019extraction d\u2019information","abstract":"Nous pr\u00e9sentons une approche de d\u00e9coupage th\u00e9matique que nous utiliserons pour faciliter l\u2019extraction d\u2019information \u00e0 partir de conversations t\u00e9l\u00e9phoniques transcrites. Nous exp\u00e9rimentons avec un mod\u00e8le de Markov cach\u00e9 utilisant des informations de diff\u00e9rents niveaux linguistiques, des marques d\u2019extra-grammaticalit\u00e9s et les entit\u00e9s nomm\u00e9es comme source additionnelle d\u2019information. Nous comparons le mod\u00e8le obtenu avec notre mod\u00e8le de base utilisant uniquement les marques linguistiques et les extra-grammaticalit\u00e9s. Les r\u00e9sultats montrent l\u2019efficacit\u00e9 de l\u2019approche utilisant les entit\u00e9s nomm\u00e9es.","translation":["","We study the problem of topic segmentation as a means to facilitate information extraction from manually transcribed convesrations.We experiment with a first orderHMMusing a combination of linguistic-level cues and named entities. We compare the results of our linguistic-levels cues based model with the named entities based model. Results show the effectiveness of named entities as an additional source of information for topic segmentation.","topic segmentation, conversation analysis, information extraction"],"keyphrases":["segmentation en th\u00e8mes","extraction d\u2019information","analyse des conversations"],"prmu":["P","P","M"]} {"id":"taln-2002-poster-011","title":"Discours et compositionnalit\u00e9","abstract":"Partant du principe que certaines phrases peuvent r\u00e9aliser plusieurs actes de langage, i.e., dans une interface s\u00e9mantique\u2013pragmatique, plusieurs constituants de discours s\u00e9par\u00e9s, nous proposons, dans le cadre de la SDRT, un algorithme de construction de repr\u00e9sentations s\u00e9mantiques qui prend en compte tous les aspects discursifs d\u00e8s que possible et de fa\u00e7on compositionnelle.","translation":["","Assuming that some sentences realise several speech acts, and that, in a semantic\u2013pragmatic interface, they yield separate discourse constituents, we propose an algorithm, in the SDRT framework, which takes into account all discursive aspects as soon as possible and compositionaly.","Discourse analysis, compositionality, lambda-calculus, SDRT, speech acts"],"keyphrases":["compositionnalit\u00e9","actes de langage","SDRT","Analyse du discours","lambda-calcul"],"prmu":["P","P","P","M","U"]} {"id":"taln-2002-poster-012","title":"Compr\u00e9hension Automatique de la Parole et TAL : une approche syntaxico-s\u00e9mantique pour le traitement des inattendus structuraux du fran\u00e7ais parl\u00e9","abstract":"Dans cet article, nous pr\u00e9sentons un syst\u00e8me de Compr\u00e9hension Automatique de la Parole dont l\u2019un des objectifs est de permettre un traitement fiable et robuste des inattendus structuraux du fran\u00e7ais parl\u00e9 (h\u00e9sitations, r\u00e9p\u00e9titions et corrections). L\u2019analyse d\u2019un \u00e9nonc\u00e9 s\u2019effectue en deux \u00e9tapes : une premi\u00e8re \u00e9tape g\u00e9n\u00e9rique d\u2019analyse syntaxique de surface suivie d\u2019une seconde \u00e9tape d\u2019analyse s\u00e9mantico-pragmatique, d\u00e9pendante du domaine d\u2019application et reposant sur un formalisme lexicalis\u00e9 : les grammaires de liens. Les r\u00e9sultats de l\u2019\u00e9valuation de ce syst\u00e8me lors de la campagne d\u2019\u00e9valuation du Groupe de Travail Compr\u00e9hension Robuste du GDR I3 du CNRS nous permettent de discuter de l\u2019int\u00e9r\u00eat et des limitations de l\u2019approche adopt\u00e9e.","translation":["","This paper discusses the issue of how a speech understanding system can be made robust against spontaneous speech phenomena (hesitations and repairs). We present a spoken French understanding system. It implements speech understanding in a two-stage process. The first stage achieves a finite-state shallow parsing that consists in segmenting the recognized sentence into basic units (spoken-adapted chunks). The second one, a Link Grammar parser, looks for interchunks dependencies in order to build a rich representation of the semantic structure of the utterance. These dependencies are mainly investigated at a pragmatic level through the consideration of a task concept hierarchy. Discussion about the approach adopted is based on the results of the system\u2019s assessment in an evaluation campaign held by the CNRS.","spoken man-machine dialog, speech understanding, repairs, shallow parsing, link grammars"],"keyphrases":["compr\u00e9hension automatique de la parole","r\u00e9p\u00e9titions","corrections","grammaires de liens","communication orale homme-machine","analyse syntaxique partielle"],"prmu":["P","P","P","P","U","M"]} {"id":"taln-2002-tutoriel-001","title":"Un ensemble de ressources informatis\u00e9es et int\u00e9gr\u00e9es pour l\u2019\u00e9tude du fran\u00e7ais : FRANTEXT, TLFi, Dictionnaires de l\u2019Acad\u00e9mie et logiciel Stella, pr\u00e9sentation et apprentissage de leurs exploitations","abstract":"Nous proposons de pr\u00e9senter quelques-unes des ressources linguistiques informatis\u00e9es que le laboratoire ATILF propose sur la toile et leurs diversit\u00e9s d\u2019exploitation potentielle. Ces importantes ressources sur la langue fran\u00e7aise regroupent un ensemble de divers dictionnaires et lexiques, et de bases de donn\u00e9es dont les plus importants sont le TLFi (Tr\u00e9sor de la Langue Fran\u00e7aise informatis\u00e9) et Frantext (plus de 3500 textes, dont la plupart cat\u00e9goris\u00e9s). Elles exploitent, pour la plupart, les fonctionnalit\u00e9s du logiciel Stella, qui correspond \u00e0 un v\u00e9ritable moteur de recherche d\u00e9di\u00e9 aux bases textuelles s\u2019appuyant sur une nouvelle th\u00e9orie des objets textuels. Tous les sp\u00e9cialistes de traitement automatique de la langue ainsi que tous les linguistes, syntacticiens aussi bien que s\u00e9manticiens, stylisticiens et autres peuvent exploiter avec bonheur les possibilit\u00e9s offertes par Stella sur le TLFi et autres ressources offertes par l\u2019ATILF. Ces recherches peuvent s\u2019articuler autour des axes suivants : \u00e9tudes en vue de rep\u00e9rer des cooccurrences et collocations, extraction de sous-lexiques, \u00e9tudes morphologiques, \u00e9tudes de syntaxe locale, \u00e9tudes de s\u00e9mantique, \u00e9tudes de stylistique, etc. Nous proposons de d\u00e9mystifier le maniement des requ\u00eates sur le TLFi, FRANTEXT et nos autres ressources \u00e0 l\u2019aide du logiciel Stella, et d\u2019expliquer et de montrer comment interroger au mieux ces ressources et utiliser l\u2019hyper-navigation mise en place entre ces ressources pour en tirer les meilleurs b\u00e9n\u00e9fices.","translation":["","",""],"keyphrases":["Frantext","TLFi","dictionnaires","Stella","Ressources linguistiques","lexiques","corpus"],"prmu":["P","P","P","P","P","P","U"]} {"id":"taln-2002-tutoriel-002","title":"Mod\u00e9lisation des liens lexicaux au moyen des fonctions lexicales","abstract":"Ce tutoriel est une introduction \u00e0 la mod\u00e9lisation lexicographique des liens lexicaux au moyen des fonctions lexicales de la th\u00e9orie Sens-Texte. Il s\u2019agit donc d\u2019examiner un sous-ensemble des t\u00e2ches effectu\u00e9es en lexicographie formelle bas\u00e9e sur la lexicologie explicative et combinatoire. Plut\u00f4t que de viser l\u2019introduction de toutes les fonctions lexicales identifi\u00e9es par la th\u00e9orie Sens- Texte, je vais m\u2019attacher \u00e0 introduire la notion de fonction lexicale de fa\u00e7on m\u00e9thodique, en pr\u00e9sentant d\u2019abord les notions linguistiques plus g\u00e9n\u00e9rales sur lesquelles elle s\u2019appuie (lexie, pr\u00e9dicat, actant, d\u00e9rivation s\u00e9mantique, collocation, etc.). Ce document vise essentiellement \u00e0 r\u00e9capituler les d\u00e9finitions des notions linguistiques qui vont \u00eatre vues dans le tutoriel de fa\u00e7on pratique, par le biais d\u2019exercices \u00e0 caract\u00e8re lexicographique.","translation":["","This tutorial is an introduction to the modeling of lexical relations by means of Meaning-Text lexical functions. In other words, it presents a specific aspect of formal lexicography as practiced within the framework of explanatory combinatorial lexicology. Only a subset of Meaning- Text lexical functions will be introduced. My goal is to methodically presents the notion of lexical function itself, based on the introduction of more general linguistic notions it presupposes (lexie, actant, semantic derivation, collocation, etc.). The present document summarizes definitions of notions that will be applied in lexicographic exercises during the tutorial.","Lexical function, explanatory combinatorial lexicology, Meaning-Text theory, formal lexicography"],"keyphrases":["Fonction lexicale","th\u00e9orie Sens-Texte","lexicographie formelle","lexicologie explicative et combinatoire"],"prmu":["P","P","P","P"]} {"id":"taln-2005-long-001","title":"Comment obtenir plus des M\u00e9ta-Grammaires","abstract":"Cet article pr\u00e9sente un environnement de d\u00e9veloppement pour les m\u00e9ta-grammaires (MG), utilis\u00e9 pour concevoir rapidement une grammaire d'arbres adjoints (TAG) du fran\u00e7ais \u00e0 large couverture et n\u00e9anmoins tr\u00e8s compacte, gr\u00e2ce \u00e0 des factorisations d'arbres. Exploitant les fonctionnalit\u00e9s fournies par le syst\u00e8me DYALOG, cette grammaire a permis de construire un analyseur syntaxique hybride TAG\/TIG utilis\u00e9 dans le cadre de la campagne d'\u00e9valuation syntaxique EASY.","translation":["","This paper presents a development environment for Meta-Grammars (MG), used to design, in a short period, a wide coverage but still very compact Tree Adjoining Grammar (TAG) for French, thanks to tree factorizations. Exploiting the functionalities provided by DYALOG system, an hybrid TAG\/TIG parser was compiled from the grammar and used for the EASY parsing evaluation campaign.","Meta-grammars, Parsing, TAG, TIG"],"keyphrases":["M\u00e9ta-grammaires","TAG","TIG","Analyse Syntaxique"],"prmu":["P","P","P","M"]} {"id":"taln-2005-long-002","title":"XMG : un Compilateur de M\u00e9ta-Grammaires Extensible","abstract":"Dans cet article, nous pr\u00e9sentons un outil permettant de produire automatiquement des ressources linguistiques, en l\u2019occurence des grammaires. Cet outil se caract\u00e9rise par son extensibilit\u00e9, tant du point de vue des formalismes grammaticaux support\u00e9s (grammaires d\u2019arbres adjoints et grammaires d\u2019interaction \u00e0 l\u2019heure actuelle), que de son architecture modulaire, qui facilite l\u2019int\u00e9gration de nouveaux modules ayant pour but de v\u00e9rifier la validit\u00e9 des structures produites. En outre, cet outil offre un support adapt\u00e9 au d\u00e9veloppement de grammaires \u00e0 port\u00e9e s\u00e9mantique.","translation":["","In this paper, we introduce a new tool for automatic generation of linguistic resources such as grammars. This tool\u2019s main feature consists of its extensibility from different points of view. On top of supporting several grammatical formalisms (Tree Adjoining Grammars and Interaction Grammars for now), it has a modular architecture which eases the integration of modules dedicated to the checking of the output structures. Furthermore, this tool offers adapted support to the development of grammars with semantic information.","Grammars, compilation, linguistic resources, Tree Adjoining Grammars, Interaction Grammars"],"keyphrases":["compilation","Grammaires","ressources linguistiques","Grammaires d\u2019Arbres Adjoints","Grammaires d\u2019Interaction"],"prmu":["P","P","P","P","P"]} {"id":"taln-2005-long-003","title":"Grammaire d'Unification Sens-Texte : modularit\u00e9 et polarisation","abstract":"L\u2019objectif de cet article est de pr\u00e9senter l\u2019\u00e9tat actuel du mod\u00e8le de la Grammaire d\u2019Unification Sens-Texte, notamment depuis que les bases formelles du mod\u00e8le ont \u00e9t\u00e9 \u00e9claircies gr\u00e2ce au d\u00e9veloppement des Grammaires d\u2019Unification Polaris\u00e9es. L\u2019accent est mis sur l\u2019architecture du mod\u00e8le et le r\u00f4le de la polarisation dans l\u2019articulation des diff\u00e9rents modules \u2014 l\u2019interface s\u00e9mantique-syntaxe, l\u2019interface syntaxe-morphotopologie et les grammaires d\u00e9crivant les diff\u00e9rents niveaux de repr\u00e9sentation. Nous \u00e9tudions comment les proc\u00e9dures d\u2019analyse et de g\u00e9n\u00e9ration sont contr\u00f4lables par diff\u00e9rentes strat\u00e9gies de neutralisation des diff\u00e9rentes polarit\u00e9s.","translation":["","This article presents the Meaning-Text Unification Grammar\u2019s current state, now that its formal foundations have been clarified with the development of Polarized Unification Grammars. Emphasis is put on the model\u2019s architecture and the role of polarization in linking the various modules \u2014 semantic-syntax interface, syntax-morphotopology interface and the well-formedness grammars of each representation level. We discuss how various polarity neutralization strategies can control different analysis and generation procedures.","Meaning-Text Theory, syntax-semantics interface, synchronization, polarized unification grammar, dependency grammar, topology grammar, text generation"],"keyphrases":["grammaire d\u2019unification polaris\u00e9e","Th\u00e9orie Sens-Texte","interface syntaxe-s\u00e9mantique","synchronisation","grammaire de d\u00e9pendance","grammaire topologique","g\u00e9n\u00e9ration de textes"],"prmu":["P","M","M","U","M","M","M"]} {"id":"taln-2005-long-004","title":"Indexation S\u00e9mantique par Coupes de Redondance Minimale dans une Ontologie","abstract":"Plusieurs travaux ant\u00e9rieurs ont fait \u00e9tat de l\u2019am\u00e9lioration possible des performances des syst\u00e8mes de recherche documentaire grace \u00e0 l\u2019utilisation d\u2019indexation s\u00e9mantique utilisant une ontologie (p.ex. WordNet). La pr\u00e9sente contribution d\u00e9crit une nouvelle m\u00e9thode visant \u00e0 r\u00e9duire le nombre de termes d\u2019indexation utilis\u00e9s dans une indexation s\u00e9mantique, en cherchant la coupe de redondance minimale dans la hi\u00e9rarchie fournie par l\u2019ontologie. Les r\u00e9sultats, obtenus sur diverses collections de documents en utilisant le dictionnaire EDR, sont pr\u00e9sent\u00e9s.","translation":["","Several former works have shown that it is possible to improve information retrieval performances using semantic indexing, adding additional information coming from a thesaurus (e.g.WordNet). This paper presents a new method to reduce the number of \"concepts\"used to index the documents, by determining a minimum redundancy cut in the hierarchy provided by the thesaurus. The results of experiments carried out on several standard document collections using the EDR thesaurus are presented.","Semantic Indexing, Information Retrieval, Minimal Redundancy, Ontology"],"keyphrases":["Indexation s\u00e9mantique","Redondance minimale","Ontologie","Recherche documentaire"],"prmu":["P","P","P","P"]} {"id":"taln-2005-long-005","title":"Recherche en corpus de r\u00e9ponses \u00e0 des questions d\u00e9finitoires","abstract":"Les syst\u00e8mes de questions-r\u00e9ponses, essentiellement focalis\u00e9s sur des questions factuelles en domaine ouvert, testent \u00e9galement d\u2019autres t\u00e2ches, comme le travail en domaine contraint ou la recherche de d\u00e9finitions. Nous nous int\u00e9ressons ici \u00e0 la recherche de r\u00e9ponses \u00e0 des questions \u00ab d\u00e9finitoires \u00bb portant sur le domaine m\u00e9dical. La recherche de r\u00e9ponses de type d\u00e9finitoire se fait g\u00e9n\u00e9ralement en utilisant deux types de m\u00e9thodes : celles s\u2019appuyant essentiellement sur le contenu du corpus cible, et celles faisant appel \u00e0 des connaissances externes. Nous avons choisi de nous limiter au premier de ces deux types de m\u00e9thodes. Nous pr\u00e9sentons une exp\u00e9rience dans laquelle nous r\u00e9utilisons des patrons de rep\u00e9rage d\u2019\u00e9nonc\u00e9s d\u00e9finitoires, con\u00e7us pour une autre t\u00e2che, pour localiser les r\u00e9ponses potentielles aux questions pos\u00e9es. Nous avons int\u00e9gr\u00e9 ces patrons dans une cha\u00eene de traitement que nous \u00e9valuons sur les questions d\u00e9finitoires et le corpus m\u00e9dical du projet EQueR sur l\u2019\u00e9valuation de syst\u00e8mes de questions-r\u00e9ponses. Cette \u00e9valuation montre que, si le rappel reste \u00e0 am\u00e9liorer, la \u00ab pr\u00e9cision \u00bb des r\u00e9ponses obtenue (mesur\u00e9e par la moyenne des inverses de rangs) est honorable. Nous discutons ces r\u00e9sultats et proposons des pistes d\u2019am\u00e9lioration.","translation":["","Question-answering systems mostly focus on open-domain, factoid questions, but also test other tasks such as restricted-domain and \u00ab definitional \u00bb questions. We address here the search for definitional questions in the medical domain. Searching for answers to definitional questions generally resorts to two kinds of methods : those which mostly rely on the contents of the target corpus, and those which call on external resources. We have chosen to limit ourselves to the first kind. We present an experiment in which we reuse lexico-syntactic patterns, formerly designed for another task, to locate answers to definitional questions. We have integrated these patterns in a processing chain which we evaluate on the medical definitional questions and corpus of project EQueR (evaluation of French QA systems). This evaluation shows that, while recall still needs to be increased, the \u00ab precision \u00bb of the obtained answers (as measured through the mean reciprocal rank) is honorable. We discuss these results and propose directions for improvement.","Question-answering systems, mining definitions, lexico-syntactic patterns, medicine"],"keyphrases":["Syst\u00e8mes de questions-r\u00e9ponses","rep\u00e9rage d\u2019\u00e9nonc\u00e9s d\u00e9finitoires","patrons lexico-syntaxiques","m\u00e9decine"],"prmu":["P","P","M","U"]} {"id":"taln-2005-long-006","title":"QRISTAL, syst\u00e8me de Questions-R\u00e9ponses","abstract":"QRISTAL (Questions-R\u00e9ponses Int\u00e9grant un Syst\u00e8me de Traitement Automatique des Langues) est un syst\u00e8me de questions-r\u00e9ponses utilisant massivement le TAL, tant pour l'indexation des documents que pour l'extraction des r\u00e9ponses. Ce syst\u00e8me s\u2019est r\u00e9cemment class\u00e9 premier lors de l\u2019\u00e9valuation EQueR (Evalda, Technolanguez). Apr\u00e8s une description fonctionnelle du syst\u00e8me, ses performances sont d\u00e9taill\u00e9es. Ces r\u00e9sultats et des tests compl\u00e9mentaires permettent de mieux situer l'apport des diff\u00e9rents modules de TAL. Les r\u00e9actions des premiers utilisateurs incitent enfin \u00e0 une r\u00e9flexion sur l'ergonomie et les contraintes des syst\u00e8mes de questions-r\u00e9ponses, face aux outils de recherche sur le Web.","translation":["","QRISTAL is a question answering system which makes intensive use of natural language processing techniques, for indexing documents as well as for extracting answers. This system recently ranked first in the EQueR evaluation exercise (Evalda, Technolanguez). After a functional description of the system, its results in the EQueR exercise are detailed. These results and some additional tests allow to evaluate the contribution of each NLP component. The feedback of the first QRISTAL users encourage further thoughts about the ergonomics and the constraints of question answering systems, faced with the Web search engines.","Question Answering system, information retrieval, Question Answering evaluation, answer extraction, Web search strategy, QRISTAL"],"keyphrases":["QRISTAL","Syst\u00e8me de questions-r\u00e9ponses","extraction de r\u00e9ponse","recherche sur le Web","recherche d'information","\u00e9valuation des syst\u00e8mes de questions-r\u00e9ponses"],"prmu":["P","P","P","P","M","R"]} {"id":"taln-2005-long-007","title":"Morphos\u00e9mantique pour l'appariement de termes dans le vocabulaire m\u00e9dical : approche multilingue","abstract":"Cet article s'int\u00e9resse \u00e0 la mani\u00e8re dont la morphos\u00e9mantique peut contribuer \u00e0 l'appariement multilingue de variantes terminologiques entre termes. L'approche d\u00e9crite permet de relier automatiquement entre eux les noms et adjectifs compos\u00e9s savants d'un corpus sp\u00e9cialis\u00e9 en m\u00e9decine (synonymie, hyponymie, approximation). L'acquisition de relations lexicales est une question particuli\u00e8rement cruciale lors de l'\u00e9laboration de bases de donn\u00e9es et de syst\u00e8mes de recherche d'information multilingues. La m\u00e9thode est applicable \u00e0 au moins cinq langues europ\u00e9ennes dont elle exploite les caract\u00e9ristiques morphologiques similaires des mots compos\u00e9s dans les langues de sp\u00e9cialit\u00e9. Elle consiste en l'int\u00e9raction de trois dispositifs : (1) un analyseur morphos\u00e9mantique monolingue, (2) une table multilingue qui d\u00e9finit des relations de base entre les racines gr\u00e9co-latines des lex\u00e8mes savants, (3) quatre r\u00e8gles ind\u00e9pendantes de la langue qui inf\u00e8rent, \u00e0 partir de ces relations de base, les relations lexicales entre les lex\u00e8mes contenant ces racines. L'approche d\u00e9crite est impl\u00e9ment\u00e9e en fran\u00e7ais, o\u00f9 l'on dispose d'un analyseur morphologique capable de calculer la d\u00e9finition de mots construits inconnus \u00e0 partir du sens de ses composants. Le corpus de travail est un lexique sp\u00e9cialis\u00e9 m\u00e9dical d'environ 29000 lex\u00e8mes, que le calcul des relations de synonymie, hyponymie et approximation a permis de regrouper en plus de 3000 familles lexicales.","translation":["","This paper addresses the issue of the interaction between morphosemantics and term variants extraction. The described method enables neoclassical compound nouns and adjectives of a biomedical specialized corpus to be automatically related by synonymy, hyponymy and approximation links. Acquiring lexical relations is a particularly crucial issue when elaborating multilingual databases and when developing cross-language information retrieval systems. This method can be applied at least to five European languages and exploits the similarity between the morphological characteristics of compound words in specialized domains. It requires the interaction of three techniques: (1) a language-specific morphosemantic parser, (2) a multilingual table defining basic relations between word roots, and (3) a set of language-independant rules to draw up the list of related terms. This approach has been fully implemented for French, on an about 29,000 terms biomedical lexicon, resulting to more than 3,000 lexical families.","morphology, semantics, multilingualism, neoclassical compounding, lexical relation, medical terminology"],"keyphrases":["multilinguisme","relation lexicale","morphologie","s\u00e9mantique","composition savante","terminologie m\u00e9dicale"],"prmu":["P","P","P","U","M","R"]} {"id":"taln-2005-long-008","title":"Extraction semi-supervis\u00e9e de couples d'antonymes gr\u00e2ce \u00e0 leur morphologie","abstract":"Dans le cadre de la recherche sur la repr\u00e9sentation du sens en Traitement Automatique des Langues Naturelles, nous nous concentrons sur la construction d\u2019un syst\u00e8me capable d\u2019acqu\u00e9rir le sens des mots, et les relations entre ces sens, \u00e0 partir de dictionnaires \u00e0 usage humain, du Web ou d\u2019autres ressources lexicales. Pour l\u2019antonymie, il n\u2019existe pas de listes s\u00e9parant les antonymies compl\u00e9mentaire, scalaire et duale. Nous pr\u00e9sentons dans cet article une approche semi-supervis\u00e9e permettant de construire ces listes. Notre m\u00e9thode est bas\u00e9e sur les oppositions de nature morphologique qui peuvent exister entre les items lexicaux. \u00c0 partir d\u2019un premier ensemble de couples antonymes, elle permet non seulement de construire ces listes mais aussi de trouver des oppositions morphologiques. Nous \u00e9tudions les r\u00e9sultats obtenus par cette m\u00e9thode. En particulier, nous pr\u00e9sentons les oppositions de pr\u00e9fixes ainsi d\u00e9couvertes et leur validit\u00e9 sur le corpus puis nous discutons de la r\u00e9partition des types d\u2019antonymie en fonction des couples oppos\u00e9s de pr\u00e9fixes.","translation":["","In the framework of meaning representation in Natural Language Processing, we focus on enabling a system to autonomously learn word meanings and semantic relations from user dictionaries, web contents and other lexical resources. For antonymy, as a lexical semantic relation, no resource provides distinctions between complementary, scalar and dual antonymies. In this paper, we present a semi-supervized method to collate such lists, based on operating morphological opposition holding between lexical items. The approach presented here starts from a bootstraped initial list. It is able to augment such lists but also to find out morphological oppositions. We scrutinize the obtained results and discuss the distribution of antonymy types.","antonymy, morphology, complementar antonymy, scalar antonymy, dual antonymy, statistic distribution"],"keyphrases":["antonymie","morphologie","antonymie compl\u00e9mentaire","antonymie scalaire","antonymie duale","r\u00e9partition statistique"],"prmu":["P","P","P","R","R","M"]} {"id":"taln-2005-long-009","title":"Utilisation de corpus de sp\u00e9cialit\u00e9 pour le filtrage de synonymes de la langue g\u00e9n\u00e9rale","abstract":"Les ressources linguistiques les plus facilement disponibles en TAL ressortissent g\u00e9n\u00e9ralement au registre g\u00e9n\u00e9ral d\u2019une langue. Lorsqu\u2019elles doivent \u00eatre utilis\u00e9es sur des textes de sp\u00e9cialit\u00e9 il peut \u00eatre utile de les adapter \u00e0 ces textes. Cet article est consacr\u00e9 \u00e0 l\u2019adaptation de ressources synonymiques g\u00e9n\u00e9rales \u00e0 la langue m\u00e9dicale. L\u2019adaptation est obtenue suite \u00e0 une s\u00e9rie de filtrages sur un corpus du domaine. Les synonymes originaux et les synonymes filtr\u00e9s sont ensuite utilis\u00e9s comme une des ressources pour la normalisation de variantes de termes dans une t\u00e2che de structuration de terminologie. Leurs apports respectifs sont \u00e9valu\u00e9s par rapport \u00e0 la structure terminologique de r\u00e9f\u00e9rence. Cette \u00e9valuation montre que les r\u00e9sultats sont globalement encourageants apr\u00e8s les filtrages, pour une t\u00e2che comme la structuration de terminologies : une am\u00e9lioration de la pr\u00e9cision contre une l\u00e9g\u00e8re diminution du rappel.","translation":["","General language resources are often more easily available for NLP applications. When using them to process specialized texts it might be useful to adapt them to these texts. This paper describes experiments in adapting general language synonymous resources to the medical domain. A set of filtering methods through a domain corpora is applied. Original and filtered synonyms are then used for normalizing term variation in a terminology structuring task. Their relative contributions are evaluated in comparison with the original structure of the reference terminology. This evaluation shows that the overall results are encouraging, as for the terminology structuring task : improvement of precision while recall is slightly decreased.","Specialized language, general language, terminology structuring, synonyms, portability, filtering"],"keyphrases":["filtrage","synonymes","langue g\u00e9n\u00e9rale","structuration de terminologies","Langue de sp\u00e9cialit\u00e9","portabilit\u00e9"],"prmu":["P","P","P","P","R","U"]} {"id":"taln-2005-long-010","title":"Combiner analyse superficielle et profonde : bilan et perspectives","abstract":"L\u2019analyse syntaxique reste un probl\u00e8me complexe au point que nombre d\u2019applications n\u2019ont recours qu\u2019\u00e0 des analyseurs superficiels. Nous faisons dans cet article le point sur les notions d\u2019analyse superficielles et profondes en proposant une premi\u00e8re caract\u00e9risation de la notion de complexit\u00e9 op\u00e9rationnelle pour l\u2019analyse syntaxique automatique permettant de distinguer objets et relations plus ou moins difficiles \u00e0 identifier. Sur cette base, nous proposons un bilan des diff\u00e9rentes techniques permettant de caract\u00e9riser et combiner analyse superficielle et profonde.","translation":["","Deep parsing remains a problem for NLP so that many applications has to use shallow parsers. We propose in this paper a presentation of the different characteristics of shallow and deep parsing techniques relying on the notion of operational complexity. We present different approaches combining these techniques and propose a new approach making it possible to use the output of a shallow parser as the input of a deep one.","Parsing, shallow and deep parsing"],"keyphrases":["analyse superficielle","Analyse syntaxique","analyse profonde"],"prmu":["P","P","R"]} {"id":"taln-2005-long-011","title":"Cha\u00eenes de traitement syntaxique","abstract":"Cet article expose l\u2019ensemble des outils que nous avons mis en oeuvre pour la campagne EASy d\u2019\u00e9valuation d\u2019analyse syntaxique. Nous commen\u00e7ons par un aper\u00e7u du lexique morphologique et syntaxique utilis\u00e9. Puis nous d\u00e9crivons bri\u00e8vement les propri\u00e9t\u00e9s de notre cha\u00eene de traitement pr\u00e9-syntaxique qui permet de g\u00e9rer des corpus tout-venant. Nous pr\u00e9sentons alors les deux syst\u00e8mes d\u2019analyse que nous avons utilis\u00e9s, un analyseur TAG issu d\u2019une m\u00e9ta-grammaire et un analyseur LFG. Nous comparons ces deux syst\u00e8mes en indiquant leurs points communs, comme l\u2019utilisation intensive du partage de calcul et des repr\u00e9sentations compactes de l\u2019information, mais \u00e9galement leurs diff\u00e9rences, au niveau des formalismes, des grammaires et des analyseurs. Nous d\u00e9crivons ensuite le processus de post-traitement, qui nous a permis d\u2019extraire de nos analyses les informations demand\u00e9es par la campagne EASy. Nous terminons par une \u00e9valuation quantitative de nos architectures.","translation":["","This paper presents the set of tools we used for the EASy parsing evaluation campaign. We begin with an overview of the morphologic and syntactic lexicon we used. Then we briefly describe the properties of our pre-syntactic processing that allows us to deal with real-life corpus. Afterwards, we introduce the two parsers we used, namely a TAG parser based on a meta-grammar and an LFG parser. We compare these parsers, showing their common points, e.g., the extensive use of tabulation and compact representation techniques, but also their differences, concerning formalisms, grammars and parsers. We then describe the postprocessing that allowed us to extract from our analyses the data required by the EASy campaign. We conclude with a quantitative evaluation of our architectures.","Parsing, Evaluation"],"keyphrases":["\u00e9valuation","Analyse syntaxique"],"prmu":["P","P"]} {"id":"taln-2005-long-012","title":"Direkt Profil : un syst\u00e8me d'\u00e9valuation de textes d'\u00e9l\u00e8ves de fran\u00e7ais langue \u00e9trang\u00e8re fond\u00e9 sur les itin\u00e9raires d'acquisition","abstract":"Direkt Profil est un analyseur automatique de textes \u00e9crits en fran\u00e7ais comme langue \u00e9trang\u00e8re. Son but est de produire une \u00e9valuation du stade de langue des \u00e9l\u00e8ves sous la forme d\u2019un profil d\u2019apprenant. Direkt Profil r\u00e9alise une analyse des phrases fond\u00e9e sur des itin\u00e9raires d\u2019acquisition, i.e. des ph\u00e9nom\u00e8nes morphosyntaxiques locaux li\u00e9s \u00e0 un d\u00e9veloppement dans l\u2019apprentissage du fran\u00e7ais. L\u2019article pr\u00e9sente les corpus que nous traitons et d\u2019une fa\u00e7on sommaire les itin\u00e9raires d\u2019acquisition. Il d\u00e9crit ensuite l\u2019annotation que nous avons d\u00e9finie, le moteur d\u2019analyse syntaxique et l\u2019interface utilisateur. Nous concluons par les r\u00e9sultats obtenus jusqu\u2019ici : sur le corpus de test, le syst\u00e8me obtient un rappel de 83% et une pr\u00e9cision de 83%.","translation":["","Direkt Profil is an automatic analyzer of texts written in French as a second language. The objective is to produce an evaluation of the development stage of the students under the form of a learner profile. Direkt Profil carries out a sentence analysis based on developmental sequences, i.e. local morphosyntactic phenomena linked to a development in the learning of French. The paper presents the corpus that we use and briefly, the developmental sequences. Furthermore, it describes the annotation that we have defined, the parser, and the user interface. We conclude by the results obtained so far: on the test corpus the systems obtains a recall of 83% and a precision of 83%.","second language French, developmental sequences, evaluation, annotation, partial parsing"],"keyphrases":["\u00e9valuation","fran\u00e7ais langue \u00e9trang\u00e8re","itin\u00e9raires d\u2019acquisition","annotation","analyse syntaxique partielle"],"prmu":["P","P","P","P","M"]} {"id":"taln-2005-long-013","title":"ILIMP: Outil pour rep\u00e9rer les occurences du pronom impersonnel il","abstract":"Nous pr\u00e9sentons un outil, ILIMP, qui prend en entr\u00e9e un texte brut (sans annotation linguistique) r\u00e9dig\u00e9 en fran\u00e7ais et qui fournit en sortie le texte d'entr\u00e9e o\u00f9 chaque occurrence du pronom il est d\u00e9cor\u00e9e de la balise [ANAphorique] ou [IMPersonnel]. Cet outil a donc comme fonctionnalit\u00e9 de distinguer les occurrences anaphoriques du pronom il, pour lesquelles un syst\u00e8me de r\u00e9solution des anaphores doit chercher un ant\u00e9c\u00e9dent, des occurrences o\u00f9 il est un pronom impersonnel (expl\u00e9tif) pour lequel la recherche d'ant\u00e9c\u00e9dent ne fait pas sens. ILIMP donne un taux de pr\u00e9cision de 97,5%. Nous pr\u00e9sentons une analyse d\u00e9taill\u00e9e des erreurs et nous d\u00e9crivons bri\u00e8vement d'autres applications potentielles de la m\u00e9thode utilis\u00e9e dans ILIMP, ainsi que l\u2019utilisation et le positionnement d\u2019ILIMP dans un syst\u00e8me d\u2019analyse syntaxique modulaire.","translation":["","We present a tool, ILIMP, which takes as input a French raw text and which produces as output the input text in which every occurrence of the word il is tagged either with the tag [ANA] for anaphoric or [IMP] for expletive. This tool is therefore designed to distinguish the anaphoric occurrences of il, for which an anaphora resolution system has to look for an antecedent, from the expletive occurrences of this pronoun, for which it does not make sense to look for an antecedent. The precision rate for ILIMP is 97,5%. The few errors are analyzed in detail. Other tasks using the method for ILIMP are described briefly, as well as the use of ILIMP in a modular syntactic analysis system.","Expletive pronouns, Anaphoric pronouns, Lexicon-Grammar, Automata, Anaphora resolution, Modular syntactic analysis"],"keyphrases":["Pronom impersonnel (expl\u00e9tif)","Analyse syntaxique modulaire","Pronom anaphorique","Lexique-grammaire","Automates","R\u00e9solution d'anaphores"],"prmu":["P","P","R","U","U","R"]} {"id":"taln-2005-long-014","title":"Que : la valse des \u00e9tiquettes","abstract":"Nous pr\u00e9sentons ici une strat\u00e9gie d\u2019\u00e9tiquetage et d\u2019analyse syntaxique de que. Cette forme est en effet susceptible d\u2019appartenir \u00e0 trois cat\u00e9gories diff\u00e9rentes et d\u2019avoir de multiples emplois pour chacune de ces cat\u00e9gories. Notre objectif est aussi bien d\u2019en assurer un \u00e9tiquetage correct que d\u2019annoter les relations de d\u00e9pendance que que entretient avec les autres mots de la phrase. Les deux \u00e9tapes de l\u2019analyse mobilisent des ressources diff\u00e9rentes.","translation":["","In this paper I present a method for tagging and parsing the grammatical word que. This word is particularly difficult to tag because it may belong to three different categories and may give rise to many constructions for each category. My aim is to assign the correct tag and to annotate dependency relations between que and the other words of the sentence.","Automatic parsing, tagging"],"keyphrases":["Analyse syntaxique automatique","\u00e9tiquetage morphosyntaxique"],"prmu":["M","M"]} {"id":"taln-2005-long-015","title":"Un syst\u00e8me Multi-Agent pour la d\u00e9tection et la correction des erreurs cach\u00e9es en langue Arabe","abstract":"Cet article s\u2019int\u00e9resse au probl\u00e8me des erreurs orthographiques produisant des mots lexicalement corrects dans des textes en langue arabe. Apr\u00e8s la description de l\u2019influence des sp\u00e9cificit\u00e9s de la langue arabe sur l\u2019augmentation du risque de commettre ces fautes cach\u00e9es, nous proposons une classification hi\u00e9rarchique de ces erreurs en deux grandes cat\u00e9gories ; \u00e0 savoir syntaxique et s\u00e9mantique. Nous pr\u00e9sentons, \u00e9galement, l\u2019architecture multi-agent que nous avons adopt\u00e9e pour la d\u00e9tection et la correction des erreurs cach\u00e9es en textes arabes. Nous examinons alors, les comportements sociaux des agents au sein de leurs organisations respectives et de leur environnement. Nous exposons vers la fin la mise en place et l\u2019\u00e9valuation du syst\u00e8me r\u00e9alis\u00e9.","translation":["","In this paper, we address the problem of detecting and correcting hidden spelling errors in Arabic texts. Hidden spelling errors are morphologically valid words and therefore they cannot be detected or corrected by conventional spell checking programs. In the work presented here, we investigate this kind of errors as they relate to the Arabic language. We start by proposing a classification of these errors in two main categories: syntactic and semantic, then we present our multi-agent system for hidden spelling errors detection and correction. The multi-agent architecture is justified by the need for collaboration, parallelism and competition, in addition to the need for information exchange between the different analysis phases. Finally, we describe the testing framework used to evaluate the system implemented.","Hidden spelling errors, Detection, Correction, Multi-Agent System, Linguistic analysis, Arabic language"],"keyphrases":["D\u00e9tection","Correction","Langue arabe","Erreurs orthographiques cach\u00e9es","Syst\u00e8me multiagent","Analyse linguistique"],"prmu":["P","P","P","R","M","U"]} {"id":"taln-2005-long-016","title":"Structure des repr\u00e9sentations logiques et interface s\u00e9mantique-syntaxe","abstract":"Cet article s\u2019int\u00e9resse \u00e0 la structure des repr\u00e9sentations logiques des \u00e9nonc\u00e9s en langue naturelle. Par repr\u00e9sentation logique, nous entendons une repr\u00e9sentation s\u00e9mantique incluant un traitement de la port\u00e9e des quantificateurs. Nous montrerons qu\u2019une telle repr\u00e9sentation combine fondamentalement deux structures sous-jacentes, une structure \u00ab pr\u00e9dicative \u00bb et une structure hi\u00e9rarchique logique, et que la distinction des deux permet, par exemple, un traitement \u00e9l\u00e9gant de la sous-sp\u00e9cification. Nous proposerons une grammaire polaris\u00e9e pour manipuler directement la structure des repr\u00e9sentations logiques (sans passer par un langage lin\u00e9aire avec variables), ainsi qu\u2019une grammaire pour l\u2019interface s\u00e9mantique-syntaxe.","translation":["","This paper aims at the structure of logic representations in natural languages. By logic representation we mean a semantic representation including a quantifier scope processing. We show that such a representation basically combines two underlying substructures, a \u201cpredicative\u201d structure and a logic hierarchic structure, and that the identification of the two allows for an elegant processing of underspecification. We will propose a polarized grammar that directly handles the structure of logic representations (without using a linear language with variables), as well as a grammar for the semantics-syntax interface.","First order logic, predicate calculus, semantic representation, predicate-argument relation, quantifier, polarized unification grammar, dependency grammar, dag, syntax-semantics interface"],"keyphrases":["repr\u00e9sentation s\u00e9mantique","quantificateur","Logique du premier ordre","calcul des pr\u00e9dicats","relation pr\u00e9dicatargument","grammaire d\u2019unification polaris\u00e9e","grammaire de d\u00e9pendance","dag","interface syntaxe-s\u00e9mantique"],"prmu":["P","P","M","M","U","M","M","U","M"]} {"id":"taln-2005-long-018","title":"Sur le statut r\u00e9f\u00e9rentiel des entit\u00e9s nomm\u00e9es","abstract":"Nous montrons dans cet article qu\u2019une m\u00eame entit\u00e9 peut \u00eatre d\u00e9sign\u00e9e de multiples fa\u00e7ons et que les noms d\u00e9signant ces entit\u00e9s sont par nature polys\u00e9miques. L\u2019analyse ne peut donc se limiter \u00e0 une tentative de r\u00e9solution de la r\u00e9f\u00e9rence mais doit mettre en \u00e9vidence les possibilit\u00e9s de nommage s\u2019appuyant essentiellement sur deux op\u00e9rations de nature linguistique : la synecdoque et la m\u00e9tonymie. Nous pr\u00e9sentons enfin une mod\u00e9lisation permettant de rendre explicite les diff\u00e9rentes d\u00e9signations en discours, en unifiant le mode de repr\u00e9sentation des connaissances linguistiques et des connaissances sur le monde.","translation":["","We show in this paper that, on the one hand, named entities can be designated using different denominations and that, on the second hand, names denoting named entities are polysemous. The analysis cannot be limited to reference resolution but should take into account naming strategies, which are mainly based on two linguistic operations: synecdoche and metonymy. Lastly, we present a model that explicitly represents the different denominations in discourse, unifying the way to represent linguistic knowledge and world knowledge.","Named entities, reference, lexical semantics"],"keyphrases":["r\u00e9f\u00e9rence","Entit\u00e9s nomm\u00e9es","s\u00e9mantique lexicale"],"prmu":["P","P","U"]} {"id":"taln-2005-long-019","title":"Production automatique du r\u00e9sum\u00e9 de textes juridiques: \u00e9valuation de qualit\u00e9 et d'acceptabilit\u00e9","abstract":"Nous d\u00e9crivons un projet de production de r\u00e9sum\u00e9 automatique de textes pour le domaine juridique pour lequel nous avons utilis\u00e9 un corpus des jugements de la cour f\u00e9d\u00e9rale du Canada. Nous pr\u00e9sentons notre syst\u00e8me de r\u00e9sum\u00e9 LetSum ainsi que l\u2019\u00e9valuation des r\u00e9sum\u00e9s produits. L\u2019\u00e9valuation de 120 r\u00e9sum\u00e9s par 12 avocats montre que la qualit\u00e9 des r\u00e9sum\u00e9s produits par LetSum est comparable avec celle des r\u00e9sum\u00e9s \u00e9crits par des humains.","translation":["","We describe an automatic text summarisation project for the legal domain for which we use a corpus of judgments of the federal court of Canada. We present our summarization system, called LetSum and the evaluation of produced summaries. The evaluation of 120 summaries by 12 lawyers shows that the quality of the summaries produced by LetSum is approximately at the same level as the summaries written by humans.","automatic text summarization, summary table, legals texts, evaluation of a summary"],"keyphrases":["textes juridiques","r\u00e9sum\u00e9 automatique","fiches de r\u00e9sum\u00e9","\u00e9valuation d\u2019un r\u00e9sum\u00e9"],"prmu":["P","P","M","M"]} {"id":"taln-2005-long-020","title":"Utilisation de la structure morpho-syntaxique des phrases dans le r\u00e9sum\u00e9 automatique","abstract":"Nous proposons une technique de r\u00e9sum\u00e9 automatique de textes par contraction de phrases. Notre approche se fonde sur l\u2019\u00e9tude de la fonction syntaxique et de la position dans l\u2019arbre syntaxique des constituants des phrases. Apr\u00e8s avoir d\u00e9fini la notion de constituant, et son r\u00f4le dans l\u2019apport d\u2019information, nous analysons la perte de contenu et de coh\u00e9rence discursive que la suppression de constituants engendre. Nous orientons notre m\u00e9thode de contraction vers les textes narratifs. Nous s\u00e9lectionnons les constituants \u00e0 supprimer avec un syst\u00e8me de r\u00e8gles utilisant les arbres et variables de l\u2019analyse morpho-syntaxique de SYGFRAN [Cha84]. Nous obtenons des r\u00e9sultats satisfaisants au niveau de la phrase mais insuffisants pour un r\u00e9sum\u00e9 complet. Nous expliquons alors l\u2019utilit\u00e9 de notre syst\u00e8me dans un processus plus g\u00e9n\u00e9ral de r\u00e9sum\u00e9 automatique.","translation":["","We propose an automated text summarization through sentence compression. Our approach uses constituent syntactic function and position in the sentence syntactic tree. We first define the idea of a constituent as well as its role as an information provider, before analyzing contents and discourse consistency losses caused by deleting such a constituent. We explain why our method works best with narrative texts. With a rule-based system using SYGFRAN\u2019s morpho-syntactic analysis for French [Cha84], we select removable constituents. Our results are satisfactory at the sentence level but less effective at the whole text level. So we explain the usefulness of our system in a more general automatic summarization process.","automatic summarization, sentence compression, syntactic analysis"],"keyphrases":["r\u00e9sum\u00e9 automatique","compression de phrases","analyse syntaxique"],"prmu":["P","M","R"]} {"id":"taln-2005-long-021","title":"Am\u00e9lioration de la segmentation automatique des textes gr\u00e2ce aux connaissances acquises par l'analyse s\u00e9mantique latente","abstract":"Choi, Wiemer-Hastings et Moore (2001) ont propos\u00e9 d'employer l'analyse s\u00e9mantique latente (ASL) pour extraire des connaissances s\u00e9mantiques \u00e0 partir de corpus afin d'am\u00e9liorer l'efficacit\u00e9 d'un algorithme de segmentation des textes. En comparant l'efficacit\u00e9 du m\u00eame algorithme selon qu'il prend en compte des connaissances s\u00e9mantiques compl\u00e9mentaires ou non, ils ont pu montrer les b\u00e9n\u00e9fices apport\u00e9s par ces connaissances. Dans leurs exp\u00e9riences cependant, les connaissances s\u00e9mantiques avaient \u00e9t\u00e9 extraites d'un corpus qui contenait les textes \u00e0 segmenter dans la phase de test. Si cette hypersp\u00e9cificit\u00e9 du corpus d'apprentissage explique la plus grande partie de l'avantage observ\u00e9, on peut se demander s'il est possible d'employer l'ASL pour extraire des connaissances s\u00e9mantiques g\u00e9n\u00e9riques pouvant \u00eatre employ\u00e9es pour segmenter de nouveaux textes. Les deux exp\u00e9riences pr\u00e9sent\u00e9es ici montrent que la pr\u00e9sence dans le corpus d'apprentissage du mat\u00e9riel de test a un effet important, mais \u00e9galement que les connaissances s\u00e9mantiques g\u00e9n\u00e9riques d\u00e9riv\u00e9es de grands corpus am\u00e9liorent l'efficacit\u00e9 de la segmentation.","translation":["","Choi, Wiemer-Hastings and Moore (2001) proposed to use latent Semantic Analysis to extract semantic knowledge from corpora in order to improve the accuracy of a text segmentation algorithm. By comparing the accuracy of the very same algorithm depending on whether or not it takes into account complementary semantic knowledge, they were able to show the benefit derived from such knowledge. In their experiments, semantic knowledge was, however, acquired from a corpus containing the texts to be segmented in the test phase. If this hyper-specificity of the training corpus explains the largest part of the benefit, one may wonder if it is possible to use LSA to acquire generic semantic knowledge that can be used to segment new texts. The two experiments reported here show that the presence of the test materials in the training corpus has an important effect, but also that the generic semantic knowledge derived from large corpora clearly improves the segmentation accuracy.","Automatic text segmentation, Latent semantic analysis (LSA)"],"keyphrases":["Segmentation automatique de textes","Analyse s\u00e9mantique latente (ASL)"],"prmu":["P","P"]} {"id":"taln-2005-long-022","title":"D\u00e9tection Automatique de Structures Fines du Discours","abstract":"Dans ce papier, nous pr\u00e9sentons un syst\u00e8me de D\u00e9tection de Structures fines de Texte (appel\u00e9 DST). DST utilise un mod\u00e8le pr\u00e9dictif obtenu par un algorithme d\u2019apprentissage qui, pour une configuration d\u2019indices discursifs donn\u00e9s, pr\u00e9dit le type de relation de d\u00e9pendance existant entre deux \u00e9nonc\u00e9s. Trois types d\u2019indices discursifs ont \u00e9t\u00e9 consid\u00e9r\u00e9s (des relations lexicales, des connecteurs et un parall\u00e9lisme syntaxico-s\u00e9mantique) ; leur rep\u00e9rage repose sur des heuristiques. Nous montrons que notre syst\u00e8me se classe parmi les plus performants.","translation":["","In this paper, we present a system which aims at detecting fine-grained text structures (we call it DST). Based on discursive clues, DST uses a learning model to predict dependency relations between two given utterances. As discourse clues, we consider lexical relations, connectors and key phrases, and parallelism. We show that our system implements an improvement over current systems.","Text browsing, topic analysis, text structures, discursive relations, subordination and coordination, lexical, syntactic and semantic parallelism, learning model, linguistic analysis"],"keyphrases":["Navigation intra-documentaire","analyse th\u00e9matique","structures du discours","relations discursives","subordination et coordination","parall\u00e9lisme lexico-syntaxico-s\u00e9mantique","mod\u00e8le d\u2019apprentissage","analyses linguistiques"],"prmu":["U","U","R","R","M","M","R","U"]} {"id":"taln-2005-long-023","title":"Paradocs: un syst\u00e8me d'identification automatique de documents parall\u00e8les","abstract":"Les corpus parall\u00e8les sont d\u2019une importance capitale pour les applications multilingues de traitement automatique des langues. Malheureusement, leur raret\u00e9 est le maillon faible de plusieurs applications d\u2019int\u00e9r\u00eat. Extraire de tels corpus duWeb est une solution viable, mais elle introduit une nouvelle probl\u00e9matique : il n\u2019est pas toujours trivial d\u2019identifier les documents parall\u00e8les parmi tous ceux qui ont \u00e9t\u00e9 extraits. Dans cet article, nous nous int\u00e9ressons \u00e0 l\u2019identification automatique des paires de documents parall\u00e8les contenues dans un corpus bilingue. Nous montrons que cette t\u00e2che peut \u00eatre accomplie avec pr\u00e9cision en utilisant un ensemble restreint d\u2019invariants lexicaux. Nous \u00e9valuons \u00e9galement notre approche sur une t\u00e2che de traduction automatique et montrons qu\u2019elle obtient des r\u00e9sultats sup\u00e9rieurs \u00e0 un syst\u00e8me de r\u00e9f\u00e9rence faisant usage d\u2019un lexique bilingue.","translation":["","Parallel corpora are playing a crucial role in multilingual natural language processing. Unfortunately, the availability of such a resource is the bottleneck in most applications of interest. Mining the web for such a resource is a viable solution that comes at a price : it is not always easy to identify parallel documents among the crawled material. In this study we address the problem of automatically identifying the pairs of texts that are translation of each other in a set of documents. We show that it is possible to automatically build particularly efficient content-based methods that make use of very little lexical knowledge. We also evaluate our approach toward a front-end translation task and demonstrate that our parallel text classifier yields better performances than another approach based on a rich lexicon.","Parallel documents, machine learning, machine translation"],"keyphrases":["Corpus parall\u00e8les","traduction automatique","apprentissage automatique"],"prmu":["P","P","M"]} {"id":"taln-2005-long-024","title":"Une approche \u00e0 la traduction automatique statistique par segments discontinus","abstract":"Cet article pr\u00e9sente une m\u00e9thode de traduction automatique statistique bas\u00e9e sur des segments non-continus, c\u2019est-\u00e0-dire des segments form\u00e9s de mots qui ne se pr\u00e9sentent pas n\u00e9c\u00e9ssairement de fa\u00e7on contigu\u00eb dans le texte. On propose une m\u00e9thode pour produire de tels segments \u00e0 partir de corpus align\u00e9s au niveau des mots. On pr\u00e9sente \u00e9galement un mod\u00e8le de traduction statistique capable de tenir compte de tels segments, de m\u00eame qu\u2019une m\u00e9thode d\u2019apprentissage des param\u00e8tres du mod\u00e8le visant \u00e0 maximiser l\u2019exactitude des traductions produites, telle que mesur\u00e9e avec la m\u00e9trique NIST. Les traductions optimales sont produites par le biais d\u2019une recherche en faisceau. On pr\u00e9sente finalement des r\u00e9sultats exp\u00e9rimentaux, qui d\u00e9montrent comment la m\u00e9thode propos\u00e9e permet une meilleure g\u00e9n\u00e9ralisation \u00e0 partir des donn\u00e9es d\u2019entra\u00eenement.","translation":["","This paper presents a phrase-based statistical machine translation method, based on non-contiguous phrases, i.e. phrases with gaps. A method for producing such phrases from a word-aligned corpora is proposed. A statistical translation model is also presented that deals with such phrases, as well as a training method based on the maximization of translation accuracy, as measured with the NIST evaluation metric. Translations are produced by means of a beam-search decoder. Experimental results are presented, that demonstrate how the proposed method allows to better generalize from the training data.","statistical machine translation, discontinuous phrases, log-linear models"],"keyphrases":["traduction automatique statistique","segments discontinus","mod\u00e8les log-lin\u00e9aires"],"prmu":["P","P","M"]} {"id":"taln-2005-long-025","title":"Alignement de mots par apprentissage de r\u00e8gles de propagation syntaxique en corpus de taille restreinte","abstract":"Cet article pr\u00e9sente et \u00e9value une approche originale et efficace permettant d\u2019aligner automatiquement un bitexte au niveau des mots. Pour cela, cette approche tire parti d\u2019une analyse syntaxique en d\u00e9pendances des bitextes effectu\u00e9e par les outils SYNTEX et utilise une technique d\u2019apprentissage artificiel, la programmation logique inductive, pour apprendre automatiquement des r\u00e8gles dites de propagation. Celles-ci se basent sur les informations syntaxiques connues pour ensuite aligner les mots avec une grande pr\u00e9cision. La m\u00e9thode est enti\u00e8rement automatique, et les r\u00e9sultats \u00e9valu\u00e9s sur les donn\u00e9es de la campagne d\u2019alignement HLT montrent qu\u2019elle se compare aux meilleures techniques existantes. De plus, alors que ces derni\u00e8res n\u00e9cessitent plusieurs millions de phrases pour s\u2019entra\u00eener, notre approche n\u2019en requiert que quelques centaines. Enfin, l\u2019examen des r\u00e8gles de propagation inf\u00e9r\u00e9es permet d\u2019identifier facilement les cas d\u2019isomorphismes et de non-isomorphismes syntaxiques entre les deux langues trait\u00e9es.","translation":["","This paper presents and evaluates an effective yet original approach to automatically align bitexts at the word level. This approach relies on a syntactic dependency analysis of the texts provided by the tools SYNTEX and uses a machine-learning technique, namely inductive logic programming, to automatically infer rules called propagation rules. These rules make the most of the syntactic information to precisely align words. This approach is entirely automatic, and results obtained on the data of the HLT evaluation campaign rival the ones of the best existing alignment systems. Moreover, our system uses very few training data: only hundreds of sentences compared to millions for the existing systems. Furthermore, syntactic isomorphisms between the two spotted languages are easily identified through a linguistic examination of the inferred propagation rules.","word alignment, aligned corpus, machine learning, inductive logic programming, syntactic analysis"],"keyphrases":["alignement de mots","analyse syntaxique","apprentissage artificiel","programmation logique inductive","corpus align\u00e9s"],"prmu":["P","P","P","P","R"]} {"id":"taln-2005-long-026","title":"Traduction de termes biom\u00e9dicaux par inf\u00e9rence de transducteurs","abstract":"Cet article propose et \u00e9value une m\u00e9thode de traduction automatique de termes biom\u00e9dicaux simples du fran\u00e7ais vers l\u2019anglais et de l\u2019anglais vers le fran\u00e7ais. Elle repose sur une technique d\u2019apprentissage artificiel supervis\u00e9e permettant d\u2019inf\u00e9rer des transducteurs \u00e0 partir d\u2019exemples de couples de termes bilingues ; aucune autre ressource ou connaissance n\u2019est requise. Ces transducteurs, capturant les grandes r\u00e9gularit\u00e9s de traduction existant dans le domaine biom\u00e9dical, sont ensuite utilis\u00e9s pour traduire de nouveaux termes fran\u00e7ais en anglais et vice versa. Les \u00e9valuations men\u00e9es montrent que le taux de bonnes traductions de notre technique se situe entre 52 et 67%. \u00c0 travers un examen des erreurs les plus courantes, nous identifions quelques limites inh\u00e9rentes \u00e0 notre approche et proposons quelques pistes pour les d\u00e9passer. Nous envisageons enfin plusieurs extensions \u00e0 ce travail.","translation":["","This paper presents and evaluates a method to automatically translate simple terms from French into English and English into French in the biomedical domain. It relies on a machine-learning technique that infers transducers from examples of bilingual pairs of terms; no additional resources or knowledge is needed. Then, these transducers, making the most of high translation regularities in the biomedical domain, can be used to translate new French terms into English or vice versa. Evaluations reported show that our technique achieves good successful translation rates (between 52 and 67%). When examining at the most frequent errors made, some inherent limits of our approach are identified, and several avenues are proposed in order to bypass them. Finally, some perspectives are put forward to extend this work.","Automatic translation of terms, biomedical terminology, machine learning, transducer induction"],"keyphrases":["inf\u00e9rence de transducteurs","Traduction automatique de termes","apprentissage artificiel","terminologie biom\u00e9dicale"],"prmu":["P","P","P","M"]} {"id":"taln-2005-long-027","title":"Traitement automatique de la saillance","abstract":"Lorsque nous \u00e9coutons un \u00e9nonc\u00e9 ou que nous lisons un texte, les ph\u00e9nom\u00e8nes de saillance accaparent notre attention sur une entit\u00e9 du discours particuli\u00e8re. Cette notion de saillance comprend un grand nombre d\u2019aspects, incluant des facteurs lexicaux, syntaxiques, s\u00e9mantiques, pragmatiques, ou encore cognitifs. En tant que point de d\u00e9part de l\u2019interpr\u00e9tation du langage, la saillance fonctionne de pair avec la structure communicative. Dans cet article, notre but principal est de montrer comment aboutir \u00e0 un mod\u00e8le computationnel de la saillance, qui soit valable aussi bien pour la saillance linguistique que pour la saillance visuelle. Pour cela, nous retenons une liste de facteurs qui contribuent \u00e0 rendre saillante une entit\u00e9. Dans le cas d\u2019une entit\u00e9 du discours, cette approche nous permet de clarifier les rapports entre saillance et structure communicative. Nous d\u00e9finissons nos principes de primordialit\u00e9 et de singularit\u00e9, puis nous passons en revue les diff\u00e9rentes m\u00e9thodes de quantification de la saillance qui sont compatibles avec ces principes. Nous illustrons alors l\u2019une d\u2019entre elles sur un exemple linguistique et sur un exemple visuel.","translation":["","Salience attracts the attention on a particular discourse entity when hearing an utterance or reading a text. Salience is linked to a wide set of aspects from lexical, syntactic, semantic, and pragmatic factors to cognitive factors. Being the starting point of the interpretation process, salience works in close connection with communicative structure. In this article, our main purpose is to show how to tend to a computational model of salience, that can be used for linguistic salience as well as for visual salience. With this aim, we provide a list of factors that contribute to making an entity salient. For a discourse entity, this approach allows us to clarify the links between salience and communicative structure. We define our principles of primordiality and singularity, and we discuss the possible methods to quantify salience that are compatible with these principles. Then we illustrate one of them with a linguistic example and a visual example.","salience factors, linguistic salience, visual salience, primordiality principle, singularity principle, communicative structure, quantifying methods"],"keyphrases":["structure communicative","saillance linguistique","saillance visuelle","principe de primordialit\u00e9","m\u00e9thodes de quantification","facteurs de saillance","principe de singularit\u00e9"],"prmu":["P","P","P","P","P","R","R"]} {"id":"taln-2005-long-028","title":"Topiques dialogiques","abstract":"Nous pr\u00e9sentons dans cet article une extension de la SDRT (Segmented Discourse Representation Theory), pour un mod\u00e8le d'interpr\u00e9tation pragmatique d\u2019un syst\u00e8me de dialogue homme-machine. Partant d\u2019une discussion sur les pr\u00e9suppos\u00e9s et les implicatures conversationnelles, nous analysons l\u2019approche de Ducrot en Vue d\u2019une int\u00e9gration des topo\u00ef dans notre mod\u00e8le. Nous y ajoutons la prise en compte des attentes dans le dialogue (effets projectifs des actes interlocutoires). Enfin nous proposons un m\u00e9canisme de r\u00e9solution logique qui consiste \u00e0 introduire plus syst\u00e9matiquement un n\u0153ud topique dans la SDRS (Discourse Represenlation Structure). Nous d\u00e9crivons dans cet article les principes de traitement pragmatique mis en \u0153uvre, et nous illustrons le processus d\u2019analyse \u00e0 l\u2019aide d'un exemple.","translation":["","We present in this paper an extension of the SDRT model for the pragmatic interpretation in a man-machine dialogue system. After a discussion on presupposition and implicature phenomena we consider the Ducrot\u2019s approach based on topos concept. We consider also the point of view in which a speech act is an \u201cexpectation\u201d of some result in the future, in a kind of projective effect. Then we describe a logical process including systematically a \u201ctopic node\u201d in the SDRS (Discourse Representation Structure), subsuming the rhetoric relations having implications or hypothetic implications between utterances. Our paper focuses on the pragmatic processing principles for resolving implications in the dialogue. This is illustrated by an example.","Pragmatic analysis, man-machine dialogue"],"keyphrases":["Interpr\u00e9tation pragmatique","dialogue homme-machine"],"prmu":["P","P"]} {"id":"taln-2005-long-029","title":"D\u00e9tection automatique d'actes de dialogue par l'utilisation d'indices multiniveaux","abstract":"Ces derni\u00e8res ann\u00e9es, il y a eu de nombreux travaux portant sur l\u2019utilisation d\u2019actes de dialogue pour caract\u00e9riser les dialogues homme-homme ou homme-machine. Cet article fait \u00e9tat de nos travaux sur la d\u00e9tection automatique d\u2019actes de dialogue dans des corpus r\u00e9els de dialogue homme-homme. Notre travail est fond\u00e9 essentiellement sur deux hypoth\u00e8ses . (i) la position des mots et la classe s\u00e9mantique du mot sont plus importants que les mots eux-m\u00eames pour identifier l\u2019acte de dialogue et (ii) il y a une forte pr\u00e9dictivit\u00e9 dans la succession des actes de dialogues port\u00e9s sur un m\u00eame segment dialogique. Une approche de type Memory Based Learning a \u00e9t\u00e9 utilis\u00e9e pour la d\u00e9tection automatique des actes de dialogue. Le premier mod\u00e8le n\u2019utilise pas d\u2019autres informations que celles contenus dans le tour de parole. Dans lex exp\u00e9riences suivantes, des historiques dialogiques de taille variables sont utilis\u00e9s. Le taux d\u2019erreur de d\u00e9tection d\u2019actes de dialogue est d\u2019environ 16% avec le premier mod\u00e8le est descend avec une utilisation plus large de l\u2019historique du dialogue \u00e0 environ 14%.","translation":["","Recently there has been growing interest in using dialog acts to characterize humanhuman and human-machine dialogs. This paper reports on our experience in the annotation and the automatic detection of dialog acts in human-human spoken dialog corpora. Our work is based on two hypotheses: first, word position is more important than the exact word in identifying the dialog act; and second, there is a strong grammar constraining the sequence of dialog acts. A memory based learning approach has been used to detect dialog acts. In a first set of experiments only the information contained in each turn is used and in a second set, different histories of the dialogue are used. A dialog act error rate of about 16 % is obtained for the simplest model. Using other informations, such as history of the dialog, the results grow up to 14%.","dialog acts, human human dialog, automatic detection of dialog acts, mulilevel information"],"keyphrases":["d\u00e9tection automatique","actes de dialogue","indices multiniveaux","dialogue homme homme"],"prmu":["P","P","P","M"]} {"id":"taln-2005-long-030","title":"Comment mesurer la couverture d'une ressource terminologique pour un corpus ?","abstract":"Cet article propose une d\u00e9finition formelle de la notion de couverture lexicale. Celleci repose sur un ensemble de quatre m\u00e9triques qui donnent une vue globale de l'ad\u00e9quation d'une ressource lexicale \u00e0 un corpus et permettent ainsi de guider le choix d'une ressource en fonction d'un corpus donn\u00e9. Les m\u00e9triques propos\u00e9es sont test\u00e9es dans le contexte de l'analyse de corpus sp\u00e9cialis\u00e9s en g\u00e9nomique : 5 terminologies diff\u00e9rentes sont confront\u00e9es \u00e0 4 corpus. La combinaison des valeurs obtenues permet de discerner diff\u00e9rents types de relations entre ressources et corpus.","translation":["","This paper proposes a formal definition of the notion of lexical coverage. This definition is based on four metrics that give a global view over a lexical resource to corpus relationship, thus helping the choice of a relevant resource with respect to a given corpus. These metrics have been experimented in the context of specialised corpus analysis in genomics. 5 terminologies have been confronted to 4 different corpora. The combination of resulting figures reflects various types of corpus vs . resource relationships.","lexical coverage, terminology, lexical statistics"],"keyphrases":["terminologie","couverture lexicale","statistique lexicale"],"prmu":["P","P","M"]} {"id":"taln-2005-long-031","title":"Construction automatique de classes de s\u00e9lection distributionnelle","abstract":"Cette \u00e9tude se place dans le cadre g\u00e9n\u00e9ral de la d\u00e9sambigu\u00efsation automatique du sens d\u2019un Verbe dans un \u00e9nonc\u00e9 donn\u00e9. Notre m\u00e9thode de d\u00e9sambigu\u00efsation prend en compte la construction du Verbe, c\u2019est-\u00e0-dire l\u2019influence des \u00e9l\u00e9ments lexicaux et syntaxiques pr\u00e9sents dans l\u2019\u00e9nonc\u00e9 (cotexte). Nous cherchons maintenant \u00e0 finaliser cette m\u00e9thode en tenant compte des caract\u00e9ristiques s\u00e9mantiques du cotexte. Pour ce faire nous associons au corpus un espace distributionnel continu dans lequel nous construisons et Visualisons des classes distributionnelles. La singularit\u00e9 de ces classes est qu\u2019elles sont calcul\u00e9es \u00e0 la Vol\u00e9e. Elles d\u00e9pendent donc non seulement du corpus mais aussi du contexte \u00e9tudi\u00e9. Nous pr\u00e9sentons ici notre m\u00e9thode de calcul de classes ainsi que les premiers r\u00e9sultats obtenus.","translation":["","This study is placed within the general framework of the automatic Verb sense disambiguation. To assign a meaning to a Verb, we take into account the construction of the Verb, i.e. the other lexical and syntactic units within the utterance (co-text). We now seek to finalize our method by taking into account the semantic features of this co-text. We associate with the corpus a continuous distributional space in which we build and Visualize distributional classes. The singularity of these classes is that they are computed \"on line\" for disambiguate a given context in the given corpus. They thus depend not only on the corpus but also on the studied context. We present here our method of computation of classes and first results obtained.","semantic classes, distributional space, disambiguation, corpus, context"],"keyphrases":["classes de s\u00e9lection distributionnelle","d\u00e9sambigu\u00efsation","corpus","espace distributionnel","contexte"],"prmu":["P","P","P","P","P"]} {"id":"taln-2005-long-033","title":"Parsing de l'oral: traiter les disfluences","abstract":"Nous proposons une r\u00e9flexion th\u00e9orique sur la place d\u2019un ph\u00e9nom\u00e8ne tel que celui des disfluences au sein d\u2019une grammaire. Les descriptions fines qui en ont \u00e9t\u00e9 donn\u00e9es m\u00e8nent \u00e0 se demander quel statut accorder aux disfluences dans une th\u00e9orie linguistique compl\u00e8te, tout en conservant une perspective globale de repr\u00e9sentation, c\u2019est-\u00e0-dire sans nuire \u00e0 la coh\u00e9rence et \u00e0 l\u2019homog\u00e9n\u00e9it\u00e9 g\u00e9n\u00e9rale. Nous en introduisons une repr\u00e9sentation formelle, \u00e0 la suite de quoi nous proposons quelques m\u00e9canismes de parsing permettant de les traiter.","translation":["","We propose a theoretical reflexion about the place of a phenomenon like disfluencies, in a grammar. The precise descriptions that are available leads to a question : what status shall we give to disfluencies into a complete linguistic theory ?, keeping a global point of view and without compromising the coherence and the homogeneity of its representation. We introduce a formal representation of the phenomenon, and then we propose some parsing mechanisms in order to treat it.","Disfluencies, Parsing, Corpus linguistics, Formal linguistics, Grammar development, Construction Grammar (CxG), Property Grammars (PG)"],"keyphrases":["Parsing","Disfluences","Linguistique de corpus","Linguistique formelle","D\u00e9veloppement de grammaires","Grammaire de Construction (CxG)","Grammaires de Propri\u00e9t\u00e9s (GP)"],"prmu":["P","P","M","R","M","M","M"]} {"id":"taln-2005-long-034","title":"Description d\u00e9taill\u00e9e des subordonn\u00e9es non d\u00e9pendantes : le cas de \"quand\"","abstract":"De nombreux linguistes ont mis en \u00e9vidence des cas de \u00ab subordonn\u00e9es \u00bb non d\u00e9pendantes dans de multiples langues dans le monde (Mithun, 2003 ; Haiman & Thompson (eds), 1988). Ce ph\u00e9nom\u00e8ne a aussi \u00e9t\u00e9 relev\u00e9 en fran\u00e7ais, notamment pour un \u00ab subordonnant \u00bb tel que parce que (Debaisieux, 2001 ; Ducrot et al., 1975). Nous nous proposons de d\u00e9crire un cas de \u00ab subordonn\u00e9e \u00bb en quand non d\u00e9pendante et de le repr\u00e9senter dans le cadre formel de Gerdes & Kahane (\u00e0 para\u00eetre).","translation":["","Many linguists have pointed out instances of non dependent clauses \"subordinate in form\" in various languages in the world (Mithun, 2003 ; Haiman & Thompson (eds), 1988). Such cases have been found and informally analysed in French, for instance parce que (Debaisieux, 2001 ; Ducrot et al., 1975). We propose here to extend the analysis to cases of non dependent subordinate clauses involving quand and to integrate it in the formal framework of Gerdes & Kahane (to appear).","syntax, subordination, dependency, topology"],"keyphrases":["d\u00e9pendance","syntaxe","subordination","topologie"],"prmu":["P","U","U","U"]} {"id":"taln-2005-long-035","title":"Des arbres de d\u00e9rivation aux for\u00eats de d\u00e9pendance : un chemin via les for\u00eats partag\u00e9es","abstract":"L'objectif de cet article est de montrer comment b\u00e2tir une structure de r\u00e9presentation proche d'un graphe de d\u00e9pendance \u00e0 l'aide des deux structures de repr\u00e9sentation canoniques fournies par les Grammaires d'Arbres Adjoints Lexicalis\u00e9es . Pour illustrer cette approche, nous d\u00e9crivons comment utiliser ces deux structures \u00e0 partir d'une for\u00eat partag\u00e9e.","translation":["","This paper aims describing an approach to semantic representation in the Lexicalized Tree Adjoining Grammars (LTAG) paradigm : we show how to use all the informations contained in the two representation structures provided by the LTAG formalism in order to provide a dependency graph.","TAG, syntax, semantic, dependency tree, shared forest, derivation forest"],"keyphrases":["for\u00eat partag\u00e9e","TAG","analyse syntaxique","s\u00e9mantique","arbre de d\u00e9pendance","for\u00eat de d\u00e9rivation"],"prmu":["P","U","U","U","R","R"]} {"id":"taln-2005-long-036","title":"Evaluation des Mod\u00e8les de Langage n-gram et n\/m-multigram","abstract":"Cet article pr\u00e9sente une \u00e9valuation de mod\u00e8les statistiques du langage men\u00e9e sur la langue Fran\u00e7aise. Nous avons cherch\u00e9 \u00e0 comparer la performance de mod\u00e8les de langage exotiques par rapport aux mod\u00e8les plus classiques de n-gramme \u00e0 horizon fixe. Les exp\u00e9riences r\u00e9alis\u00e9es montrent que des mod\u00e8les de n-gramme \u00e0 horizon variable peuvent faire baisser de plus de 10% en moyenne la perplexit\u00e9 d\u2019un mod\u00e8le de n-gramme \u00e0 horizon fixe. Les mod\u00e8les de n\/m-multigramme demandent une adaptation pour pouvoir \u00eatre concurrentiels.","translation":["","This paper presents an evaluation of statistical language models carried out on the French language. We compared the performance of some exotic models to the one of the more traditional ngram model. The experiments show that the variable n-gram models can drop more than 10% of the average perplexity for a fixed n-gram model. n\/m-multigram models require an adaptation to be able to compete.","Statistical Language Models, n-grams, phrase multigrams"],"keyphrases":["\u00e9valuation","n-gramme","Mod\u00e8les de Langage statistiques","multigramme"],"prmu":["P","P","R","U"]} {"id":"taln-2005-long-037","title":"Y a-t-il une taille optimale pour les r\u00e8gles de successions intervenant dans l'\u00e9tiquetage grammatical ?","abstract":"La quasi-totalit\u00e9 des \u00e9tiqueteurs grammaticaux mettent en oeuvre des r\u00e8gles qui portent sur les successions ou collocations permises de deux ou trois cat\u00e9gories grammaticales. Leurs performances s\u2019\u00e9tablissent \u00e0 hauteur de 96% de mots correctement \u00e9tiquet\u00e9s, et \u00e0 moins de 57% de phrases correctement \u00e9tiquet\u00e9es. Ces r\u00e8gles binaires et ternaires ne repr\u00e9sentent qu\u2019une fraction du total des r\u00e8gles de succession que l\u2019on peut extraire \u00e0 partir des phrases d\u2019un corpus d\u2019apprentissage, alors m\u00eame que la majeure partie des phrases (plus de 98% d\u2019entre elles) ont une taille sup\u00e9rieure \u00e0 3 mots. Cela signifie que la plupart des phrases sont analys\u00e9es au moyen de r\u00e8gles reconstitu\u00e9es ou simul\u00e9es \u00e0 partir de r\u00e8gles plus courtes, ternaires en l\u2019occurrence dans le meilleur des cas. Nous montrons que ces r\u00e8gles simul\u00e9es sont majoritairement agrammaticales, et que l\u2019avantage inf\u00e9rentiel qu\u2019apporte le cha\u00eenage de r\u00e8gles courtes pour parer au manque d\u2019apprentissage, plus marqu\u00e9 pour les r\u00e8gles plus longues, est largement neutralis\u00e9 par la permissivit\u00e9 de ce processus dont toutes sortes de poids, scores ou probabilit\u00e9s ne r\u00e9ussissent pas \u00e0 en hi\u00e9rarchiser la production afin d\u2019y distinguer le grammatical de l\u2019agrammatical. Force est donc de reconsid\u00e9rer les r\u00e8gles de taille sup\u00e9rieure \u00e0 3, lesquelles, il y a une trentaine d\u2019ann\u00e9es, avaient \u00e9t\u00e9 d\u2019embl\u00e9e \u00e9cart\u00e9es pour des raisons essentiellement li\u00e9es \u00e0 la puissance des machines d\u2019alors, et \u00e0 l\u2019insuffisance des corpus d\u2019apprentissage. Mais si l\u2019on admet qu\u2019il faille d\u00e9sormais \u00e9tendre la taille des r\u00e8gles de succession, la question se pose de savoir jusqu\u2019\u00e0 quelle limite, et pour quel b\u00e9n\u00e9fice. Car l\u2019on ne saurait non plus plaider pour une port\u00e9e des r\u00e8gles aussi longue que les plus longues phrases auxquelles elles sont susceptibles d\u2019\u00eatre appliqu\u00e9es. Autrement dit, y a-t-il une taille optimale des r\u00e8gles qui soit suffisamment petite pour que leur apprentissage puisse converger, mais suffisamment longue pour que tout cha\u00eenage de telles r\u00e8gles pour embrasser les phrases de taille sup\u00e9rieure soit grammatical. La cons\u00e9quence heureuse \u00e9tant que poids, scores et probabilit\u00e9s ne seraient plus invoqu\u00e9s que pour choisir entre successions d\u2019\u00e9tiquettes toutes \u00e9galement grammaticales, et non pour \u00e9liminer en outre les successions agrammaticales. Cette taille semble exister. Nous montrons qu\u2019au moyen d\u2019algorithmes relativement simples l\u2019on peut assez pr\u00e9cis\u00e9ment la d\u00e9terminer. Qu\u2019elle se situe, compte tenu de nos corpus, aux alentours de 12 pour le fran\u00e7ais, de 10 pour l\u2019arabe, et de 10 pour l\u2019anglais. Qu\u2019elle est donc en particulier inf\u00e9rieure \u00e0 la taille moyenne des phrases, quelle que soit la langue consid\u00e9r\u00e9e.","translation":["Is there an optimal n for n-grams used in part-of-speech tagging?","Almost all part-of-speech taggers apply rules about permitted successions and collocations of two or three grammatical categories. Their performance amounts to 96 percent of correctly tagged words, and to less than 57 percent of correctly tagged sentences. These binary and ternary succession rules represent a small fraction of succession rules one can extract from sentences in a learning corpus, where most sentences (more than 98 percent of them) have a length of more than three words. In other words, most sentences are processed by rules that are reconstructed, or simulated, from shorter ones, here ternary at best. We show that most such simulated rules are agrammatical, and that, if some inferential benefit comes from the chaining of short rules to compensate inexistent learning, mainly in the case of long rules, this benefit is nullified by the permissive behaviour of this process, in which a variety of weights, scores or probability are ineffective in hierarchizing its production and yield a separation between grammatical and agrammatical rules. So we feel forced to look again at larger-than-ternary rules. However, if we admit a necessity of enlarging succession rules, we must ask the question \"up to which limit, and for what profit\". For we also decline to argue for rules as long as the longest sentences upon which they might apply. So the real question is, can we define an optimal size for rules, short enough for learning to converge, and long enough for any chaining of rules to deal with larger sentences to be grammatical? A positive result would be that weights, scores or probability would then be invoked only to decide between equally grammatical successions of tags, and no longer to eliminate agrammatical ones. This optimal size apparently exists. We show that the use of rather simple algorithms leads to its determination. And its value, according to our corpora, is near 12 for French, 10 for Arabic and 10 for English. Therefore, it is less than the average length of sentences, for each of these three languages.","Part-of-speech tagging, tag sequences, rule length, rule composition, attested rule, simulated rule, evaluation of generation vs evaluation of analysis"],"keyphrases":["r\u00e8gle de succession","r\u00e8gle simul\u00e9e","cha\u00eenage de r\u00e8gles","taille des r\u00e8gles","Etiquetage grammatical","r\u00e8gle attest\u00e9e","discriminance","couverture","\u00e9valuation en usage vs \u00e9valuation en d\u00e9finition d\u2019un ensemble de r\u00e8gles"],"prmu":["P","P","P","P","M","M","U","U","M"]} {"id":"taln-2005-long-038","title":"Acquisition et \u00e9valuation sur corpus de propri\u00e9t\u00e9s de sous-cat\u00e9gorisation syntaxique","abstract":"Cette \u00e9tude est men\u00e9e dans le cadre du d\u00e9veloppement de l\u2019analyseur syntaxique de corpus Syntex et porte sur la t\u00e2che de d\u00e9sambigu\u00efsation des rattachements pr\u00e9positionnels. Les donn\u00e9es de sous-cat\u00e9gorisation syntaxique exploit\u00e9es par Syntex pour la d\u00e9sambigu\u00efsation se pr\u00e9sentent sous la forme de probabilit\u00e9s de sous-cat\u00e9gorisation (que telle unit\u00e9 lexicale - verbe, nom ou adjectif - se construise avec telle pr\u00e9position). Elles sont acquises automatiquement \u00e0 partir d\u2019un corpus de 200 millions de mots, \u00e9tiquet\u00e9 et partiellement analys\u00e9 syntaxiquement. Pour \u00e9valuer ces donn\u00e9es, nous utilisons 4 corpus de test de genres vari\u00e9s, sur lesquels nous avons annot\u00e9 \u00e0 la main plusieurs centaines de cas de rattachement pr\u00e9positionnels ambigus. Nous testons plusieurs strat\u00e9gies de d\u00e9sambigu\u00efsation, une strat\u00e9gie de base, une strat\u00e9gie endog\u00e8ne qui exploite des propri\u00e9t\u00e9s de sous-cat\u00e9gorisation sp\u00e9cifiques acquises \u00e0 partir du corpus en cours de traitement, une strat\u00e9gie exog\u00e8ne qui exploite des propri\u00e9t\u00e9s de sous-cat\u00e9gorisation g\u00e9n\u00e9riques acquises \u00e0 partir du corpus de 200 millions de mots, et enfin une strat\u00e9gie mixte qui utilisent les deux types de ressources. L\u2019analyse des r\u00e9sultats montre que la strat\u00e9gie mixte est la meilleure, et que les performances de l\u2019analyseur sur la t\u00e2che de d\u00e9sambigu\u00efsation des rattachements pr\u00e9positionnels varient selon les corpus de 79.4 % \u00e0 87.2 %.","translation":["","We carry out an experiment aimed at using subcategorization information into a syntactic parser for PP attachment disambiguation. The subcategorization lexicon consists of probabilities between a word (verb, noun, adjective) and a preposition. The lexicon is acquired automatically from a 200 million word corpus, that is partially tagged and parsed. In order to assess the lexicon, we use 4 different corpora in terms of genre and domain. We assess various methods for PP attachment disambiguation : an exogeous method relies on the sub-categorization lexicon whereas an endogenous method relies on the corpus specific ressource only and an hybrid method makes use of both. The hybrid method proves to be the best and the results vary from 79.4 % to 87.2 %.","syntactic parsing, PP attachment disambiguation, subcategorization lexicon"],"keyphrases":["sous-cat\u00e9gorisation syntaxique","analyse syntaxique","ambigu\u00eft\u00e9 de rattachement pr\u00e9positionnel"],"prmu":["P","P","M"]} {"id":"taln-2005-court-001","title":"Induction de r\u00e8gles de correction pour l'\u00e9tiquetage morphosyntaxique de la litt\u00e9rature de biologie en utilisant l'apprentissage actif","abstract":"Dans le contexte de l\u2019\u00e9tiquetage morphosyntaxique des corpus de sp\u00e9cialit\u00e9, nous proposons une approche inductive pour r\u00e9duire les erreurs les plus difficiles et qui persistent apr\u00e8s \u00e9tiquetage par le syst\u00e8me de Brill. Nous avons appliqu\u00e9 notre syst\u00e8me sur deux types de confusions. La premi\u00e8re confusion concerne un mot qui peut avoir les \u00e9tiquettes \u2018verbe au participe pass\u00e9\u2019, \u2018verbe au pass\u00e9\u2019 ou \u2018adjectif\u2019. La deuxi\u00e8me confusion se produit entre un nom commun au pluriel et un verbe au pr\u00e9sent, \u00e0 la 3\u00e8me personne du singulier. A l\u2019aide d\u2019interface conviviale, l\u2019expert corrige l\u2019\u00e9tiquette du mot ambigu. A partir des exemples annot\u00e9s, nous induisons des r\u00e8gles de correction. Afin de r\u00e9duire le co\u00fbt d\u2019annotation, nous avons utilis\u00e9 l\u2019apprentissage actif. La validation exp\u00e9rimentale a montr\u00e9 une am\u00e9lioration de la pr\u00e9cision de l\u2019\u00e9tiquetage. De plus, \u00e0 partir de l\u2019annotation du tiers du nombre d\u2019exemples, le niveau de pr\u00e9cision r\u00e9alis\u00e9 est \u00e9quivalent \u00e0 celui obtenu en annotant tous les exemples.","translation":["","In the context of Part-of-Speech (PoS)-tagging of specialized corpora, we proposed an approach focusing on the most \u2018important\u2019 PoS-tags because mistaking them can lead to a total misunderstanding of the text. After tagging a biological corpus by Brill\u2019s tagger, we noted persistent errors that are very hard to deal with. As an application, we studied two cases of different nature: first, confusion between past participle, adjective and preterit; second, confusion between plural nouns and verbs, 3rd person singular present. With a friendly user interface, the expert corrected the examples. Then, from these well-annotated examples, we induced rules. In order to reduce the cost of annotation, we used active learning. The experimental validation showed improvement in tagging precision and that on the basis of the annotation of one third of the examples we obtain a level of precision equivalent to the one reached by annotating all the examples.","Part-of-speech tagging, rule learning, active learning, text-mining"],"keyphrases":["Apprentissage actif","Etiquetage morphosyntaxique","Apprentissage de r\u00e8gles","fouille de textes"],"prmu":["P","M","R","M"]} {"id":"taln-2005-court-002","title":"Application du m\u00e9talangage de la BD\u00e9f au traitement formel de la polys\u00e9mie","abstract":"Cet article a pour objet le m\u00e9talangage d\u00e9finitionnel de la base de donn\u00e9es lexicale BD\u00e9f, plus pr\u00e9cis\u00e9ment l\u2019utilisation de ce m\u00e9talangage dans la mod\u00e9lisation des structures polys\u00e9miques du fran\u00e7ais. La Bd\u00e9f encode sous forme de d\u00e9finitions lexicographiques les sens lexicaux d\u2019un sous-ensemble repr\u00e9sentatif du lexique du fran\u00e7ais parmi lequel on compte environ 500 unit\u00e9s polys\u00e9miques appartenant aux principales parties du discours. L\u2019article comprend deux sections. La premi\u00e8re pr\u00e9sente le m\u00e9talangage de la BD\u00e9f et le situe par rapport aux diff\u00e9rents types de d\u00e9finitions lexicales, qu\u2019elles soient ou non formelles, qu\u2019elles visent ou non l\u2019informatisation. La seconde section pr\u00e9sente une application de la BD\u00e9f qui vise \u00e0 terme \u00e0 rendre compte de la polys\u00e9mie r\u00e9guli\u00e8re du fran\u00e7ais. On y pr\u00e9sente, \u00e0 partir d\u2019un cas sp\u00e9cifique, la notion de patron de polys\u00e9mie.","translation":["","We present the defining metalanguage of the BD\u00e9f lexical database ; more specifically, we focus on how this metalanguage can be used to model relations of polysemy in French. The BD\u00e9f contains lexical definitions for a representative subset of the French lexicon : around 500 polysemic words belonging to all major parts of speech. This paper contains two sections. Firstly, the BD\u00e9f metalanguage is introduced and positioned relative to different types of existing lexical definitions : formal vs. non formal definitions, definitions that are tailored or not for implementation. Secondly, the paper shows how the BD\u00e9f approach is used in a research whose goal is the modeling of the regular polysemy of the French language. The notion of pattern of polysemy is introduced using a specific example.","lexical database, definitionnal metalanguage, Explanatory Combinatorial Lexicology, polysemy"],"keyphrases":["polys\u00e9mie","m\u00e9talangage d\u00e9finitionnel","Base de donn\u00e9es lexicale","Lexicologie Explicative et Combinatoire"],"prmu":["P","P","P","M"]} {"id":"taln-2005-court-003","title":"Apprentissage de relations pr\u00e9dicat-argument pour l'extraction d'information \u00e0 partir de textes conversationnels","abstract":"Nous pr\u00e9sentons les r\u00e9sultats de notre approche d\u2019apprentissage de relations pr\u00e9dicat-argument dans le but de g\u00e9n\u00e9rer des patrons d\u2019extraction pour des textes conversationnels. Notre approche s\u2019effectue en trois \u00e9tapes incluant la segmentation linguistique des textes pour d\u00e9finir des unit\u00e9s linguistiques \u00e0 l\u2019instar de la phrase pour les textes bien form\u00e9s tels que les d\u00e9p\u00eaches journalistiques. Cette \u00e9tape prend en consid\u00e9ration la dimension discursive importante dans ces types de textes. La deuxi\u00e8me \u00e9tape effectue la r\u00e9solution des anaphores pronominales en position de sujet. Cela tient compte d\u2019une particularit\u00e9 importante des textes conversationnels : la pronominalisation du th\u00e8me. Nous montrons que la r\u00e9solution d\u2019un sous ensemble d\u2019anaphores pronominales am\u00e9liore l\u2019apprentissage des patrons d\u2019extraction. La troisi\u00e8me utilise des mod\u00e8les de Markov pour mod\u00e9liser les s\u00e9quences de classes de mots et leurs r\u00f4les pour un ensemble de relations donn\u00e9es. Notre approche exp\u00e9riment\u00e9e sur des transcriptions de conversations t\u00e9l\u00e9phoniques dans le domaine de la recherche et sauvetage identifie les patrons d\u2019extraction avec un F-score moyen de 73,75 %.","translation":["","We present the results of our approach for the learning of patterns for information extraction from conversational texts. Our three step approach is based on a linguistic segmentation stage that defines units suitable for the pattern learning process. Anaphora resolution helps to identify more relevant relations hidden by the pronominalization of the topic. This stage precedes the pattern learning stage, which is based on Markov models that include wild card states designed to handle edited words and null transitions to handle omissions. We tested our approach on manually transcribed telephone conversations in the domain of maritime search and rescue, and succeeded in identifying extraction patterns with an F-score of 73.75 %.","Learning predicat-argument relations, information extraction"],"keyphrases":["Apprentissage de relations pr\u00e9dicat-argument","extraction d\u2019information"],"prmu":["P","R"]} {"id":"taln-2005-court-004","title":"Un analyseur LFG efficace pour le fran\u00e7ais : SXLFG","abstract":"Dans cet article, nous proposons un nouvel analyseur syntaxique, qui repose sur une variante du mod\u00e8le Lexical-Functional Grammars (Grammaires Lexicales Fonctionnelles) ou LFG. Cet analyseur LFG accepte en entr\u00e9e un treillis de mots et calcule ses structures fonctionnelles sur une for\u00eat partag\u00e9e. Nous pr\u00e9sentons \u00e9galement les diff\u00e9rentes techniques de rattrapage d\u2019erreurs que nous avons mises en oeuvre. Puis nous \u00e9valuons cet analyseur sur une grammaire \u00e0 large couverture du fran\u00e7ais dans le cadre d\u2019une utilisation \u00e0 grande \u00e9chelle sur corpus vari\u00e9s. Nous montrons que cet analyseur est \u00e0 la fois efficace et robuste.","translation":["","In this paper, we introduce a new parser based on the Lexical-Functional Grammars formalism (LFG). This LFG parser accepts as input word lattices and computes functional structures on a shared forest. We also present various error recovery techniques we have implemented. Afterwards, we evaluate this parser on a large-coverage grammar for French in the framework of a large-scale use on various corpus. We show that our parser is both efficient and robust.","syntax, parser, LFG, disambiguation, shared forest"],"keyphrases":["analyseur","LFG","syntaxe","for\u00eat partag\u00e9e","d\u00e9sambigu\u00efsation"],"prmu":["P","P","P","P","U"]} {"id":"taln-2005-court-005","title":"Etiquetage morpho-syntaxique du fran\u00e7ais \u00e0 base d'apprentissage supervis\u00e9","abstract":"Nous pr\u00e9sentons un \u00e9tiqueteur morpho-syntaxique du fran\u00e7ais. Celui-ci utilise l\u2019apprentissage supervis\u00e9 \u00e0 travers un mod\u00e8le de Markov cach\u00e9. Le mod\u00e8le de langage est appris \u00e0 partir d\u2019un corpus \u00e9tiquet\u00e9. Nous d\u00e9crivons son fonctionnement et la m\u00e9thode d\u2019apprentissage. L\u2019\u00e9tiqueteur atteint un score de pr\u00e9cision de 89 % avec un jeu d\u2019\u00e9tiquettes tr\u00e8s riche. Nous pr\u00e9sentons ensuite des r\u00e9sultats d\u00e9taill\u00e9s pour chaque classe grammaticale et \u00e9tudions en particulier la reconnaissance des homographes.","translation":["","A french part-of-speech tagger is described. It is based on supervised learning: hidden Markov model and trained using a corpus of tagged text. We describe the way the model is learnt. A 89 % precision rate is achieved with a rich tagset. Detailed results are presented for each grammatical class. We specially pay attention to homographs recognition.","part-of-speech tagging, supervised learning, hidden Markov model, evaluation, homographs"],"keyphrases":["apprentissage supervis\u00e9","mod\u00e8le de Markov cach\u00e9","homographes","\u00e9tiquetage morpho-syntaxique","\u00e9valuation"],"prmu":["P","P","P","M","U"]} {"id":"taln-2005-court-006","title":"Contextes multilingues align\u00e9s pour la d\u00e9sambigu\u00efsation s\u00e9mantique : une \u00e9tude exp\u00e9rimentale","abstract":"Cet article s'int\u00e9resse a la d\u00e9sambigu\u00efsation s\u00e9mantique d'unit\u00e9s lexicales align\u00e9es a travers un corpus multilingue. Nous appliquons une m\u00e9thode automatique non supervis\u00e9e bas\u00e9e sur la comparaison de r\u00e9seaux s\u00e9mantiques, et nous d\u00e9gageons un crit\u00e8re permettant de d\u00e9terminer a priori si 2 unit\u00e9s align\u00e9es ont une chance de se d\u00e9sambigu\u00efser mutuellement. Enfin, nous d\u00e9veloppons une m\u00e9thode fond\u00e9e sur un apprentissage a partir de contextes bilingues. En appliquant ce crit\u00e8re afin de d\u00e9terminer pour quelles unit\u00e9s l'information traductionnelle doit \u00eatre prise en compte, nous obtenons une am\u00e9lioration des r\u00e9sultats.","translation":["","This paper addresses the sense disambiguation of aligned words through a multilingual corpus. We apply an unsupervised disambiguation method using inter word net comparison. We study a criterion that allows to identify the cases for which disambiguation can take advantage of alignment. Finally, we implement a method based on a training stage using both monolingual and bilingual context, and we apply the previous criterion in order to select between monolingual or bilingual clues, showing some improvement of the results.","Word sense disambiguation, multilingual aligning, semantic lexicon"],"keyphrases":["D\u00e9sambigu\u00efsation s\u00e9mantique","alignement multilingue","lexique s\u00e9mantique"],"prmu":["P","R","M"]} {"id":"taln-2005-court-007","title":"Naviguer dans les textes pour apprendre","abstract":"Dans cet article nous pr\u00e9sentons un langage de navigation textuelle et son implantation dans la plate-forme Navitexte. Nous d\u00e9crivons une application de ces principes de navigation dans un cadre d\u2019apprentissage de la bonne formation des textes, destin\u00e9e \u00e0 des dans un cadre d\u2019apprentissage de la bonne formation des textes, destin\u00e9e \u00e0 des \u00e9tudiants apprenant le fran\u00e7ais langue \u00e9trang\u00e8re.","translation":["","In this article we present a declarative language, which models ways of visualising and navigating in texts, together with its implementation in a workstation, NaviTexte. First, we show how the language can be used to build an application in text linguistics. This application aims to teach foreign language students to identify different coherence creating units in a text and to navigate between them. Then we detail the declarative language.","Textual navigation, teaching texts and text linguistics"],"keyphrases":["Navigation textuelle","apprentissage en lingusitique textuelle"],"prmu":["P","M"]} {"id":"taln-2005-court-008","title":"Projection et monotonie dans un langage de repr\u00e9sentation lexico-grammatical","abstract":"Cet article apporte une m\u00e9thode de d\u00e9veloppement grammatical pour la r\u00e9alisation de grammaires d\u2019arbres adjoints (TAG) de taille importante augment\u00e9es d\u2019une dimension s\u00e9mantique. La m\u00e9thode que nous pr\u00e9sentons s\u2019exprime dans un langage informatique de repr\u00e9sentation grammatical qui est d\u00e9claratif et monotone. Pour arriver au r\u00e9sultat, nous montrons comment tirer parti de la th\u00e9orie de la projection dans le langage de repr\u00e9sentation que nous utilisons. Par cons\u00e9quent cet article justifie l\u2019utilisation d\u2019un langage monotone pour la repr\u00e9sentation lexico-grammaticale.","translation":["","This papers provides a methodology for the grammatical development of large sized tree adjoining grammars (TAG) augmented with a semantic dimension. The provided methodology is expressed in a monotnic and declarative language designed for the compact representation of grammatical descriptions. To achieve the result, we show how to express a linking theory in the language used. Therefore this paper justifies the use of a monotonic language for lexico-grammatical representation.","Syntax, Lexicon, Linking, Syntax Semantics interface, TAG"],"keyphrases":["TAG","Syntaxe","Lexique","Liage","Interface syntaxe s\u00e9mantique"],"prmu":["P","U","U","U","M"]} {"id":"taln-2005-court-009","title":"Dialogue automatique et personnalit\u00e9 : m\u00e9thodologie pour l'incarnation de traits humains","abstract":"Cet article introduit une m\u00e9thodologie d\u2019int\u00e9gration de la personnalit\u00e9 dans un syst\u00e8me de dialogue automatique, en vue de l\u2019incarnation de personnages virtuels. Notion complexe non encore \u00e9puis\u00e9e dans la litt\u00e9rature, la personnalit\u00e9 d\u2019un individu peut s\u2019illustrer de multiples mani\u00e8res possibles. Notre objectif consiste \u00e0 pr\u00e9senter une m\u00e9thode g\u00e9n\u00e9rique de prise en compte de la personnalit\u00e9 dans un syst\u00e8me de dialogue par mod\u00e9lisation et exploitation des connaissances relatives \u00e0 la personnalit\u00e9 de l\u2019individu \u00e0 incarner. Cet article pr\u00e9sente les avantages et inconv\u00e9nients de cette m\u00e9thode en l\u2019illustrant au travers de la stylistique des \u00e9nonc\u00e9s g\u00e9n\u00e9r\u00e9s par le syst\u00e8me.","translation":["","This article introduces a methodology to integrate personality into a dialogue system. This work constitutes a step towards the embodiment of virtual characters. The personality of an individual, which is a complex and non-exhausted concept in literature, can show through multiple possible ways. Our purpose is to describe a generic methodology of personality integration into a dialogue system based on the modelling and use of knowledge relative to the personality of a given individual. This article describes the advantages and drawbacks of the proposed methodology by illustrating it through the linguistic style of the generated messages.","embodied dialogue, virtual characters, personality, natural language generation"],"keyphrases":["personnalit\u00e9","personnages virtuels","dialogue incarn\u00e9","g\u00e9n\u00e9ration automatique"],"prmu":["P","P","R","R"]} {"id":"taln-2005-court-010","title":"Ritel : un syst\u00e8me de dialogue homme-machine \u00e0 domaine ouvert","abstract":"L\u2019objectif du projet RITEL est de r\u00e9aliser un syst\u00e8me de dialogue homme-machine permettant \u00e0 un utilisateur de poser oralement des questions, et de dialoguer avec un syst\u00e8me de recherche d\u2019information g\u00e9n\u00e9raliste (par exemple, chercher sur l\u2019Internet \u201cQui est le Pr\u00e9sident du S\u00e9nat ?\u201d) et d\u2019en \u00e9tudier les potentialit\u00e9s. Actuellement, la plateforme RITEL permet de collecter des corpus de dialogue homme-machine. Les utilisateurs peuvent parfois obtenir une r\u00e9ponse, de type factuel (Q : qui est le pr\u00e9sident de la France ; R : Jacques Chirac.). Cet article pr\u00e9sente bri\u00e8vement la plateforme d\u00e9velopp\u00e9e, le corpus collect\u00e9 ainsi que les questions que soul\u00e8vent un tel syst\u00e8me et quelques unes des premi\u00e8res solutions envisag\u00e9es.","translation":["","The project RITEL aims at integrating a spoken language dialog system and an open-domain question answering system to allow a human to ask a general question (f.i. \u201cWho is currently presiding the Senate?\u201d) and refine his research interactively. As this point in time the RITEL platform is used to collect a new human-computer dialog corpus. The user can sometimes recieve factual answers (Q : who is the president of France ; R : Jacques Chirac). This paper briefly presents the current system, the collected corpus, the problems encountered by such a system and our first answers to these problems.","human machine dialog, question answering, information retrieval, corpus"],"keyphrases":["corpus","dialogue homme machine","recherche d\u2019information pr\u00e9cise"],"prmu":["P","M","M"]} {"id":"taln-2005-court-011","title":"Un syst\u00e8me de g\u00e9n\u00e9ration automatique de dictionnaires linguistiques de l'arabe","abstract":"L\u2019objectif de cet article est la pr\u00e9sentation d\u2019un syst\u00e8me de g\u00e9n\u00e9ration automatique de dictionnaires \u00e9lectroniques de la langue arabe classique, d\u00e9velopp\u00e9 au sein du laboratoire RIADI (unit\u00e9 de Monastir). Ce syst\u00e8me entre dans le cadre du projet \u201coreillodule\u201d: un syst\u00e8me embarqu\u00e9 de synth\u00e8se, traduction et reconnaissance de la parole arabe. Dans cet article, nous pr\u00e9senterons, les diff\u00e9rentes \u00e9tapes de r\u00e9alisation, et notamment la g\u00e9n\u00e9ration automatique de ces dictionnaires se basant sur une th\u00e9orie originale : les Conditions de Structures Morph\u00e9matiques (CSM), et les matrices lexicales.","translation":["","the objective of this article is the presentation of a system of automatic generation of electronic dictionaries of the classic Arabian language, developed within RIADI laboratory (unit of Monastir). This system enters in the setting of project \"oreillodule\": an embedded system of synthesis, translation and recognition of the Arabian word. In this article, we will present the different stages of realization, and notably the automatic generation of these dictionaries basing on an original theory: Conditions of Morphemic Structure (CSM), and the lexical matrixes.","electronic dictionaries, Conditions of Morphemic Structures , lexical matrix, Combinative circumscriptions, Sequential circumscriptions"],"keyphrases":["dictionnaires \u00e9lectroniques","Conditions de Structures Morph\u00e9matiques","matrices lexicales","Restrictions combinatoires","Restrictions s\u00e9quentielles"],"prmu":["P","P","P","U","U"]} {"id":"taln-2005-court-012","title":"Segmentation de textes arabes bas\u00e9e sur l\u2019analyse contextuelle des signes de ponctuations et de certaines particules","abstract":"Nous proposons dans cet article une approche de segmentation de textes arabes non voyell\u00e9s bas\u00e9e sur une analyse contextuelle des signes de ponctuations et de certaines particules, tels que les conjonctions de coordination. Nous pr\u00e9sentons ensuite notre syst\u00e8me STAr, un segmenteur de textes arabes bas\u00e9 sur l'approche propos\u00e9e. STAr accepte en entr\u00e9e un texte arabe en format txt et g\u00e9n\u00e8re en sortie un texte segment\u00e9 en paragraphes et en phrases.","translation":["","We propose in this paper an approach to segment non-vowelled Arabic texts. Our approach is based on a contextual analysis of the punctuation marks and a list of particles, such as the coordination conjunctions. Then, we present our system STAr, a tokenizer based on the proposed approach. The STAr input is an Arabic text (in .txt format) and its output is a segmented text into paragraphs and sentences.","Arabic text tokenizer, sentence tokenization, contextual exploration, regular expressions"],"keyphrases":["Segmenteur de textes arabes","segmentation en phrases","exploration contextuelle","expressions rationnelles"],"prmu":["P","R","M","U"]} {"id":"taln-2005-court-014","title":"Approches en corpus pour la traduction : le cas M\u00c9T\u00c9O","abstract":"La traduction automatique (TA) attire depuis plusieurs ann\u00e9es l\u2019int\u00e9r\u00eat d\u2019un nombre grandissant de chercheurs. De nombreuses approches sont propos\u00e9es et plusieurs campagnes d\u2019\u00e9valuation rythment les avanc\u00e9es faites. La t\u00e2che de traduction \u00e0 laquelle les participants de ces campagnes se pr\u00eatent consiste presque invariablement \u00e0 traduire des articles journalistiques d\u2019une langue \u00e9trang\u00e8re vers l\u2019anglais; t\u00e2che qui peut sembler artificielle. Dans cette \u00e9tude, nous nous int\u00e9ressons \u00e0 savoir ce que diff\u00e9rentes approches bas\u00e9es sur les corpus peuvent faire sur une t\u00e2che r\u00e9elle. Nous avons reconstruit \u00e0 cet effet l\u2019un des plus grands succ\u00e8s de la TA: le syst\u00e8me M\u00c9T\u00c9O. Nous montrons qu\u2019une combinaison de m\u00e9moire de traduction et d\u2019approches statistiques permet d\u2019obtenir des r\u00e9sultats comparables \u00e0 celles du syst\u00e8me M\u00c9T\u00c9O, tout en offrant un cycle de d\u00e9veloppement plus court et de plus grandes possibilit\u00e9s d\u2019ajustements.","translation":["","Machine Translation (MT) is the focus of extensive scientific investigations driven by regular evaluation campaigns, but which are mostly oriented towards a somewhat artificial task: translating news articles into English. In this paper, we investigate how well current MT approaches deal with a real-world task. We have rationally reconstructed one of the only MT systems in daily production use: the METEO system. We show how a combination of a sentence-based memory approach, a phrase-based statistical engine and a neural-network rescorer can give results comparable to those of the current system while offering a faster development cycle and better customization possibilities.","Memory-based translation, statistical translation, multiple alignment, rescoring"],"keyphrases":["M\u00e9moire de traduction","traduction probabiliste","alignements multiples","r\u00e9ordonnancement \u00e0 post\u00e9riori"],"prmu":["P","M","U","M"]} {"id":"taln-2005-court-015","title":"Simplification interactive pour la production de textes adapt\u00e9s aux personnes souffrant de troubles de la compr\u00e9hension","abstract":"Cet article traite du probl\u00e8me de la compr\u00e9hensibilit\u00e9 des textes et en particulier du besoin de simplifier la complexit\u00e9 syntaxique des phrases pour des lecteurs souffrant de troubles de la compr\u00e9hension. Nous pr\u00e9sentons une approche \u00e0 base de r\u00e8gles de simplification d\u00e9velopp\u00e9es manuellement et son int\u00e9gration dans un traitement de texte. Cette int\u00e9gration permet la validation interactive de simplifications candidates produites par le syst\u00e8me, et lie la t\u00e2che de cr\u00e9ation de texte simplifi\u00e9 \u00e0 celle de r\u00e9daction.","translation":["","This paper addresses the issue of text readability and in particular the need for simplifying the syntactic complexity of sentences for language-impaired readers. The proposed approach uses handcrafted simplification rules and has been integrated into a word processor. This allows interactive validation of candidate simplified sentences produced by the system, and integrates the task of creating simplified texts into that of authoring.","language disorders, syntactic simplification, rewriting rules, interactive validation, word processors"],"keyphrases":["traitements de texte","validation interactive","troubles du langage","simplification syntaxique","r\u00e8gles de r\u00e9\u00e9criture"],"prmu":["P","P","M","R","M"]} {"id":"taln-2005-court-016","title":"Indexation automatique de ressources de sant\u00e9 \u00e0 l'aide de paires de descripteurs MeSH","abstract":"Depuis quelques ann\u00e9es, m\u00e9decins et documentalistes doivent faire face \u00e0 une demande croissante dans le domaine du codage m\u00e9dico-\u00e9conomique et de l'indexation des diverses sources d'information disponibles dans le domaine de la sant\u00e9. Il est donc n\u00e9cessaire de d\u00e9velopper des outils d\u2019indexation automatique qui r\u00e9duisent les d\u00e9lais d\u2019indexation et facilitent l'acc\u00e8s aux ressources m\u00e9dicales. Nous proposons deux m\u00e9thodes d\u2019indexation automatique de ressources de sant\u00e9 \u00e0 l\u2019aide de paires de descripteurs MeSH. La combinaison de ces deux m\u00e9thodes permet d'optimiser les r\u00e9sulats en exploitant la compl\u00e9mentarit\u00e9 des approches. Les performances obtenues sont \u00e9quivalentes \u00e0 celles des outils de la litt\u00e9rature pour une indexation \u00e0 l\u2019aide de descripteurs seuls.","translation":["","The increasing number of health documents available in electronic form, and the demand on both practitioners and librarians to encode these documents with controlled vocabulary information calls for automatic tools and methods to help them perform this task efficiently. In this article, we are presenting and comparing two methods for the automatic indexing of heath resources with pairs of MeSH descriptors. A combination of both methods achieves better results by exploiting the complementarity of the approaches. This performance matches the tools described in the litterature for single term indexing.","Automatic Indexing, Medical Terminology, Controlled Vocabulary"],"keyphrases":["Indexation Automatique","Terminologie M\u00e9dicale","Vocabulaire Contr\u00f4l\u00e9"],"prmu":["P","M","U"]} {"id":"taln-2005-court-017","title":"R\u00e9seau bayesien pour un mod\u00e8le d'utilisateur et un module de compr\u00e9hension pour l'optimisation des syst\u00e8mes de dialogues","abstract":"Dans cet article, un environnement modulaire pour la simulation automatique de dialogues homme-machine est propos\u00e9. Cet environnement comprend notamment un mod\u00e8le d\u2019utilisateur consistant dirig\u00e9 par le but et un module de simulation de compr\u00e9hension de parole. Un r\u00e9seau bay\u00e9sien est \u00e0 la base de ces deux mod\u00e8les et selon les param\u00e8tres utilis\u00e9s, il peut g\u00e9n\u00e9rer un comportement d\u2019utilisateur coh\u00e9rent ou servir de classificateur de concepts. L\u2019environnement a \u00e9t\u00e9 utilis\u00e9 dans le contexte de l\u2019optimisation de strat\u00e9gies de dialogue sur une t\u00e2che simple de remplissage de formulaire et les r\u00e9sultats montrent qu\u2019il est alors possible d\u2019identifier certains dialogues probl\u00e9matiques du point de vue de la compr\u00e9hension.","translation":["","In this paper we present a modular environment for simulating human-machine dialogues by computer means. This environment includes a consistent goal-directed user model and a natural language understanding system model. Both models rely on a special Bayesian network used with different parameters in such a way that it can generate a consistent user behaviour according to a goal and the history of the interaction, and been used as a concept classifier. This environment was tested in the framework of optimal strategy learning for the simple form-filling task. The results show that the environment allows pointing out problematic dialogues that may occur because of misunderstanding between the user and the system.","Spoken dialog systems, dialog simulation, user modeling, optimization"],"keyphrases":["optimisation","Syst\u00e8mes de dialogue","mod\u00e8le d\u2019utilisateur","simulation de dialogues"],"prmu":["P","P","P","R"]} {"id":"taln-2005-court-018","title":"Correction Automatique en temps r\u00e9\u00e9l, contraintes, m\u00e9thodes et voies de recherche","abstract":"Cet article expose un cas concret d\u2019utilisation d\u2019une grammaire de contraintes. Le produit qui les applique a \u00e9t\u00e9 commercialis\u00e9 en 2003 pour corriger automatiquement et en temps r\u00e9el les fautes d\u2019accord pr\u00e9sentes dans les sous-titres des retransmissions en direct des d\u00e9bats du S\u00e9nat du Canada. Avant la mise en place du syst\u00e8me, le taux moyen de fautes \u00e9tait de l\u2019ordre de 7 pour 100 mots. Depuis la mise en service, le taux d\u2019erreurs a chut\u00e9 \u00e0 1,7 %. Nous expliquons dans ce qui suit les principaux atouts des grammaires de contraintes dans le cas particulier des traitements temps r\u00e9el, et plus g\u00e9n\u00e9ralement pour toutes les applications qui n\u00e9cessitent une analyse au fur et \u00e0 mesure du discours (c.-\u00e0-d. sans attendre la fin des phrases).","translation":["","This article sets out a concrete use case of a grammar of constraints. The product which applies them was commercialised in 2003 to automatically correct in real time the errors of agreement present in the sub-titles of live televised debates from the Senate of Canada. Before the introduction of this system, the average rate of mistakes was in the order of 7 per 100 words. With the introduction of this system, the rate of errors has fallen to 1.7%. In the following section, we explain the main advantages of a grammar of constraints in the specific case of real-time processing, and more generally for all applications which require an analysis during the speech (that is, without waiting until the end of sentences).","Automatic correction, real-time, syntactic analysis, grammar of constraints"],"keyphrases":["Correction automatique","temps r\u00e9el","grammaire de contraintes","analyse syntaxique"],"prmu":["P","P","P","M"]} {"id":"taln-2005-court-019","title":"Les M\u00e9ta-RCG: description et mise en oeuvre","abstract":"Nous pr\u00e9sentons dans cet article un nouveau formalisme linguistique qui repose sur les Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles (RCG), appel\u00e9 M\u00e9ta-RCG. Nous exposons tout d\u2019abord pourquoi la non-lin\u00e9arit\u00e9 permet une repr\u00e9sentation ad\u00e9quate des ph\u00e9nom\u00e8nes linguistiques, et en particulier de l\u2019interaction entre les diff\u00e9rents niveaux de description. Puis nous pr\u00e9sentons les M\u00e9ta-RCG et les concepts linguistiques suppl\u00e9mentaires qu\u2019elles mettent en oeuvre, tout en restant convertibles en RCG classiques. Nous montrons que les analyses classiques (constituants, d\u00e9pendances, topologie, s\u00e9mantique pr\u00e9dicat-arguments) peuvent \u00eatre obtenues par projection partielle d\u2019une analyse M\u00e9ta-RCG compl\u00e8te. Enfin, nous d\u00e9crivons la grammaire du fran\u00e7ais que nous d\u00e9veloppons dans ce nouveau formalisme et l\u2019analyseur efficace qui en d\u00e9coule. Nous illustrons alors la notion de projection partielle sur un exemple.","translation":["","In this paper, we present a novel linguistic formalism based on Range Concatenation Grammars (RCG), called Meta-RCG. We first expose why non-linearity allows a satisfying representation of linguistic phenomena, and in particular of the interaction between the different levels of description. Then we introduce Meta-RCGs and the extra linguistic concepts they manipulate, while remaining compilable into classical RCGs. Moreover, we show that classical analyses (consituency, dependency, topology, predicate-arguments semantics) can be obtained by partial projection of a full Meta-RCG parse. Finally, we describe the grammar for French we develop in this new formalism and the associated efficient parser. We illustrate the notion of partial projection with an example.","Parsing, syntax-semantics interface, non-linear grammars, Range Concatenation Grammars (RCG)"],"keyphrases":["Grammaires \u00e0 Concat\u00e9nation d\u2019Intervalles (RCG)","Analyse syntaxique","interface syntaxe-s\u00e9mantique","grammaires non-lin\u00e9aires"],"prmu":["P","M","U","M"]} {"id":"taln-2005-court-021","title":"Segmentation th\u00e9matique par cha\u00eenes lexicales pond\u00e9r\u00e9es","abstract":"Cet article propose une m\u00e9thode innovante et efficace pour segmenter un texte en parties th\u00e9matiquement coh\u00e9rentes, en utilisant des cha\u00eenes lexicales pond\u00e9r\u00e9es. Les cha\u00eenes lexicales sont construites en fonction de hiatus variables, ou bien sans hiatus, ou encore pond\u00e9r\u00e9es en fonction de la densit\u00e9 des occurrences du terme dans la cha\u00eene. D\u2019autre part, nous avons constat\u00e9 que la prise en compte du rep\u00e9rage d\u2019entit\u00e9s nomm\u00e9es dans la cha\u00eene de traitement, du moins sans r\u00e9solution des anaphores, n\u2019am\u00e9liore pas significativement les performances. Enfin, la qualit\u00e9 de la segmentation propos\u00e9e est stable sur diff\u00e9rentes th\u00e9matiques, ce qui montre une ind\u00e9pendance par rapport au type de document.","translation":["","This paper presents an innovative and efficient topic segmentation method based on weighted lexical chains. This method comes from a study of different existing tools, and experiments where we considered the influence of a term at each precise place in the text. We build lexical chains with different kinds of hiatus (varying, none or density weighted). We demonstrate good results on a manually built french news corpus. We show that using named entities does not improve results. Finally, we show that our method tends to be domain-independent because results are similar on various topics.","topic segmentation, lexical chains, named entities"],"keyphrases":["segmentation th\u00e9matique","cha\u00eenes lexicales","entit\u00e9s nomm\u00e9es"],"prmu":["P","P","P"]} {"id":"taln-2005-court-022","title":"Une plateforme pour l'acquisition, la maintenance et la validation de ressources lexicales","abstract":"Nous pr\u00e9sentons une plateforme de d\u00e9veloppement de lexique offrant une base lexicale accompagn\u00e9e d\u2019un certain nombre d\u2019outils de maintenance et d\u2019utilisation. Cette base, qui comporte aujourd\u2019hui 440.000 formes du Fran\u00e7ais contemporain, est destin\u00e9e \u00e0 \u00eatre diffus\u00e9e et remise \u00e0 jour r\u00e9guli\u00e8rement. Nous exposons d\u2019abord les outils et les techniques employ\u00e9es pour sa constitution et son enrichissement, notamment la technique de calcul des fr\u00e9quences lexicales par cat\u00e9gorie morphosyntaxique. Nous d\u00e9crivons ensuite diff\u00e9rentes approches pour constituer un sous-lexique de taille r\u00e9duite, dont la particularit\u00e9 est de couvrir plus de 90% de l\u2019usage. Un tel lexique noyau offre en outre la possibilit\u00e9 d\u2019\u00eatre r\u00e9ellement compl\u00e9t\u00e9 manuellement avec des informations s\u00e9mantiques, de valence, pragmatiques etc.","translation":["","We present a lexical development platform which comprises a lexical database of 440.000 lemmatized words of contemporary French, plus a set of maintenance tools. The lexical database is intended to be distributed and updated regularly. We present in this paper tools and techniques applied for the lexicon constitution and its enrichment, in particular the computation of lexical frequencies by morphosyntactic category. Then we describe various approaches to build an under-lexicon of reduced size, whose characteristic is to cover more than 90% of the use. Such a kernel lexicon makes it moreover possible to be really enriched by hand with semantic, valence, pragmatic information, etc.","dictionary, lexicon, kernel lexicon"],"keyphrases":["lexique","lexique noyau","dictionnaire"],"prmu":["P","P","U"]} {"id":"taln-2005-court-023","title":"La plate-forme LinguaStream : un outil d'exploration linguistique sur corpus","abstract":"\u00c0 travers la pr\u00e9sentation de la plate-forme LinguaStream, nous pr\u00e9sentons certains principes m\u00e9thodologiques et diff\u00e9rents mod\u00e8les d\u2019analyse pouvant permettre l\u2019articulation de traitements sur corpus. Nous envisageons en particulier les besoins n\u00e9s de perspectives \u00e9mergentes en TAL telles que l\u2019analyse du discours.","translation":["","By presenting the LinguaStream platform, we introduce different methodological principles and analysis models, which make it possible to articulate corpus processing tasks. More especially, we consider emerging approaches in NLP, such as discourse analysis.","Corpus linguistics, NLP, software framework"],"keyphrases":["TAL","Linguistique de corpus","plate-forme logicielle"],"prmu":["P","R","M"]} {"id":"taln-2011-invite-001","title":"Les perspectives r\u00e9v\u00e9l\u00e9es par la th\u00e9orie des K-repr\u00e9sentations pour la bioinformatique et le Web s\u00e9mantique","abstract":"L'article d\u00e9crit la structure et les applications possibles de la th\u00e9orie des K-repr\u00e9sentations (repr\u00e9sentation des connaissances) dans la bioinformatique afin de d\u00e9velopper un R\u00e9seau S\u00e9mantique d'une g\u00e9n\u00e9ration nouvelle. La th\u00e9orie des K-r\u00e9presentations est une th\u00e9orie originale du d\u00e9veloppement des analyseurs s\u00e9mantico\u2013syntactiques avec l'utilisation large des moyens formels pour d\u00e9crire les donn\u00e9es d'entr\u00e9e, interm\u00e9diaires et de sortie. Cette th\u00e9orie est d\u00e9crit dans la monographie de V. Fomichov (Springer, 2010). La premi\u00e8re partie de la th\u00e9orie est un mod\u00e8le formel d'un syst\u00e8me qui est compos\u00e9 de dix op\u00e9rations sur les structures conceptuelles. Ce mod\u00e8le d\u00e9finit une classe nouvelle des langages formels \u2013 la classe des SK-langages. Les possibilit\u00e9s larges de construire des r\u00e9presentations s\u00e9mantiques des discours compliqu\u00e9s en rapport \u00e0 la biologie sont manifestes. Une approche formelle nouvelle de l'\u00e9laboration des analysateurs multilinguistiques s\u00e9mantico-syntactiques est d\u00e9crite. Cet approche a \u00e9t\u00e9 impl\u00e9ment\u00e9e sous la forme d'un programme en langage PYTHON.","translation":["The prospects revealed by the theory of K-representations for bioinformatics and Semantic Web","The paper describes the structure and possible applications of the theory of K-representations (knowledge representations) in bioinformatics and in the development of a Semantic Web of a new generation. It is an original theory of designing semantic-syntactic analyzers of natural language (NL) texts with the broad use of formal means for representing input, intermediary, and output data. The current version of the theory is set forth in a monograph by V. Fomichov (Springer, 2010). The first part of the theory is a formal model describing a system consisting of ten operations on conceptual structures. This model defines a new class of formal languages \u2013 the class of SK-languages. The broad possibilities of constructing semantic representations of complex discourses pertaining to biology are shown. A new formal approach to developing multilingual algorithms of semantic-syntactic analysis of NL-texts is outlined. This approach is realized by means of a program in the language PYTHON.","man-machine natural language dialogue, algorithm of semantic-syntactic analysis, integral formal semantics, theory of K-representations, SK-languages, semantic representation, text meaning representation, linguistic database, Semantic Web of a new generation, multilingual Semantic Web, bioinformatics"],"keyphrases":["th\u00e9orie des K-repr\u00e9sentations","bioinformatique","r\u00e9seau s\u00e9mantique d'une g\u00e9n\u00e9ration nouvelle","dialogue homme-machine en langage naturel","algorithme de l\u201fanalyse s\u00e9mantico-syntactique","s\u00e9mantique int\u00e9grale formelle","SK-langues","repr\u00e9sentation s\u00e9mantique","bases de donn\u00e9es linguistiques","r\u00e9seau s\u00e9mantique multilingue"],"prmu":["P","P","P","M","M","M","U","R","M","M"]} {"id":"taln-2011-long-001","title":"Patrons de phrase, raccourcis pour apprendre rapidement \u00e0 parler une nouvelle langue","abstract":"Nous d\u00e9crivons la cr\u00e9ation d'un environnement web pour aider des apprenants (adolescents ou adultes) \u00e0 acqu\u00e9rir les automatismes n\u00e9cessaires pour produire \u00e0 un d\u00e9bit \u201cnormal\u201d les structures fondamentales d'une langue. Notre point de d\u00e9part est une base de donn\u00e9es de phrases, glan\u00e9es sur le web ou issues de livres scolaires ou de livres de phrases. Ces phrases ont \u00e9t\u00e9 g\u00e9n\u00e9ralis\u00e9es (remplacement de mots par des variables) et index\u00e9es en termes de buts pour former une arborescence de patrons. Ces deux astuces permettent de motiver l'usage des patrons et de cr\u00e9\u00e9er des phrases structurellement identiques \u00e0 celles rencontr\u00e9es, tout en \u00e9tant s\u00e9mantiquement diff\u00e9rentes. Si les notions de 'patrons' ou de 'phrases \u00e0 trou implicitement typ\u00e9es' ne sont pas nouvelles, le fait de les avoir port\u00e9es sur ordinateur pour apprendre des langues l'est. Le syst\u00e8me \u00e9tant con\u00e7u pour \u00eatre ouvert, il permet aux utilisateurs, concepteurs ou apprenants, des changements sur de nombreux points importants : le nom des variables, leurs valeurs, le laps de temps entre une question et sa r\u00e9ponse, etc. La version initiale a \u00e9t\u00e9 d\u00e9velopp\u00e9e pour l'anglais et le japonais. Pour tester la g\u00e9n\u00e9ricit\u00e9 de notre approche nous y avons ajout\u00e9 relativement facilement le fran\u00e7ais et le chinois.","translation":["Sentence patterns, shortcuts to quickly learn to speak a new language","We describe a web application to assist language learners (teenagers or adults) to acquire the needed skills to produce at a \u2018normal' rate the fundamental structures of a new language, the scope being the survival level. The starting point is a database of sentences gleaned in textbooks, phrasebooks, or the web. We propose to extend the applicability of these structures by generalizing them: concrete sentences becoming productive sentence patterns. In order to produce such generic structures (schemata), we index the sentences in terms of goals, replacing specific elements (words) of the chain by more general terms (variables). This allows the user not only to acquire these structures, but also to express his\/her own thoughts. Starting from a communicative goal, he instantiates the variables of the associated schema with words of his choice. We have developed a prototype for English and Japanese, adding Chinese and French without too many problems.","foreign language learning, language production, phrasebook, sentence patterns, basic structure"],"keyphrases":["patrons","structures fondamentales","livres de phrases","apprentissage de langues","production de langage","sch\u00e9ma de phrase"],"prmu":["P","P","P","M","M","M"]} {"id":"taln-2011-long-002","title":"G\u00e9n\u00e9ration automatique de motifs de d\u00e9tection d'entit\u00e9s nomm\u00e9es en utilisant des contenus encyclop\u00e9diques","abstract":"Les encyclop\u00e9dies num\u00e9riques contiennent aujourd'hui de vastes inventaires de formes d'\u00e9critures pour des noms de personnes, de lieux, de produits ou d'organisation. Nous pr\u00e9sentons un syst\u00e8me hybride de d\u00e9tection d'entit\u00e9s nomm\u00e9es qui combine un classifieur \u00e0 base de Champs Conditionnel Al\u00e9atoires avec un ensemble de motifs de d\u00e9tection extraits automatiquement d'un contenu encyclop\u00e9dique. Nous proposons d'extraire depuis des \u00e9ditions en plusieurs langues de l'encyclop\u00e9die Wikip\u00e9dia de grandes quantit\u00e9s de formes d'\u00e9criture que nous utilisons en tant que motifs de d\u00e9tection des entit\u00e9s nomm\u00e9es. Nous d\u00e9crivons une m\u00e9thode qui nous assure de ne conserver dans cette ressources que des formes non ambigu\u00ebs susceptibles de venir renforcer un syst\u00e8me de d\u00e9tection d'entit\u00e9s nomm\u00e9es automatique. Nous proc\u00e9dons \u00e0 un ensemble d'exp\u00e9riences qui nous permettent de comparer un syst\u00e8me d'\u00e9tiquetage \u00e0 base de CRF avec un syst\u00e8me utilisant exclusivement des motifs de d\u00e9tection. Puis nous fusionnons les r\u00e9sultats des deux syst\u00e8mes et montrons qu'un gain de performances est obtenu gr\u00e2ce \u00e0 cette proposition.","translation":["Automatic generation of named entity detection patterns using encyclopedic contents","Encyclopedic content can provide numerous samples of surface writing forms for persons, places, products or organisations names. In this paper we present an hybrid named entities recognition system based on a gazetteer automatically extracted. We propose to extract it from various language editions ofWikipedia encyclopedia. The wide amount of surface forms extracted from this encyclopedic content is then used as detection pattern of named entities.We build a labelling tool using those patterns. This labelling tool is used as simple pattern detection component, to combine with a Conditional Random Field tagger.We compare the performances of each component of our system with the results previously obtained by various systems in the French NER campaign ESTER 2. Finally, we show that the fusion of a CRF label tool with a pattern based ones, can improve the global performances of a named entity recognition system.","Tagger, Named entities, Gazetteer"],"keyphrases":["Entit\u00e9s nomm\u00e9es","\u00c9tiqueteur","Lexiques"],"prmu":["P","U","U"]} {"id":"taln-2011-long-003","title":"Approche de construction automatique de titres courts par des m\u00e9thodes de Fouille du Web","abstract":"Le titrage automatique de documents textuels est une t\u00e2che essentielle pour plusieurs applications (titrage de mails, g\u00e9n\u00e9ration automatique de sommaires, synth\u00e8se de documents, etc.). Cette \u00e9tude pr\u00e9sente une m\u00e9thode de construction de titres courts appliqu\u00e9e \u00e0 un corpus d'articles journalistiques via des m\u00e9thodes de Fouille du Web. Il s'agit d'une premi\u00e8re \u00e9tape cruciale dans le but de proposer une m\u00e9thode de construction de titres plus complexes. Dans cet article, nous pr\u00e9sentons une m\u00e9thode proposant des titres tenant compte de leur coh\u00e9rence par rapport au texte, par rapport au Web, ainsi que de leur contexte dynamique. L'\u00e9valuation de notre approche indique que nos titres construits automatiquement sont informatifs et\/ou accrocheurs.","translation":["An automatic short title construction approach by web mining methods","The automatic titling of text documents is an essential task for several applications (automatic titling of e-mails, summarization, and so forth). This study presents a method of generation of short titles applied to a corpus of journalistic articles using methods ofWeb Mining. It is a first crucial stage with the aim of proposing a method of generation of more complex titles. In this article, we present a method that proposes titles taking into account their coherence in connection with the text and the Web, as well as their dynamic context. The evaluation of our approach indicates that our titles generated automatically are informative and\/or catchy.","Natural Language Processing, Web Mining, Automatic Titling"],"keyphrases":["Fouille du Web","Titrage automatique","Traitement Automatique du Langage Naturel"],"prmu":["P","P","M"]} {"id":"taln-2011-long-004","title":"Une approche faiblement supervis\u00e9e pour l'extraction de relations \u00e0 large \u00e9chelle","abstract":"Les syst\u00e8mes d'extraction d'information traditionnels se focalisent sur un domaine sp\u00e9cifique et un nombre limit\u00e9 de relations. Les travaux r\u00e9cents dans ce domaine ont cependant vu \u00e9merger la probl\u00e9matique des syst\u00e8mes d'extraction d'information \u00e0 large \u00e9chelle. \u00c0 l'instar des syst\u00e8mes de question-r\u00e9ponse en domaine ouvert, ces syst\u00e8mes se caract\u00e9risent \u00e0 la fois par le traitement d'un grand nombre de relations et par une absence de restriction quant aux domaines abord\u00e9s. Dans cet article, nous pr\u00e9sentons un syst\u00e8me d'extraction d'information \u00e0 large \u00e9chelle fond\u00e9 sur un apprentissage faiblement supervis\u00e9 de patrons d'extraction de relations. Cet apprentissage repose sur la donn\u00e9e de couples d'entit\u00e9s en relation dont la projection dans un corpus de r\u00e9f\u00e9rence permet de constituer la base d'exemples de relations support de l'induction des patrons d'extraction. Nous pr\u00e9sentons \u00e9galement les r\u00e9sultats de l'application de cette approche dans le cadre d'\u00e9valuation d\u00e9fini par la t\u00e2che KBP de l'\u00e9valuation TAC 2010.","translation":["A weakly supervised approach to large scale relation extraction","Standard Information Extraction (IE) systems are designed for a specific domain and a limited number of relations. Recent work has been undertaken to deal with large-scale IE systems. Such systems are characterized by a large number of relations and no restriction on the domain, which makes difficult the definition of manual resources or the use of supervised techniques. In this paper, we present a large-scale IE system based on a weakly supervised method of pattern learning. This method uses pairs of entities known to be in relation to automatically extract example sentences from which the patterns are learned. We present the results of this system on the data from the KBP task of the TAC 2010 evaluation campaign.","information extraction, relation extraction"],"keyphrases":["extraction de relations","extraction d'information"],"prmu":["P","P"]} {"id":"taln-2011-long-005","title":"Utilisation d'un score de qualit\u00e9 de traduction pour le r\u00e9sum\u00e9 multi-document cross-lingue","abstract":"Le r\u00e9sum\u00e9 automatique cross-lingue consiste \u00e0 g\u00e9n\u00e9rer un r\u00e9sum\u00e9 r\u00e9dig\u00e9 dans une langue diff\u00e9rente de celle utilis\u00e9e dans les documents sources. Dans cet article, nous proposons une approche de r\u00e9sum\u00e9 automatique multi-document, bas\u00e9e sur une repr\u00e9sentation par graphe, qui prend en compte des scores de qualit\u00e9 de traduction lors du processus de s\u00e9lection des phrases. Nous \u00e9valuons notre m\u00e9thode sur un sous-ensemble manuellement traduit des donn\u00e9es utilis\u00e9es lors de la campagne d'\u00e9valuation internationale DUC 2004. Les r\u00e9sultats exp\u00e9rimentaux indiquent que notre approche permet d'am\u00e9liorer la lisibilit\u00e9 des r\u00e9sum\u00e9s g\u00e9n\u00e9r\u00e9s, sans pour autant d\u00e9grader leur informativit\u00e9.","translation":["Using translation quality scores for cross-language multi-document summarization","Cross-language summarization is the task of generating a summary in a language different from the language of the source documents. In this paper, we propose a graph-based approach to multi-document summarization that integrates machine translation quality scores in the sentence selection process. We evaluate our method on a manually translated subset of the DUC 2004 evaluation campaign. Results indicate that our approach improves the readability of the generated summaries without degrading their informativity.","Cross-lingual summary, translation quality, graph"],"keyphrases":["qualit\u00e9 de traduction","graphe","R\u00e9sum\u00e9 cross-lingue"],"prmu":["P","P","R"]} {"id":"taln-2011-long-006","title":"Acc\u00e8s au contenu s\u00e9mantique en langue de sp\u00e9cialit\u00e9 : extraction des prescriptions et concepts m\u00e9dicaux","abstract":"Pourtant essentiel pour appr\u00e9hender rapidement et globalement l'\u00e9tat de sant\u00e9 des patients, l'acc\u00e8s aux informations m\u00e9dicales li\u00e9es aux prescriptions m\u00e9dicamenteuses et aux concepts m\u00e9dicaux par les outils informatiques se r\u00e9v\u00e8le particuli\u00e8rement difficile. Ces informations sont en effet g\u00e9n\u00e9ralement r\u00e9dig\u00e9es en texte libre dans les comptes rendus hospitaliers et n\u00e9cessitent le d\u00e9veloppement de techniques d\u00e9di\u00e9es. Cet article pr\u00e9sente les strat\u00e9gies mises en oeuvre pour extraire les prescriptions m\u00e9dicales et les concepts m\u00e9dicaux dans des comptes rendus hospitaliers r\u00e9dig\u00e9s en anglais. Nos syst\u00e8mes, fond\u00e9s sur des approches \u00e0 base de r\u00e8gles et d'apprentissage automatique, obtiennent une F1-mesure globale de 0,773 dans l'extraction des prescriptions m\u00e9dicales et dans le rep\u00e9rage et le typage des concepts m\u00e9dicaux.","translation":["Accessing the semantic content in a specialized language: extracting prescriptions and medical concepts","While essential for rapid access to patient health status, computer-based access to medical information related to prescriptions key medical expressed and concepts proves to be difficult. This information is indeed generally in free text in the clinical records and requires the development of dedicated techniques. This paper presents the strategies implemented to extract medical prescriptions and concepts in clinical records written in English language. Our systems, based upon linguistic patterns and machine-learning approaches, achieved a global F1-measure of 0.773 for extraction of medical prescriptions, and of clinical concepts.","Information extraction, Controled indexing, Medical informatics, Clinical concepts, Prescriptions"],"keyphrases":["Prescriptions","Concepts m\u00e9dicaux","Extraction d'information","Indexation contr\u00f4l\u00e9e","Informatique m\u00e9dicale"],"prmu":["P","P","R","U","R"]} {"id":"taln-2011-long-007","title":"Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral","abstract":"Dans cet article, nous proposons plusieurs approches pour la portabilit\u00e9 du module de compr\u00e9hension de la parole (SLU) d'un syst\u00e8me de dialogue d'une langue vers une autre. On montre que l'utilisation des traductions automatiques statistiques (SMT) aide \u00e0 r\u00e9duire le temps et le cout de la portabilit\u00e9 d'un tel syst\u00e8me d'une langue source vers une langue cible. Pour la tache d'\u00e9tiquetage s\u00e9mantique on propose d'utiliser soit les champs al\u00e9atoires conditionnels (CRF), soit l'approche \u00e0 base de s\u00e9quences (PH-SMT). Les r\u00e9sultats exp\u00e9rimentaux montrent l'efficacit\u00e9 des m\u00e9thodes propos\u00e9es pour une portabilit\u00e9 rapide du SLU vers une nouvelle langue. On propose aussi deux m\u00e9thodes pour accro\u00eetre la robustesse du SLU aux erreurs de traduction. Enfin on montre que la combinaison de ces approches r\u00e9duit les erreurs du syst\u00e8me. Ces travaux sont motiv\u00e9s par la disponibilit\u00e9 du corpus MEDIA fran\u00e7ais et de la traduction manuelle vers l'italien d'une sous partie de ce corpus.","translation":["Comparison and combination of approaches for the portability to a new language of an oral comprehension system","In this paper we investigate several approaches for language portability of the spoken language understanding (SLU) module of a dialogue system. We show that the use of statistical machine translation (SMT) can reduce the time and the cost of porting a system from a source to a target language. For conceptual decoding we propose to use even conditional random fields (CRF) or phrase based statistical machine translation PB-SMT). The experimental results show the efficiency of the proposed methods for a fast and low cost SLU language portability. Also we proposed two methods to increase SLU robustness to translation errors. Overall we show that the combination of all these approaches reduce the concept error rate. This work was motivated by the availability of the MEDIA French corpus and the manual translation of a subset of this corpus into Italian.","Spoken Dialogue Systems, Spoken Language Understanding, Language Portability, Statistical Machine Translation"],"keyphrases":["compr\u00e9hension de la parole","Syst\u00e8me de dialogue","traduction automatique statistique","portabilit\u00e9 \u00e0 travers les langues"],"prmu":["P","P","P","M"]} {"id":"taln-2011-long-008","title":"Qui \u00eates-vous ? Cat\u00e9goriser les questions pour d\u00e9terminer le r\u00f4le des locuteurs dans des conversations orales","abstract":"La fouille de donn\u00e9es orales est un domaine de recherche visant \u00e0 caract\u00e9riser un flux audio contenant de la parole d'un ou plusieurs locuteurs, \u00e0 l'aide de descripteurs li\u00e9s \u00e0 la forme et au contenu du signal. Outre la transcription automatique en mots des paroles prononc\u00e9es, des informations sur le type de flux audio trait\u00e9 ainsi que sur le r\u00f4le et l'identit\u00e9 des locuteurs sont \u00e9galement cruciales pour permettre des requ\u00eates complexes telles que : \u00ab chercher des d\u00e9bats sur le th\u00e8me X \u00bb, \u00ab trouver toutes les interviews de Y \u00bb, etc. Dans ce cadre, et en traitant des conversations enregistr\u00e9es lors d'\u00e9missions de radio ou de t\u00e9l\u00e9vision, nous \u00e9tudions la mani\u00e8re dont les locuteurs expriment des questions dans les conversations, en partant de l'intuition initiale que la forme des questions pos\u00e9es est une signature du r\u00f4le du locuteur dans la conversation (pr\u00e9sentateur, invit\u00e9, auditeur, etc.). En proposant une classification du type des questions et en utilisant ces informations en compl\u00e9ment des descripteurs g\u00e9n\u00e9ralement utilis\u00e9s dans la litt\u00e9rature pour classer les locuteurs par r\u00f4le, nous esp\u00e9rons am\u00e9liorer l'\u00e9tape de classification, et valider par la m\u00eame occasion notre intuition initiale.","translation":["Who are you? Categorize questions to determine the role of speakers in oral conversations","Speech Data Mining is an area of research dedicated to characterize audio streams containing speech of one or more speakers, using descriptors related to the form and the content of the speech signal. Besides the automatic word transcription process, information about the type of audio stream and the role and identity of speakers is also crucial to allow complex queries such as : \u201c seek debates on X ,\u201d\u201c find all the interviews of Y\u201d, etc. In this framework we present a study done on broadcast conversations on how speakers express questions in conversations, starting with the initial intuition that the form of the questions uttered is a signature of the role of the speakers in the conversation (anchor, guest, expert, etc.). By classifying these questions thanks to a set of labels and using this information in addition to the commonly used descriptors to classify users' role in broadcast conversations, we want to improve the role classification accuracy and validate our initial intuition.","Speech data mining, Automatic Speech Processing, Speech Corpus Annotation, Speaker role classification"],"keyphrases":["Fouille de donn\u00e9es orales","Traitement Automatique de la Parole","Annotation de corpus oraux","Classification en r\u00f4les de locuteurs"],"prmu":["P","R","M","R"]} {"id":"taln-2011-long-009","title":"Recherche d'information et temps linguistique : une heuristique pour calculer la pertinence des expressions calendaires","abstract":"A rebours de bon nombre d'applications actuelles offrant des services de recherche d'information selon des crit\u00e8res temporels - applications qui reposent, \u00e0 y regarder de pr\u00e8s, sur une approche consistant \u00e0 filtrer les r\u00e9sultats en fonction de leur inclusion dans une fen\u00eatre de temps, nous souhaitons illustrer dans cet article l'int\u00e9r\u00eat d'un service s'appuyant sur un calcul de similarit\u00e9 entre des expressions adverbiales calendaires. Nous d\u00e9crivons une heuristique pour mesurer la pertinence d'un fragment de texte en prenant en compte la s\u00e9mantique des expressions calendaires qui y sont pr\u00e9sentes. A travers la mise en oeuvre d'un syst\u00e8me de recherche d'information, nous montrons comment il est possible de tirer profit de l'indexation d'expressions calendaires pr\u00e9sentes dans les textes en d\u00e9finissant des scores de pertinence par rapport \u00e0 une requ\u00eate. L'objectif est de faciliter la recherche d'information en offrant la possibilit\u00e9 de croiser des crit\u00e8res de recherche th\u00e9matique avec des crit\u00e8res temporels.","translation":["Information retrieval and linguistic time: a heuristic to calculate the relevance of calendar expressions","Unlike many nowadays applications providing Information Retrieval services able to handle temporal criteria - applications which usually filter results after testing their inclusion in a time span, this paper illustrates the interest of a service based on a calculation of similarity between calendar adverbial phrases. We describe a heuristic to measure the relevance of a fragment of text by taking into account the semantics of calendar expressions. Through the implementation of an Information Retrieval system, we show how it is possible to take advantage of the indexing of calendar expressions found in texts by setting scores of relevance with respect to a query. The objective is to ease Information Retrieval by offering the possibility of crossing thematic research criteria with temporal criteria.","Calendar information indexing, Information Retrieval, Annotation and extraction of calendar expressions"],"keyphrases":["Recherche d'information","Indexation d'informations calendaires","Annotation et extraction d'expressions calendaires"],"prmu":["P","R","M"]} {"id":"taln-2011-long-010","title":"Extraction de patrons s\u00e9mantiques appliqu\u00e9e \u00e0 la classification d'Entit\u00e9s Nomm\u00e9es","abstract":"La variabilit\u00e9 des corpus constitue un probl\u00e8me majeur pour les syst\u00e8mes de reconnaissance d'entit\u00e9s nomm\u00e9es. L'une des pistes possibles pour y rem\u00e9dier est l'utilisation d'approches linguistiques pour les adapter \u00e0 de nouveaux contextes : la construction de patrons s\u00e9mantiques peut permettre de d\u00e9sambigu\u00efser les entit\u00e9s nomm\u00e9es en structurant leur environnement syntaxico-s\u00e9mantique. Cet article pr\u00e9sente une premi\u00e8re r\u00e9alisation sur un corpus de presse d'un syst\u00e8me de correction. Apr\u00e8s une \u00e9tape de segmentation sur des crit\u00e8res discursifs de surface, le syst\u00e8me extrait et pond\u00e8re les patrons li\u00e9s \u00e0 une classe d'entit\u00e9 nomm\u00e9e fournie par un analyseur. Malgr\u00e9 des mod\u00e8les encore relativement \u00e9l\u00e9mentaires, les r\u00e9sultats obtenus sont encourageants et montrent la n\u00e9cessit\u00e9 d'un traitement plus approfondi de la classe Organisation.","translation":["Extraction of semantic patterns applied to the classification of named entities","Corpus variation is a major problem for named entity recognition systems. One possible direction to tackle this problem involves using linguistic approaches to adapt them to unseen contexts : building semantic patterns may help for their disambiguation by structuring their syntactic and semantic environment. This article presents a preliminary implementation on a press corpus of a correction system. After a segmentation step based on surface discourse clues, the system extracts and weights the patterns linked to a named entity class provided by an analyzer. Despite relatively elementary models, the results obtained are promising and point on the necessary treatment of the Organisation class.","named entities, semantic patterns, surface discourse segmentation"],"keyphrases":["patrons s\u00e9mantiques","entit\u00e9s nomm\u00e9es","segmentation discursive de surface"],"prmu":["P","P","R"]} {"id":"taln-2011-long-011","title":"D\u00e9sambigu\u00efsation lexicale par propagation de mesures s\u00e9mantiques locales par algorithmes \u00e0 colonies de fourmis","abstract":"Effectuer une t\u00e2che de d\u00e9sambigu\u00efsation lexicale peut permettre d'am\u00e9liorer de nombreuses applications du traitement automatique des langues comme l'extraction d'informations multilingues, ou la traduction automatique. Sch\u00e9matiquement, il s'agit de choisir quel est le sens le plus appropri\u00e9 pour chaque mot d'un texte. Une des approches classiques consiste \u00e0 estimer la proximit\u00e9 s\u00e9mantique qui existe entre deux sens de mots puis de l'\u00e9tendre \u00e0 l'ensemble du texte. La m\u00e9thode la plus directe donne un score \u00e0 toutes les paires de sens de mots puis choisit la cha\u00eene de sens qui a le meilleur score. La complexit\u00e9 de cet algorithme est exponentielle et le contexte qu'il est calculatoirement possible d'utiliser s'en trouve r\u00e9duit. Il ne s'agit donc pas d'une solution viable. Dans cet article, nous nous int\u00e9ressons \u00e0 une autre m\u00e9thode, l'adaptation d'un algorithme \u00e0 colonies de fourmis. Nous pr\u00e9sentons ses caract\u00e9ristiques et montrons qu'il permet de propager \u00e0 un niveau global les r\u00e9sultats des algorithmes locaux et de tenir compte d'un contexte plus long et plus appropri\u00e9 en un temps raisonnable.","translation":["Lexical disambiguation by propagation of local semantic measures using ant colony algorithms","Word sense disambiguation can lead to significant improvement in many Natural Language Processing applications as Machine Translation or Multilingual Information Retrieval. Basically, the aim is to choose for each word in a text its best sense. One of the most popular method estimates local semantic relatedness between two word senses and then extends it to the whole text. The most direct method computes a rough score for every pair of word senses and chooses the lexical chain that has the best score. The complexity of this algorithm is exponential and the context that it is computationally possible to use is reduced. Brute force is therefore not a viable solution. In this paper, we focus on another method : the adaptation of an ant colony algorithm. We present its features and show that it can spread at a global level the results of local algorithms and consider a longer and more appropriate context in a reasonable time.","Lexical Disambiguation, Ant colony algorithms, Semantic relatedness"],"keyphrases":["D\u00e9sambigu\u00efsation lexicale","Mesures s\u00e9mantiques","Algorithmes \u00e0 colonies de fourmis"],"prmu":["P","P","P"]} {"id":"taln-2011-long-012","title":"Un turc m\u00e9canique pour les ressources linguistiques : critique de la myriadisation du travail parcellis\u00e9","abstract":"Cet article est une prise de position concernant les plate-formes de type Amazon Mechanical Turk, dont l'utilisation est en plein essor depuis quelques ann\u00e9es dans le traitement automatique des langues. Ces plateformes de travail en ligne permettent, selon le discours qui pr\u00e9vaut dans les articles du domaine, de faire d\u00e9velopper toutes sortes de ressources linguistiques de qualit\u00e9, pour un prix imbattable et en un temps tr\u00e8s r\u00e9duit, par des gens pour qui il s'agit d'un passe-temps. Nous allons ici d\u00e9montrer que la situation est loin d'\u00eatre aussi id\u00e9ale, que ce soit sur le plan de la qualit\u00e9, du prix, du statut des travailleurs ou de l'\u00e9thique. Nous rappellerons ensuite les solutions alternatives d\u00e9j\u00e0 existantes ou propos\u00e9es. Notre but est ici double : informer les chercheurs, afin qu'ils fassent leur choix en toute connaissance de cause, et proposer des solutions pratiques et organisationnelles pour am\u00e9liorer le d\u00e9veloppement de nouvelles ressources linguistiques en limitant les risques de d\u00e9rives \u00e9thiques et l\u00e9gales, sans que cela se fasse au prix de leur co\u00fbt ou de leur qualit\u00e9.","translation":["Mechanical Turk for linguistic resources: review of the crowdsourcing of parceled work","This article is a position paper concerning Amazon Mechanical Turk-like systems, the use of which has been steadily growing in natural language processing in the past few years. According to the mainstream opinion expressed in the articles of the domain, these online working platforms allow to develop very quickly all sorts of quality language resources, for a very low price, by people doing that as a hobby. We shall demonstrate here that the situation is far from being that ideal, be it from the point of view of quality, price, workers' status or ethics. We shall then bring back to mind already existing or proposed alternatives. Our goal here is twofold : to inform researchers, so that they can make their own choices with all the elements of the reflection in mind, and propose practical and organizational solutions in order to improve new language resources development, while limiting the risks of ethical and legal issues without letting go price or quality.","Amazon Mechanical Turk, language resources"],"keyphrases":["ressources linguistiques","Amazon Mechanical Turk"],"prmu":["P","P"]} {"id":"taln-2011-long-013","title":"Degr\u00e9 de comparabilit\u00e9, extraction lexicale bilingue et recherche d'information interlingue","abstract":"Nous \u00e9tudions dans cet article le probl\u00e8me de la comparabilit\u00e9 des documents composant un corpus comparable afin d'am\u00e9liorer la qualit\u00e9 des lexiques bilingues extraits et les performances des syst\u00e8mes de recherche d'information interlingue. Nous proposons une nouvelle approche qui permet de garantir un certain degr\u00e9 de comparabilit\u00e9 et d'homog\u00e9n\u00e9it\u00e9 du corpus tout en pr\u00e9servant une grande part du vocabulaire du corpus d'origine. Nos exp\u00e9riences montrent que les lexiques bilingues que nous obtenons sont d'une meilleure qualit\u00e9 que ceux obtenus avec les approches pr\u00e9c\u00e9dentes, et qu'ils peuvent \u00eatre utilis\u00e9s pour am\u00e9liorer significativement les syst\u00e8mes de recherche d'information interlingue.","translation":["Degree of comparability, bilingual lexical extraction and cross-language information retrieval","We study in this paper the problem of enhancing the comparability of bilingual corpora in order to improve the quality of bilingual lexicons extracted from comparable corpora and the performance of crosslanguage information retrieval (CLIR) systems. We introduce a new method for enhancing corpus comparability which guarantees a certain degree of comparability and homogeneity, and still preserves most of the vocabulary of the original corpus. Our experiments illustrate the well-foundedness of this method and show that the bilingual lexicons obtained are of better quality than the lexicons obtained with previous approaches, and that they can be used to significantly improve CLIR systems.","Comparable corpora, comparability, bilingual lexicon, cross-language information retrieval"],"keyphrases":["comparabilit\u00e9","recherche d'information interlingue","Corpus comparables","lexiques bilingues"],"prmu":["P","P","P","P"]} {"id":"taln-2011-long-014","title":"Identification de mots germes pour la construction d'un lexique de valence au moyen d'une proc\u00e9dure supervis\u00e9e","abstract":"De nombreuses m\u00e9thodes automatiques de classification de textes selon les sentiments qui y sont exprim\u00e9s s'appuient sur un lexique dans lequel \u00e0 chaque entr\u00e9e est associ\u00e9e une valence. Le plus souvent, ce lexique est construit \u00e0 partir d'un petit nombre de mots, choisis arbitrairement, qui servent de germes pour d\u00e9terminer automatiquement la valence d'autres mots. La question de l'optimalit\u00e9 de ces mots germes a bien peu retenu l'attention. Sur la base de la comparaison de cinq m\u00e9thodes automatiques de construction de lexiques de valence, dont une qui, \u00e0 notre connaissance, n'a jamais \u00e9t\u00e9 adapt\u00e9e au fran\u00e7ais et une autre d\u00e9velopp\u00e9e sp\u00e9cifiquement pour la pr\u00e9sente \u00e9tude, nous montrons l'importance du choix de ces mots germes et l'int\u00e9r\u00eat de les identifier au moyen d'une proc\u00e9dure d'apprentissage supervis\u00e9e.","translation":["Identification of seed words for building a valence lexicon using a supervised procedure","Many methods of automatic sentiment classification of texts are based on a lexicon in which each entry is associated with a semantic orientation. These entries serve as seeds for automatically determining the semantic orientation of other words. Most often, this lexicon is built from a small number of words, chosen arbitrarily. The optimality of these seed words has received little attention. In this study, we compare five automatic methods to build a semantic orientation lexicon. One among them, to our knowledge, has never been adapted to French and another was developed specifically for this study. Based on them, we show that choosing good seed words is very important and identifying them with a supervised learning procedure brings a benefit.","Sentiment analysis, semantic orientation lexicon, supervised learning, latent semantic analysis"],"keyphrases":["lexique de valence","apprentissage supervis\u00e9","Analyse de sentiments","analyse s\u00e9mantique latente"],"prmu":["P","P","M","U"]} {"id":"taln-2011-long-015","title":"Comparaison d'une approche miroir et d'une approche distributionnelle pour l'extraction de mots s\u00e9mantiquement reli\u00e9s","abstract":"Dans (Muller & Langlais, 2010), nous avons compar\u00e9 une approche distributionnelle et une variante de l'approche miroir propos\u00e9e par Dyvik (2002) sur une t\u00e2che d'extraction de synonymes \u00e0 partir d'un corpus en fran\u00e7ais. Nous pr\u00e9sentons ici une analyse plus fine des relations extraites automatiquement en nous int\u00e9ressant cette fois-ci \u00e0 la langue anglaise pour laquelle de plus amples ressources sont disponibles. Diff\u00e9rentes fa\u00e7ons d'\u00e9valuer notre approche corroborent le fait que l'approche miroir se comporte globalement mieux que l'approche distributionnelle d\u00e9crite dans (Lin, 1998), une approche de r\u00e9f\u00e9rence dans le domaine.","translation":["Comparing a mirror approach and a distributional approach for extracting semantically related words","In (Muller & Langlais, 2010), we compared a distributional approach to a variant of the mirror approach described by Dyvik (2002) on a task of synonym extraction. This was conducted on a corpus of the French language. In the present work, we propose a more precise and systematic evaluation of the relations extracted by a mirror and a distributional approaches. This evaluation is conducted on the English language for which widespread resources are available. All the evaluations we conducted in this study concur to the observation that our mirror approach globally outperforms the distributional one described by Lin (1998), which we believe to be a fair reference in the domain.","Lexical Semantics, distributional similarity, mirror approach"],"keyphrases":["S\u00e9mantique lexicale","similarit\u00e9 distributionnelle","similarit\u00e9 traductionnelle"],"prmu":["M","M","U"]} {"id":"taln-2011-long-016","title":"Une approche holiste et unifi\u00e9e de l'alignement et de la mesure d'accord inter-annotateurs","abstract":"L'alignement et la mesure d'accord sur des textes multi-annot\u00e9s sont des enjeux majeurs pour la constitution de corpus de r\u00e9f\u00e9rence. Nous d\u00e9fendons dans cet article l'id\u00e9e que ces deux t\u00e2ches sont par essence interd\u00e9pendantes, la mesure d'accord n\u00e9cessitant de s'appuyer sur des annotations align\u00e9es, tandis que les choix d'alignements ne peuvent se faire qu'\u00e0 l'aune de la mesure qu'ils induisent. Nous proposons des principes formels relevant cette gageure, qui s'appuient notamment sur la notion de d\u00e9sordre du syst\u00e8me constitu\u00e9 par l'ensemble des jeux d'annotations d'un texte. Nous posons que le meilleur alignement est celui qui minimise ce d\u00e9sordre, et que la valeur de d\u00e9sordre obtenue rend compte simultan\u00e9ment du taux d'accord. Cette approche, qualifi\u00e9e d'holiste car prenant en compte l'int\u00e9gralit\u00e9 du syst\u00e8me pour op\u00e9rer, est algorithmiquement lourde, mais nous sommes parvenus \u00e0 produire une impl\u00e9mentation d'une version l\u00e9g\u00e8rement d\u00e9grad\u00e9e de cette derni\u00e8re, et l'avons int\u00e9gr\u00e9e \u00e0 la plate-forme d'annotation Glozz.","translation":["A holistic and unified approach to aligning and measuring inter-annotator agreement","Building reference corpora makes it necessary to align annotations and to measure agreement among annotators, in order to test the reliability of the annotated ressources. In this paper, we argue that alignment and agreement measure are interrelated : agreement measure applies to pre-aligned data and alignment assumes a prior agreement measure. We describe here a formal and computational framework which takes this interrelation into account, and relies on the notion of disorder of annotation sets available for a text. In this framework, the best alignment is the one which has the minimal disorder, and this disorder reflects an agreement measure of these data. This approach is said to be holistic insofar as alignment and measure depend on the system as a whole and cannot be locally determined. This holism introduces a computational cost which has been reduced by a heuristic strategy, implemented within the Glozz annotation platform.","Alignment, inter-coder agreement measure, corpus linguistics"],"keyphrases":["mesure d'accord inter-annotateurs","Alignement d'annotations","linguistique de corpus"],"prmu":["P","R","M"]} {"id":"taln-2011-long-017","title":"French TimeBank : un corpus de r\u00e9f\u00e9rence sur la temporalit\u00e9 en fran\u00e7ais","abstract":"Cet article a un double objectif : d'une part, il s'agit de pr\u00e9senter \u00e0 la communaut\u00e9 un corpus r\u00e9cemment rendu public, le French Time Bank (FTiB), qui consiste en une collection de textes journalistiques annot\u00e9s pour les temps et les \u00e9v\u00e9nements selon la norme ISO-TimeML ; d'autre part, nous souhaitons livrer les r\u00e9sultats et r\u00e9flexions m\u00e9thodologiques que nous avons pu tirer de la r\u00e9alisation de ce corpus de r\u00e9f\u00e9rence, avec l'id\u00e9e que notre exp\u00e9rience pourra s'av\u00e9rer profitable au-del\u00e0 de la communaut\u00e9 int\u00e9ress\u00e9e par le traitement de la temporalit\u00e9.","translation":["French TimeBank: a reference corpus on temporality in French","This article has two objectives. Firstly, it presents the French TimeBank (FTiB) corpus, which has recently been made public. The corpus consists of a collection of news texts annotated for times and events according to the ISO-TimeML standard. Secondly, we wish to present the results and methodological conclusions that we have drawn from the creation of this reference corpus, with the hope that our experience may also prove useful to others outside the community of those interested in temporal processing.","Temporal annotation, corpus, ISO-TimeML"],"keyphrases":["corpus","ISO-TimeML","Annotation temporelle"],"prmu":["P","P","M"]} {"id":"taln-2011-long-018","title":"Acquisition automatique de terminologie \u00e0 partir de corpus de texte","abstract":"Les applications de recherche d'informations chez Orange sont confront\u00e9es \u00e0 des flux importants de donn\u00e9es textuelles, recouvrant des domaines larges et \u00e9voluant tr\u00e8s rapidement. Un des probl\u00e8mes \u00e0 r\u00e9soudre est de pouvoir analyser tr\u00e8s rapidement ces flux, \u00e0 un niveau \u00e9lev\u00e9 de qualit\u00e9. Le recours \u00e0 un mod\u00e8le d'analyse s\u00e9mantique, comme solution, n'est viable qu'en s'appuyant sur l'apprentissage automatique pour construire des grandes bases de connaissances d\u00e9di\u00e9es \u00e0 chaque application. L'extraction terminologique d\u00e9crite dans cet article est un composant amont de ce dispositif d'apprentissage. Des nouvelles m\u00e9thodes d'acquisition, bas\u00e9e sur un mod\u00e8le hybride (analyse par grammaires de chunking et analyse statistique \u00e0 deux niveaux), ont \u00e9t\u00e9 d\u00e9velopp\u00e9es pour r\u00e9pondre aux contraintes de performance et de qualit\u00e9.","translation":["Automatic terminology acquisition from text corpora","Information retrieval applications by Orange must process tremendous textual dataflows which cover large domains and evolve rapidly. One problem to solve is to analyze these dataflows very quickly, with a high quality level. Having a semantic analysis model as a solution is reliable only if unsupervised learning is used to build large knowledge databases dedicated to each application. The terminology extraction described in this paper is a prior component of the learning architecture. New acquisition methods, based on hybrid model (chunking analysis coupled with two-level statistical analysis) have been developed to meet the constraints of both performance and quality.","Unsupervised learning, terminology acquisition, entropy, chunking analysis"],"keyphrases":["Apprentissage automatique","grammaires de chunking","acquisition terminologique","entropie"],"prmu":["P","P","R","U"]} {"id":"taln-2011-long-019","title":"M\u00e9tarecherche pour l'extraction lexicale bilingue \u00e0 partir de corpus comparables","abstract":"Nous pr\u00e9sentons dans cet article une nouvelle mani\u00e8re d'aborder le probl\u00e8me de l'acquisition automatique de paires de mots en relation de traduction \u00e0 partir de corpus comparables. Nous d\u00e9crivons tout d'abord les approches standard et par similarit\u00e9 interlangue traditionnellement d\u00e9di\u00e9es \u00e0 cette t\u00e2che. Nous r\u00e9interpr\u00e9tons ensuite la m\u00e9thode par similarit\u00e9 interlangue et motivons un nouveau mod\u00e8le pour reformuler cette approche inspir\u00e9e par les m\u00e9tamoteurs de recherche d'information. Les r\u00e9sultats empiriques que nous obtenons montrent que les performances de notre mod\u00e8le sont toujours sup\u00e9rieures \u00e0 celles obtenues avec l'approche par similarit\u00e9 interlangue, mais aussi comme \u00e9tant comp\u00e9titives par rapport \u00e0 l'approche standard.","translation":["Metasearch for bilingual lexical extraction from comparable corpora","In this article we present a novel way of looking at the problem of automatic acquisition of pairs of translationally equivalent words from comparable corpora.We first describe the standard and extended approaches traditionally dedicated to this task. We then re-interpret the extended method, and motivate a novel model to reformulate this approach inspired by the metasearch engines in information retrieval. The empirical results show that performances of our model are always better than the baseline obtained with the extended approach and also competitive with the standard approach.","Comparable corpora, bilingual lexicon, metasearch"],"keyphrases":["m\u00e9tarecherche","Corpus comparables","lexiques bilingues"],"prmu":["P","P","M"]} {"id":"taln-2011-long-020","title":"\u00c9valuation et consolidation d'un r\u00e9seau lexical via un outil pour retrouver le mot sur le bout de la langue","abstract":"Depuis septembre 2007, un r\u00e9seau lexical de grande taille pour le Fran\u00e7ais est en cours de construction \u00e0 l'aide de m\u00e9thodes fond\u00e9es sur des formes de consensus populaire obtenu via des jeux (projet JeuxDeMots). L'intervention d'experts humains est marginale en ce qu'elle repr\u00e9sente moins de 0,5% des relations du r\u00e9seau et se limite \u00e0 des corrections, \u00e0 des ajustements ainsi qu'\u00e0 la validation des sens de termes. Pour \u00e9valuer la qualit\u00e9 de cette ressource construite par des participants de jeu (utilisateurs non experts) nous adoptons une d\u00e9marche similaire \u00e0 celle de sa construction, \u00e0 savoir, la ressource doit \u00eatre valid\u00e9e sur un vocabulaire de classe ouverte, par des non-experts, de fa\u00e7on stable (persistante dans le temps). Pour ce faire, nous proposons de v\u00e9rifier si notre ressource est capable de servir de support \u00e0 la r\u00e9solution du probl\u00e8me nomm\u00e9 'Mot sur le Bout de la Langue' (MBL). A l'instar de JeuxdeMots, l'outil d\u00e9velopp\u00e9 peut \u00eatre vu comme un jeu en ligne. Tout comme ce dernier, il permet d'acqu\u00e9rir de nouvelles relations, constituant ainsi un enrichissement de notre r\u00e9seau lexical.","translation":["Evaluation and consolidation of a lexical network via a tool to find the word on the tip of the tongue","Since September 2007, a large scale lexical network for French is under construction through methods based on some kind of popular consensus by means of games (JeuxDeMots project). Human intervention can be considered as marginal. It is limited to corrections, adjustments and validation of the senses of terms, which amounts to less than 0,5 % of the relations in the network. To appreciate the quality of this resource built by non-expert users (players of the game), we use a similar approach to its construction. The resource must be validated by laymen, persistent in time, on open class vocabulary. We suggest to check whether our tool is able to solve the Tip of the Tongue (TOT) problem. Just like JeuxDeMots, our tool can be considered as an on-line game. Like the former, it allows the acquisition of new relations, enriching thus the (existing) network.","Lexical network, JeuxDeMots, evaluation, TOT software, tip of the tongue"],"keyphrases":["\u00e9valuation","R\u00e9seau lexical","mot sur le bout de la langue","JeuxDeMots","outil de MBL"],"prmu":["P","P","P","P","R"]} {"id":"taln-2011-long-021","title":"Identifier la cible d'un passage d'opinion dans un corpus multith\u00e9matique","abstract":"L'identification de la cible d'une d'opinion fait l'objet d'une attention r\u00e9cente en fouille d'opinion. Les m\u00e9thodes existantes ont \u00e9t\u00e9 test\u00e9es sur des corpus monoth\u00e9matiques en anglais. Elles permettent principalement de traiter les cas o\u00f9 la cible se situe dans la m\u00eame phrase que l'opinion. Dans cet article, nous abordons cette probl\u00e9matique pour le fran\u00e7ais dans un corpus multith\u00e9matique et nous pr\u00e9sentons une nouvelle m\u00e9thode pour identifier la cible d'une opinion apparaissant hors du contexte phrastique. L'\u00e9valuation de la m\u00e9thode montre une am\u00e9lioration des r\u00e9sultats par rapport \u00e0 l'existant.","translation":["Identifying the target of an opinion transition in a thematic corpus","Recent works on opinion mining deal with the problem of finding the semantic relation between sentiment expressions and their target. Existing methods have been evaluated on monothematic english corpora. These methods are only able to solve intrasentential relationships. In this article, we focus on this task apply to french and we present a new method for solving intrasentential and intersentential relationships in a multithematic corpus. We show that our method is able to improve results on the intra- and intersential relationships.","Opinion mining, Targeting sentiment expressions, RankSVM"],"keyphrases":["Fouille d'opinions","Identification des cibles","M\u00e9thode RankSVM"],"prmu":["M","R","M"]} {"id":"taln-2011-long-022","title":"Int\u00e9grer des connaissances linguistiques dans un CRF : application \u00e0 l'apprentissage d'un segmenteur-\u00e9tiqueteur du fran\u00e7ais","abstract":"Dans cet article, nous synth\u00e9tisons les r\u00e9sultats de plusieurs s\u00e9ries d'exp\u00e9riences r\u00e9alis\u00e9es \u00e0 l'aide de CRF (Conditional Random Fields ou \u201cchamps markoviens conditionnels\u201d) lin\u00e9aires pour apprendre \u00e0 annoter des textes fran\u00e7ais \u00e0 partir d'exemples, en exploitant diverses ressources linguistiques externes. Ces exp\u00e9riences ont port\u00e9 sur l'\u00e9tiquetage morphosyntaxique int\u00e9grant l'identification des unit\u00e9s polylexicales. Nous montrons que le mod\u00e8le des CRF est capable d'int\u00e9grer des ressources lexicales riches en unit\u00e9s multi-mots de diff\u00e9rentes mani\u00e8res et permet d'atteindre ainsi le meilleur taux de correction d'\u00e9tiquetage actuel pour le fran\u00e7ais.","translation":["Integrating linguistic knowledge in a CRF: application to learning a segmenter-tagger of French","In this paper, we synthesize different experiments using a linear CRF (Conditional Random Fields) to annotate French texts from examples, by exploiting external linguistic resources. These experiments especially dealt with part-of-speech tagging including multiword units identification. We show that CRF models allow to integrate, in different ways, large-coverage lexical resources including multiword units and reach stateof- the-art tagging results for French.","Part-of-speech tagging, CRF model, Lexical resources, Segmentation, Multiword units"],"keyphrases":["Unit\u00e9s polylexicales","Ressources lexicales","Etiquetagemorphosyntaxique","Mod\u00e8le CRF","Segmentation"],"prmu":["P","P","U","R","U"]} {"id":"taln-2011-long-023","title":"Segmentation et induction de lexique non-supervis\u00e9es du mandarin","abstract":"Pour la plupart des langues utilisant l'alphabet latin, le d\u00e9coupage d'un texte selon les espaces et les symboles de ponctuation est une bonne approximation d'un d\u00e9coupage en unit\u00e9s lexicales. Bien que cette approximation cache de nombreuses difficult\u00e9s, elles sont sans comparaison avec celles que l'on rencontre lorsque l'on veut traiter des langues qui, comme le chinois mandarin, n'utilisent pas l'espace. Un grand nombre de syst\u00e8mes de segmentation ont \u00e9t\u00e9 propos\u00e9s parmi lesquels certains adoptent une approche non-supervis\u00e9e motiv\u00e9e linguistiquement. Cependant les m\u00e9thodes d'\u00e9valuation commun\u00e9ment utilis\u00e9es ne rendent pas compte de toutes les propri\u00e9t\u00e9s de tels syst\u00e8mes. Dans cet article, nous montrons qu'un mod\u00e8le simple qui repose sur une reformulation en termes d'entropie d'une hypoth\u00e8se ind\u00e9pendante de la langue \u00e9nonc\u00e9e par Harris (1955), permet de segmenter un corpus et d'en extraire un lexique. Test\u00e9 sur le corpus de l'Academia Sinica, notre syst\u00e8me permet l'induction d'une segmentation et d'un lexique qui ont de bonnes propri\u00e9t\u00e9s intrins\u00e8ques et dont les caract\u00e9ristiques sont similaires \u00e0 celles du lexique sous-jacent au corpus segment\u00e9 manuellement. De plus, on constate une certaine corr\u00e9lation entre les r\u00e9sultats du mod\u00e8le de segmentation et les structures syntaxiques fournies par une sous-partie arbor\u00e9e corpus.","translation":["Unsupervised segmentation and induction of mandarin lexicon","For most languages using the Latin alphabet, tokenizing a text on spaces and punctuation marks is a good approximation of a segmentation into lexical units. Although this approximation hides many difficulties, they do not compare with those arising when dealing with languages that do not use spaces, such as Mandarin Chinese. Many segmentation systems have been proposed, some of them use linguistitically motivated unsupervized algorithms. However, standard evaluation practices fail to account for some properties of such systems. In this paper, we show that a simple model, based on an entropy-based reformulation of a language-independent hypothesis put forward by Harris (1955), allows for segmenting a corpus and extracting a lexicon from the results. Tested on the Academia Sinica Corpus, our system allows for inducing a segmentation and a lexicon with good intrinsic properties and whose characteristics are similar to those of the lexicon underlying the manually-segmented corpus. Moreover, the results of the segmentation model correlate with the syntactic structures provided by the syntactically annotated subpart of the corpus.","Non-supervized segmentation, entropy, lexicon induction, Mandarin Chinese"],"keyphrases":["induction de lexique","unit\u00e9 lexicale","chinois mandarin","entropie","Segmentation non-supervis\u00e9e"],"prmu":["P","P","P","P","R"]} {"id":"taln-2011-long-024","title":"\u00c9valuer la pertinence de la morphologie constructionnelle dans les syst\u00e8mes de Question-R\u00e9ponse","abstract":"Les connaissances morphologiques sont fr\u00e9quemment utilis\u00e9es en Question-R\u00e9ponse afin de faciliter l'appariement entre mots de la question et mots du passage contenant la r\u00e9ponse. Il n'existe toutefois pas d'\u00e9tude qualitative et quantitative sur les ph\u00e9nom\u00e8nes morphologiques les plus pertinents pour ce cadre applicatif. Dans cet article, nous pr\u00e9sentons une analyse d\u00e9taill\u00e9e des ph\u00e9nom\u00e8nes de morphologie constructionnelle permettant de faire le lien entre question et r\u00e9ponse. Pour ce faire, nous avons constitu\u00e9 et annot\u00e9 un corpus de paires de questions-r\u00e9ponses, qui nous a permis de construire une ressource de r\u00e9f\u00e9rence, utile pour l'\u00e9valuation de la couverture de ressources et d'outils d'analyse morphologique. Nous d\u00e9taillons en particulier les ph\u00e9nom\u00e8nes de d\u00e9rivation et de composition et montrons qu'il reste un nombre important de relations morphologiques d\u00e9rivationnelles pour lesquelles il n'existe pas encore de ressource exploitable pour le fran\u00e7ais.","translation":["Evaluating the relevance of constructional morphology in question-answering systems","Morphological knowledge is often used in Question Answering systems to facilitate the matching between question words and words in the passage containing the answer. However, there is no qualitative and quantitative study about morphological phenomena which are most relevant to this application. In this paper, we present a detailed analysis of the constructional morphology phenomena found in question and answer pairs. To this aim, we gathered and annotated a corpus of question and answer pairs. We relied on this corpus to build a gold standard for evaluating the coverage of morphological analysis tools and resources. We detail in particular the phenomena of derivation and composition and show that a significant number of derivational morphological relations are still not covered by any existing resource for the French language.","Evaluation, Morphology, Resources, Question-answering system"],"keyphrases":["\u00c9valuation","Morphologie","Syst\u00e8me de Question-R\u00e9ponse","Ressources"],"prmu":["P","P","P","P"]} {"id":"taln-2011-long-025","title":"Structure des trigrammes inconnus et lissage par analogie","abstract":"Nous montrons dans une s\u00e9rie d'exp\u00e9riences sur quatre langues, sur des \u00e9chantillons du corpus Europarl, que, dans leur grande majorit\u00e9, les trigrammes inconnus d'un jeu de test peuvent \u00eatre reconstruits par analogie avec des trigrammes hapax du corpus d'entra\u00eenement. De ce r\u00e9sultat, nous d\u00e9rivons une m\u00e9thode de lissage simple pour les mod\u00e8les de langue par trigrammes et obtenons de meilleurs r\u00e9sultats que les lissages de Witten-Bell, Good-Turing et Kneser-Ney dans des exp\u00e9riences men\u00e9es en onze langues sur la partie commune d'Europarl, sauf pour le finnois et, dans une moindre mesure, le fran\u00e7ais.","translation":["Structure of unknown trigrams and smoothing by analogy","In a series of experiments in four languages on subparts of the Europarl corpus, we show that a large number of unseen trigrams can be reconstructed by proportional analogy using only hapax trigrams. We derive a simple smoothing scheme from this empirical result and show that it outperforms Witten-Bell, Good-Turing and Kneser-Ney smoothing schemes on trigram models built on the common part of the Europarl corpus, in all 11 languages except Finnish and French.","proportional analogy, unseen trigrams, hapax trigrams, trigram language models, Europarl"],"keyphrases":["trigrammes inconnus","analogie","Europarl","trigrammes hapax","mod\u00e8le de langue trigrammes"],"prmu":["P","P","P","P","R"]} {"id":"taln-2011-long-026","title":"Mod\u00e8les g\u00e9n\u00e9ratif et discriminant en analyse syntaxique : exp\u00e9riences sur le corpus arbor\u00e9 de Paris 7","abstract":"Nous pr\u00e9sentons une architecture pour l'analyse syntaxique en deux \u00e9tapes. Dans un premier temps un analyseur syntagmatique construit, pour chaque phrase, une liste d'analyses qui sont converties en arbres de d\u00e9pendances. Ces arbres sont ensuite r\u00e9\u00e9valu\u00e9s par un r\u00e9ordonnanceur discriminant. Cette m\u00e9thode permet de prendre en compte des informations auxquelles l'analyseur n'a pas acc\u00e8s, en particulier des annotations fonctionnelles. Nous validons notre approche par une \u00e9valuation sur le corpus arbor\u00e9 de Paris 7. La seconde \u00e9tape permet d'am\u00e9liorer significativement la qualit\u00e9 des analyses retourn\u00e9es, quelle que soit la m\u00e9trique utilis\u00e9e.","translation":["Generative and discriminative models in parsing: experiments on the Paris 7 Treebank","We present an architecture for parsing in two steps. First, a phrase-structure parser builds for each sentence an n-best list of analyses which are converted to dependency trees. Then these trees are rescored by a discriminative reranker. This method enables the incorporation of additional linguistic information, more precisely functional annotations. We test our approach on the French Treebank. The evaluation shows a significative improvement on different parse metrics.","parsing, treebank, machine learning, discriminative reranking"],"keyphrases":["analyse syntaxique","corpus arbor\u00e9","apprentissage automatique","r\u00e9ordonnancement discriminant"],"prmu":["P","P","U","M"]} {"id":"taln-2011-long-027","title":"Apport de la syntaxe pour l'extraction de relations en domaine m\u00e9dical","abstract":"Dans cet article, nous nous int\u00e9ressons \u00e0 l'identification de relations entre entit\u00e9s en domaine de sp\u00e9cialit\u00e9, et \u00e9tudions l'apport d'informations syntaxiques. Nous nous pla\u00e7ons dans le domaine m\u00e9dical, et analysons des relations entre concepts dans des comptes-rendus m\u00e9dicaux, t\u00e2che \u00e9valu\u00e9e dans la campagne i2b2 en 2010. Les relations \u00e9tant exprim\u00e9es par des formulations tr\u00e8s vari\u00e9es en langue, nous avons proc\u00e9d\u00e9 \u00e0 l'analyse des phrases en extrayant des traits qui concourent \u00e0 la reconnaissance de la pr\u00e9sence d'une relation et nous avons consid\u00e9r\u00e9 l'identification des relations comme une t\u00e2che de classification multi-classes, chaque cat\u00e9gorie de relation \u00e9tant consid\u00e9r\u00e9e comme une classe. Notre syst\u00e8me de r\u00e9f\u00e9rence est celui qui a particip\u00e9 \u00e0 la campagne i2b2, dont la F-mesure est d'environ 0,70. Nous avons \u00e9valu\u00e9 l'apport de la syntaxe pour cette t\u00e2che, tout d'abord en ajoutant des attributs syntaxiques \u00e0 notre classifieur, puis en utilisant un apprentissage fond\u00e9 sur la structure syntaxique des phrases (apprentissage \u00e0 base de tree kernels) ; cette derni\u00e8re m\u00e9thode am\u00e9liore les r\u00e9sultats de la classification de 3%.","translation":["Contribution of syntax for relation extraction in the medical domain","In this paper, we study relation identification between concepts in medical reports, a task that was evaluated in the i2b2 campaign in 2010, and evaluate the usefulness of syntactic information. As relations are expressed in natural language with a great variety of forms, we proceeded to sentence analysis by extracting features that enable to identify a relation and we modeled this task as a multiclass classification task based on SVM, each category of relation representing a class. This method obtained an F-measure of 0.70 at i2b2 evaluation. We then evaluated the introduction of syntactic information in the classification process, by adding syntactic features, and by using tree kernels. This last method improves the classification up to 3%.","relation identification, medical domain, multiclass learning, tree kernel"],"keyphrases":["extraction de relation","domaine m\u00e9dical","tree kernel","apprentissage multi-classes"],"prmu":["P","P","P","R"]} {"id":"taln-2011-long-028","title":"Enrichissement de structures en d\u00e9pendances par r\u00e9\u00e9criture de graphes","abstract":"Nous montrons comment enrichir une annotation en d\u00e9pendances syntaxiques au format du French Treebank de Paris 7 en utilisant la r\u00e9\u00e9criture de graphes, en vue du calcul de sa repr\u00e9sentation s\u00e9mantique. Le syst\u00e8me de r\u00e9\u00e9criture est compos\u00e9 de r\u00e8gles grammaticales et lexicales structur\u00e9es en modules. Les r\u00e8gles lexicales utilisent une information de contr\u00f4le extraite du lexique des verbes fran\u00e7ais Dicovalence.","translation":["Dependency structure enrichment using graph rewriting","We show how to enrich a syntactic dependency annotation of the French Paris 7 Treebank format, using graph rewriting, in order to compute its semantic representation. The rewriting system is composed of grammatical and lexical rules structured in modules. The lexical rules use a control information extracted from Dicovalence, a lexicon of French verbs.","dependency, French Treebank, graph rewriting, Dicovalence"],"keyphrases":["d\u00e9pendance","r\u00e9\u00e9criture de graphes","French Treebank","Dicovalence"],"prmu":["P","P","P","P"]} {"id":"taln-2011-long-029","title":"Classification en polarit\u00e9 de sentiments avec une repr\u00e9sentation textuelle \u00e0 base de sous-graphes d'arbres de d\u00e9pendances","abstract":"Les approches classiques \u00e0 base de n-grammes en analyse supervis\u00e9e de sentiments ne peuvent pas correctement identifier les expressions complexes de sentiments \u00e0 cause de la perte d'information induite par l'approche \u00ab sac de mots \u00bb utilis\u00e9e pour repr\u00e9senter les textes. Dans notre approche, nous avons recours \u00e0 des sous-graphes extraits des graphes de d\u00e9pendances syntaxiques comme traits pour la classification de sentiments. Nous repr\u00e9sentons un texte par un vecteur compos\u00e9 de ces sous-graphes syntaxiques et nous employons un classifieurs SVM \u00e9tat-de-l'art pour identifier la polarit\u00e9 d'un texte. Nos \u00e9valuations exp\u00e9rimentales sur des critiques de jeux vid\u00e9o montrent que notre approche \u00e0 base de sous-graphes est meilleure que les approches standard \u00e0 mod\u00e8les \u00ab sac de mots \u00bb et n-grammes. Dans cet article nous avons travaill\u00e9 sur le fran\u00e7ais, mais notre approche peut facilement \u00eatre adapt\u00e9e \u00e0 d'autres langues.","translation":["Sentiment polarity classification using a textual representation based on subgraphs of dependency trees","A standard approach for supervised sentiment analysis with n-grams features cannot correctly identify complex sentiment expressions due to the loss of information incurred when representing texts with bagof- words models. In our research, we propose to use subgraphs from sentence dependency parse trees as features for sentiment classification.We represent a text by a feature vector made from extracted subgraphs and use a state of the art SVM classifier to identify the polarity of a text. Our experimental evaluations on video game reviews show that using our dependency subgraph features outperforms standard bag-of-words and n-gram models. In this paper, we worked with French, however our approach can be easily adapted to other languages.","sentiment analysis, parsing, dependency tree, SVM"],"keyphrases":["arbre de d\u00e9pendances","SVM","analyse de sentiments","analyse syntaxique"],"prmu":["P","P","R","R"]} {"id":"taln-2011-long-030","title":"Une mod\u00e9lisation des dites alternances de port\u00e9e des quantifieurs par des op\u00e9rations de combinaison des groupes nominaux","abstract":"Nous montrons que les diff\u00e9rentes interpr\u00e9tations d'une combinaison de plusieurs GN peuvent \u00eatre mod\u00e9lis\u00e9es par deux op\u00e9rations de combinaison sur les r\u00e9f\u00e9rents de ces GN, appel\u00e9es combinaison cumulative et combinaison distributive. Nous \u00e9tudions aussi bien les GN d\u00e9finis et ind\u00e9finis que les GN quantifi\u00e9s ou pluriels et nous montrons comment la combinaison d'un GN avec d'autres \u00e9l\u00e9ments peut induire des interpr\u00e9tations collective ou individualisante. Selon la fa\u00e7on dont un GN se combine avec d'autres GN, le calcul de son r\u00e9f\u00e9rent peut \u00eatre fonction de ces derniers ; ceci d\u00e9finit une relation d'ancrage de chaque GN, qui induit un ordre partiel sur les GN. Consid\u00e9rer cette relation plut\u00f4t que la relation converse de port\u00e9e simplifie le calcul de l'interpr\u00e9tation des GN et des \u00e9nonc\u00e9s. Des repr\u00e9sentations s\u00e9mantiques graphiques et alg\u00e9briques sans consid\u00e9ration de la port\u00e9e sont propos\u00e9es pour les dites alternances de port\u00e9e.","translation":["A model of called alternations of quantifiers scope by combination of nominal groups operations","We show that the various interpretations of a combination of several Noun Phrases can be modeled by two operations of combination on the referent of these NPs, called cumulative and distributive combinations. We study definite and indefinite NPs as well as quantified and plural NPs and we show how the combination of an NP with other NPs can induce collective or individualizing interpretations. According to the way a NP combine with another NP, the calculation of its referent can be a function of the latter; this defines an anchoring relation for each NP, which induces a partial order on NPs. Considering this relation rather than the converse scope relation simplifies the calculation of the interpretation of NPs and utterances. Graphic and algebraic semantic representations without considering scope are proposed for the so-called scope alternations.","quantifier scope alternation, cumulative, collective, distributive, discourse referent, anchoring"],"keyphrases":["port\u00e9e des quantifieurs","cumulatif","distributif","collectif","ancrage","r\u00e9f\u00e9rent de discours"],"prmu":["P","P","P","P","P","M"]} {"id":"taln-2011-long-031","title":"Analyse automatique de la modalit\u00e9 et du niveau de certitude : application au domaine m\u00e9dical","abstract":"De nombreux ph\u00e9nom\u00e8nes linguistiques visent \u00e0 exprimer le doute ou l'incertitude de l'\u00e9nonciateur, ainsi que la subjectivit\u00e9 potentielle du point de vue. La prise en compte de ces informations sur le niveau de certitude est primordiale pour de nombreuses applications du traitement automatique des langues, en particulier l'extraction d'information dans le domaine m\u00e9dical. Dans cet article, nous pr\u00e9sentons deux syst\u00e8mes qui analysent automatiquement les niveaux de certitude associ\u00e9s \u00e0 des probl\u00e8mes m\u00e9dicaux mentionn\u00e9s dans des compte-rendus cliniques en anglais. Le premier syst\u00e8me proc\u00e8de par apprentissage supervis\u00e9 et obtient une f-mesure de 0,93. Le second syst\u00e8me utilise des r\u00e8gles d\u00e9crivant des d\u00e9clencheurs linguistiques sp\u00e9cifiques et obtient une f-mesure de 0,90.","translation":["Automatic analysis of modality and level of certainty: application to the medical domain","Many linguistic phenomena aim at expressing the speaker's doubt or incertainty, as well as the potential subjectivity of the point of view. Most natural language processing applications, and in particular knowledge extraction in the medical domain, need to take this type of information into account. In this article, we describe two systems which automatically analyse the levels of certainty associated with medical problems mentioned in English clinical reports. The first system uses supervised machine learning and obtains an f-measure of 0.93. The second system relies on a set of rules decribing specific linguistic triggers and reaches an f-measure of 0.90.","Epistemic modality, Certainty level, Medical domain"],"keyphrases":["Niveau de certitude","Domaine m\u00e9dical","Modalit\u00e9 \u00e9pist\u00e9mique"],"prmu":["P","P","M"]} {"id":"taln-2011-long-032","title":"Analyse discursive et informations de factivit\u00e9","abstract":"Les annotations discursives propos\u00e9es dans le cadre de th\u00e9ories discursives comme RST (Rhetorical Structure Theory) ou SDRT (Segmented Dicourse Representation Theory) ont comme point fort de construire une structure discursive globale liant toutes les informations donn\u00e9es dans un texte. Les annotations discursives propos\u00e9es dans le PDTB (Penn Discourse Tree Bank) ont comme point fort d'identifier la \u201csource\u201d de chaque information du texte\u2014r\u00e9pondant ainsi \u00e0 la question qui a dit ou pense quoi ? Nous proposons une approche unifi\u00e9e pour les annotations discursives alliant les points forts de ces deux courants de recherche. Cette approche unifi\u00e9e repose crucialement sur des information de factivit\u00e9, telles que celles qui sont annot\u00e9es dans le corpus (anglais) FactBank.","translation":["Discursive analysis and information factivity","Discursive annotations proposed in theories of discourse such as RST (Rhetorical Structure Theory) or SDRT (Segmented Representation Theory Dicourse) have the advatange of building a global discourse structure linking all the information in a text. Discursive annotations proposed in PDTB (Penn Discourse Tree Bank) have the advatange of identifying the \u201csource\u201d of each information\u2014thereby answering to questions such as who says or thinks what ? We propose a unified approach for discursive annotations combining the strengths of these two streams of research. This unified approach relies crucially on factivity information, as encoded in the English corpus FactBank.","Discourse, Discursive analysis, Factuality (vericity), Syntax-semantic interface, RST, SDRT, PDTB, FactBank"],"keyphrases":["Analyse discursive","RST","SDRT","PDTB","FactBank","Discours","Factivit\u00e9 (v\u00e9racit\u00e9)","Interface syntaxe-s\u00e9mantique"],"prmu":["P","P","P","P","P","U","M","U"]} {"id":"taln-2011-long-033","title":"Paraphrases et modifications locales dans l'historique des r\u00e9visions de Wikip\u00e9dia","abstract":"Dans cet article, nous analysons les modifications locales disponibles dans l'historique des r\u00e9visions de la version fran\u00e7aise de Wikip\u00e9dia. Nous d\u00e9finissons tout d'abord une typologie des modifications fond\u00e9e sur une \u00e9tude d\u00e9taill\u00e9e d'un large corpus de modifications. Puis, nous d\u00e9taillons l'annotation manuelle d'une partie de ce corpus afin d'\u00e9valuer le degr\u00e9 de complexit\u00e9 de la t\u00e2che d'identification automatique de paraphrases dans ce genre de corpus. Enfin, nous \u00e9valuons un outil d'identification de paraphrases \u00e0 base de r\u00e8gles sur un sous-ensemble de notre corpus.","translation":["Paraphrases and local changes in the revision history of Wikipedia","In this article, we analyse the modifications available in the French Wikip\u00e9dia revision history. We first define a typology of modifications based on a detailed study of a large corpus of modifications. Moreover, we detail a manual annotation study of a subpart of the corpus aimed at assessing the difficulty of automatic paraphrase identification in such a corpus. Finally, we assess a rule-based paraphrase identification tool on a subset of our corpus.","Wikipedia, revisions, paraphrase identification"],"keyphrases":["r\u00e9visions","Wikip\u00e9dia","identification de paraphrases"],"prmu":["P","P","P"]} {"id":"taln-2011-long-034","title":": un analyseur de discours bas\u00e9 sur les grammaires logiques","abstract":"Dans ce document, nous pr\u00e9sentons les principales caract\u00e9ristiques de , un environnement bas\u00e9 sur les grammaires logiques d\u00e9di\u00e9 \u00e0 l'analyse de structures discursives. Nous \u00e9tudions en particulier le langage DisLog qui fixe la structure des r\u00e8gles et des sp\u00e9cifications qui les accompagnent. Nous pr\u00e9sentons la structure du moteur de en indiquant au fur et \u00e0 mesure du texte l'\u00e9tat du travail, les performances et les orientations en particulier en mati\u00e8re d'environnement, d'aide \u00e0 l'\u00e9criture de r\u00e8gles et de d\u00e9veloppement applicatif.","translation":[": a discourse analyzer based on logical grammars","In this paper, we introduce the main features of , an environment dedicated to discourse analysis within a logic-based grammar framework.We focus on the structure of discourse rules (DisLog language) and on the features of the engine, while outlining the results, the performances and the orientations for future work.","discourse structure, logic programming, logic-based grammars"],"keyphrases":["grammaires logiques","grammaire du discours","programmation en logique"],"prmu":["P","R","M"]} {"id":"taln-2011-long-035","title":"Int\u00e9gration de la parole et du geste d\u00e9ictique dans une grammaire multimodale","abstract":"Dans cet article, nous pr\u00e9sentons une analyse \u00e0 base de contraintes de la relation forme-sens des gestes d\u00e9ictiques et de leur signal de parole synchrone. En nous basant sur une \u00e9tude empirique de corpus multimodaux, nous d\u00e9finissons quels \u00e9nonc\u00e9s multimodaux sont bien form\u00e9s, et lesquels ne pourraient jamais produire le sens voulu dans la situation communicative. Plus pr\u00e9cis\u00e9ment, nous formulons une grammaire multimodale dont les r\u00e8gles de construction utilisent la prosodie, la syntaxe et la s\u00e9mantique de la parole, la forme et le sens du signal d\u00e9ictique, ainsi que la performance temporelle de la parole et la deixis afin de contraindre la production d'un arbre de syntaxe combinant parole et gesture d\u00e9ictique ainsi que la repr\u00e9sentation unifi\u00e9e du sens pour l'action multimodale correspondant \u00e0 cet arbre. La contribution de notre projet est double : nous ajoutons aux ressources existantes pour le TAL un corpus annot\u00e9 de parole et de gestes, et nous cr\u00e9ons un cadre th\u00e9orique pour la grammaire au sein duquel la composition s\u00e9mantique d'un \u00e9nonc\u00e9 d\u00e9coule de la synchronie entre geste et parole.","translation":["Integration of Speech and Deictic Gesture in a Multimodal Grammar","In this paper we present a constraint-based analysis of the form-meaning relation of deictic gesture and its synchronous speech signal. Based on an empirical study of multimodal corpora, we capture generalisations about which multimodal utterances are well-formed, and which would never produce the intended meaning in the communicative situation. More precisely, we articulate a multimodal grammar whose construction rules use the prosody, syntax and semantics of speech, the form and meaning of the deictic signal, as well as the relative temporal performance of the speech and deixis to constrain the production of a single syntactic tree of speech and deictic gesture and its corresponding meaning representation for the multimodal action. In so doing, the contribution of our project is two-fold: it augments the existing NLP resources with annotated speech and gesture corpora, and it also provides the theoretical grammar framework where the semantic composition of an utterance results from its gestural and speech synchrony.","Deixis, speech and gesture, multimodal grammars"],"keyphrases":["grammaires multimodales","Deixis","parole et geste"],"prmu":["P","P","R"]} {"id":"taln-2011-long-036","title":"G\u00e9n\u00e9ralisation de l'alignement sous-phrastique par \u00e9chantillonnage","abstract":"L'alignement sous-phrastique consiste \u00e0 extraire des traductions d'unit\u00e9s textuelles de grain inf\u00e9rieur \u00e0 la phrase \u00e0 partir de textes multilingues parall\u00e8les align\u00e9s au niveau de la phrase. Un tel alignement est n\u00e9cessaire, par exemple, pour entra\u00eener des syst\u00e8mes de traduction statistique. L'approche standard pour r\u00e9aliser cette t\u00e2che implique l'estimation successive de plusieurs mod\u00e8les probabilistes de complexit\u00e9 croissante et l'utilisation d'heuristiques qui permettent d'aligner des mots isol\u00e9s, puis, par extension, des groupes de mots. Dans cet article, nous consid\u00e9rons une approche alternative, initialement propos\u00e9e dans (Lardilleux & Lepage, 2008), qui repose sur un principe beaucoup plus simple, \u00e0 savoir la comparaison des profils d'occurrences dans des souscorpus obtenus par \u00e9chantillonnage. Apr\u00e8s avoir analys\u00e9 les forces et faiblesses de cette approche, nous montrons comment am\u00e9liorer la d\u00e9tection d'unit\u00e9s de traduction longues, et \u00e9valuons ces am\u00e9liorations sur des t\u00e2ches de traduction automatique.","translation":["Generalization of sub-sentential alignment by sampling","Sub-sentential alignment is the process by which multi-word translation units are extracted from sentence-aligned multilingual parallel texts. Such alignment is necessary, for instance, to train statistical machine translation systems. Standard approaches typically rely on the estimation of several probabilistic models of increasing complexity and on the use of various heuristics that make it possible to align, first isolated words, then, by extension, groups of words. In this paper, we explore an alternative approach, originally proposed in (Lardilleux & Lepage, 2008), that relies on a much simpler principle, which is the comparison of occurrence profiles in subcorpora obtained by sampling. After analyzing the strengths and weaknesses of this approach, we show how to improve the detection of long translation units, and evaluate these improvements on machine translation tasks.","sub-sentential alignment, phrase-based machine translation"],"keyphrases":["alignement sous-phrastique","traduction automatique par fragments"],"prmu":["P","M"]} {"id":"taln-2011-long-037","title":"Estimation d'un mod\u00e8le de traduction \u00e0 partir d'alignements mot-\u00e0-mot non-d\u00e9terministes","abstract":"Dans les syst\u00e8mes de traduction statistique \u00e0 base de segments, le mod\u00e8le de traduction est estim\u00e9 \u00e0 partir d'alignements mot-\u00e0-mot gr\u00e2ce \u00e0 des heuristiques d'extraction et de valuation. Bien que ces alignements mot-\u00e0-mot soient construits par des mod\u00e8les probabilistes, les processus d'extraction et de valuation utilisent ces mod\u00e8les en faisant l'hypoth\u00e8se que ces alignements sont d\u00e9terministes. Dans cet article, nous proposons de lever cette hypoth\u00e8se en consid\u00e9rant l'ensemble de la matrice d'alignement, d'une paire de phrases, chaque association \u00e9tant valu\u00e9e par sa probabilit\u00e9. En comparaison avec les travaux ant\u00e9rieurs, nous montrons qu'en utilisant un mod\u00e8le exponentiel pour estimer de mani\u00e8re discriminante ces probabilit\u00e9s, il est possible d'obtenir des am\u00e9liorations significatives des performances de traduction. Ces am\u00e9liorations sont mesur\u00e9es \u00e0 l'aide de la m\u00e9trique BLEU sur la t\u00e2che de traduction de l'arabe vers l'anglais de l'\u00e9valuation NIST MT'09, en consid\u00e9rant deux types de conditions selon la taille du corpus de donn\u00e9es parall\u00e8les utilis\u00e9es.","translation":["Estimating a translation model from non-deterministic word-to-word alignments","In extant phrase-based statistical translation systems, the translation model relies on word-to-word alignments, which serve as constraints for further heuristic extraction and scoring processes. These word alignments are infered in a probabilistic framework ; yet, only one single best word alignment is used as if alignments were deterministically produced. In this paper, we propose to take the full probabilistic alignment matrix into account, where each alignment link is scored by its probability score. By comparison with previous attempts, we show that using an exponential model to compute these probabilities is an effective way to achieve significant improvements in translation accuracy on the NIST MT'09 Arabic to English translation task, where the accuracy is measured in terms of BLEU scores.","statistical machine translation, phrase based translation models, word alignment models"],"keyphrases":["traduction statistique","mod\u00e8les de traduction \u00e0 base de segments","mod\u00e8les d'alignement mot-\u00e0-mot"],"prmu":["P","R","R"]} {"id":"taln-2011-long-038","title":"Combinaison d'informations pour l'alignement monolingue","abstract":"Dans cet article, nous d\u00e9crivons une nouvelle m\u00e9thode d'alignement automatique de paraphrases d'\u00e9nonc\u00e9s. Nous utilisons des m\u00e9thodes d\u00e9velopp\u00e9es pr\u00e9c\u00e9demment afin de produire diff\u00e9rentes approches hybrides (hybridations). Ces diff\u00e9rentes m\u00e9thodes permettent d'acqu\u00e9rir des \u00e9quivalences textuelles \u00e0 partir d'un corpus monolingue parall\u00e8le. L'hybridation combine des informations obtenues par diverses techniques : alignements statistiques, approche symbolique, fusion d'arbres syntaxiques et alignement bas\u00e9 sur des distances d'\u00e9dition. Nous avons \u00e9valu\u00e9 l'ensemble de ces r\u00e9sultats et nous constatons une am\u00e9lioration sur l'acquisition de paraphrases sous-phrastiques.","translation":["Information combination for monolingual alignment","In this paper, we detail a new method to automatic alignment of paraphrase of statements.We also use previously developed methods to produce different hybrid approaches. These methods allow the acquisition of textual equivalence from a parallel monolingual corpus. Hybridization combines information obtained by using advanced statistical alignments, symbolic approach, syntax tree based alignment and edit distances technique. We evaluated all these results and we see an improvement on the acquisition of sub-sentential paraphrases.","Phrasal paraphrase, monolingual parallel corpora, hybridization"],"keyphrases":["hybridation","Paraphrase sous-phrastique","corpus parall\u00e8le monolingue"],"prmu":["P","P","R"]} {"id":"taln-2011-court-001","title":"Evaluation de la d\u00e9tection des \u00e9motions, des opinions ou des sentiments : dictature de la majorit\u00e9 ou respect de la diversit\u00e9 d'opinions ?","abstract":"D\u00e9tection d'\u00e9motion, fouille d'opinion et analyse des sentiments sont g\u00e9n\u00e9ralement \u00e9valu\u00e9s par comparaison des r\u00e9ponses du syst\u00e8me concern\u00e9 par rapport \u00e0 celles contenues dans un corpus de r\u00e9f\u00e9rence. Les questions pos\u00e9es dans cet article concernent \u00e0 la fois la d\u00e9finition de la r\u00e9f\u00e9rence et la fiabilit\u00e9 des m\u00e9triques les plus fr\u00e9quemment utilis\u00e9es pour cette comparaison. Les exp\u00e9rimentations men\u00e9es pour \u00e9valuer le syst\u00e8me de d\u00e9tection d'\u00e9motions EmoLogus servent de base de r\u00e9flexion pour ces deux probl\u00e8mes. L'analyse des r\u00e9sultats d'EmoLogus et la comparaison entre les diff\u00e9rentes m\u00e9triques remettent en cause le choix du vote majoritaire comme r\u00e9f\u00e9rence. Par ailleurs elles montrent \u00e9galement la n\u00e9cessit\u00e9 de recourir \u00e0 des outils statistiques plus \u00e9volu\u00e9s que ceux g\u00e9n\u00e9ralement utilis\u00e9s pour obtenir des \u00e9valuations fiables de syst\u00e8mes qui travaillent sur des donn\u00e9es intrins\u00e8quement subjectives et incertaines.","translation":["Evaluation of the detection of emotions, opinions or sentiments: majority dictatorship or respect for opinion diversity?","Emotion detection, opinion identification and sentiment analysis are generally assessed by means of the comparison of a reference corpus with the answers of the system. This paper addresses the problem of the definition of the reference and the reliability of the metrics which are commonly used for this comparison. We present some experiments led with EmoLogus, a system of emotion detection, to investigate these two problems. A detailed analysis of the quantitative results obtained by EmoLogus on various metrics questions the choice of a majority vote among several human judgments to build a reference. Besides, it shows the necessity of using more sophisticated statistical tools to obtain a reliable evaluation of such systems which are working on intrinsically subjective and uncertain data.","Detection of emotion, sentiment analysis, opinion mining, Evaluation: objective measures, test reference, statistical analysis of the results"],"keyphrases":["D\u00e9tection d'\u00e9motion","analyse de sentiments","fouille d'opinion ; Evaluation : m\u00e9trique d'\u00e9valuation","constitution de r\u00e9f\u00e9rence","analyse statistique des r\u00e9sultats"],"prmu":["P","P","M","M","R"]} {"id":"taln-2011-court-002","title":"Une approche de r\u00e9sum\u00e9 automatique bas\u00e9e sur les collocations","abstract":"Dans cet article, nous d\u00e9crivons une nouvelle approche pour la cr\u00e9ation de r\u00e9sum\u00e9s extractifs \u2013 t\u00e2che qui consiste \u00e0 cr\u00e9er automatiquement un r\u00e9sum\u00e9 pour un document en s\u00e9lectionnant un sous-ensemble de ses phrases \u2013 qui exploite des informations collocationnelles sp\u00e9cifiques \u00e0 un domaine, acquises pr\u00e9alablement \u00e0 partir d'un corpus de d\u00e9veloppement. Un extracteur de collocations fond\u00e9 sur l'analyse syntaxique est utilis\u00e9 afin d'inf\u00e9rer un mod\u00e8le de contenu qui est ensuite appliqu\u00e9 au document \u00e0 r\u00e9sumer. Cette approche a \u00e9t\u00e9 utilis\u00e9e pour la cr\u00e9ation des versions simples pour les articles de Wikipedia en anglais, dans le cadre d'un projet visant la cr\u00e9ation automatique d'articles simplifi\u00e9es, similaires aux articles recens\u00e9es dans Simple English Wikipedia. Une \u00e9valuation du syst\u00e8me d\u00e9velopp\u00e9 reste encore \u00e0 faire. Toutefois, les r\u00e9sultats pr\u00e9alables obtenus pour les articles sur des villes montrent le potentiel de cette approche guid\u00e9e par collocations pour la s\u00e9lection des phrases pertinentes.","translation":["A Collocation-Driven Approach to Text Summarization","We present a novel approach to extractive summarization \u2013 the task of producing an abstract for an input document by selecting a subset of the original sentences \u2013 which relies on domain-specific collocation information automatically acquired from a development corpus. A syntax-based collocation extractor is used to infer a content template and then to match this template against the document to summarize. The approach has been applied to generate simplified versions of Wikipedia articles in English, as part of a larger project on automatically generating Simple EnglishWikipedia articles starting from their standard counterpart. An evaluation of the developed system has yet to be performed; nonetheless, the preliminary results obtained in summarizing Wikipedia articles on cities already indicated the potential of our collocation-driven method to select relevant sentences.","text summarization, extractive summarization, co-occurrence statistics, collocations, syntactic parsing, Wikipedia"],"keyphrases":["collocations","r\u00e9sum\u00e9 extractif","analyse syntaxique","Wikipedia","r\u00e9sum\u00e9 de texte automatique","statistiques de co-occurrence"],"prmu":["P","P","P","P","M","M"]} {"id":"taln-2011-court-003","title":"Quel apport des unit\u00e9s polylexicales dans une formule de lisibilit\u00e9 pour le fran\u00e7ais langue \u00e9trang\u00e8re","abstract":"Cette \u00e9tude envisage l'emploi des unit\u00e9s polylexicales (UPs) comme pr\u00e9dicteurs dans une formule de lisibilit\u00e9 pour le fran\u00e7ais langue \u00e9trang\u00e8re. \u00c0 l'aide d'un extracteur d'UPs combinant une approche statistique \u00e0 un filtre linguistique, nous d\u00e9finissons six variables qui prennent en compte la densit\u00e9 et la probabilit\u00e9 des UPs nominales, mais aussi leur structure interne. Nos exp\u00e9rimentations concluent \u00e0 un faible pouvoir pr\u00e9dictif de ces six variables et r\u00e9v\u00e8lent qu'une simple approche bas\u00e9e sur la probabilit\u00e9 moyenne des n-grammes des textes est plus efficace.","translation":["What is the contribution of multi-word expressions in a readability formula for the French as a foreign language","This study considers the use of multi-words expressions (MWEs) as predictors for a readability formula for French as a foreign language. Using a MWEs extractor combining a statistical approach with a linguistic filter, we define six variables. These take into account the density and the probability of MWEs, but also their internal structure. Our experiments conclude that the predictive power of these six variables is low. Moreover, we show that a simple approach based on the average probability of n-grams is a more effective predictor.","Readability of FFL, nominal MWEs, N-grams models"],"keyphrases":["Lisibilit\u00e9 du FLE","unit\u00e9s polylexicales nominales","mod\u00e8les N-grammes"],"prmu":["M","R","M"]} {"id":"taln-2011-court-004","title":"Coop\u00e9ration de m\u00e9thodes statistiques et symboliques pour l'adaptation non-supervis\u00e9e d'un syst\u00e8me d'\u00e9tiquetage en entit\u00e9s nomm\u00e9es","abstract":"La d\u00e9tection et le typage des entit\u00e9s nomm\u00e9es sont des t\u00e2ches pour lesquelles ont \u00e9t\u00e9 d\u00e9velopp\u00e9s \u00e0 la fois des syst\u00e8mes symboliques et probabilistes. Nous pr\u00e9sentons les r\u00e9sultats d'une exp\u00e9rience visant \u00e0 faire interagir le syst\u00e8me \u00e0 base de r\u00e8gles NP, d\u00e9velopp\u00e9 sur des corpus provenant de l'AFP, int\u00e9grant la base d'entit\u00e9s Aleda et qui a une bonne pr\u00e9cision, et le syst\u00e8me LIANE, entra\u00een\u00e9 sur des transcriptions de l'oral provenant du corpus ESTER et qui a un bon rappel. Nous montrons qu'on peut adapter \u00e0 un nouveau type de corpus, de mani\u00e8re non supervis\u00e9e, un syst\u00e8me probabiliste tel que LIANE gr\u00e2ce \u00e0 des corpus volumineux annot\u00e9s automatiquement par NP. Cette adaptation ne n\u00e9cessite aucune annotation manuelle suppl\u00e9mentaire et illustre la compl\u00e9mentarit\u00e9 des m\u00e9thodes num\u00e9riques et symboliques pour la r\u00e9solution de t\u00e2ches linguistiques.","translation":["Statistical and symbolic methods cooperation for the unsupervised adaptation of a named entity recognition system","Named entity recognition and typing is achieved both by symbolic and probabilistic systems. We report on an experiment for making the rule-based system NP, a high-precision system developed on AFP news corpora and relies on the Aleda named entity database, interact with LIANE, a high-recall probabilistic system trained on oral transcriptions from the ESTER corpus.We show that a probabilistic system such as LIANE can be adapted to a new type of corpus in a non-supervized way thanks to large-scale corpora automatically annotated by NP. This adaptation does not require any additional manual anotation and illustrates the complementarity between numeric and symbolic techniques for tackling linguistic tasks.","Named entity recognition, domain adaptation, cooperation between probabilistic and symbolic approaches"],"keyphrases":["D\u00e9tection d'entit\u00e9s nomm\u00e9es","adaptation \u00e0 un nouveau domaine","coop\u00e9ration entre approches probabilistes et symboliques"],"prmu":["R","M","M"]} {"id":"taln-2011-court-005","title":"Cr\u00e9ation de clusters s\u00e9mantiques dans des familles morphologiques \u00e0 partir du TLFi","abstract":"La constitution de ressources linguistiques est une t\u00e2che longue et co\u00fbteuse. C'est notamment le cas pour les ressources morphologiques. Ces ressources d\u00e9crivent de fa\u00e7on approfondie et explicite l'organisation morphologique du lexique compl\u00e9t\u00e9e d'informations s\u00e9mantiques exploitables dans le domaine du TAL. Le travail que nous pr\u00e9sentons dans cet article s'inscrit dans cette perspective et, plus particuli\u00e8rement, dans l'optique d'affiner une ressource existante en s'appuyant sur des informations s\u00e9mantiques obtenues automatiquement. Notre objectif est de caract\u00e9riser s\u00e9mantiquement des familles morpho-phonologiques (des mots partageant une m\u00eame racine et une continuit\u00e9 de sens). Pour ce faire, nous avons utilis\u00e9 des informations extraites du TLFi annot\u00e9 morpho-syntaxiquement. Les premiers r\u00e9sultats de ce travail seront analys\u00e9s et discut\u00e9s.","translation":["Creating semantic clusters in morphological families from the TLFi","Building lexical resources is a time-consuming and expensive task, mainly when it comes to morphological lexicons. Such resources describe in depth and explicitly the morphological organization of the lexicon, completed with semantic information to be used in NLP applications. The work we present here goes on such direction, and especially, on refining an existing resource with automatically acquired semantic information. Our goal is to semantically characterize morpho-phonological families (words sharing a same base form and semantic continuity). To this end, we have used data from the TLFi which has been morpho-syntactically annotated. The first results of such a task will be analyzed and discussed.","Lexical resources, morphological families, semantic clusters, Lesk measure"],"keyphrases":["clusters s\u00e9mantiques","familles morphologiques","Ressources lexicales","mesure de Lesk"],"prmu":["P","P","M","M"]} {"id":"taln-2011-court-006","title":"G\u00e9n\u00e9ration automatique de questions \u00e0 partir de textes en fran\u00e7ais","abstract":"Nous pr\u00e9sentons dans cet article un g\u00e9n\u00e9rateur automatique de questions pour le fran\u00e7ais. Le syst\u00e8me de g\u00e9n\u00e9ration proc\u00e8de par transformation de phrases d\u00e9claratives en interrogatives et se base sur une analyse syntaxique pr\u00e9alable de la phrase de base. Nous d\u00e9taillons les diff\u00e9rents types de questions g\u00e9n\u00e9r\u00e9es. Nous pr\u00e9sentons \u00e9galement une \u00e9valuation de l'outil, qui d\u00e9montre que 41 % des questions g\u00e9n\u00e9r\u00e9es par le syst\u00e8me sont parfaitement bien form\u00e9es.","translation":["Automatic generation of questions from texts in French","In this article, we present an automatic question generation system for French. The system proceeds by transforming declarative sentences into interrogative sentences, based on a preliminary syntactic analysis of the base sentence. We detail the different types of questions generated. We also present an evaluation of the tool, which shows that 41 % of the questions generated by the system are perfectly well-formed.","question generation, syntactic analysis, syntactic transformation"],"keyphrases":["analyse syntaxique","g\u00e9n\u00e9ration de questions","transformation syntaxique"],"prmu":["P","R","R"]} {"id":"taln-2011-court-007","title":"S\u00e9lection de r\u00e9ponses \u00e0 des questions dans un corpus Web par validation","abstract":"Les syst\u00e8mes de questions r\u00e9ponses recherchent la r\u00e9ponse \u00e0 une question pos\u00e9e en langue naturelle dans un ensemble de documents. Les collectionsWeb diff\u00e8rent des articles de journaux de par leurs structures et leur style. Pour tenir compte de ces sp\u00e9cificit\u00e9s nous avons d\u00e9velopp\u00e9 un syst\u00e8me fond\u00e9 sur une approche robuste de validation o\u00f9 des r\u00e9ponses candidates sont extraites \u00e0 partir de courts passages textuels puis ordonn\u00e9es par apprentissage. Les r\u00e9sultats montrent une am\u00e9lioration du MRR (Mean Reciprocal Rank) de 48% par rapport \u00e0 la baseline.","translation":["Selection of answers to questions in a web corpus by validation","Question answering systems look for the answer of a question given in natural language in a large collection of documents. Web documents have a structure and a style different from those of newspaper articles. We developed a QA system based on an answer validation process able to handle Web specificity. Large number of candidate answers are extracted from short passages in order to be validated according to question and passage characteristics. The validation module is based on a machine learning approach.We show that our system outperforms a baseline by up to 48% in MRR (Mean Reciprocal Rank).","question-answering system, answer validation, Web document analysis"],"keyphrases":["syst\u00e8mes de questions r\u00e9ponses","validation de r\u00e9ponses","analyse de documents Web"],"prmu":["P","R","M"]} {"id":"taln-2011-court-008","title":"Filtrage de relations pour l'extraction d'information non supervis\u00e9e","abstract":"Le domaine de l'extraction d'information s'est r\u00e9cemment d\u00e9velopp\u00e9 en limitant les contraintes sur la d\u00e9finition des informations \u00e0 extraire, ouvrant la voie \u00e0 des applications de veille plus ouvertes. Dans ce contexte de l'extraction d'information non supervis\u00e9e, nous nous int\u00e9ressons \u00e0 l'identification et la caract\u00e9risation de nouvelles relations entre des types d'entit\u00e9s fix\u00e9s. Un des d\u00e9fis de cette t\u00e2che est de faire face \u00e0 la masse importante de candidats pour ces relations lorsque l'on consid\u00e8re des corpus de grande taille. Nous pr\u00e9sentons dans cet article une approche pour le filtrage des relations combinant m\u00e9thode heuristique et m\u00e9thode par apprentissage. Nous \u00e9valuons ce filtrage de mani\u00e8re intrins\u00e8que et par son impact sur un regroupement s\u00e9mantique des relations.","translation":["Filtering relations for unsupervised information extraction","Information Extraction have recently been extended to new areas, by loosening the constraints on the strict definition of the information extracted, thus allowing to design more open information extraction systems. In this new domain of unsupervised information extraction, we focus on the task of extracting and characterizing new relations between a given set of entity types. One of the challenges of this task is to deal with the large amount of candidate relations when extracting them from a large corpus. We propose in this paper an approach for filtering such candidate relations, based on heuristic and machine learning methods. We present an evaluation of this filtering phase and an evaluation of the impact of the filtering on the semantic clustering of relations.","Unsupervised information extraction, filtering, machine learning, clustering"],"keyphrases":["filtrage","Extraction d'information non supervis\u00e9e","apprentissage automatique","clustering"],"prmu":["P","P","M","U"]} {"id":"taln-2011-court-009","title":"Un lexique pond\u00e9r\u00e9 des noms d'\u00e9v\u00e9nements en fran\u00e7ais","abstract":"Cet article d\u00e9crit une \u00e9tude sur l'annotation automatique des noms d'\u00e9v\u00e9nements dans les textes en fran\u00e7ais. Plusieurs lexiques existants sont utilis\u00e9s, ainsi que des r\u00e8gles syntaxiques d'extraction, et un lexique compos\u00e9 de fa\u00e7on automatique, permettant de fournir une valeur sur le niveau d'ambigu\u00eft\u00e9 du mot en tant qu'\u00e9v\u00e9nement. Cette nouvelle information permettrait d'aider \u00e0 la d\u00e9sambigu\u00efsation des noms d'\u00e9v\u00e9nements en contexte.","translation":["A weighted lexicon of event names in French","This article describes a study on automatic extraction of event nominals in French texts. Some existing lexicons are used, as well as some syntactic extraction rules, and a new, automatically built lexicon is presented. This lexicon gives a value concerning the level of ambiguity of each word as an event.","information extraction, nominal events, lexicons"],"keyphrases":["lexiques","extraction d'information","\u00e9v\u00e9nements nominaux"],"prmu":["P","R","M"]} {"id":"taln-2011-court-010","title":"Alignement automatique pour la compr\u00e9hension litt\u00e9rale de l'oral par approche segmentale","abstract":"Les approches statistiques les plus performantes actuellement pour la compr\u00e9hension automatique du langage naturel n\u00e9cessitent une annotation segmentale des donn\u00e9es d'entra\u00eenement. Nous \u00e9tudions dans cet article une alternative permettant d'obtenir de fa\u00e7on non-supervis\u00e9e un alignement segmental d'unit\u00e9s conceptuelles sur les mots. L'impact de l'alignement automatique sur les performances du syst\u00e8me de compr\u00e9hension est \u00e9valu\u00e9 sur une t\u00e2che de dialogue oral.","translation":["Automatic alignment for the literal oral understanding using a segmental approach","Most recent efficient statistical approaches for language understanding require a segmental annotation of the training data. In this paper we study an alternative that obtains a segmental alignment of conceptual units with words in an unsupervised way. The impact of the automatic alignment on the understanding system performance is evaluated on a spoken dialogue task.","Unsupervised alignment, spoken language understanding"],"keyphrases":["Alignement non-supervis\u00e9","compr\u00e9hension de la parole"],"prmu":["R","M"]} {"id":"taln-2011-court-011","title":"Ajout d'informations contextuelles pour la recherche de passages au sein de Wikip\u00e9dia","abstract":"La recherche de passages consiste \u00e0 extraire uniquement des passages pertinents par rapport \u00e0 une requ\u00eate utilisateur plut\u00f4t qu'un ensemble de documents entiers. Cette r\u00e9cup\u00e9ration de passages est souvent handicap\u00e9e par le manque d'informations compl\u00e9mentaires concernant le contexte de la recherche initi\u00e9e par l'utilisateur. Des \u00e9tudes montrent que l'ajout d'informations contextuelles par l'utilisateur peut am\u00e9liorer les performances des syst\u00e8mes de recherche de passages. Nous confirmons ces observations dans cet article, et nous introduisons \u00e9galement une m\u00e9thode d'enrichissement de la requ\u00eate \u00e0 partir d'informations contextuelles issues de documents encyclop\u00e9diques. Nous menons des exp\u00e9rimentations en utilisant la collection et les m\u00e9thodes d'\u00e9valuation propos\u00e9es par la campagne INEX. Les r\u00e9sultats obtenus montrent que l'ajout d'informations contextuelles permet d'am\u00e9liorer significativement les performances de notre syst\u00e8me de recherche de passages. Nous observons \u00e9galement que notre approche automatique obtient les meilleurs r\u00e9sultats parmi les diff\u00e9rentes approches que nous \u00e9valuons.","translation":["Integrating contextual information for passage retrieval in Wikipedia","Traditional Information Retrieval aims to present whole documents that are relevant to a user request. However, there is sometimes only one sentence that is relevant in the document. The purpose of Focused Information Retrieval is to find and extract relevant passages instead of entire documents. This retrieval task often lacks of complement concerning the context of the information need of the user. Studies show that the performance of focused retrieval systems are improved when user manually add contextual information. In this paper we confirm these observation, and we also introduce a query expansion approach using contextual information taken from encyclopedic documents. We use the INEX workshop collection and evaluation framework in our experiments. Results show that adding contextual information significantly improves the performance of our focused retrieval system. We also see that our automatic approach obtains the best results among the different approach we evaluate.","Focused retrieval, query expansion, context, Wikipedia, INEX, entropy"],"keyphrases":["contexte","Recherche de passages","INEX","enrichissement de requ\u00eates","Wikipedia","entropie"],"prmu":["P","P","P","R","U","U"]} {"id":"taln-2011-court-012","title":"Construction d'un lexique des adjectifs d\u00e9nominaux","abstract":"Apr\u00e8s une br\u00e8ve analyse linguistique des adjectifs d\u00e9nominaux en fran\u00e7ais, nous d\u00e9crivons le processus automatique que nous avons mis en place \u00e0 partir de lexiques et de corpus volumineux pour construire un lexique d'adjectifs d\u00e9nominaux d\u00e9riv\u00e9s de mani\u00e8re r\u00e9guli\u00e8re. Nous estimons \u00e0 la fois la pr\u00e9cision et la couverture du lexique d\u00e9rivationnel obtenu. \u00c0 terme, ce lexique librement disponible aura \u00e9t\u00e9 valid\u00e9 manuellement et contiendra \u00e9galement les adjectifs d\u00e9nominaux \u00e0 base suppl\u00e9tive.","translation":["Construction of a lexicon of denominal adjectives","After a brief linguistic analysis of French denominal adjectives, we describe the automatic technique based on large-scale lexicons and corpora that we developed for building a lexicon of regular denominal adjectives. We evaluate both the precision and coverage of the resulting derivational lexicon. This freely available lexicon should eventually be fully manually validated and contain denominal adjectives with a suppletive base.","Denominal adjectives, morphological derivation, derivational lexicon"],"keyphrases":["Adjectifs d\u00e9nominaux","lexique d\u00e9rivationnel","d\u00e9rivation morphologique"],"prmu":["P","P","M"]} {"id":"taln-2011-court-013","title":"D\u00e9veloppement de ressources pour le persan : PerLex 2, nouveau lexique morphologique et MEltfa, \u00e9tiqueteur morphosyntaxique","abstract":"Nous pr\u00e9sentons une nouvelle version de PerLex, lexique morphologique du persan, une version corrig\u00e9e et partiellement r\u00e9annot\u00e9e du corpus \u00e9tiquet\u00e9 BijanKhan (BijanKhan, 2004) et MEltfa, un nouvel \u00e9tiqueteur morphosyntaxique librement disponible pour le persan. Apr\u00e8s avoir d\u00e9velopp\u00e9 une premi\u00e8re version de PerLex (Sagot & Walther, 2010), nous en proposons donc ici une version am\u00e9lior\u00e9e. Outre une validation manuelle partielle, PerLex 2 repose d\u00e9sormais sur un inventaire de cat\u00e9gories linguistiquement motiv\u00e9. Nous avons \u00e9galement d\u00e9velopp\u00e9 une nouvelle version du corpus BijanKhan : elle contient des corrections significatives de la tokenisation ainsi qu'un r\u00e9\u00e9tiquetage \u00e0 l'aide des nouvelles cat\u00e9gories. Cette nouvelle version du corpus a enfin \u00e9t\u00e9 utilis\u00e9e pour l'entra\u00eenement de MEltfa, notre \u00e9tiqueteur morphosyntaxique pour le persan librement disponible, s'appuyant \u00e0 la fois sur ce nouvel inventaire de cat\u00e9gories, sur PerLex 2 et sur le syst\u00e8me d'\u00e9tiquetage MElt (Denis & Sagot, 2009).","translation":["Development of resources for Persian: PerLex 2, a new morphological lexicon and MEltfa, a morphosyntactic tagger","We present a new version of PerLex, the morphological lexicon for the Persian language, a corrected and partially re-annotated version of the BijanKhan corpus (BijanKhan, 2004) and MEltfa, a new freely available POS-tagger for the Persian language. After PerLex's first version (Sagot & Walther, 2010), we propose an improved version of our morphological lexicon. Apart from a partial manual validation, PerLex 2 now relies on a set of linguistically motivated POS. Based on these POS, we also developped a new version of the BijanKhan corpus with significant corrections of the tokenisation. It has been re-tagged according to the new set of POS. The new version of the BijanKhan corpus has been used to develop MEltfa, our new freely-available POS-tagger for the Persian language, based on the new POS set, PerLex 2 and the MElt tagging system (Denis & Sagot, 2009).","Lexical resource, validation, tagger, Persian, POS, PerLex, MElt"],"keyphrases":["persan","PerLex","MElt","\u00e9tiqueteur morphosyntaxique","validation","cat\u00e9gories","Ressource lexicale"],"prmu":["P","P","P","P","P","P","M"]} {"id":"taln-2011-court-014","title":"Identification de cognats \u00e0 partir de corpus parall\u00e8les fran\u00e7ais-roumain","abstract":"Cet article pr\u00e9sente une m\u00e9thode hybride d'identification de cognats fran\u00e7ais - roumain. Cette m\u00e9thode exploite des corpus parall\u00e8les align\u00e9s au niveau propositionnel, lemmatis\u00e9s et \u00e9tiquet\u00e9s (avec des propri\u00e9t\u00e9s morphosyntaxiques). Notre m\u00e9thode combine des techniques statistiques et des informations linguistiques pour am\u00e9liorer les r\u00e9sultats obtenus. Nous \u00e9valuons le module d'identification de cognats et nous faisons une comparaison avec des m\u00e9thodes statistiques pures, afin d'\u00e9tudier l'impact des informations linguistiques utilis\u00e9es sur la qualit\u00e9 des r\u00e9sultats obtenus. Nous montrons que l'utilisation des informations linguistiques augmente significativement la performance de la m\u00e9thode.","translation":["Identification of cognates from French-Romanian parallel corpora","This paper describes a hybrid French - Romanian cognate identification method. This method uses lemmatized, tagged (POS tags) and sentence-aligned parallel corpora. Our method combines statistical techniques and linguistic information in order to improve the results. We evaluate the cognate identification method and we compare it to other methods using pure statistical techniques to study the impact of the used linguistic information on the quality of the results. We show that the use of linguistic information in the cognate identification method significantly improves the results.","cognate, cognate identification, sentence-aligned parallel corpora"],"keyphrases":["identification de cognats","cognat","corpus parall\u00e8les align\u00e9s au niveau propositionnel"],"prmu":["P","P","P"]} {"id":"taln-2011-court-015","title":"Le TAL au service de l'ALAO\/ELAO L'exemple des exercices de dict\u00e9e automatis\u00e9s","abstract":"Ce papier s'inscrit dans le cadre g\u00e9n\u00e9ral de l'Apprentissage et de l'Enseignement des Langues Assist\u00e9s par Ordinateur, et concerne plus particuli\u00e8rement l'automatisation des exercices de dict\u00e9e. Il pr\u00e9sente une m\u00e9thode de correction des copies d'apprenants qui se veut originale en deux points. Premi\u00e8rement, la m\u00e9thode exploite la composition d'automates \u00e0 \u00e9tats finis pour d\u00e9tecter et pour analyser les erreurs. Deuxi\u00e8mement, elle repose sur une analyse morphosyntaxique automatique de l'original de la dict\u00e9e, ce qui facilite la production de diagnostics.","translation":["The use of NLP in CALL The example of automated dictation exercises","This paper comes within the scope of the Computer Assisted Language Learning framework, and addresses more especially the automation of dictation exercises. It presents a correction method of learners' copies that is original in two ways. First, the method exploits the composition of finite-state automata, to both detect and analyze the errors. Second, it relies on an automatic morphosyntactic analysis of the original dictation, which makes it easier to produce diagnoses.","CALL, dictation exercises, alignment, diagnosis, finite-state machines"],"keyphrases":["ALAO\/ELAO","exercices de dict\u00e9e","diagnostic","alignement","machines \u00e0 \u00e9tats finis"],"prmu":["P","P","P","U","M"]} {"id":"taln-2011-court-016","title":"Une analyse bas\u00e9e sur la S-DRT pour la mod\u00e9lisation de dialogues pathologiques","abstract":"Dans cet article, nous pr\u00e9sentons la d\u00e9finition et l'\u00e9tude d'un corpus de dialogues entre un schizophr\u00e8ne et un interlocuteur ayant pour objectif la conduite et le maintien de l'\u00e9change. Nous avons identifi\u00e9 des discontinuit\u00e9s significatives chez les schizophr\u00e8nes parano\u00efdes. Une repr\u00e9sentation issue de la S-DRT (sa partie pragmatique) permet de rendre compte des ces usages non standards.","translation":["An analysis based on the S-DRT for modeling pathological dialogues","In this article, we present a corpus of dialogues between a schizophrenic speaker and an interlocutor who drives the dialogue. We had identified specific discontinuities for paranoid schizophrenics. We propose a modeling of these discontinuities with S-DRT (its pragmatic part).","S-DRT, verbal interaction, schizophrenia, pathological dialogue, pragmatical incoherence"],"keyphrases":["S-DRT","dialogue pathologique","schizophr\u00e9nie","interaction verbale","incoh\u00e9rence pragmatique"],"prmu":["P","P","P","U","M"]} {"id":"taln-2011-court-017","title":"Le corpus Text+Berg Une ressource parall\u00e8le alpin fran\u00e7ais-allemand","abstract":"Cet article pr\u00e9sente un corpus parall\u00e8le fran\u00e7ais-allemand de plus de 4 millions de mots issu de la num\u00e9risation d'un corpus alpin multilingue. Ce corpus est une pr\u00e9cieuse ressource pour de nombreuses \u00e9tudes de linguistique compar\u00e9e et du patrimoine culturel ainsi que pour le d\u00e9veloppement d'un syst\u00e8me statistique de traduction automatique dans un domaine sp\u00e9cifique. Nous avons annot\u00e9 un \u00e9chantillon de ce corpus parall\u00e8le et align\u00e9 les structures arbor\u00e9es au niveau des mots, des constituants et des phrases. Cet \u201calpine treebank\u201d est le premier corpus arbor\u00e9 parall\u00e8le fran\u00e7ais-allemand de haute qualit\u00e9 (manuellement contr\u00f4l\u00e9), de libre acc\u00e8s et dans un domaine et un genre nouveau : le r\u00e9cit d'alpinisme.","translation":["The Text+Berg Corpus An Alpine French-German Parallel Resource","This article presents a French-German parallel corpus of more than 4 million tokens which we have compiled as part of the digitization of a large multilingual heritage corpus of alpine texts. This corpus is a valuable resource for cultural heritage and cross-linguistic studies as well as for the development of domain-specific machine translation systems. We have turned a small fraction of the parallel corpus into a high-quality parallel treebank with manually checked syntactic annotations and cross-language word and phrase alignments. This alpine treebank is the first freely available French-German parallel treebank. It complements other treebanks with texts in a new domain and genre : mountaineering reports.","French-German alpine corpus, parallel treebank, French morphosyntactic annotation, Text+Berg, e-Humanities"],"keyphrases":["corpus alpin fran\u00e7ais-allemand","structures arbor\u00e9es parall\u00e8les","annotation morphosyntaxique du fran\u00e7ais"],"prmu":["R","R","M"]} {"id":"taln-2011-court-018","title":"Ordonner un r\u00e9sum\u00e9 automatique multi-documents fond\u00e9 sur une classification des phrases en classes lexicales","abstract":"Nous pr\u00e9sentons diff\u00e9rentes m\u00e9thodes de r\u00e9ordonnancement de phrases pour le r\u00e9sum\u00e9 automatique fond\u00e9 sur une classification des phrases \u00e0 r\u00e9sumer en classes th\u00e9matiques. Nous comparons ces m\u00e9thodes \u00e0 deux baselines : ordonnancement des phrases selon leur pertinence et ordonnancement selon la date et la position dans le document d'origine. Nous avons fait \u00e9valuer les r\u00e9sum\u00e9s obtenus sur le corpus RPM2 par 4 annotateurs et pr\u00e9sentons les r\u00e9sultats.","translation":["Ordering a multi-document summary based on sentences subtopic clustering","We present several sentence ordering methods for automatic summarization which are specific to multi-document summarizers, based on sentences subtopic clustering. These methods are compared to two baselines : sentence ordering according to pertinence and according to publication date and inner document position. The resulting summaries on RPM2 corpus have been evaluated by four judges.","Automatic summarization, sentence ordering"],"keyphrases":["R\u00e9sum\u00e9 automatique","ordonnancement de phrases"],"prmu":["P","P"]} {"id":"taln-2011-court-019","title":"Construction d'une grammaire d'arbres adjoints pour la langue arabe","abstract":"La langue arabe pr\u00e9sente des sp\u00e9cificit\u00e9s qui la rendent plus ambigu\u0308e que d'autres langues naturelles. Sa morphologie, sa syntaxe ainsi que sa s\u00e9mantique sont en corr\u00e9lation et se compl\u00e8tent l'une l'autre. Dans le but de construire une grammaire qui soit adapt\u00e9e \u00e0 ces sp\u00e9cificit\u00e9s, nous avons con\u00e7u et d\u00e9velopp\u00e9 une application d'aide \u00e0 la cr\u00e9ation des r\u00e8gles syntaxiques licites suivant le formalisme d'arbres adjoints. Cette application est modulaire et enrichie par des astuces de contr\u00f4le de la cr\u00e9ation et aussi d'une interface conviviale pour assister l'utilisateur final dans la gestion des cr\u00e9ations pr\u00e9vues.","translation":["Construction of a tree adjoining grammar for the Arabic language","The Arabic language consists of a set of specificities. Thus, it is more ambiguous than other natural languages. Its morphology, syntax and semantic are correlated to each other. We have constructed an application for the construction of a tree adjoining grammar which respects the characteristics of the Arabic language. This tool allows constructing the grammatical rules as elementary trees enriched by different feature structures. It helps the user by its interface and control system to manage correct and uniform rules.","semi-automatic tool, tree adjoining grammar, Arabic language, feature structures"],"keyphrases":["grammaire d'arbres adjoints","langue arabe","Outil semi-automatique","traits d'unification"],"prmu":["P","P","U","M"]} {"id":"taln-2011-court-020","title":"FreDist : Construction automatique d'un th\u00e9saurus distributionnel pour le Fran\u00e7ais","abstract":"Dans cet article, nous pr\u00e9sentons FreDist, un logiciel libre pour la construction automatique de th\u00e9saurus distributionnels \u00e0 partir de corpus de texte, ainsi qu'une \u00e9valuation des diff\u00e9rents ressources ainsi produites. Suivant les travaux de (Lin, 1998) et (Curran, 2004), nous utilisons un corpus journalistique de grande taille et impl\u00e9mentons diff\u00e9rentes options pour : le type de relation contexte lexical, la fonction de poids, et la fonction de mesure de similarit\u00e9. Prenant l'EuroWordNet fran\u00e7ais et le WOLF comme r\u00e9f\u00e9rences, notre \u00e9valuation r\u00e9v\u00e8le, de mani\u00e8re originale, que c'est l'approche qui combine contextes lin\u00e9aires (ici, de type bigrammes) et contextes syntaxiques qui semble fournir le meilleur th\u00e9saurus. Enfin, nous esp\u00e9rons que notre logiciel, distribu\u00e9 avec nos meilleurs th\u00e9saurus pour le fran\u00e7ais, seront utiles \u00e0 la communaut\u00e9 TAL.","translation":["FreDist : Automatic construction of distributional thesauri for French","In this article we present FreDist, a freely available software package for the automatic construction of distributional thesauri from text corpora, as well as an evaluation of various distributional similarity metrics for French. Following from the work of (Lin, 1998) and (Curran, 2004), we use a large corpus of journalistic text and implement different choices for the type of lexical context relation, the weight function, and the measure function needed to build a distributional thesaurus. Using the EuroWordNet and WOLF wordnet resources for French as gold-standard references for our evaluation, we obtain the novel result that combining bigram and syntactic dependency context relations results in higher quality distributional thesauri. In addition, we hope that our software package and a joint release of our best thesauri for French will be useful to the NLP community.","distributional thesaurus, semantic similarity, unsupervised methods, lexicon"],"keyphrases":["th\u00e9saurus distributionnel","similarit\u00e9 s\u00e9mantique","m\u00e9thodes non supervis\u00e9es","lexique"],"prmu":["P","M","U","U"]} {"id":"taln-2011-court-021","title":"Utilisation de crit\u00e8res linguistiques de surface pour l'extraction de relation dans les textes bio-m\u00e9dicaux","abstract":"Dans cet article, nous proposons de mod\u00e9liser la t\u00e2che d'extraction de relations \u00e0 partir de corpus textuels comme un probl\u00e8me de classification. Nous montrons que, dans ce cadre, des repr\u00e9sentations fond\u00e9es sur des informations linguistiques de surface sont suffisantes pour que des algorithmes d'apprentissage artificiel standards les exploitant rivalisent avec les meilleurs syst\u00e8mes d'extraction de relations reposant sur des connaissances issues d'analyses profondes (analyses syntaxiques ou s\u00e9mantiques). Nous montrons \u00e9galement qu'en prenant davantage en compte les sp\u00e9cificit\u00e9s de la t\u00e2che d'extraction \u00e0 r\u00e9aliser et des donn\u00e9es disponibles, il est possible d'obtenir des m\u00e9thodes encore plus efficaces tout en exploitant ces informations simples. La technique originale \u00e0 base d'apprentissage \u00ab paresseux \u00bb et de mod\u00e8les de langue que nous \u00e9valuons en extraction d'interactions g\u00e9niques sur les donn\u00e9es du challenge LLL2005 d\u00e9passe les r\u00e9sultats de l'\u00e9tat de l'art.","translation":["Using shallow linguistic features for relation extraction in bio-medical texts","In this paper, we model the corpus-based relation extraction task as a classification problem. We show that, in this framework, standard machine learning systems exploiting representations simply based on shallow linguistic information can rival state-of-the-art systems that rely on deep linguistic analysis. Even more effective systems can be obtained, still using these easy and reliable pieces of information, if the specifics of the extraction task and the data are taken into account. Our original method combining lazy learning and language modeling out-performs the existing systems when evaluated on the LLL2005 protein-protein interaction extraction task data.","Relation extraction, classification, lazy learning, langage model, shallow linguistic analysis"],"keyphrases":["Extraction de relations","classification","mod\u00e8le de langue","apprentissage paresseux","analyse linguistique de surface"],"prmu":["P","P","P","R","R"]} {"id":"taln-2011-court-022","title":"Vers une prise en charge approfondie des ph\u00e9nom\u00e8nes it\u00e9ratifs par TimeML","abstract":"Les travaux men\u00e9s ces derni\u00e8res ann\u00e9es autour de l'it\u00e9ration en langue, tant par la communaut\u00e9 linguistique que par celle du TAL, ont mis au jour des ph\u00e9nom\u00e8nes particuliers, non r\u00e9ductibles aux repr\u00e9sentations temporelles classiques. En particulier, une it\u00e9ration ne saurait structurellement \u00eatre r\u00e9duite \u00e0 une simple \u00e9num\u00e9ration de proc\u00e8s, et du point de vue de l'aspect, met en jeu simultan\u00e9ment deux vis\u00e9es aspectuelles ind\u00e9pendantes. Le formalisme TimeML, qui a vocation \u00e0 annoter les informations temporelles port\u00e9es par un texte, int\u00e8gre d\u00e9j\u00e0 des \u00e9l\u00e9ments relatifs aux it\u00e9rations, mais ne prend pas en compte ces derni\u00e8res avanc\u00e9es. C'est ce que nous entreprenons de faire dans cet article, en proposant une extension \u00e0 ce formalisme.","translation":["Toward a comprehensive support of iterative phenomenons in TimeML","The work that has recently been done concerning the iterative phenomena in language, which was performed by the linguistic and TAL communities, has illuminated specific phenomena, not reducible to classical time representations. In particular, an iteration can not structurally be reduced to a simple listing of process, and involves simultaneously two independent referred aspectual. The TimeML formalism, which aims to annotate temporal information of a given text, includes already relative elements to iterations but does not take into account recent advances. That is the reason why in this paper, we propose to extend this formalism.","TimeML, discourse, semantics, iterative phenomena"],"keyphrases":["ph\u00e9nom\u00e8nes it\u00e9ratifs","TimeML","discours","s\u00e9mantique"],"prmu":["P","P","U","U"]} {"id":"taln-2011-court-023","title":"Une proc\u00e9dure pour identifier les modifieurs de la valence affective d'un mot dans des textes","abstract":"Cette recherche s'inscrit dans le champ de la fouille d'opinion et, plus particuli\u00e8rement, dans celui de l'analyse de la polarit\u00e9 d'une phrase ou d'un syntagme. Dans ce cadre, la prise en compte du contexte linguistique dans lequel apparaissent les mots porteurs de valence est particuli\u00e8rement importante. Nous proposons une m\u00e9thodologie pour extraire automatiquement de corpus de textes de telles expressions linguistiques. Cette approche s'appuie sur un corpus de textes, ou d'extraits de textes, dont la valence est connue, sur un lexique de valence construit \u00e0 partir de ce corpus au moyen d'une proc\u00e9dure automatique et sur un analyseur syntaxique. Une \u00e9tude exploratoire, limit\u00e9e \u00e0 la seule relation syntaxique associant un adverbe \u00e0 un adjectif, laisse entrevoir les potentialit\u00e9s de l'approche.","translation":["A procedure to identify modifiers of the word emotional valence in texts","This research is situated within the field of opinion mining and focuses more particularly on the analysis of the opinion expressed in a sentence or a syntagm. Within this frame of research, taking into account the linguistic context in which words which carry valence appear is particularly important. We propose a methodology to automatically extract such linguistic expressions from text corpora. This approach is based on (a) a corpus of texts, or text excerpts, the valence of which is known, (b) on a valence lexicon built from this corpus using an automatic procedure and (c) on a parser. An exploratory study, focusing on the syntactic relation associating an adverb to an adjective, shows the potential of the approach.","contextual valence shifter, opinion mining, semantic orientation lexicon"],"keyphrases":["fouille d'opinion","lexique de valence","modifieurs de valence"],"prmu":["P","P","R"]} {"id":"taln-2011-court-024","title":"Strat\u00e9gie d'exploration de corpus multi-annot\u00e9s avec GlozzQL","abstract":"La multiplication des travaux sur corpus, en linguistique computationnelle et en TAL, conduit \u00e0 la multiplication des campagnes d'annotation et des corpus multi-annot\u00e9s, porteurs d'informations relatives \u00e0 des ph\u00e9nom\u00e8nes vari\u00e9s, envisag\u00e9s par des annotateurs multiples, parfois automatiques. Pour mieux comprendre les ph\u00e9nom\u00e8nes que ces campagnes prennent pour objets, ou pour contr\u00f4ler les donn\u00e9es en vue de l'\u00e9tablissement d'un corpus de r\u00e9f\u00e9rence, il est n\u00e9cessaire de disposer d'outils permettant d'explorer les annotations. Nous pr\u00e9sentons une strat\u00e9gie possible et son op\u00e9rationalisation dans la plate-forme Glozz par le langage GlozzQL.","translation":["Multi-annotated corpus exploration strategy with GlozzQL","More and more works in compuational linguistics and NLP rely on corpora. They lead to an increasing number of annotation campaigns and multi-annotated corpora, providing informations on various linguistic phenomena, annotated by several annotators or computational processes. In order to understand these linguistic phenomena, or to control annotated data, tools dedicated to annotated data mining are needed. We present here an exploration strategy and its implementation within the Glozz platform, GlozzQL.","Corpus, Annotation, Exploration, GlozzQL"],"keyphrases":["Exploration","Corpus","Annotation","GlozzQL"],"prmu":["P","P","P","P"]} {"id":"taln-2011-court-025","title":"Attribution de r\u00f4les s\u00e9mantiques aux actants des lexies verbales","abstract":"Dans cet article, nous traitons de l'attribution des r\u00f4les s\u00e9mantiques aux actants de lexies verbales en corpus sp\u00e9cialis\u00e9 en fran\u00e7ais. Nous proposons une classification de r\u00f4les s\u00e9mantiques par apprentissage machine bas\u00e9e sur un corpus de lexies verbales annot\u00e9es manuellement du domaine de l'informatique et d'Internet. Nous proposons \u00e9galement une m\u00e9thode de partitionnement semi-supervis\u00e9 pour prendre en compte l'annotation de nouvelles lexies ou de nouveaux r\u00f4les s\u00e9mantiques et de les int\u00e9gr\u00e9s dans le syst\u00e8me. Cette m\u00e9thode de partitionnement permet de regrouper les instances d'actants selon les valeurs communes correspondantes aux traits de description des actants dans des groupes d'instances d'actants similaires. La classification de r\u00f4les s\u00e9mantique a obtenu une F-mesure de 93% pour Patient, de 90% pour Agent, de 85% pour Destination et de 76% pour les autres r\u00f4les pris ensemble. Quand au partitionnement en regroupant les instances selon leur similarit\u00e9 donne une F-mesure de 88% pour Patient, de 81% pour Agent, de 58% pour Destination et de 46% pour les autres r\u00f4les.","translation":["Assigning semantic roles to actants of verbal lexical units","In this paper, we discuss assigning semantic roles to actants of verbal lexical units in French specialized corpus. We propose a machine learning classification of semantic roles based on a corpus of verbal lexical units, which are annotated manually in the Informatics and Internet domain. We also propose a semi supervised clustering method to consider the annotation of new verbal lexical units or new semantic roles and integrated them in the system. Clustering is used to group instances of actants according to their common values corresponding to the features describing these actants into groups of similar instances of actants. The classification model give an F-measure of 93% for Patient, 90% for Agent, 85% for Destination and 76% for other roles. When partitioning by grouping instances according to their similarity gives an F-measure of 88% for Patient, 81% for Agent, 58% for Destination and 46% for other roles.","Semantic roles, syntactic features, classification, semi supervised partitioning"],"keyphrases":["R\u00f4les s\u00e9mantiques","classification","partitionnement semi-supervis\u00e9","traits syntaxiques"],"prmu":["P","P","P","M"]} {"id":"taln-2011-court-026","title":"Utiliser l'amor\u00e7age pour am\u00e9liorer une mesure de similarit\u00e9 s\u00e9mantique","abstract":"Les travaux sur les mesures de similarit\u00e9 s\u00e9mantique de nature distributionnelle ont abouti \u00e0 un certain consensus quant \u00e0 leurs performances et ont montr\u00e9 notamment que leurs r\u00e9sultats sont surtout int\u00e9ressants pour des mots de forte fr\u00e9quence et une similarit\u00e9 s\u00e9mantique \u00e9tendue, non restreinte aux seuls synonymes. Dans cet article, nous proposons une m\u00e9thode d'am\u00e9lioration d'une mesure de similarit\u00e9 classique permettant de r\u00e9\u00e9quilibrer ses r\u00e9sultats pour les mots de plus faible fr\u00e9quence. Cette m\u00e9thode est fond\u00e9e sur un m\u00e9canisme d'amor\u00e7age : un ensemble d'exemples et de contre-exemples de mots s\u00e9mantiquement li\u00e9s sont s\u00e9lectionn\u00e9s de fa\u00e7on non supervis\u00e9e \u00e0 partir des r\u00e9sultats de la mesure initiale et servent \u00e0 l'entra\u00eenement d'un classifieur supervis\u00e9. Celui-ci est ensuite utilis\u00e9 pour r\u00e9ordonner les voisins s\u00e9mantiques initiaux. Nous \u00e9valuons l'int\u00e9r\u00eat de ce r\u00e9ordonnancement pour un large ensemble de noms anglais couvrant diff\u00e9rents domaines fr\u00e9quentiels.","translation":["Using bootstrapping to improve a measure of semantic similarity","Work about distributional semantic similarity measures has now widely shown that such measures are mainly reliable for high frequency words and for capturing semantic relatedness rather than strict semantic similarity. In this article, we propose a method for improving such a measure for middle and low frequency words. This method is based on a bootstrapping mechanism : a set of examples and counter-examples of semantically related words are selected in an unsupervised way from the results of the initial measure and used for training a supervised classifier. This classifier is then applied for reranking the initial semantic neighbors. We evaluate the interest of this reranking for a large set of english nouns with various frequencies.","Semantic neighbor extraction, semantic similarity, distributional methods"],"keyphrases":["similarit\u00e9 s\u00e9mantique","Extraction de voisins s\u00e9mantiques","m\u00e9thodes distributionnelles"],"prmu":["P","M","R"]} {"id":"taln-2011-court-027","title":"Un calcul de termes typ\u00e9s pour la pragmatique lexicale: chemins et voyageurs fictifs dans un corpus de r\u00e9cits de voyage","abstract":"Ce travail s'inscrit dans l'analyse automatique d'un corpus de r\u00e9cits de voyage. \u00c0 cette fin, nous raffinons la s\u00e9mantique de Montague pour rendre compte des ph\u00e9nom\u00e8nes d'adaptation du sens des mots au contexte dans lequel ils apparaissent. Ici, nous mod\u00e9lisons les constructions de type 'le chemin descend pendant une demi-heure' o\u00f9 ledit chemin introduit un voyageur fictif qui le parcourt, en \u00e9tendant des id\u00e9es que le dernier auteur a d\u00e9velopp\u00e9 avec Bassac et Mery. Cette introduction du voyageur utilise la mont\u00e9e de type afin que le quantificateur introduisant le voyageur porte sur toute la phrase et que les propri\u00e9t\u00e9s du chemin ne deviennent pas des propri\u00e9t\u00e9s du voyageur, f\u00fbt-il fictif. Cette analyse s\u00e9mantique (ou plut\u00f4t sa traduction en lambda-DRT) est d'ores et d\u00e9j\u00e0 implant\u00e9e pour une partie du lexique de Grail.","translation":["A calculation of typed terms for lexical pragmatics: paths and fictional travellers in a travel stories corpus","This work is part of the automated analysis of travel stories corpus. To do so, we refine Montague semantics, to model the adaptation of word meaning to the context in which they appear. Here we study construction like 'the path goes down for half an hour' in which the path introduces a virtual traveller following it, extending ideas of the last author with Bassac, Mery. The introduction of a traveller relies on type raising satisfies the following requirements: the quantification binding the traveller has the widest scope, and properties of the path do not apply to the traveller, be it virtual. This semantical analysis (actually its translation in lambda-DRT) is already implemented for a part of the Grail lexicon.","Lexical semantics, pragmatics, compositional semantics"],"keyphrases":["pragmatique","S\u00e9mantique lexicale","s\u00e9mantique compositionnelle"],"prmu":["P","R","M"]} {"id":"taln-2011-court-028","title":"Cat\u00e9goriser les r\u00e9ponses aux interruptions dans les d\u00e9bats politiques","abstract":"Cet article traite de l'analyse de d\u00e9bats politiques selon une orientation multimodale. Nous \u00e9tudions plus particuli\u00e8rement les r\u00e9ponses aux interruptions lors d'un d\u00e9bat \u00e0 l'Assembl\u00e9e nationale. Nous proposons de proc\u00e9der \u00e0 l'analyse via des annotations syst\u00e9matiques de diff\u00e9rentes modalit\u00e9s. L'analyse argumentative nous a amen\u00e9e \u00e0 proposer une typologie de ces r\u00e9ponses. Celle-ci a \u00e9t\u00e9 mise \u00e0 l'\u00e9preuve d'une classification automatique. La difficult\u00e9 dans la construction d'un tel syst\u00e8me r\u00e9side dans la nature m\u00eame des donn\u00e9es : multimodales, parfois manquantes et incertaines.","translation":["Categorizing responses to disruptions in political debates","This work was conducted to analyze political debates, with a multimodal point of view. Particularly, we focus on the answers produced by a main speakers after he was disrupted. Our approach relies on the annotations of each modality and on their review. We propose a manual categorization of the observed disruptions. A categorization method was applied to validate the manual one. The difficulty is to deal with multimodality, missing values and uncertainty in the automatic classification system.","corpus, annotations, multimodality, classification"],"keyphrases":["multimodalit\u00e9","annotations","corpus","classification supervis\u00e9e"],"prmu":["P","P","U","M"]} {"id":"taln-2011-court-029","title":"Mesure non-supervis\u00e9e du degr\u00e9 d'appartenance d'une entit\u00e9 \u00e0 un type","abstract":"La recherche d'entit\u00e9s nomm\u00e9es a \u00e9t\u00e9 le sujet de nombreux travaux. Cependant, la construction des ressources n\u00e9cessaires \u00e0 de tels syst\u00e8mes reste un probl\u00e8me majeur. Dans ce papier, nous proposons une m\u00e9thode compl\u00e9mentaire aux outils capables de reconna\u00eetre des entit\u00e9s de types larges, dont l'objectif est de d\u00e9terminer si une entit\u00e9 est d'un type donn\u00e9, et ce de mani\u00e8re non-supervis\u00e9e et quel que soit le type. Nous proposons pour cela une approche bas\u00e9e sur la comparaison de mod\u00e8les de langage estim\u00e9s \u00e0 partir du Web. L'int\u00e9r\u00eat de notre approche est valid\u00e9 par une \u00e9valuation sur 100 entit\u00e9s et 273 types diff\u00e9rents.","translation":["An unsupervised measure of the degree of belonging of an entity to a type","Searching for named entities has been the subject of many researches. In this paper, we seek to determine whether a named entity is of a given type and in what extent it is. We propose to address this issue by an unsupervised Web oriented language modeling approach. The interest of it is demonstrated by our evaluation on 100 entities and 273 different types.","named entity identification, language modeling approach, Kullback-Leibler divergence"],"keyphrases":["typage d'entit\u00e9s nomm\u00e9es","comparaison de distribution de mots","divergence de Kullback-Leibler"],"prmu":["M","M","M"]} {"id":"taln-2011-court-030","title":"Traduction (automatique) des connecteurs de discours","abstract":"En nous appuyant sur des donn\u00e9es fournies par le concordancier bilingue TransSearch qui int\u00e8gre un alignement statistique au niveau des mots, nous avons effectu\u00e9 une annotation semi-manuelle de la traduction anglaise de deux connecteurs du fran\u00e7ais. Les r\u00e9sultats de cette annotation montrent que les traductions de ces connecteurs ne correspondent pas aux \u00ab transpots \u00bb identifi\u00e9s par TransSearch et encore moins \u00e0 ce qui est propos\u00e9 dans les dictionnaires bilingues.","translation":["(Machine) Translation of discourse connectors","On the basis of data provided by the bilingual concordancer TransSearch which propose a statistical word alignment, we made a semi-manual annotation of the English translation of two French connectives. The results of this annotation show that the translations of these connectives do not correspond to the \u201ctranspots\u201d identified by TransSearch and even less to the translations proposed in bilingual dictionaries.","(Machine) Translation, TransSearch, Discourse"],"keyphrases":["Traduction (automatique)","Discours","TransSearch"],"prmu":["P","P","P"]} {"id":"taln-2011-court-031","title":"D\u00e9couverte de patrons paraphrastiques en corpus comparable: une approche bas\u00e9e sur les n-grammes","abstract":"Cet article pr\u00e9sente l'utilisation d'un corpus comparable pour l'extraction de patrons de paraphrases. Nous pr\u00e9sentons une m\u00e9thode empirique bas\u00e9e sur l'appariement de n-grammes, permettant d'extraire des patrons de paraphrases dans des corpus comparables d'une m\u00eame langue (le fran\u00e7ais), du m\u00eame domaine (la m\u00e9decine) mais de registres de langues diff\u00e9rents (sp\u00e9cialis\u00e9 ou grand public). Cette m\u00e9thode confirme les r\u00e9sultats pr\u00e9c\u00e9dents bas\u00e9s sur des m\u00e9thodes \u00e0 base de patrons, et permet d'identifier de nouveaux patrons, apportant \u00e9galement un regard nouveau sur les diff\u00e9rences entre les discours de langue g\u00e9n\u00e9rale et sp\u00e9cialis\u00e9e.","translation":["Extracting paraphrastic patterns comparable corpus: an approach based on n-grams","This paper presents the use of a comparable corpus for extracting paraphrase patterns. We present an empirical method based on n-gram matching and ordering, to extract paraphrase pattern in comparable corpora of the same language (French) and the same domaine, but of two different registers (lay and specialised). This method confirms previous results from pattern-based methods, and identify new patterns, giving fresh look on the difference between specialised and lay discourse.","paraphrase identification, lexico-syntactic pattern discovery, discourse type, medical domain, monolingual comparable corpora"],"keyphrases":["extraction de patrons","Identification de paraphrases","type de discours","domaine m\u00e9dical","corpus comparable monolingue"],"prmu":["P","M","M","M","M"]} {"id":"taln-2011-court-032","title":"Prise en compte de la sous-cat\u00e9gorisation verbale dans un lexique bilingue anglais-japonais","abstract":"Dans cet article, nous pr\u00e9sentons une m\u00e9thode de d\u00e9tection des correspondances bilingues de sous-cat\u00e9gorisation verbale \u00e0 partir de donn\u00e9es lexicales monolingues. Nous \u00e9voquons \u00e9galement la structure de ces lexiques et leur utilisation en traduction automatique (TA) \u00e0 base linguistique anglais-japonais. Les lexiques sont utilis\u00e9s par un programme de TA fonctionnant selon une architecture classique dite \"\u00e0 transfert\", et leur structure permet une classification pr\u00e9cise des sous-cat\u00e9gorisations verbales. Nos travaux ont permis une am\u00e9lioration des donn\u00e9es de sous-cat\u00e9gorisation des lexiques pour les verbes japonais et leurs \u00e9quivalents anglais, en utilisant des donn\u00e9es linguistiques compil\u00e9es \u00e0 partir d'un corpus de textes extrait du web. De plus, le fonctionnement du programme de TA a pu ^etre am\u00e9lior\u00e9 en utilisant ces donn\u00e9es.","translation":["Verbal subcategorization in an English-Japanese bilingual lexicon","In this paper, we present a method for the detection of bilingual correspondences of verb subcategorization from monolingual lexical data. We also mention the structure of the lexicons and examples making use of such data in linguistics-based English-Japanese machine translation (MT). The lexicons are used by a MT system with a classical transfer-based architecture, and their structure allow an accurate classification of verb subcategorization. Our work has improved the lexical data about subcategorization of Japanese verbs and their English equivalents, using linguistic data compiled from a corpus of web extracted texts. Furthermore, the MT system could also be improved by the use of this data.","lexical databases, verb subcategorisation, linguistics-based machine translation, Japanese"],"keyphrases":["sous-cat\u00e9gorisation verbale","japonais","bases de donn\u00e9es lexicales","traduction automatique \u00e0 base linguistique"],"prmu":["P","P","R","R"]} {"id":"taln-2011-court-033","title":"Extraction non-supervis\u00e9e de relations bas\u00e9e sur la dualit\u00e9 de la repr\u00e9sentation","abstract":"Nous proposons dans cet article une m\u00e9thode non-supervis\u00e9e d'extraction des relations entre entit\u00e9s nomm\u00e9es. La m\u00e9thode propos\u00e9e se caract\u00e9rise par l'utilisation de r\u00e9sultats d'analyses syntaxiques, notamment les chemins syntaxiques reliant deux entit\u00e9s nomm\u00e9es dans des arbres de d\u00e9pendance. Nous avons \u00e9galement exploit\u00e9 la dualit\u00e9 de la repr\u00e9sentation des relations s\u00e9mantiques et le r\u00e9sultat de notre exp\u00e9rience comparative a montr\u00e9 que cette approche am\u00e9liorait les rappels.","translation":["Unsupervised relation extraction based on the dual representation","We propose in this paper an unsupervised method for relation and pattern extraction. The proposed method is characterized by using parsed corpora, especially by leveraging syntactic paths that connect two named entities in dependency trees. We also use the dual representation of semantic relations and the result of our comparative experiment showed that this approach improves recall.","Knowledge extraction, named entity relationships, relational duality"],"keyphrases":["relations entre entit\u00e9s nomm\u00e9es","Extraction des connaissances","dualit\u00e9 relationnelle"],"prmu":["P","M","M"]} {"id":"taln-2011-court-034","title":"Vers la d\u00e9tection des dislocations \u00e0 gauche dans les transcriptions automatiques du Fran\u00e7ais parl\u00e9","abstract":"Ce travail prend place dans le cadre plus g\u00e9n\u00e9ral du d\u00e9veloppement d'une plate-forme d'analyse syntaxique du fran\u00e7ais parl\u00e9. Nous d\u00e9crivons la conception d'un mod\u00e8le automatique pour r\u00e9soudre le lien anaphorique pr\u00e9sent dans les dislocations \u00e0 gauche dans un corpus de fran\u00e7ais parl\u00e9 radiophonique. La d\u00e9tection de ces structures devrait permettre \u00e0 terme d'am\u00e9liorer notre analyseur syntaxique en enrichissant les informations prises en compte dans nos mod\u00e8les automatiques. La r\u00e9solution du lien anaphorique est r\u00e9alis\u00e9e en deux \u00e9tapes : un premier niveau \u00e0 base de r\u00e8gles filtre les configurations candidates, et un second niveau s'appuie sur un mod\u00e8le appris selon le crit\u00e8re du maximum d'entropie. Une \u00e9valuation exp\u00e9rimentale r\u00e9alis\u00e9e par validation crois\u00e9e sur un corpus annot\u00e9 manuellement donne une F-mesure de l'ordre de 40%.","translation":["Towards automatic recognition of left dislocation in transcriptions of Spoken French","Left dislocations are an important distinguishing feature of spoken French. In this paper, we present a hybrid approach for detecting the coreferential link that holds between left-dislocated elements and the coreferential pronoun occurring further on in the sentence. The approach combines a symbolic graph rewrite step with a maximum entropy classifier and achieves around 40% F-score. We conjecture that developing such approaches could contribute to the general anaphora resolution task and help improve parsers trained on corpora enriched with left dislocation anaphoric links.","Left dislocation detection, Maximum Entropy, spoken French"],"keyphrases":["D\u00e9tection des dislocations \u00e0 gauche","fran\u00e7ais parl\u00e9","Maximum Entropy"],"prmu":["P","P","M"]} {"id":"taln-2011-court-035","title":"R\u00e8gles et paradigmes en morphologie informatique lex\u00e9matique","abstract":"Les familles de mots produites par deux analyseurs morphologiques, D\u00e9riF (bas\u00e9 sur des r\u00e8gles) et Morphonette (bas\u00e9 sur l'analogie), appliqu\u00e9s \u00e0 un m\u00eame corpus lexical, sont compar\u00e9es. Cette comparaison conduit \u00e0 l'examen de trois sous-ensembles : \n\t\t\t- un sous-ensemble commun aux deux syst\u00e8mes dont la taille montre que, malgr\u00e9 leurs diff\u00e9rences, les approches exp\u00e9riment\u00e9es par chaque syst\u00e8me sont valides et d\u00e9crivent en partie la m\u00eame r\u00e9alit\u00e9 morphologique.\n\t\t\t- un sous-ensemble propre \u00e0 D\u00e9riF et un autre \u00e0 Morphonette. Ces ensembles (a) nous renseignent sur les caract\u00e9ristiques propres \u00e0 chaque syst\u00e8me, et notamment sur ce que l'autre ne peut pas produire, (b) ils mettent en \u00e9vidence les erreurs d'un syst\u00e8me, en ce qu'elles n'apparaissent pas dans l'autre, (c) ils font appara\u00eetre certaines limites de la description, notamment celles qui sont li\u00e9es aux objets et aux notions th\u00e9oriques comme les familles morphologiques, les bases, l'existence de RCL \u00ab transversales \u00bb entre les lex\u00e8mes qui n'ont pas de relation d'ascendance ou de descendance.","translation":["Rules and paradigms in lexematic computer morphology","The word families produced by two morphological analyzers of French, D\u00e9riF (rule-based) and Morphonette (analogybased), applied on the same lexical corpus have been compared. The comparison led us to examine three classes of relations:\n\t\t\t- one subset of relations that are shared by both systems. It shows that, despite their differences, the approaches implemented in these systems are valid and describe, to some extent, one and the same morphological reality.\n\t\t\t- one subset of relations specific to D\u00e9riF and another one to Morphonette. These sets (a) give us informations on the characteristics proper to each system, and especially on what the other system is unable to produce; (b) they highlight the errors of one system, in so that they are absent from the results of the other; (c) they reveal some of the limits of the description, especially the ones related to theoretical objects and concepts such as morphological family, base or the existence of transverse LCR (lexeme construction rules) between lexemes that are not ascendant nor descendant of each other.","Word formation, automatic analysis, rules, analogy, morphological families, comparison, synergy"],"keyphrases":["r\u00e8gles","analogie","comparaison","familles morphologiques","morphologie constructionnelle","analyse automatique","synergie"],"prmu":["P","P","P","P","M","U","U"]} {"id":"taln-2011-court-036","title":"Classification de s\u00e9quences bidirectionnelles pour des t\u00e2ches d'\u00e9tiquetage par apprentissage guid\u00e9","abstract":"Dans cet article nous pr\u00e9sentons une s\u00e9rie d'adaptations de l'algorithme du \"cadre d'apprenstissage guid\u00e9\" pour r\u00e9soudre diff\u00e9rentes t\u00e2ches d'\u00e9tiquetage. La sp\u00e9cificit\u00e9 du syst\u00e8me propos\u00e9 r\u00e9side dans sa capacit\u00e9 \u00e0 apprendre l'ordre de l'inf\u00e9rence avec les param\u00e8tres du classifieur local au lieu de la forcer dans un ordre pr\u00e9-d\u00e9fini (de gauche \u00e0 droite). L'algorithme d'entra\u00eenement est bas\u00e9 sur l'algorithme du \"perceptron\". Nous appliquons le syst\u00e8me \u00e0 diff\u00e9rents types de t\u00e2ches d'\u00e9tiquetage pour atteindre des r\u00e9sultats au niveau de l'\u00e9tat de l'art en un court temps d'ex\u00e9cution.","translation":["Bidirectional Sequence Classification for Tagging Tasks with Guided Learning","In this paper we present a series of adaptations of the Guided Learning framework to solve different tagging tasks. The specificity of the proposed system lies in its ability to learn the order of inference together with the parameters of the local classifier instead of forcing it into a pre-defined order (left-to-right). The training algorithm is based on the Perceptron Algorithm. We apply the system to different kinds of tagging tasks reaching state of the art results with short execution time.","Bidirectional, Sequence Classification, Guided Learning"],"keyphrases":["Classification de S\u00e9quence","Bidirectionnel","Apprentissage Guid\u00e9"],"prmu":["P","P","P"]} {"id":"taln-2011-court-037","title":"Calcul de r\u00e9seaux phrastiques pour l'analyse et la navigation textuelle","abstract":"Le travail pr\u00e9sente une m\u00e9thode de navigation dans les textes, fond\u00e9e sur la r\u00e9p\u00e9tition lexicale. La m\u00e9thode choisie est celle d\u00e9velopp\u00e9e par le linguiste Hoey. Son application manuelle \u00e0 des textes de grandeur cons\u00e9quente est probl\u00e9matique. Nous proposons dans cet article un processus automatique qui permet d'analyser selon cette m\u00e9thode des textes de grande taille ; des exp\u00e9riences ont \u00e9t\u00e9 men\u00e9es appliquant le processus \u00e0 diff\u00e9rents types de textes (narratif, expositif) et montrant l'int\u00e9r\u00eat de l'approche.","translation":["Computing sentence networks for textual analysis and navigation","In this paper, we present an automatic process based on lexical repetition introduced by Hoey. The application of that kind of approaches on large texts is difficult to do by hand. In the paper, we propose an automatic process to treat large texts. We have conducted some experiments on different kinds of texts (narrative, expositive) to show the benefits of the approach.","Sentence network, Bonds between sentences, Textual analysis, Textual navigation"],"keyphrases":["R\u00e9seau phrastique","Navigation textuelle","Appariement de phrases","Analyse textuelle"],"prmu":["P","P","M","R"]} {"id":"taln-2011-court-038","title":"Exploitation d'un corpus arbor\u00e9 pour non sp\u00e9cialistes par des requ\u00eates guid\u00e9es et des requ\u00eates s\u00e9mantiques","abstract":"L'exploitation de corpus analys\u00e9s syntaxiquement (ou corpus arbor\u00e9s) pour le public non sp\u00e9cialiste n'est pas un probl\u00e8me trivial. Si la communaut\u00e9 du TAL souhaite mettre \u00e0 la disposition des chercheurs non-informaticiens des corpus comportant des annotations linguistiques complexes, elle doit imp\u00e9rativement d\u00e9velopper des interfaces simples \u00e0 manipuler mais permettant des recherches fines. Dans cette communication, nous pr\u00e9sentons les modes de recherche \u00ab grand public \u00bb d\u00e9velopp\u00e9(e)s dans le cadre du projet Scientext, qui met \u00e0 disposition un corpus d'\u00e9crits scientifiques interrogeable par partie textuelle, par partie du discours et par fonction syntaxique. Les modes simples sont d\u00e9crits : un mode libre et guid\u00e9, o\u00f9 l'utilisateur s\u00e9lectionne lui-m\u00eame les \u00e9l\u00e9ments de la requ\u00eate, et un mode s\u00e9mantique, qui comporte des grammaires locales pr\u00e9\u00e9tablies \u00e0 l'aide des fonctions syntaxiques.","translation":["Exploiting a Treebank for non-specialists by guided queries and semantic queries","The exploitation of syntactically analysed corpora (or treebanks) by non-specialist is not a trivial problem. If the NLP community wants to make publicly available corpora with complex annotations, it is imperative to develop simple interfaces able to handle advanced queries. In this paper, we present queries methods for the general public developed during the Scientext project, which provides a searchable corpus of scientific texts searchable from textual part, part of speech and syntactic relation. The simple query modes are described: a guided query mode, where the user easily selects the elements of the query, and a semantic mode which includes local pre-established grammars using syntactic functions.","corpus study environment, treebanks, assisted grammars creation, visualization of linguistic information"],"keyphrases":["environnement d'\u00e9tude de corpus","corpus \u00e9tiquet\u00e9s et arbor\u00e9s","cr\u00e9ation de grammaires assist\u00e9e","visualisation d'information linguistique"],"prmu":["M","M","M","M"]} {"id":"taln-2011-court-039","title":"Communaut\u00e9s Internet comme sources de pr\u00e9terminologie","abstract":"Cet article d\u00e9crit deux exp\u00e9riences sur la construction de ressources terminologiques multilingues (preterminologies) pr\u00e9liminaires, mais grandes, gr\u00e2ce \u00e0 des communaut\u00e9s Internet, et s'appuie sur ces exp\u00e9riences pour cibler des donn\u00e9es terminologiques plus raffin\u00e9es venant de communaut\u00e9s Internet et d'applications Web 2.0. La premi\u00e8re exp\u00e9rience est une passerelle de contribution pour le site Web de la Route de la Soie num\u00e9rique (DSR). Les visiteurs contribuent en effet \u00e0 un r\u00e9f\u00e9rentiel lexical multilingue d\u00e9di\u00e9, pendant qu'ils visitent et lisent les livres archiv\u00e9s, parce qu'ils sont int\u00e9ress\u00e9s par le domaine et ont tendance \u00e0 \u00eatre polygottes. Nous avons recueilli 1400 contributions lexicales en 4 mois. La seconde exp\u00e9rience est bas\u00e9e sur le JeuxDeMots arabe, o\u00f9 les joueurs en ligne contribuent \u00e0 un r\u00e9seau lexical arabe. L'exp\u00e9rience a entra\u00een\u00e9 une croissance r\u00e9guli\u00e8re du nombre de joueurs et de contributions, ces derni\u00e8res contenant des termes absents et des mots de dialectes oraux.","translation":["Internet communities as sources of preterminology","This paper describes two experiments on building preliminary but large multilingual terminological resources (preterminologies) through Internet communities, and draws on these experiments to target more refined terminological data from Internet communities and Web 2.0 applications. The first experiment is a contribution gateway for the Digital Silk Road (DSR) website. Visitors indeed contribute to a dedicated multilingual lexical repository while they visit and read the archived books, because they are interested in the domain and tend to be multilingual. We collected 1400 lexical contributions in 4 months. The second experiment is based on the Arabic JeuxDeMots, where online players contribute to an Arabic lexical network. The experiment resulted in a steady growth of number of players and contributions, the latter containing absent terms and spoken dialectic words.","terminology, preterminology, collaborative approaches, lexical networks, DSR, serious games"],"keyphrases":["pr\u00e9terminologie","terminologie","DSR","r\u00e9seaux lexicaux","approches collaboratives","jeux s\u00e9rieux"],"prmu":["P","P","P","P","U","U"]} {"id":"taln-2011-court-040","title":"\u00c9valuation de G-LexAr pour la traduction automatique statistique","abstract":"G-LexAr est un analyseur morphologique de l'arabe qui a r\u00e9cemment re\u00e7u des am\u00e9liorations substantielles. Cet article propose une \u00e9valuation de cet analyseur en tant qu'outil de pr\u00e9-traitement pour la traduction automatique statistique, ce dont il n'a encore jamais fait l'objet. Nous \u00e9tudions l'impact des diff\u00e9rentes formes propos\u00e9es par son analyse (voyellation, lemmatisation et segmentation) sur un syst\u00e8me de traduction arabe-anglais, ainsi que l'impact de la combinaison de ces formes. Nos exp\u00e9riences montrent que l'utilisation s\u00e9par\u00e9e de chacune de ces formes n'a que peu d'influence sur la qualit\u00e9 des traductions obtenues, tandis que leur combinaison y contribue de fa\u00e7on tr\u00e8s b\u00e9n\u00e9fique.","translation":["Evaluation of G-Lexar for statistical machine translation","G-LexAr is an Arabic morphological analyzer that has recently been improved for speed. This paper gives an assessment of this analyzer as a preprocessing tool for statistical machine translation. We study the impact of the use of its possible outputs (vocalized, lemmatized and segmented) through an Arabic-English machine translation system, as well as the impact of the combination of these outputs. Our experiments show that using these outputs separately does not influence much translation quality. However, their combination leads to major improvements.","statistical machine translation, morphological analysis, arabic preprocessing"],"keyphrases":["traduction automatique statistique","analyse morphologique","pr\u00e9-traitement de l'arabe"],"prmu":["P","R","R"]} {"id":"taln-2011-court-041","title":"Enrichir la notion de patron par la prise en compte de la structure textuelle - Application \u00e0 la construction d'ontologie","abstract":"La projection de patrons lexico-syntaxiques sur corpus est une des mani\u00e8res privil\u00e9gi\u00e9es pour identifier des relations s\u00e9mantiques pr\u00e9cises entre \u00e9l\u00e9ments lexicaux. Dans cet article, nous proposons d'\u00e9tendre la notion de patron en prenant en compte la s\u00e9mantique que v\u00e9hiculent les \u00e9l\u00e9ments de structure d'un document (d\u00e9finitions, titres, \u00e9num\u00e9rations) dans l'identification de relations. Nous avons test\u00e9 cette hypoth\u00e8se dans le cadre de la construction d'ontologies \u00e0 partir de textes fortement structur\u00e9s du domaine de la cartographie.","translation":["Enriching the notion of pattern by taking into account the textual structure - Application to ontology construction","Matching lexico-syntactic patterns on text corpora is one of the favorite ways to identify precise semantic relations between lexical items. In this paper, we propose to rely on text structure to extend the notion of pattern and to take into account the semantics that the structure (definitions, titles, item lists) may bear when identifying semantic relations between concepts. We have checked this hypothesis by building an ontology via highly structured texts describing spatial, i.e. geographical information.","Ontology engineering, lexico-syntactic patterns, textual structure"],"keyphrases":["structure textuelle","Construction d'ontologie","patron lexico-syntaxique"],"prmu":["P","P","P"]} {"id":"taln-2011-court-042","title":"La traduction automatique des s\u00e9quences clitiques dans un traducteur \u00e0 base de r\u00e8gles","abstract":"Dans cet article, nous discutons la m\u00e9thodologie utilis\u00e9e par Its-2, un syst\u00e8me de traduction \u00e0 base de r\u00e8gles, pour la traduction des pronoms clitiques. En particulier, nous nous focalisons sur les s\u00e9quences clitiques, pour la traduction automatique entre le fran\u00e7ais et l'anglais. Une \u00e9valuation bas\u00e9e sur un corpus de phrases construites montre le potentiel de notre approche pour des traductions de bonne qualit\u00e9.","translation":["Automatic translation clitic sequences in a rule-based MT system","In this paper we discuss the methodology applied by Its-2, a rule-based MT system, in order to translate clitic pronouns. In particular, we focus on French clitic clusters, for automatic translation between French and English. An evaluation based on a corpus of constructed sentences shows the potential of this approach for high-quality translation.","Syntactic parser, automatic translation, clitic pronoun, clitic clusters"],"keyphrases":["traduction automatique","s\u00e9quences clitiques","pronom clitique","Analyseur syntaxique"],"prmu":["P","P","P","U"]} {"id":"taln-2011-court-043","title":"\u00c9tude inter-langues de la distribution et des ambigu\u00eft\u00e9s syntaxiques des pronoms","abstract":"Ce travail d\u00e9crit la distribution des pronoms selon le style de texte (litt\u00e9raire ou journalistique) et selon la langue (fran\u00e7ais, anglais, allemand et italien). Sur la base d'un \u00e9tiquetage morpho-syntaxique effectu\u00e9 automatiquement puis v\u00e9rifi\u00e9 manuellement, nous pouvons constater que la proportion des diff\u00e9rents types de pronoms varie selon le type de texte et selon la langue. Nous discutons les cat\u00e9gories les plus ambigu\u00ebs de mani\u00e8re d\u00e9taill\u00e9e. Comme nous avons utilis\u00e9 l'analyseur syntaxique Fips pour l'\u00e9tiquetage des pronoms, nous l'avons \u00e9galement \u00e9valu\u00e9 et obtenu une pr\u00e9cision moyenne de plus de 95%.","translation":["A study of cross-language distribution and syntactic ambiguities of pronouns","This paper compares the distribution of pronouns according to the text genre (literary or news) and to the language (French, English, German and Italian). On the basis of manually verified part-of-speech tags, we find that the proportion of different pronoun types depends on the text and on the language. We discuss the most ambiguous cases in detail. As we used the Fips parser for the tagging of pronouns, we have evaluated it and obtained an overall precision of over 95%.","Pronouns, pronominal ambiguity, part-of-speech tagging"],"keyphrases":["Pronoms","\u00e9tiquetage morpho-syntaxique","ambigu\u00eft\u00e9 pronominale"],"prmu":["P","P","M"]} {"id":"taln-2011-court-044","title":"La traduction automatique des pronoms. Probl\u00e8mes et perspectives","abstract":"Dans cette \u00e9tude, notre syst\u00e8me de traduction automatique, Its-2, a fait l'objet d'une \u00e9valuation manuelle de la traduction des pronoms pour cinq paires de langues et sur deux corpus : un corpus litt\u00e9raire et un corpus de communiqu\u00e9s de presse. Les r\u00e9sultats montrent que les pourcentages d'erreurs peuvent atteindre 60% selon la paire de langues et le corpus. Nous discutons ainsi deux pistes de recherche pour l'am\u00e9lioration des performances de Its-2 : la r\u00e9solution des ambigu\u00eft\u00e9s d'analyse et la r\u00e9solution des anaphores pronominales.","translation":["Automatic translation of pronouns. Problems and perspectives","In this work, we present the results of a manual evaluation of our machine translation system, Its-2, on the task of pronoun translation for five language pairs and in two corpora : a litterary corpus and a corpus of press releases. The results show that the error rates reach 60% depending on the language pair and the corpus. Then we discuss two proposals for improving the performances of Its-2 : resolution of source language ambiguities and resolution of pronominal anaphora.","Pronouns, machine translation, parsing, pronominal anaphora"],"keyphrases":["traduction automatique","Pronoms","anaphores pronominales","analyse syntaxique"],"prmu":["P","P","P","M"]} {"id":"taln-2011-court-045","title":"Ressources lexicales pour une s\u00e9mantique inf\u00e9rentielle : un exemple, le mot \u00ab quitter \u00bb","abstract":"On \u00e9tudie environ 500 occurrences du verbe \u00ab quitter \u00bb en les classant selon les inf\u00e9rences qu'elles sugg\u00e8rent au lecteur. On obtient ainsi 43 \u00ab sch\u00e9mas inf\u00e9rentiels \u00bb. Ils ne s'excluent pas l'un l'autre : si plusieurs d'entre eux s'appliquent, les inf\u00e9rences produites se cumulent ; cependant, comme l'auteur sait que le lecteur dispose de tels sch\u00e9mas, s'il veut l'orienter vers une seule interpr\u00e9tation, il fournit des indices permettant d'\u00e9liminer les autres. On conjecture que ces sch\u00e9mas pr\u00e9sentent des r\u00e9gularit\u00e9s observables sur des familles de mots, que ces r\u00e9gularit\u00e9s proviennent du fonctionnement d'op\u00e9rations g\u00e9n\u00e9riques, et qu'il est donc sans gravit\u00e9 de ne pas \u00eatre exhaustif, dans la mesure o\u00f9 ces op\u00e9rations permettent d'engendrer les sch\u00e9mas manquants en cas de besoin.","translation":["Lexical resources for semantic inference: an example, the word \"quitter\"","Around 500 occurrences of the French verb \u201cquitter\u201d are scrutinized and sorted according to the inferences they trigger in the reader's mind. This yields 43 so-called inferential schemata. They are not exclusive from one another: when several of them are applicable, their conclusions add together; however, as the author knows that the reader possesses this kind of schema, if s\/he wants to direct the reader towards a given interpretation, s\/he provides some clues to block the other ones. The schemata reveal regularities across families of similar words, and these regularities are conjectured to be due to the operation of generic procedures: omitting some schemata is thus harmless, insofar as these procedures have the ability to generate the missing ones in case of need.","Lexical Semantics, Inference, Shifts in Meaning"],"keyphrases":["Inf\u00e9rence","S\u00e9mantique lexicale","Glissements de sens"],"prmu":["P","R","M"]} {"id":"taln-2011-court-046","title":"Un syst\u00e8me de d\u00e9tection d'opinions fond\u00e9 sur l'analyse syntaxique profonde","abstract":"Dans cet article, nous pr\u00e9sentons un syst\u00e8me de d\u00e9tection d'opinions construit \u00e0 partir des sorties d'un analyseur syntaxique robuste produisant des analyses profondes. L'objectif de ce syst\u00e8me est l'extraction d'opinions associ\u00e9es \u00e0 des produits (les concepts principaux) ainsi qu'aux concepts qui leurs sont associ\u00e9s (en anglais \u00abfeatures-based opinion extraction\u00bb). Suite \u00e0 une \u00e9tude d'un corpus cible, notre analyseur syntaxique est enrichi par l'ajout de polarit\u00e9 aux \u00e9l\u00e9ments pertinents du lexique et par le d\u00e9veloppement de r\u00e8gles g\u00e9n\u00e9riques et sp\u00e9cialis\u00e9es permettant l'extraction de relations s\u00e9mantiques d'opinions, qui visent \u00e0 alimenter un mod\u00e8le de repr\u00e9sentation des opinions. Une premi\u00e8re \u00e9valuation montre des r\u00e9sultats tr\u00e8s encourageants, mais de nombreuses perspectives restent \u00e0 explorer.","translation":["An opinion detection system based on deep syntactic analysis","In this paper, we present an opinion detection system built on top of a deep robust syntactic parser. The goal of this system is to extract opinions associated to products but also to characteristics of these products, i.e. to perform feature-based opinion extraction. To carry out this task, and following the results of a target corpus study, the robust syntactic analyzer is enriched by the association of polarity to pertinent lexical elements and by the development of generic rules extracting semantic relations of opinions, in order to feed an opinion representation model. A first evaluation gave very encouraging results, but many perspectives remain to be explored.","opinion detection, sentiment analysis, robust parsing, information extraction"],"keyphrases":["d\u00e9tection d'opinions","analyse de sentiments","analyse syntaxique robuste","extraction d'information"],"prmu":["P","M","R","M"]} {"id":"taln-2011-court-047","title":"D\u00e9veloppement d'un syst\u00e8me de d\u00e9tection des infections associ\u00e9es aux soins \u00e0 partir de l'analyse de comptes-rendus d'hospitalisation","abstract":"Cet article d\u00e9crit la premi\u00e8re version et les r\u00e9sultats de l'\u00e9valuation d'un syst\u00e8me de d\u00e9tection des \u00e9pisodes d'infections associ\u00e9es aux soins. Cette d\u00e9tection est bas\u00e9e sur l'analyse automatique de comptes-rendus d'hospitalisation provenant de diff\u00e9rents h\u00f4pitaux et diff\u00e9rents services. Ces comptes-rendus sont sous forme de texte libre. Le syst\u00e8me de d\u00e9tection a \u00e9t\u00e9 d\u00e9velopp\u00e9 \u00e0 partir d'un analyseur linguistique que nous avons adapt\u00e9 au domaine m\u00e9dical et extrait \u00e0 partir des documents des indices pouvant conduire \u00e0 une suspicion d'infection. Un traitement de la n\u00e9gation et un traitement temporel des textes sont effectu\u00e9s permettant de restreindre et de raffiner l'extraction d'indices. Nous d\u00e9crivons dans cet article le syst\u00e8me que nous avons d\u00e9velopp\u00e9 et donnons les r\u00e9sultats d'une \u00e9valuation pr\u00e9liminaire.","translation":["Development of a system that detects occurrences of healthcare-associated infections from the analysis of hospitalization reports","This paper describes the first version and the results obtained by a system which detects occurrences of healthcare-associated infections. The system automatically analyzes hospital discharge summaries coming from different hospitals and from different care units. The output of the system consists in stating for each document, if there is a case of healthcare-associated infection. The linguistic processor which analyzes hospital discharge summaries is a general purpose tool which has been adapted for the medical domain. It extracts textual elements that may lead to an infection suspicion. Jointly with the extraction of suspicious terms, the system performs a negation and temporal processing of texts in order to refine the extraction. We first describe the system that has been developed and give then the results of a preliminary evaluation.","Information extraction in medical domain, hospital discharge summaries, hospital acquired infections, parsing"],"keyphrases":["Extraction d'information m\u00e9dicale","compte-rendus d'hospitalisation","infection nosocomiale","analyse syntaxique"],"prmu":["M","M","M","M"]} {"id":"taln-2011-demo-004","title":"Une application de la grammaire structurelle: L'analyseur syntaxique du fran\u00e7ais SYGFRAN","abstract":"La d\u00e9monstration pr\u00e9sent\u00e9e produit une analyse syntaxique du fran\u00e7ais. Elle est \u00e9crite en SYGMART, fournie avec les actes, ex\u00e9cutable \u00e0 l'adresse : http :\/\/www.lirmm.fr\/ chauche\/ExempleAnl.html et t\u00e9l\u00e9chargeable \u00e0 l'adresse : http :\/\/www.sygtext.fr.","translation":["An application of structural grammar: the SYGFRAN syntactic analyser","The software produces a syntactic analysis of french. It is written in SYGMART, including acts, runable at http :\/\/www.lirmm.fr\/ chauche\/ExempleAnl.html and downlodable at : http :\/\/www.sygtext.fr.","syntactic analysis"],"keyphrases":["Analyse syntaxique"],"prmu":["P"]} {"id":"taln-2011-demo-009","title":"Syst\u00e8me d'analyse de la polarit\u00e9 de d\u00e9p\u00eaches financi\u00e8res","abstract":"Nous pr\u00e9sentons un syst\u00e8me pour la classification en continu de d\u00e9p\u00eaches financi\u00e8res selon une polarit\u00e9 positive ou n\u00e9gative. La d\u00e9monstration permettra ainsi d'observer quelles sont les d\u00e9p\u00eaches les plus \u00e0 m\u00eame de faire varier la valeur d'actions cot\u00e9es en bourse, au moment m\u00eame de la d\u00e9monstration. Le syst\u00e8me traitera de d\u00e9p\u00eaches \u00e9crites en anglais et en fran\u00e7ais.","translation":["A polarity sentiment analysis system financial news items","We present a system for classifying on-line financial news items into a positive or negative polarity. The demonstration will therefore allow us to observe which news are most likely to influence the price of shares traded at the time of the demonstration. The system will cover news items written in English and French.","Sentiment Analysis, Corpus Linguistics, Financial News Items"],"keyphrases":["D\u00e9p\u00eaches Financi\u00e8res","Analyse de Sentiments","Linguistique de Corpus"],"prmu":["P","M","M"]} {"id":"taln-2010-long-001","title":"Adaptation d\u2019un Syst\u00e8me de Traduction Automatique Statistique avec des Ressources monolingues","abstract":"Les performances d\u2019un syst\u00e8me de traduction statistique d\u00e9pendent beaucoup de la qualit\u00e9 et de la quantit\u00e9 des donn\u00e9es d\u2019apprentissage disponibles. La plupart des textes parall\u00e8les librement disponibles proviennent d\u2019organisations internationales. Le jargon observ\u00e9 dans ces textes n\u2019est pas tr\u00e8s adapt\u00e9 pour construire un syst\u00e8me de traduction pour d\u2019autres domaines. Nous pr\u00e9sentons dans cet article une technique pour adapter le mod\u00e8le de traduction \u00e0 un domaine diff\u00e9rent en utilisant des textes dans la langue source uniquement. Nous obtenons des am\u00e9liorations significatives du score BLEU dans des syst\u00e8mes de traduction de l\u2019arabe vers le fran\u00e7ais et vers l\u2019anglais.","translation":["","The performance of a statistical machine translation system depends a lot on the quality and quantity of the available training data. Most of the existing, easily available parallel texts come from international organizations and the jargon observed in those texts is not very appropriate to build a machine translation system for other domains. In this paper, we present a technique to automatically adapt the translation model to a new domain using monolingual data in the source language only. We observe significant improvements in the BLEU score in statistical machine translation systems from Arabic to French and English respectively.","Statistical machine translation, translation model adaptation, monolingual data, unsupervised training"],"keyphrases":["Traduction statistique","adaptation du mod\u00e8le de traduction","corpus monolingue","apprentissage non-supervis\u00e9"],"prmu":["P","R","M","M"]} {"id":"taln-2010-long-002","title":"Alignement de traductions rares \u00e0 l\u2019aide de paires de phrases non align\u00e9es","abstract":"Bien souvent, le sens d\u2019un mot ou d\u2019une expression peut \u00eatre rendu dans une autre langue par plusieurs traductions. Parmi celles-ci, certaines se r\u00e9v\u00e8lent tr\u00e8s fr\u00e9quentes alors que d\u2019autres le sont beaucoup moins, conform\u00e9ment \u00e0 une loi zipfienne. La googlisation de notre monde n\u2019\u00e9chappe pas aux m\u00e9moires de traduction, qui mettent souvent \u00e0 mal ou simplement ignorent ces traductions rares qui sont souvent de bonne qualit\u00e9. Dans cet article, nous nous int\u00e9ressons \u00e0 ces traductions rares sous l\u2019angle du rep\u00e9rage de traductions. Nous argumentons qu\u2019elles sont plus difficiles \u00e0 identifier que les traductions plus fr\u00e9quentes. Nous d\u00e9crivons une approche originale qui permet de mieux les identifier en tirant profit de l\u2019alignement au niveau des mots de paires de phrases qui ne sont pas align\u00e9es. Nous montrons que cette approche permet d\u2019am\u00e9liorer l\u2019identification de ces traductions rares.","translation":["","There generally exist numerous ways to translate a word or a phrase in another language. Among these translations, some are very common while others are far less so, according to a zipfian law. As with the rest of the world, translation memories are googlized, leading to poorly handled or even simply ignored rare translations, while they are often of good quality. In this paper, we tackle this problem in a transpotting framework. We show that these rare translations are harder to identify than common translations. We describe an original approach based on the word alignment of sentences which are not aligned. We show that this approach significantly improves the identification of those rare translations.","Statistical machine translation, word alignment, rare translations, relevance feedback"],"keyphrases":["traduction rares","Traduction automatique statistique","alignement de mots","contr\u00f4le de pertinence"],"prmu":["P","M","R","M"]} {"id":"taln-2010-long-003","title":"Exploitation d\u2019une ressource lexicale pour la construction d\u2019un \u00e9tiqueteur morpho-syntaxique \u00e9tat-de-l\u2019art du fran\u00e7ais","abstract":"Cet article pr\u00e9sente MEltfr, un \u00e9tiqueteur morpho-syntaxique automatique du fran\u00e7ais. Il repose sur un mod\u00e8le probabiliste s\u00e9quentiel qui b\u00e9n\u00e9ficie d\u2019informations issues d\u2019un lexique exog\u00e8ne, \u00e0 savoir le Lefff. Evalu\u00e9 sur le FTB, MEltfr atteint un taux de pr\u00e9cision de 97.75% (91.36% sur les mots inconnus) sur un jeu de 29 \u00e9tiquettes. Ceci correspond \u00e0 une diminution du taux d\u2019erreur de 18% (36.1% sur les mots inconnus) par rapport au m\u00eame mod\u00e8le sans couplage avec le Lefff. Nous \u00e9tudions plus en d\u00e9tail la contribution de cette ressource, au travers de deux s\u00e9ries d\u2019exp\u00e9riences. Celles-ci font appara\u00eetre en particulier que la contribution des traits issus du Lefff est de permettre une meilleure couverture, ainsi qu\u2019une mod\u00e9lisation plus fine du contexte droit des mots.","translation":["","This paper presents MEltfr, an automatic POS tagger for French. This system relies on a sequential probabilistic model that exploits information extracted from an external lexicon, namely Lefff. When evaluated on the FTB corpus, MEltfr achieves an accuracy of 97.75% (91.36% on unknow words) using a tagset of 29 categories. This corresponds to an error rate decrease of 18% (36.1% on unknow words) compared to the same model without Lefff information. We investigate in more detail the contribution of this resource through two sets of experiments. These reveal in particular that the Lefff features allow for an increased coverage and a finer-grained modeling of the context at the right of a word.","POS tagging, maximum entropy models, French, lexicon"],"keyphrases":["fran\u00e7ais","lexique","Etiquetage morpho-syntaxique","mod\u00e8les \u00e0 maximisation d\u2019entropie"],"prmu":["P","P","M","M"]} {"id":"taln-2010-long-004","title":"Similarit\u00e9 s\u00e9mantique et extraction de synonymes \u00e0 partir de corpus","abstract":"La d\u00e9finition de mesures s\u00e9mantiques au niveau lexical a fait l\u2019objet de nombreux travaux depuis plusieurs ann\u00e9es. Dans cet article, nous nous focalisons plus sp\u00e9cifiquement sur les mesures de nature distributionnelle. Bien que diff\u00e9rentes \u00e9valuations ont \u00e9t\u00e9 r\u00e9alis\u00e9es les concernant, il reste difficile \u00e0 \u00e9tablir si une mesure donnant de bons r\u00e9sultats dans un cadre d\u2019\u00e9valuation peut \u00eatre appliqu\u00e9e plus largement avec le m\u00eame succ\u00e8s. Dans le travail pr\u00e9sent\u00e9, nous commen\u00e7ons par s\u00e9lectionner une mesure de similarit\u00e9 sur la base d\u2019un test de type TOEFL \u00e9tendu. Nous l\u2019appliquons ensuite au probl\u00e8me de l\u2019extraction de synonymes \u00e0 partir de corpus en comparant nos r\u00e9sultats avec ceux de (Curran & Moens, 2002). Enfin, nous testons l\u2019int\u00e9r\u00eat pour cette t\u00e2che d\u2019extraction de synonymes d\u2019une m\u00e9thode d\u2019am\u00e9lioration de la qualit\u00e9 des donn\u00e9es distributionnelles propos\u00e9e dans (Zhitomirsky-Geffet & Dagan, 2009).","translation":["","The definition of lexical semantic measures has been the subject of lots of works for many years. In this article, we focus more specifically on distributional semantic measures. Although several evaluations about this kind of measures were already achieved, it is still difficult to determine if a measure that performs well in an evaluation framework can be applied more widely with the same success. In the work we present here, we first select a similarity measure by testing it against an extended TOEFL test. Then, we apply this measure for extracting automatically synonyms from a corpus and we compare our results to those of (Curran & Moens, 2002). Finally, we test the interest for synonym extraction of a method proposed in (Zhitomirsky-Geffet & Dagan, 2009) for improving the quality of distributional data.","synonym extraction, semantic similarity, distributional methods"],"keyphrases":["similarit\u00e9 s\u00e9mantique","extraction de synonymes","m\u00e9thodes distributionnelles"],"prmu":["P","P","R"]} {"id":"taln-2010-long-005","title":"Au-del\u00e0 de la paire de mots : extraction de cooccurrences syntaxiques multilex\u00e9miques","abstract":"Cet article d\u00e9crit l\u2019\u00e9laboration de la deuxi\u00e8me \u00e9dition du dictionnaire de cooccurrences du logiciel d\u2019aide \u00e0 la r\u00e9daction Antidote. Cette nouvelle mouture est le r\u00e9sultat d\u2019une refonte compl\u00e8te du processus d\u2019extraction, ayant principalement pour but l\u2019extraction de cooccurrences de plus de deux unit\u00e9s lexicales. La principale contribution de cet article est la description d\u2019une technique originale pour l\u2019extraction de cooccurrences de plus de deux mots conservant une structure syntaxique compl\u00e8te.","translation":["","This article describes the elaboration of the second edition of the co-occurrence dictionary included in Antidote HD, a commercial software tool for writing in French. This second edition is the result of a complete overhaul of the extraction process, with the objective of extracting co-occurrences of more than two lexical units. The main contribution of this article is the description of an original method for extracting co-occurrences of more than two words retaining their full syntactic structure.","Antidote, co-occurrences, collocations, multi-word expressions (MWE)"],"keyphrases":["cooccurrences","Antidote","collocations","expressions multimots"],"prmu":["P","P","U","U"]} {"id":"taln-2010-long-006","title":"Une approche cognitive de la fouille de grandes collections de documents","abstract":"La r\u00e9cente \u00e9closion du Web2.0 engendre un accroissement consid\u00e9rable de volumes textuels et intensifie ainsi l\u2019importance d\u2019une r\u00e9flexion sur l\u2019exploitation des connaissances \u00e0 partir de grandes collections de documents. Dans cet article, nous pr\u00e9sentons une approche de rechercher d\u2019information qui s\u2019inspire des certaines recherches issues de la psychologie cognitive pour la fouille de larges collections de documents. Nous utilisons un document comme requ\u00eate permettant de r\u00e9cup\u00e9rer des informations \u00e0 partir d\u2019une collection repr\u00e9sent\u00e9e dans un espace s\u00e9mantique. Nous d\u00e9finissons les notions d\u2019identit\u00e9 s\u00e9mantique et de pollution s\u00e9mantique dans un espace de documents. Nous illustrons notre approche par la description d\u2019un syst\u00e8me appel\u00e9 BRAT (Blogosphere Random Analysis using Texts) bas\u00e9 sur les notions pr\u00e9alablement introduites d\u2019identit\u00e9 et de pollution s\u00e9matique appliqu\u00e9es \u00e0 une t\u00e2che d\u2019identification des actualit\u00e9s dans la blogosph\u00e8re mondiale lors du concours TREC\u201909. Les premiers r\u00e9sultats produits sont tout \u00e0 fait encourageant et indiquent les pistes des recherches \u00e0 mettre en oeuvre afin d\u2019am\u00e9liorer les performances de BRAT.","translation":["","MiningWeb 2.0 content become nowadays an important task in Information Retrieval and Search communities. The work related in this paper present an original approach of blogs mining, inspired from researches in cognitive psychology. We define the notions of semantic identity of blogs, and the semantic pollution in a semantic space. Then, we describe a system called BRAT (Blogosphere Random Analysis using Texts) based on these notions that has been applied to the Top Stories identification task of the Blog Track at the TREC\u201909 contest. The performance of BRAT at TREC\u201909 in its preliminary stage of development are very encouraging and the results of the experiences described here-after draw the lines of the future researches that should be realized in order to upgrade its performances.","Text-Mining, Random-Indexing, Cognition, Random walk"],"keyphrases":["Cognition","Fouille de textes","Random-Indexing","Marche al\u00e9atoire"],"prmu":["P","R","U","U"]} {"id":"taln-2010-long-007","title":"Motifs de graphe pour le calcul de d\u00e9pendances syntaxiques compl\u00e8tes","abstract":"Cet article propose une m\u00e9thode pour calculer les d\u00e9pendances syntaxiques d\u2019un \u00e9nonc\u00e9 \u00e0 partir du processus d\u2019analyse en constituants. L\u2019objectif est d\u2019obtenir des d\u00e9pendances compl\u00e8tes c\u2019est-\u00e0-dire contenant toutes les informations n\u00e9cessaires \u00e0 la construction de la s\u00e9mantique. Pour l\u2019analyse en constituants, on utilise le formalisme des grammaires d\u2019interaction : celui-ci place au c\u0153ur de la composition syntaxique un m\u00e9canisme de saturation de polarit\u00e9s qui peut s\u2019interpr\u00e9ter comme la r\u00e9alisation d\u2019une relation de d\u00e9pendance. Formellement, on utilise la notion de motifs de graphes au sens de la r\u00e9\u00e9criture de graphes pour d\u00e9crire les conditions n\u00e9cessaires \u00e0 la cr\u00e9ation d\u2019une d\u00e9pendance.","translation":["","This article describes a method to build syntactical dependencies starting from the phrase structure parsing process. The goal is to obtain all the information needed for a detailled semantical analysis. Interaction Grammars are used for parsing; the saturation of polarities which is the core of this formalism can be mapped to dependency relation. Formally, graph patterns are used to express the set of constraints which control dependency creations.","Syntactic analysis, dependency, interaction grammars, polarity"],"keyphrases":["d\u00e9pendance","grammaires d\u2019interaction","polarit\u00e9","Analyse syntaxique"],"prmu":["P","P","P","R"]} {"id":"taln-2010-long-008","title":"Approche quantitative en syntaxe : l\u2019exemple de l\u2019alternance de position de l\u2019adjectif \u00e9pith\u00e8te en fran\u00e7ais","abstract":"Cet article pr\u00e9sente une analyse statistique sur des donn\u00e9es de syntaxe qui a pour but d\u2019aider \u00e0 mieux cerner le ph\u00e9nom\u00e8ne d\u2019alternance de position de l\u2019adjectif \u00e9pith\u00e8te par rapport au nom en fran\u00e7ais. Nous montrons comment nous avons utilis\u00e9 les corpus dont nous disposons (French Treebank et le corpus de l\u2019Est-R\u00e9publicain) ainsi que les ressources issues du traitement automatique des langues, pour mener \u00e0 bien notre \u00e9tude. La mod\u00e9lisation \u00e0 partir de 13 variables relevant principalement des propri\u00e9t\u00e9s du syntagme adjectival, de celles de l\u2019item adjectival, ainsi que de contraintes bas\u00e9es sur la fr\u00e9quence, permet de pr\u00e9dire \u00e0 plus de 93% la position de l\u2019adjectif. Nous insistons sur l\u2019importance de contraintes relevant de l\u2019usage pour le choix de la position de l\u2019adjectif, notamment \u00e0 travers la fr\u00e9quence d\u2019occurrence de l\u2019adjectif, et la fr\u00e9quence de contextes dans lesquels il appara\u00eet.","translation":["","This article presents a statistical analysis of syntactic data that aims to better understand the phenomenon of position alternation displayed by attributive adjectives with respect to nouns in French. We show how we used the corpora available for French (the French Treebank and the Est-R\u00e9publicain corpus) as well as ressources provided by Natural Language Processing for our study. The proposed model contains 13 variables based on properties of the adjectival phrase, the adjectival item and on frequency constraints. This model is capable to predict the position of adjectives at more than a 93% rate. We especially focus on the importance of constraints based on usage for the choice of position for the adjective, in particular the frequency of contexts in which it appears.","Probabilistic syntax, corpus linguistics, attributive adjective, logistic regression"],"keyphrases":["adjectif \u00e9pith\u00e8te","Syntaxe probabiliste","linguistique de corpus","r\u00e9gression logistique"],"prmu":["P","M","M","U"]} {"id":"taln-2010-long-009","title":"Un mod\u00e8le de caract\u00e9risation de la complexit\u00e9 syntaxique","abstract":"Cet article pr\u00e9sente un mod\u00e8le de la complexit\u00e9 syntaxique. Il r\u00e9unit un ensemble d\u2019indices de complexit\u00e9 et les repr\u00e9sente \u00e0 l\u2019aide d\u2019un cadre formel homog\u00e8ne, offrant ainsi la possibilit\u00e9 d\u2019une quantification automatique : le mod\u00e8le propos\u00e9 permet d\u2019associer \u00e0 chaque phrase un indice refl\u00e9tant sa complexit\u00e9.","translation":["","This paper proposes a model of syntactic complexity. It brings together a set of complexity parameters and represnt them thanks to a unique formal framework. This approach makes it possible an automatic evaluation : a complexity index can be associated to each sentence.","Syntactic complexity, parsing, human parser"],"keyphrases":["Complexit\u00e9 syntaxique","analyse syntaxique automatique","parser humain"],"prmu":["P","M","U"]} {"id":"taln-2010-long-010","title":"Convertir des d\u00e9rivations TAG en d\u00e9pendances","abstract":"Les structures de d\u00e9pendances syntaxiques sont importantes et bien adapt\u00e9es comme point de d\u00e9part de diverses applications. Dans le cadre de l\u2019analyseur TAG FRMG, nous pr\u00e9sentons les d\u00e9tails d\u2019un processus de conversion de for\u00eats partag\u00e9es de d\u00e9rivations en for\u00eats partag\u00e9es de d\u00e9pendances. Des \u00e9l\u00e9ments d\u2019information sont fournis sur un algorithme de d\u00e9sambiguisation sur ces for\u00eats de d\u00e9pendances.","translation":["","Syntactic dependency structures are important and adequate as starting point for various NLP applications. In the context of the French TAG FRMG parser, we present the details of a conversion process from shared derivation forests into shared dependency forests. Some information are also provided about a disambiguisation algorithm for these dependency forests.","dependencies, parsing, TAG, shared forest"],"keyphrases":["TAG","d\u00e9pendances","for\u00eat partag\u00e9e","analyse syntaxique"],"prmu":["P","P","P","M"]} {"id":"taln-2010-long-012","title":"Une approche hybride traduction\/correction pour la normalisation des SMS","abstract":"Cet article pr\u00e9sente une m\u00e9thode hybride de normalisation des SMS, \u00e0 mi-chemin entre correction orthographique et traduction automatique. La partie du syst\u00e8me qui assure la normalisation utilise exclusivement des mod\u00e8les entra\u00een\u00e9s sur corpus. Evalu\u00e9 en fran\u00e7ais par validation crois\u00e9e, le syst\u00e8me obtient un taux d\u2019erreur au mot de 9.3% et un score BLEU de 0.83.","translation":["","This paper presents a method of normalizing SMS messages that shares similarities with both spell checking and machine translation approaches. The normalization part of the system is entirely based on models trained from a corpus. Evaluated in French by ten-fold cross-validation, the system achieves a 9.3% Word Error Rate and a 0.83 BLEU score.","SMS messages, normalization, finite-state machines, hybrid approach, machine translationlike, spell checking-like, corpus-based learning"],"keyphrases":["approche hybride","normalisation","SMS","machines \u00e0 \u00e9tats finis","orient\u00e9 traduction","orient\u00e9 correction","apprentissage sur corpus"],"prmu":["P","P","P","M","M","M","M"]} {"id":"taln-2010-long-013","title":"Recueil et analyse d\u2019un corpus \u00e9cologique de corrections orthographiques extrait des r\u00e9visions de Wikip\u00e9dia","abstract":"Dans cet article, nous introduisons une m\u00e9thode \u00e0 base de r\u00e8gles permettant d\u2019extraire automatiquement de l\u2019historique des \u00e9ditions de l\u2019encyclop\u00e9die collaborative Wikip\u00e9dia des corrections orthographiques. Cette m\u00e9thode nous a permis de construire un corpus d\u2019erreurs compos\u00e9 de 72 483 erreurs lexicales (non-word errors) et 74 100 erreurs grammaticales (real-word errors). Il n\u2019existe pas, \u00e0 notre connaissance, de plus gros corpus d\u2019erreurs \u00e9cologiques librement disponible. En outre, les techniques mises en oeuvre peuvent \u00eatre facilement transpos\u00e9es \u00e0 de nombreuses autres langues. La collecte de ce corpus ouvre de nouvelles perspectives pour l\u2019\u00e9tude des erreurs fr\u00e9quentes ainsi que l\u2019apprentissage et l\u2019\u00e9valuation des correcteurs orthographiques automatiques. Plusieurs exp\u00e9riences illustrant son int\u00e9r\u00eat sont propos\u00e9es.","translation":["","This paper describes a French spelling error corpus we built by miningWikipedia revision history. This corpus contains 72,493 non-word errors and 74,100 real-word errors. To the best of our knowledge, this is the first time that such a large corpus of naturally occurring errors is collected and made publicly available, which opens new possibilities for the evaluation of spell checkers and the study of error patterns. In the second part of this work, a first study of french spelling error patterns and of the performance of a spell checker is presented.","resources for NLP, spelling correction, Wikipedia"],"keyphrases":["correction orthographique","Wikip\u00e9dia","ressources pour le TAL"],"prmu":["P","P","M"]} {"id":"taln-2010-long-014","title":"Extension d\u2019un syst\u00e8me d\u2019\u00e9tiquetage d\u2019entit\u00e9s nomm\u00e9es en \u00e9tiqueteur s\u00e9mantique","abstract":"L\u2019\u00e9tiquetage s\u00e9mantique consiste \u00e0 associer un ensemble de propri\u00e9t\u00e9s \u00e0 une s\u00e9quence de mots contenue dans un texte. Bien que proche de la t\u00e2che d\u2019\u00e9tiquetage par entit\u00e9s nomm\u00e9es, qui revient \u00e0 attribuer une classe de sens \u00e0 un mot, la t\u00e2che d\u2019\u00e9tiquetage ou d\u2019annotation s\u00e9mantique cherche \u00e0 \u00e9tablir la relation entre l\u2019entit\u00e9 dans son texte et sa repr\u00e9sentation ontologique. Nous pr\u00e9sentons un \u00e9tiqueteur s\u00e9mantique qui s\u2019appuie sur un \u00e9tiqueteur d\u2019entit\u00e9s nomm\u00e9es pour mettre en relation un mot ou un groupe de mots avec sa repr\u00e9sentation ontologique. Son originalit\u00e9 est d\u2019utiliser une ontologie interm\u00e9diaire de nature statistique pour \u00e9tablir ce lien.","translation":["","Semantic labelling consist to associate a set of properties to a sequence of words from a text. Although its proximity with the named entity labelling task, which is equivalent to associate a class meaning to a sequence of word, the task of semantic labelling try to establish the relation between the entity in the text and it\u2019s ontological representation. We present a semantic labelling system based on a named entity recognition step. The originality of our system is that the link between named entity and its semantic representation is obtained trough the use of an intermediate statistical ontology.","Semantic parser, Named entities, Semantic annotation"],"keyphrases":["Entit\u00e9s nomm\u00e9es","\u00c9tiqueteur s\u00e9mantique","Ontologie","Analyse s\u00e9mantique"],"prmu":["P","P","P","M"]} {"id":"taln-2010-long-015","title":"Extraction de paraphrases s\u00e9mantiques et lexico-syntaxiques de corpus parall\u00e8les bilingues","abstract":"Nous pr\u00e9sentons le travail en cours effectu\u00e9 dans le cadre d\u2019un projet d\u2019extraction de paraphrases \u00e0 partir de textes parall\u00e8les bilingues. Nous identifions des paraphrases s\u00e9mantiques et lexico-syntaxiques, qui mettent en jeu des op\u00e9rations relativement complexes sur les structures s\u00e9mantiques et syntaxiques de phrases, et les d\u00e9crivons au moyen de r\u00e8gles de paraphrasage de type Sens-Texte, utilisables dans diverses applications de TALN.","translation":["","We present work in progress done within a project of extracting paraphrases from parallel bilingual texts. We identify semantic and lexical-syntactic paraphrases, which imply relatively complex operations on semantic and syntactic structures of sentences, and describe them by means of paraphrasing rules of Meaning-Text type, usable in various NLP applications.","lexical-syntactic paraphrase, semantic paraphrase, paraphrasing rules, bilingual corpora, Meaning-Text theory"],"keyphrases":["r\u00e8gles de paraphrasage","paraphrase lexico-syntaxique","paraphrase s\u00e9manique","corpus bilingues","th\u00e9orie Sens-Texte"],"prmu":["P","R","M","R","M"]} {"id":"taln-2010-long-016","title":"Anatomie des structures \u00e9num\u00e9ratives","abstract":"Cet article pr\u00e9sente les premiers r\u00e9sultats d\u2019une campagne d\u2019annotation de corpus \u00e0 grande \u00e9chelle r\u00e9alis\u00e9e dans le cadre du projet ANNODIS. Ces r\u00e9sultats concernent la partie descendante du dispositif d\u2019annotation, et plus sp\u00e9cifiquement les structures \u00e9num\u00e9ratives. Nous nous int\u00e9ressons \u00e0 la structuration \u00e9num\u00e9rative en tant que strat\u00e9gie de base de mise en texte, apparaissant \u00e0 diff\u00e9rents niveaux de granularit\u00e9, associ\u00e9e \u00e0 diff\u00e9rentes fonctions discursives, et signal\u00e9e par des indices divers. Avant l\u2019annotation manuelle, une \u00e9tape de pr\u00e9-traitement a permis d\u2019obtenir le marquage syst\u00e9matique de traits associ\u00e9s \u00e0 la signalisation de l\u2019organisation du discours. Nous d\u00e9crivons cette \u00e9tape de marquage automatique, ainsi que la proc\u00e9dure d\u2019annotation. Nous proposons ensuite une premi\u00e8re typologie des structures \u00e9num\u00e9ratives bas\u00e9e sur la description quantitative des donn\u00e9es annot\u00e9es manuellement, prenant en compte la couverture textuelle, la composition et les types d\u2019indices.","translation":["","This paper presents initial results from a large scale discourse annotation project, the ANNODIS project. These results concern the top-down part of the annotation scheme, and more specifically enumerative structures. We are interested in enumerative structures as a basic text construction strategy, occurring at different levels of granularity, associated with various discourse functions, and signalled by a broad range of cues. Before manual annotation via a purpose-built interface, a pre-processing phase produced a systematic mark-up of features associated to the signalling of discourse organisation. We describe this markup phase and the annotation procedure. We then propose a first typology of enumerative structures based on a quantitative description of the manually annotated data, taking into account textual coverage, composition, types of cues.","Corpus annotation, discourse organisation, enumerative structure, signalling text structures"],"keyphrases":["structure \u00e9num\u00e9rative","Annotation de corpus","signalisation","organisation du discours"],"prmu":["P","P","P","P"]} {"id":"taln-2010-long-017","title":"Identification des actants et circonstants par apprentissage machine","abstract":"Dans cet article, nous traitons de l\u2019identification automatique des participants actants et circonstants de lexies pr\u00e9dicatives verbales tir\u00e9es d\u2019un corpus sp\u00e9cialis\u00e9 en langue fran\u00e7aise. Les actants contribuent \u00e0 la r\u00e9alisation du sens de la lexie alors que les circonstants sont optionnels : ils ajoutent une information suppl\u00e9mentaire qui ne fait pas partie int\u00e9grante du s\u00e9mantisme de la lexie. Nous proposons une classification de ces participants par apprentissage machine bas\u00e9e sur un corpus de lexies verbales du domaine de l\u2019informatique, lexies qui ont \u00e9t\u00e9 annot\u00e9es manuellement avec des r\u00f4les s\u00e9mantiques. Nous pr\u00e9sentons des features qui nous permettent d\u2019identifier les participants et de distinguer les actants des circonstants.","translation":["","In this paper we discuss the identification of participants actants and circumstants of specialized verbal lexical units in a French specialised corpus. The actants are linguistic units that contribute to the sense of the verbal lexical unit while circumstants are optional: they add extra information that is not part of the meaning of the verbal unit. In this work, we propose a classification of participants using machine learning based on a specialized corpus of verbal lexical items in the field of computing which are annotated manually with semantic roles labels. We defined features to identify participants and distinguish actants from circumstants.","Actantial structure, actants and circumstants, classification features"],"keyphrases":["actants et circonstants","Structure actancielle","features de classification"],"prmu":["P","U","R"]} {"id":"taln-2010-long-018","title":"Extraction automatique d'un lexique \u00e0 connotation g\u00e9ographique \u00e0 des fins ontologiques dans un corpus de r\u00e9cits de voyage","abstract":"Le but de ces travaux est d\u2019extraire un lexique en analysant les relations entre des syntagmes nominaux et des syntagmes verbaux dans les textes de notre corpus, essentiellement des r\u00e9cits de voyage. L\u2019hypoth\u00e8se que nous \u00e9mettons est de pouvoir \u00e9tablir une cat\u00e9gorisation des syntagmes nominaux associ\u00e9s \u00e0 des Entit\u00e9s Nomm\u00e9es de type lieu \u00e0 l\u2019aide de l\u2019analyse des relations verbales. En effet, nous disposons d\u2019une chaine de traitement automatique qui extrait, interpr\u00e8te et valide des Entit\u00e9s Nomm\u00e9es de type lieu dans des documents textuels. Ce travail est compl\u00e9t\u00e9 par l\u2019analyse des relations verbales associ\u00e9es \u00e0 ces EN, candidates \u00e0 l\u2019enrichissement d\u2019une ontologie.","translation":["","The aim of this research work is to extract a lexicon by analyzing the relationship between nominal syntagms and verb construction within our corpus, namely travel stories. We would like to establish a categorization of nominal syntagms linked to Named Entity (NE) (type space) thanks to verbal relationships analysis. In fact, we develop a computerized process flow in order to extract, to interpret and to validate NE of type space in textual documents. This research work is completed by the analyze of verbal relationships linked to these EN which could enrich our ontology.","Named Entity, ontology, verbal relations, language patterns"],"keyphrases":["ontologie","Entit\u00e9 nomm\u00e9e","relations verbales","patrons linguistiques"],"prmu":["P","P","P","U"]} {"id":"taln-2010-long-019","title":"Classification du genre vid\u00e9o reposant sur des transcriptions automatiques","abstract":"Dans cet article nous proposons une nouvelle m\u00e9thode pour l\u2019identification du genre vid\u00e9o qui repose sur une analyse de leur contenu linguistique. Cette approche consiste en l\u2019analyse des mots apparaissant dans les transcriptions des pistes audio des vid\u00e9os, obtenues \u00e0 l\u2019aide d\u2019un syst\u00e8me de reconnaissance automatique de la parole. Les exp\u00e9riences sont r\u00e9alis\u00e9es sur un corpus compos\u00e9 de dessins anim\u00e9s, de films, de journaux t\u00e9l\u00e9vis\u00e9s, de publicit\u00e9s, de documentaires, d\u2019\u00e9missions de sport et de clips de musique. L\u2019approche propos\u00e9e permet d\u2019obtenir un taux de bonne classification de 74% sur cette t\u00e2che. En combinant cette approche avec des m\u00e9thodes reposant sur des param\u00e8tres acoustiques bas-niveau, nous obtenons un taux de bonne classification de 95%.","translation":["","In this paper, we present a new method for video genre identification based on the linguistic content analysis. This approach relies on the analysis of the words in the video transcriptions provided by an automatic speech recognition system. Experiments are conducted on a corpus composed of cartoons, movies, news, commercials, documentary, sport and music. On this 7-genre identification task, the proposed transcription-based method obtains up to 74% of correct identification. Finally, this rate is increased to 95% by combining the proposed linguistic-level features with low-level acoustic features.","video genre classification, audio-based video processing, linguistic feature extraction"],"keyphrases":["classification de genre vid\u00e9o","traitement audio de la vid\u00e9o","extraction de param\u00e8tres linguistiques"],"prmu":["R","M","M"]} {"id":"taln-2010-long-020","title":"Reconnaissance robuste d\u2019entit\u00e9s nomm\u00e9es sur de la parole transcrite automatiquement","abstract":"Les transcriptions automatiques de parole constituent une ressource importante, mais souvent bruit\u00e9e, pour d\u00e9crire des documents multim\u00e9dia contenant de la parole (e.g. journaux t\u00e9l\u00e9vis\u00e9s). En vue d\u2019am\u00e9liorer la recherche documentaire, une \u00e9tape d\u2019extraction d\u2019information \u00e0 caract\u00e8re s\u00e9mantique, pr\u00e9c\u00e9dant l\u2019indexation, permet de faire face au probl\u00e8me des transcriptions imparfaites. Parmis ces contenus informatifs, on compte les entit\u00e9s nomm\u00e9es (e.g. noms de personnes) dont l\u2019extraction est l\u2019objet de ce travail. Les m\u00e9thodes traditionnelles de reconnaissance bas\u00e9es sur une d\u00e9finition manuelle de grammaires formelles donnent de bons r\u00e9sultats sur du texte ou des transcriptions propres manuellement produites, mais leurs performances se trouvent fortement affect\u00e9es lorsqu\u2019elles sont appliqu\u00e9es sur des transcriptions automatiques. Nous pr\u00e9sentons, ici, trois m\u00e9thodes pour la reconnaissance d\u2019entit\u00e9s nomm\u00e9es bas\u00e9es sur des algorithmes d\u2019apprentissage automatique : les champs conditionnels al\u00e9atoires, les machines \u00e0 de support, et les transducteurs \u00e0 \u00e9tats finis. Nous pr\u00e9sentons \u00e9galement une m\u00e9thode pour rendre consistantes les donn\u00e9es d\u2019entrainement lorsqu\u2019elles sont annot\u00e9es suivant des conventions l\u00e9g\u00e8rement diff\u00e9rentes. Les r\u00e9sultats montrent que les syst\u00e8mes d\u2019\u00e9tiquetage obtenus sont parmi les plus robustes sur les donn\u00e9es d\u2019\u00e9valuation de la campagne ESTER 2 dans les conditions o\u00f9 la transcription automatique est particuli\u00e8rement bruit\u00e9e.","translation":["","Automatic speech transcripts are an important, but noisy, ressource to index spoken multimedia documents (e.g. broadcast news). In order to improve both indexation and information retrieval, extracting semantic information from these erroneous transcripts is an interesting challenge. Among these meaningful contents, there are named entities (e.g. names of persons) which are the subject of this work. Traditional named entity taggers are based on manual and formal grammars. They obtain correct performance on text or clean manual speech transcripts, but they have a lack of robustness when applied on automatic transcripts. We are introducing, in this work, three methods for named entity recognition based on machine learning algorithms, namely conditional random fields, support vector machines, and finitestate transducers. We are also introducing a method to make consistant the training data when they are annotated with slightly different conventions. We show that our tagger systems are among the most robust when applied to the evaluation data of the French ESTER 2 campaign in the most difficult conditions where transcripts are particularly noisy.","named entity tagger, automatic speech recognition transcripts, machine learning, conditionnal random fields, support vector machines, finite-state transducers"],"keyphrases":["transcription automatique de parole","apprentissage automatique","champs conditionnels al\u00e9atoires","transducteurs \u00e0 \u00e9tats finis","\u00e9tiqueteur d\u2019entit\u00e9s nomm\u00e9es","machines \u00e0 vecteurs de support"],"prmu":["P","P","P","P","M","M"]} {"id":"taln-2010-long-021","title":"Traitement des disfluences dans le cadre de la compr\u00e9hension automatique de l\u2019oral arabe spontan\u00e9","abstract":"Les disfluences inh\u00e9rents de toute parole spontan\u00e9e sont un vrai d\u00e9fi pour les syst\u00e8mes de compr\u00e9hension de la parole. Ainsi, nous proposons dans cet article, une m\u00e9thode originale pour le traitement des disfluences (plus pr\u00e9cis\u00e9ment, les autocorrections, les r\u00e9p\u00e9titions, les h\u00e9sitations et les amorces) dans le cadre de la compr\u00e9hension automatique de l\u2019oral arabe spontan\u00e9. Notre m\u00e9thode est bas\u00e9e sur une analyse \u00e0 la fois robuste et partielle, des \u00e9nonc\u00e9s oraux arabes. L\u2019id\u00e9e consiste \u00e0 combiner une technique de reconnaissance de patrons avec une analyse s\u00e9mantique superficielle par segments conceptuels. Cette m\u00e9thode a \u00e9t\u00e9 test\u00e9e \u00e0 travers le module de compr\u00e9hension du syst\u00e8me SARF, un serveur vocal interactif offrant des renseignements sur le transport ferroviaire tunisien (Bahou et al., 2008). Les r\u00e9sultats d\u2019\u00e9valuation de ce module montrent que la m\u00e9thode propos\u00e9e est tr\u00e8s prometteuse. En effet, les mesures de rappel, de pr\u00e9cision et de F-Measure sont respectivement de 79.23%, 74.09% et 76.57%.","translation":["","The disfluencies inherent in spontaneous speaking are a real challenge for speech understanding systems. Thus, we propose in this paper, an original method for processing disfluencies (more precisely, self-corrections, repetitions, hesitations and word-fragments) in the context of automatic spontaneous Arabic speech understanding. Our method is based on a robust and partial analysis of Arabic oral utterances. The main idea is to combine a pattern matching technique and a surface semantic analysis with conceptual segments. This method has been evaluated through the understanding module of SARF system, an interactive vocal server offering Tunisian railway information (Bahou et al., 2008). The evaluation results of this module show that the proposed method is very promising. Indeed, the measures of recall, precision and F-Measure are respectively 79.23%, 74.09% and 76.57%.","disfluencies, conceptual segment, pattern matching, spontaneous Arabic speech"],"keyphrases":["disfluences","reconnaissance de patrons","segment conceptuel","parole arabe spontan\u00e9e"],"prmu":["P","P","P","R"]} {"id":"taln-2010-long-022","title":"Utilisation de relations s\u00e9mantiques pour am\u00e9liorer la segmentation th\u00e9matique de documents t\u00e9l\u00e9visuels","abstract":"Les m\u00e9thodes de segmentation th\u00e9matique exploitant une mesure de la coh\u00e9sion lexicale peuvent \u00eatre appliqu\u00e9es telles quelles \u00e0 des transcriptions automatiques de programmes t\u00e9l\u00e9visuels. Cependant, elles sont moins efficaces dans ce contexte, ne prenant en compte ni les particularit\u00e9s des \u00e9missions TV, ni celles des transcriptions. Nous \u00e9tudions ici l\u2019apport de relations s\u00e9mantiques pour rendre les techniques de segmentation th\u00e9matique plus robustes. Nous proposons une m\u00e9thode pour exploiter ces relations dans une mesure de la coh\u00e9sion lexicale et montrons qu\u2019elles permettent d\u2019augmenter la F1-mesure de +1.97 et +11.83 sur deux corpus compos\u00e9s respectivement de 40h de journaux t\u00e9l\u00e9vis\u00e9s et de 40h d\u2019\u00e9missions de reportage. Ces am\u00e9liorations d\u00e9montrent que les relations s\u00e9mantiques peuvent rendre les m\u00e9thodes de segmentation moins sensibles aux erreurs de transcription et au manque de r\u00e9p\u00e9titions constat\u00e9 dans certaines \u00e9missions t\u00e9l\u00e9vis\u00e9es.","translation":["","Topic segmentation methods based on a measure of the lexical cohesion can be applied as is to automatic transcripts of TV programs. However, these methods are less effective in this context as neither the specificities of TV contents, nor those of automatic transcripts are considered. The aim of this paper is to study the use of semantic relations to make segmentation techniques more robust.We propose a method to account for semantic relations in a measure of the lexical cohesion.We show that such relations increase the F1-measure by +1.97 and +11.83 for two data sets consisting of respectively 40h of news and 40h of longer reports on current affairs. These results demonstrate that semantic relations can make segmentation methods less sensitive to transcription errors or to the lack of repetitions in some television programs.","Topic segmentation, spoken document, lexical cohesion, semantic relations"],"keyphrases":["relations s\u00e9mantiques","Segmentation th\u00e9matique","coh\u00e9sion lexicale","documents oraux"],"prmu":["P","P","P","M"]} {"id":"taln-2010-long-023","title":"Une \u00e9valuation de l\u2019impact des types de textes sur la t\u00e2che de segmentation th\u00e9matique","abstract":"Cette \u00e9tude a pour but de contribuer \u00e0 la d\u00e9finition des objectifs de la segmentation th\u00e9matique (ST), en incitant \u00e0 prendre en consid\u00e9ration le param\u00e8tre du type de textes dans cette t\u00e2che. Notre hypoth\u00e8se est que, si la ST est certes pertinente pour traiter certains textes dont l\u2019organisation est bien th\u00e9matique, elle n\u2019est pas adapt\u00e9e \u00e0 la prise en compte d\u2019autres modes d\u2019organisation (temporelle, rh\u00e9torique), et ne peut pas \u00eatre appliqu\u00e9e sans pr\u00e9caution \u00e0 des textes tout-venants. En comparant les performances d\u2019un syst\u00e8me de ST sur deux corpus, \u00e0 organisation th\u00e9matique \"forte\" et \"faible\", nous montrons que cette t\u00e2che est effectivement sensible \u00e0 la nature des textes.","translation":["","This paper aims to contribute to a better definition of the requirements of the text segmentation task, by stressing the need for taking into account the types of texts that can be appropriately considered. Our hypothesis is that while TS is indeed relevant to analyse texts with a thematic organisation, this task is ill-fitted to deal with other modes of text organisation (temporal, rhetorical, etc.). By comparing the performance of a TS system on two corpora, with either a \"strong\" or a \"weak\" thematic organisation, we show that TS is sensitive to text types.","Text segmentation, textual organisation, lexical cohesion, distributional neighbours"],"keyphrases":["Segmentation th\u00e9matique","organisation textuelle","coh\u00e9sion lexicale","voisins distributionnels"],"prmu":["P","M","U","U"]} {"id":"taln-2010-long-024","title":"Utilisation d\u2019indices temporels pour la segmentation \u00e9v\u00e9nementielle de textes","abstract":"Dans le domaine de l\u2019Extraction d\u2019Information, une place importante est faite \u00e0 l\u2019extraction d\u2019\u00e9v\u00e9nements dans des d\u00e9p\u00eaches d\u2019actualit\u00e9, particuli\u00e8rement justifi\u00e9e dans le contexte d\u2019applications de veille. Or il est fr\u00e9quent qu\u2019une d\u00e9p\u00eache d\u2019actualit\u00e9 \u00e9voque plusieurs \u00e9v\u00e9nements de m\u00eame nature pour les comparer. Nous proposons dans cet article d\u2019\u00e9tudier des m\u00e9thodes pour segmenter les textes en s\u00e9parant les \u00e9v\u00e9nements, dans le but de faciliter le rattachement des informations pertinentes \u00e0 l\u2019\u00e9v\u00e9nement principal. L\u2019id\u00e9e est d\u2019utiliser des mod\u00e8les d\u2019apprentissage statistique exploitant les marqueurs temporels pr\u00e9sents dans les textes pour faire cette segmentation. Nous pr\u00e9sentons plus pr\u00e9cis\u00e9ment deux mod\u00e8les (HMM et CRF) entra\u00een\u00e9s pour cette t\u00e2che et, en faisant une \u00e9valuation de ces mod\u00e8les sur un corpus de d\u00e9p\u00eaches traitant d\u2019\u00e9v\u00e9nements sismiques, nous montrons que les m\u00e9thodes propos\u00e9es permettent d\u2019obtenir des r\u00e9sultats au moins aussi bons que ceux d\u2019une approche ad hoc, avec une approche beaucoup plus g\u00e9n\u00e9rique.","translation":["","One of the early application of Information Extraction, motivated by the needs for intelligence tools, is the detection of events in news articles. But this detection may be difficult when news articles mention several occurrences of events of the same kind, which is often done for comparison purposes. We propose in this article new approaches to segment the text of news articles in units relative to only one event, in order to help the identification of relevant information associated to the main event of the news. We present two approaches that use statistical machine learning models (HMM and CRF) exploiting temporal information extracted from the texts as a basis for this segmentation. The evaluation of these approaches in the domain of seismic events show that with a robust and generic approach, we can achieve results at least as good as results obtained with an ad hoc approach.","Information extraction, event extraction, text segmentation, temporal cues, statistical machine learning"],"keyphrases":["indices temporels","Extraction d\u2019information","extraction d\u2019\u00e9v\u00e9nements","apprentissage statistique","segmentation de textes"],"prmu":["P","P","P","P","R"]} {"id":"taln-2010-long-025","title":"\u00c9valuation automatique de r\u00e9sum\u00e9s avec et sans r\u00e9f\u00e9rence","abstract":"Nous \u00e9tudions diff\u00e9rentes m\u00e9thodes d\u2019\u00e9valuation de r\u00e9sum\u00e9 de documents bas\u00e9es sur le contenu. Nous nous int\u00e9ressons en particulier \u00e0 la corr\u00e9lation entre les mesures d\u2019\u00e9valuation avec et sans r\u00e9f\u00e9rence humaine. Nous avons d\u00e9velopp\u00e9 FRESA, un nouveau syst\u00e8me d\u2019\u00e9valuation fond\u00e9 sur le contenu qui calcule les divergences entre les distributions de probabilit\u00e9. Nous appliquons notre syst\u00e8me de comparaison aux diverses mesures d\u2019\u00e9valuation bien connues en r\u00e9sum\u00e9 de texte telles que la Couverture, Responsiveness, Pyramids et Rouge en \u00e9tudiant leurs associations dans les t\u00e2ches du r\u00e9sum\u00e9 multi-document g\u00e9n\u00e9rique (francais\/anglais), focalis\u00e9 (anglais) et r\u00e9sum\u00e9 mono-document g\u00e9n\u00e9rique (fran\u00e7ais\/espagnol).","translation":["","We study document-summary content-based evaluation methods in text summarization and we investigate the correlation among evaluation measures with and without human models. We apply our comparison framework to various well-established content-based evaluation measures in text summarization such as Coverage, Responsiveness, Pyramids and Rouge studying their associations in various text summarization tasks including generic (English\/French) and focus-based (English) multi-document summarization and generic multi and single-document summarization (French\/Spanish). The research is carried out using the new content-based evaluation framework FRESA to compute the divergences among probability distributions.","Evaluation measures, Text Automatic Summarization"],"keyphrases":["Mesures d\u2019\u00e9valuation","R\u00e9sum\u00e9 automatique de textes"],"prmu":["P","R"]} {"id":"taln-2010-long-026","title":"Jusqu\u2019o\u00f9 peut-on aller avec les m\u00e9thodes par extraction pour la r\u00e9daction de r\u00e9sum\u00e9s?","abstract":"La majorit\u00e9 des syst\u00e8mes de r\u00e9sum\u00e9s automatiques sont bas\u00e9s sur l\u2019extraction de phrases, or on les compare le plus souvent avec des r\u00e9sum\u00e9s r\u00e9dig\u00e9s manuellement par abstraction. Nous avons men\u00e9 une exp\u00e9rience dans le but d\u2019\u00e9tablir une limite sup\u00e9rieure aux performances auxquelles nous pouvons nous attendre avec une approche par extraction. Cinq r\u00e9sumeurs humains ont compos\u00e9 88 r\u00e9sum\u00e9s de moins de 100 mots, en extrayant uniquement des phrases pr\u00e9sentes int\u00e9gralement dans les documents d\u2019entr\u00e9e. Les r\u00e9sum\u00e9s ont \u00e9t\u00e9 not\u00e9s sur la base de leur contenu, de leur niveau linguistique et de leur qualit\u00e9 globale par les \u00e9valuateurs de NIST dans le cadre de la comp\u00e9tition TAC 2009. Ces r\u00e9sum\u00e9s ont obtenus de meilleurs scores que l\u2019ensemble des 52 syst\u00e8mes automatiques participant \u00e0 la comp\u00e9tition, mais de nettement moins bons que ceux obtenus par les r\u00e9sumeurs humains pouvant formuler les phrases de leur choix dans le r\u00e9sum\u00e9. Ce grand \u00e9cart montre l\u2019insuffisance des m\u00e9thodes par extraction pure.","translation":["","The majority of automatic summarization systems are based on sentence extraction, whereas they are usually compared with human-written, abstractive summaries. We have thus conducted an experiment to establish an upper bound on the expected performance of extractive summarization. 5 human summarizers completed 88 summaries of no more than 100 words from unedited sentences of the source documents. The summaries were scored based on their content, linguistic quality and overall responsiveness by NIST annotators in the context of the TAC 2009 competition. The human extracts received better scores than all of the 52 participating automatic systems, but much lower scores than those obtained by human summarizers free to use abstraction. This large gap shows that pure extraction methods are insufficient for summarization.","Automatic summarization, extractive summarization, manual summarization"],"keyphrases":["R\u00e9sum\u00e9s automatiques","r\u00e9sum\u00e9s par extraction","r\u00e9sum\u00e9s manuels"],"prmu":["P","R","R"]} {"id":"taln-2010-long-027","title":"Comment formule-t-on une r\u00e9ponse en langue naturelle ?","abstract":"Cet article pr\u00e9sente l\u2019\u00e9tude d\u2019un corpus de r\u00e9ponses formul\u00e9es par des humains \u00e0 des questions factuelles. Des observations qualitatives et quantitatives sur la reprise d\u2019\u00e9l\u00e9ments de la question dans les r\u00e9ponses sont expos\u00e9es. La notion d\u2019information-r\u00e9ponse est introduite et une \u00e9tude de la pr\u00e9sence de cet \u00e9l\u00e9ment dans le corpus est propos\u00e9e. Enfin, les formulations des r\u00e9ponses sont \u00e9tudi\u00e9es.","translation":["","This paper presents the study of a corpus of human answers to factual questions. Observations of how and how much question elements are used in the answer are done. We define the concept of \u201cinformation-answer\u201d and study its presence in the corpus. Finally, answer formulations are shown.","question-answering systems, linguistics variations, natural language answer, oral and written"],"keyphrases":["r\u00e9ponse en langue naturelle","syst\u00e8mes de r\u00e9ponse \u00e0 une question","variations linguistiques","oral et \u00e9crit"],"prmu":["P","M","U","M"]} {"id":"taln-2010-long-028","title":"Apprentissage non supervis\u00e9 pour la traduction automatique : application \u00e0 un couple de langues peu dot\u00e9","abstract":"Cet article pr\u00e9sente une m\u00e9thode non-supervis\u00e9e pour extraire des paires de phrases parall\u00e8les \u00e0 partir d\u2019un corpus comparable. Un syst\u00e8me de traduction automatique est utilis\u00e9 pour exploiter le corpus comparable et d\u00e9tecter les paires de phrases parall\u00e8les. Un processus it\u00e9ratif est ex\u00e9cut\u00e9 non seulement pour augmenter le nombre de paires de phrases parall\u00e8les extraites, mais aussi pour am\u00e9liorer la qualit\u00e9 globale du syst\u00e8me de traduction. Une comparaison avec une m\u00e9thode semi-supervis\u00e9e est pr\u00e9sent\u00e9e \u00e9galement. Les exp\u00e9riences montrent que la m\u00e9thode non-supervis\u00e9e peut \u00eatre r\u00e9ellement appliqu\u00e9e dans le cas o\u00f9 on manque de donn\u00e9es parall\u00e8les. Bien que les exp\u00e9riences pr\u00e9liminaires soient men\u00e9es sur la traduction fran\u00e7ais-anglais, cette m\u00e9thode non-supervis\u00e9e est \u00e9galement appliqu\u00e9e avec succ\u00e8s \u00e0 un couple de langues peu dot\u00e9 : vietnamien-fran\u00e7ais.","translation":["","This paper presents an unsupervised method for extracting parallel sentence pairs from a comparable corpus. A translation system is used to mine and detect the parallel sentence pairs from the comparable corpus. An iterative process is implemented not only to increase the number of extracted parallel sentence pairs but also to improve the overall quality of the translation system. A comparison between this unsupervised method and a semi-supervised method is also presented. The experiments conducted show that the unsupervised method can be really applied in cases where parallel data are not available. While preliminary experiments are conducted on French-English translation, this unsupervised method is also applied successfully to a low e-resourced language pair (Vietnamese-French).","unsupervised training, machine translation, comparable corpus, parallel sentence pairs"],"keyphrases":["paires de phrases parall\u00e8les","corpus comparable","syst\u00e8me de traduction automatique","apprentissage non-supervis\u00e9"],"prmu":["P","P","P","R"]} {"id":"taln-2010-long-031","title":"Du TAL au TIL","abstract":"Historiquement deux types de traitement de la langue ont \u00e9t\u00e9 \u00e9tudi\u00e9s: le traitement par le cerveau (approche psycholinguistique) et le traitement par la machine (approche TAL). Nous pensons qu\u2019il y a place pour un troisi\u00e8me type: le traitement interactif de la langue (TIL), l\u2019ordinateur assistant le cerveau. Ceci correspond \u00e0 un besoin r\u00e9el dans la mesure o\u00f9 les gens n\u2019ont souvent que des connaissances partielles par rapport au probl\u00e8me \u00e0 r\u00e9soudre. Le but du TIL est de construire des ponts entre ces connaissances momentan\u00e9es d\u2019un utilisateur et la solution recherch\u00e9e. \u00c0 l'aide de quelques exemples, nous essayons de montrer que ceci est non seulement faisable et souhaitable, mais \u00e9galement d\u2019un co\u00fbt tr\u00e8s raisonnable.","translation":["","Historically two types of NLP have been investigated: fully automated processing of language by machines (NLP) and autonomous processing of natural language by people, i.e. the human brain (psycholinguistics). We believe that there is room and need for another kind, INLP: interactive natural language processing. This intermediate approach starts from peoples\u2019 needs, trying to bridge the gap between their actual knowledge and a given goal. Given the fact that peoples\u2019 knowledge is variable and often incomplete, the aim is to build bridges linking a given knowledge state to a given goal. We present some examples, trying to show that this goal is worth pursuing, achievable and at a reasonable cost.","interactive NLP (INLP), user interaction, tools for NLP, language learning, dictionaries, phrase books, concordancers, translation"],"keyphrases":["traitement interactif de la langue","prise en compte de l'usager","outils de traitement de la langue","apprentissage des langues","dictionnaires","livres de phrases","concordanciers","traduction"],"prmu":["P","M","M","M","U","M","U","U"]} {"id":"taln-2010-long-032","title":"Restrictions de s\u00e9lection et r\u00e9alisations syntagmatiques dans DICOVALENCE Conversion vers un format utilisable en TAL","abstract":"Cet article d\u00e9crit des modifications du dictionnaire de valence des verbes du fran\u00e7ais DICOVALENCE qui visent \u00e0 le rendre neutre par rapport aux mod\u00e8les syntaxiques, \u00e0 expliciter certaines informations sur le cadre de sous-cat\u00e9gorisation et \u00e0 le rendre ainsi directement utilisable en TAL. Les informations explicit\u00e9es sont les suivantes : (a) les fonctions syntaxiques des arguments verbaux, (b) les restrictions de s\u00e9lection portant sur ces arguments et (c) leurs r\u00e9alisations syntagmatiques possibles. Les restrictions sont exprim\u00e9es \u00e0 l\u2019aide de traits s\u00e9mantiques. L\u2019article d\u00e9crit aussi le calcul de ces traits s\u00e9mantiques \u00e0 partir des paradigmes des pronoms (et d\u2019\u00e9l\u00e9ments similaires) associ\u00e9s aux arguments. On obtient un format ind\u00e9pendant du mod\u00e8le syntaxique, dont l\u2019interpr\u00e9tation est transparente.","translation":["","This paper describes modifications to the verbal valency dictionary for French, known as DICOVALENCE, in order to obtain a theory-independent syntactic lexicon, to make explicit certain information about the slots in the valency frame, to facilitate the use of the lexicon in natural language processing. The modifications make explicit the following aspects: (a) the syntactic function of the slots, (b) the selection restrictions on these verbal arguments, (c) their possible phrasal realizations. Selection restrictions are expressed using semantic features. The article describes how these features are obtained from the paradigms of pronouns (and similar elements) associated with the valency slots. This results in a format which is theoryindependent, with a transparent interpretation.","lexical databases, selection restrictions, semantic features"],"keyphrases":["restrictions de s\u00e9lection","traits s\u00e9mantiques","lexiques syntaxiques"],"prmu":["P","P","M"]} {"id":"taln-2010-long-033","title":"Recherche contextuelle d\u2019\u00e9quivalents en banque de terminologie","abstract":"Notre recherche d\u00e9montre que l\u2019utilisation du contenu d\u2019un texte \u00e0 traduire permet de mieux cibler dans une banque de terminologie les \u00e9quivalents terminologiques pertinents \u00e0 ce texte. Une banque de terminologie a comme particularit\u00e9 qu\u2019elle cat\u00e9gorise ses entr\u00e9es (fiches) en leur assignant un ou des domaines provenant d\u2019une liste de domaines pr\u00e9\u00e9tablie. La strat\u00e9gie ici pr\u00e9sent\u00e9e repose sur l\u2019utilisation de cette information sur les domaines. Un algorithme a \u00e9t\u00e9 d\u00e9velopp\u00e9 pour l\u2019assignation automatique d\u2019un profil de domaines \u00e0 un texte. Celui-ci est combin\u00e9 \u00e0 un algorithme d\u2019appariement entre les domaines d\u2019un terme pr\u00e9sent dans la banque de terminologie et le profil de domaines du texte. Pour notre exp\u00e9rimentation, des r\u00e9sum\u00e9s bilingues (fran\u00e7ais et anglais) provenant de huit revues scientifiques nous fournissent un ensemble de 1130 paires d\u2019\u00e9quivalents terminologiques et le Grand Dictionnaire Terminologique (Office Qu\u00e9b\u00e9cois de la Langue Fran\u00e7aise) nous sert de ressource terminologique. Sur notre ensemble, nous d\u00e9montrons une r\u00e9duction de 75% du rang moyen de l\u2019\u00e9quivalent correct en comparaison avec un choix au hasard.","translation":["","Our research shows the usefulness of taking into account the context of a term within a text to be translated to better find an appropriate term equivalent for it in a term bank. A term bank has the particularity of categorising its records by assigning them one or more domains from a pre-established list of domains. The strategy presented here uses this domain information. An algorithm has been developed to automatically assign a domain profile to a source text. It is then combined with another algorithm which finds a match between a term\u2019s domains (as found in the term bank) and the text\u2019s domain profile. For our experimentation, bilingual abstracts (French-English) from eight scientific journals provide 1130 pairs of term equivalents. The Grand Dictionnaire Terminologique (Office Qu\u00e9b\u00e9cois de la Langue Fran\u00e7aise) is used as a terminological ressource. On our data set, we show a reduction of 75% in the average rank of the correct equivalent, in comparison to a random choice.","contextual search, term equivalents, term bank, domain-based disambiguation"],"keyphrases":["recherche contextuelle","banque de terminologie","\u00e9quivalents terminologiques","d\u00e9sambigu\u00efsation par domaine"],"prmu":["P","P","P","M"]} {"id":"taln-2010-long-034","title":"R\u00e9\u00e9criture de graphes de d\u00e9pendances pour l\u2019interface syntaxe-s\u00e9mantique","abstract":"Nous d\u00e9finissons le beta-calcul, un calcul de r\u00e9\u00e9criture de graphes, que nous proposons d\u2019utiliser pour \u00e9tudier les liens entre diff\u00e9rentes repr\u00e9sentations linguistiques. Nous montrons comment transformer une analyse syntaxique en une repr\u00e9sentation s\u00e9mantique par la composition de deux jeux de r\u00e8gles de beta-calcul. Le premier souligne l\u2019importance de certaines informations syntaxiques pour le calcul de la s\u00e9mantique et explicite le lien entre syntaxe et s\u00e9mantique sous-sp\u00e9cifi\u00e9e. Le second d\u00e9compose la recherche de mod\u00e8les pour les repr\u00e9sentations s\u00e9mantiques sous-sp\u00e9cifi\u00e9es.","translation":["","We define the beta-calculus, a graph-rewriting calculus, which we propose to use to study the links between different linguistic representations. We show how to transform a syntactic analysis into a semantic analysis via the composition of two sets of beta-calculus rules. The first one underlines the importance of some syntactic information to compute the semantics and clearly expresses the link between syntax and underspecified semantics. The second one breaks up the search for models of underspecified semantic representations.","Dependencies, graph rewriting, syntax-semantics interface, DMRS"],"keyphrases":["r\u00e9\u00e9criture de graphes","D\u00e9pendances","interface syntaxe-s\u00e9mantique","DMRS"],"prmu":["P","P","P","U"]} {"id":"taln-2010-long-035","title":"\u00c9valuer des annotations manuelles dispers\u00e9es : les coefficients sont-ils suffisants pour estimer l\u2019accord inter-annotateurs ?","abstract":"L\u2019objectif des travaux pr\u00e9sent\u00e9s dans cet article est l\u2019\u00e9valuation de la qualit\u00e9 d\u2019annotations manuelles de relations de renommage de g\u00e8nes dans des r\u00e9sum\u00e9s scientifiques, annotations qui pr\u00e9sentent la caract\u00e9ristique d\u2019\u00eatre tr\u00e8s dispers\u00e9es. Pour cela, nous avons calcul\u00e9 et compar\u00e9 les coefficients les plus commun\u00e9ment utilis\u00e9s, entre autres kappa (Cohen, 1960) et pi (Scott, 1955), et avons analys\u00e9 dans quelle mesure ils sont adapt\u00e9s \u00e0 nos donn\u00e9es. Nous avons \u00e9galement \u00e9tudi\u00e9 les diff\u00e9rentes pond\u00e9rations applicables \u00e0 ces coefficients permettant de calculer le kappa pond\u00e9r\u00e9 (Cohen, 1968) et l\u2019alpha (Krippendorff, 1980, 2004). Nous avons ainsi \u00e9tudi\u00e9 le biais induit par la grande pr\u00e9valence d\u2019une cat\u00e9gorie et d\u00e9fini un mode de calcul des distances entre cat\u00e9gories reposant sur les annotations r\u00e9alis\u00e9es.","translation":["","This article details work aiming at evaluating the quality of the manual annotation of gene renaming relations in scientific abstracts, which generates sparse annotations. To evaluate these annotations, we computed and compared the results obtained using the commonly advocated inter-annotator agreement coefficients such as kappa (Cohen, 1960) or pi (Scott, 1955) and analyzed to which extent they are relevant for our data.We also studied the different weighting computations applicable to kappa! (Cohen, 1968) and alpha (Krippendorff, 1980, 2004) and estimated the bias introduced by prevalence. We then define a way to compute distances between categories based on the produced annotations.","Manual annotation, evaluation, inter-annotator agreement"],"keyphrases":["\u00e9valuation","Annotation manuelle","accord inter-annotateurs"],"prmu":["P","P","P"]} {"id":"taln-2010-long-037","title":"Extraction semi-automatique d\u2019un vocabulaire savant de base pour l\u2019indexation automatique","abstract":"Le projet d\u00e9crit vise \u00e0 soutenir les efforts de constitution de ressources lexicales utiles \u00e0 l\u2019indexation automatique. Un type de vocabulaire utile \u00e0 l\u2019indexation est d\u00e9fini, le vocabulaire savant de base, qui peut s\u2019articuler avec le vocabulaire sp\u00e9cialis\u00e9 pour constituer des entr\u00e9es d\u2019index structur\u00e9es. On pr\u00e9sente les r\u00e9sultats d\u2019 une exp\u00e9rimentation d\u2019 extraction (semi-)automatique des mots du vocabulaire savant de base \u00e0 partir d\u2019un corpus cibl\u00e9, constitu\u00e9 de r\u00e9sum\u00e9s d\u2019articles scientifiques en franc\u0327ais et en anglais. La t\u00e2che d\u2019extraction a r\u00e9ussi \u00e0 doubler une liste originale constitu\u00e9e manuellement pour le fran\u00e7ais. La comparaison est \u00e9tablie avec une exp\u00e9rimentation similaire effectu\u00e9e pour l\u2019anglais sur un corpus plus grand et contenant des r\u00e9sum\u00e9s d\u2019articles non seulement en sciences pures mais aussi en sciences humaines et sociales.","translation":["","This project aims to help develop lexical resources useful for automatic indexing. A type of useful vocabulary for indexing is defined, the basic scholarly vocabulary, which can combine with specialized vocabulary items to form evocative, structured index entries. The article presents the results of an experiment of (semi-)automatic extraction of the basic scholarly vocabulary lexical items from a large corpus. The corpus is especially suited to the task; it consists of abstracts of scientific articles in French and English. The extraction task was successful in doubling the size of a previously manually compiled list. A comparison is made with a similar experiment conducted for English on a larger corpus which also contained summaries of articles in the humanities and social sciences.","vocabulary classes, automatic indexing, automatic extraction, corpus, corpus-based approach, basic scholarly vocabulary, lexical resources, French"],"keyphrases":["vocabulaire savant de base","indexation automatique","ressources lexicales","corpus","fran\u00e7ais","classes de vocabulaire","extraction automatique","approche bas\u00e9e sur les corpus"],"prmu":["P","P","P","P","P","M","R","M"]} {"id":"taln-2010-long-038","title":"Apprentissage non supervis\u00e9 de la morphologie d\u2019une langue par g\u00e9n\u00e9ralisation de relations analogiques","abstract":"Bien que les approches fond\u00e9es sur la th\u00e9orie de l\u2019information sont pr\u00e9dominantes dans le domaine de l\u2019analyse morphologique non supervis\u00e9e, depuis quelques ann\u00e9es, d\u2019autres approches ont gagn\u00e9 en popularit\u00e9, dont celles bas\u00e9es sur l\u2019analogie formelle. Cette derni\u00e8re reste tout de m\u00eame marginale due notamment \u00e0 son co\u00fbt de calcul \u00e9lev\u00e9. Dans cet article, nous proposons un algorithme bas\u00e9 sur l\u2019analogie formelle capable de traiter les lexiques volumineux. Nous introduisons pour cela le concept de r\u00e8gle de cofacteur qui permet de g\u00e9n\u00e9raliser l\u2019information captur\u00e9e par une analogie tout en contr\u00f4lant les temps de traitement. Nous comparons notre syst\u00e8me \u00e0 2 syst\u00e8mes : Morfessor (Creutz & Lagus, 2005), un syst\u00e8me de r\u00e9f\u00e9rence dans de nombreux travaux sur l\u2019analyse morphologique et le syst\u00e8me analogique d\u00e9crit par Langlais (2009). Nous en montrons la sup\u00e9riorit\u00e9 pour 3 des 5 langues \u00e9tudi\u00e9es ici : le finnois, le turc, et l\u2019allemand.","translation":["","Although approaches based on information theory are prominent in the field of unsupervised morphological analysis, in recent years, other approaches have gained in popularity. Those based on formal analogy remain marginal partly because of their high computational cost. In this paper we propose an algorithm based on formal analogy able to handle large lexicons. We introduce the concept of cofactor rule which allows the generalization of the information captured by analogy, while controlling the processing time. We compare our system to 2 others : Morfessor (Creutz & Lagus, 2005), a reference in many studies on morphological analysis and the analogical system described by Langlais (2009). We show the superiority of our approach for 3 out of the 5 languages studied here : Finnish, Turkish, and German.","Unsupervised Learning of Morphology, Formal Analogy, Graph-Based Approach"],"keyphrases":["Analyse morphologique non supervis\u00e9e","Analogie formelle","Approche \u00e0 base de graphe"],"prmu":["P","P","M"]} {"id":"taln-2010-long-039","title":"Analyse morphologique en terminologie biom\u00e9dicale par alignement et apprentissage non-supervis\u00e9","abstract":"Dans le domaine biom\u00e9dical, beaucoup de termes sont des compos\u00e9s savants (compos\u00e9s de plusieurs racines gr\u00e9co-latines). L\u2019\u00e9tude de leur morphologie est importante pour de nombreuses applications puisqu\u2019elle permet de structurer ces termes, de les rechercher efficacement, de les traduire... Dans cet article, nous proposons de suivre une d\u00e9marche originale mais fructueuse pour mener cette analyse morphologique sur des termes simples en fran\u00e7ais, en nous appuyant sur une langue pivot, le japonais, et plus pr\u00e9cis\u00e9ment sur les termes \u00e9crits en kanjis. Pour cela nous avons d\u00e9velopp\u00e9 un algorithme d\u2019alignement de termes sp\u00e9cialement adapt\u00e9 \u00e0 cette t\u00e2che. C\u2019est cet alignement d\u2019un terme fran\u00e7ais avec sa traduction en kanjis qui fournit en m\u00eame temps une d\u00e9composition en morphe et leur \u00e9tiquetage par les kanjis correspondants. \u00c9valu\u00e9 sur un jeu de donn\u00e9es cons\u00e9quent, notre approche obtient une pr\u00e9cision sup\u00e9rieure \u00e0 70% et montrent son bien fond\u00e9 en comparaison avec les techniques existantes. Nous illustrons \u00e9galement l\u2019int\u00e9r\u00eat de notre d\u00e9marche au travers de deux applications directes de ces alignements : la traduction de termes inconnus et la d\u00e9couverte de relations entre morphes pour la tructuration terminologique.","translation":["","In the biomedical domain, many terms are neoclassical compounds (composed of several Greek or Latin roots). The study of their morphology is important for numerous applications since it makes it possible to structure them, retrieve them efficiently, translate them... In this paper, we propose an original yet fruitful approach to carry out this morphological analysis by relying on Japanese, more precisely on terms written in kanjis, as a pivot language. In order to do so, we have developed a specially crafted alignment algorithm. This alignment process of French terms with their kanji-based counterparts provides at the same time a decomposition of the French term into morphs, and a kanji label for each morph. Evaluated on a big dataset, our approach yields a precision greater than 70% and shows its the relevance compared with existing techniques. We also illustrate the validity of our reasoning through two direct applications of the produced alignments: translation of unknown terms and discovering of relationships between morphs for terminological structuring.","Alignment, terminology, morphology, analogy, term translation, kanji"],"keyphrases":["morphologie","terminologie","Alignement","kanji","traduction de terme","analogie"],"prmu":["P","P","P","P","P","U"]} {"id":"taln-2010-long-040","title":"D\u00e9veloppement de ressources pour le persan: lexique morphologique et cha\u00eene de traitements de surface","abstract":"Nous pr\u00e9sentons PerLex, un lexique morphologique du persan \u00e0 large couverture et librement disponible, accompagn\u00e9 d\u2019une cha\u00eene de traitements de surface pour cette langue. Nous d\u00e9crivons quelques caract\u00e9ristiques de la morphologie du persan, et la fa\u00e7on dont nous l\u2019avons repr\u00e9sent\u00e9e dans le formalisme lexical Alexina, sur lequel repose PerLex. Nous insistons sur la m\u00e9thodologie que nous avons employ\u00e9e pour construire les entr\u00e9es lexicales \u00e0 partir de diverses sources, ainsi que sur les probl\u00e8mes li\u00e9s \u00e0 la normalisation typographique. Le lexique obtenu a une couverture satisfaisante sur un corpus de r\u00e9f\u00e9rence, et devrait donc constituer un bon point de d\u00e9part pour le d\u00e9veloppement d\u2019un lexique syntaxique du persan.","translation":["","We introduce PerLex, a large-coverage and freely-available morphological lexicon for the Persian language, as well as a corresponding surface processing chain. We describe the main features of the Persian morphology, and the way we have represented it within the Alexina formalism, on which PerLex is based. We focus on the methodology we used for constructing lexical entries from various sources, as well as on the problems related to typographic normalisation. The resulting lexicon shows a satisfying coverage on a reference corpus and should therefore be a good starting point for developing a syntactic lexicon for the Persian language.","Morphological lexicon, Persian language, Lexical development, Surface processing."],"keyphrases":["Persan","Lexique morphologique","Traitements de surface","D\u00e9veloppement de lexiques"],"prmu":["P","P","P","R"]} {"id":"taln-2010-court-001","title":"Adjectifs relationnels et langue de sp\u00e9cialit\u00e9 : v\u00e9rification d\u2019une hypoth\u00e8se linguistique en corpus comparable m\u00e9dical","abstract":"Cet article pr\u00e9sente une \u00e9tude en corpus comparable m\u00e9dical pour confirmer la pr\u00e9f\u00e9rence d\u2019utilisation des adjectifs relationnels dans les langues de sp\u00e9cialit\u00e9 et examiner plus finement l\u2019alternance entre syntagmes nominaux avec adjectifs relationnels et syntagmes avec compl\u00e9ment pr\u00e9positionnel.","translation":["","This paper presents a study in medical comparable corpora that aims to confirm the preferred use of relational adjectives in specialised languages and to examine in a more fine-grained manner the alternance between phrases with adjective and noun phrases with prepositional complement.","monolingual comparable corpora, constructional morphology, specialised language"],"keyphrases":["langue de sp\u00e9cialit\u00e9","corpus comparables monolingues","morphologie constructionnelle"],"prmu":["P","M","U"]} {"id":"taln-2010-court-002","title":"D\u00e9termination et pond\u00e9ration des raffinements d\u2019un terme \u00e0 partir de son arbre des usages nomm\u00e9s","abstract":"Gr\u00e2ce \u00e0 la participation d\u2019un grand nombre de personnes via des jeux accessibles sur le web, nous avons construit un r\u00e9seau lexical \u00e9volutif de grande taille pour le Fran\u00e7ais. A partir de cette ressource, nous avons abord\u00e9 la question de la d\u00e9termination des sens d\u2019usage d\u2019un terme, puis apr\u00e8s avoir introduit la notion de similarit\u00e9 entre ces diff\u00e9rents usages, nous avons pu obtenir pour un terme son arbre des usages : la racine regroupe tous les usages du terme et une descente dans l\u2019arbre correspond \u00e0 un raffinement de ces usages. Le nommage des diff\u00e9rents noeuds est effectu\u00e9 lors d\u2019une descente en largeur. En simplifiant l\u2019arbre des usages nomm\u00e9s, nous d\u00e9terminons les diff\u00e9rents sens d\u2019un terme, sens que nous introduisons dans le r\u00e9seau lexical en tant que noeuds de raffinement du terme consid\u00e9r\u00e9. Nous terminons par une \u00e9valuation empirique des r\u00e9sultats obtenus.","translation":["","Thanks to the participation of a large number of persons via web-based games, a largesized evolutionary lexical network is available for French. With this resource, we approached the question of the determination of the word usages of a term, and after introducing the notion of similarity between these various word usages, we were able to build for a term its word usage tree: the root groups together all possible usages of this term and a search in the tree corresponds to a refinement of these word usages. The labelling of the various nodes is made during a width-first search. From its labelled word usage tree, we obtain the different meanings of a term, which can be inserted in the lexical network as refinement nodes for this term. Lastly, we present an evaluation of the results we obtain.","lexical network, tree of labelled word usages for a term, weighting of the meanings"],"keyphrases":["r\u00e9seau lexical","arbre des usages nomm\u00e9s d\u2019un terme","pond\u00e9ration des sens d\u2019un terme"],"prmu":["P","R","R"]} {"id":"taln-2010-court-003","title":"L\u2019\u00e9valuation des paraphrases : pour une prise en compte de la t\u00e2che","abstract":"Les d\u00e9finitions des paraphrases privil\u00e9gient g\u00e9n\u00e9ralement la conservation du sens. Cet article d\u00e9montre par l\u2019absurde qu\u2019une \u00e9valuation uniquement bas\u00e9e sur la conservation du sens permet \u00e0 un syst\u00e8me inutile de production de paraphrase d\u2019\u00eatre jug\u00e9 meilleur qu\u2019un syst\u00e8me au niveau de l\u2019\u00e9tat de l\u2019art. La conservation du sens n\u2019est donc pas l\u2019unique crit\u00e8re des paraphrases. Nous exhibons les trois objectifs des paraphrases : la conservation du sens, la naturalit\u00e9 et l\u2019adaptation \u00e0 la t\u00e2che. La production de paraphrase est alors un compromis d\u00e9pendant de la t\u00e2che entre ces trois crit\u00e8res et ceux-ci doivent \u00eatre pris en compte lors des \u00e9valuations.","translation":["","Meaning preservation is generally rooted in the paraphrase definitions. This article proves by reductio ad absurdum that an evaluation based only on the meaning preservation can rank a dummy and useless system better than a state-of-the-art system. Meaning preservation is therefore not the one and only criterion for a paraphrase system. We exhibit the three objectives of paraphrase : meaning preservation, sentence naturalness and adequacy for the task. Paraphrase generation consists actually in reaching a taskdependent compromise between these three criteria, and they have to be taken into account during each evaluation process.","Paraphrase generator, paraphrase evaluation"],"keyphrases":["\u00e9valuation des paraphrases","G\u00e9n\u00e9rateur de paraphrase"],"prmu":["P","M"]} {"id":"taln-2010-court-004","title":"Constitution d'une ressource s\u00e9mantique issue du treillis des cat\u00e9gories de Wikipedia","abstract":"Le travail pr\u00e9sent\u00e9 dans cet article s'inscrit dans le th\u00e8me de l'acquisition automatique de ressources s\u00e9mantiques s'appuyant sur les donn\u00e9es de Wikipedia. Nous exploitons le graphe des cat\u00e9gories associ\u00e9es aux pages de Wikipedia \u00e0 partir duquel nous extrayons une hi\u00e9rarchie de cat\u00e9gories parentes, s\u00e9mantiquement et th\u00e9matiquement li\u00e9es. Cette extraction est le r\u00e9sultat d'une strat\u00e9gie de plus court chemin appliqu\u00e9e au treillis global des cat\u00e9gories. Chaque page peut ainsi \u00eatre repr\u00e9sent\u00e9e dans l'espace de ses cat\u00e9gories propres, ainsi que des cat\u00e9gories parentes. Nous montrons la possibilit\u00e9 d'utiliser cette ressource pour deux applications. La premi\u00e8re concerne l'indexation et la classification des pages de Wikipedia. La seconde concerne la d\u00e9sambigu\u00efsation dans le cadre d'un traducteur de requ\u00eates fran\u00e7ais\/anglais. Ce dernier travail a \u00e9t\u00e9 r\u00e9alis\u00e9 en exploitant les cat\u00e9gories des pages anglaises.","translation":["","This work is closely related to the domain of automatic acquisition of semantic resources exploiting Wikipedia data. More precisely, we exploit the graph of parent categories linked to each Wikipedia page to extract the semantically and thematically related parent categories. This extraction is the result of a shortest path length calculus applied to the global lattice of Wikipedia categories. So, each page can be projected within its first level categories, and in addition their parent categories. This resource has been used for two kinds of applications. The first one concerns the indexation and classification of Wikipedia pages. The second one concerns a disambiguation task applied to a query translator for cross lingual search engine. This last work has been performed by using English categories lattice.","Wikipedia, shortest path, disambiguation, classification, query translation"],"keyphrases":["Wikipedia","plus court chemin","classification","d\u00e9sambigu\u00efsation","traduction de requ\u00eate"],"prmu":["P","P","P","P","M"]} {"id":"taln-2010-court-005","title":"Ponctuations fortes abusives","abstract":"Certaines ponctuations fortes sont \u00ab abusivement \u00bb utilis\u00e9es \u00e0 la place de ponctuations faibles, d\u00e9bouchant sur des phrases graphiques qui ne sont pas des phrases grammaticales. Cet article pr\u00e9sente une \u00e9tude sur corpus de ce ph\u00e9nom\u00e8ne et une \u00e9bauche d\u2019outil pour rep\u00e9rer automatiquement les ponctuations fortes abusives.","translation":["","Some strong punctuation signs are \u201cwrongly\u201d used instead of weak punctuation signs, leading to graphic sentences which are not grammatical sentences. This paper presents a corpus study of this phenomenon and a tool in the early stages to automatically detect wrong strong punctuation signs.","pseudo-sentence, verbless utterance, syntactic and semantic analysis"],"keyphrases":["pseudo-phrase","phrase averbale","analyse syntaxique et s\u00e9mantique"],"prmu":["U","M","M"]} {"id":"taln-2010-court-006","title":"Une \u00e9tude des questions \u201ccomplexes\u201d en question-r\u00e9ponse","abstract":"La plupart des syst\u00e8mes de question-r\u00e9ponse ont \u00e9t\u00e9 con\u00e7us pour r\u00e9pondre \u00e0 des questions dites \u201cfactuelles\u201d (r\u00e9ponses pr\u00e9cises comme des dates, des lieux), et peu se sont int\u00e9ress\u00e9s au traitement des questions complexes. Cet article pr\u00e9sente une typologie des questions en y incluant les questions complexes, ainsi qu\u2019une typologie des formes de r\u00e9ponses attendues pour chaque type de questions. Nous pr\u00e9sentons \u00e9galement des exp\u00e9riences pr\u00e9liminaires utilisant ces typologies pour les questions complexes, avec de bons r\u00e9sultats.","translation":["","Most question-answering systems have been designed to answer \u201cfactual\u201d questions (short and precise answers as dates, locations), and only a few researches concern complex questions. This article presents a typology of questions, including complex questions, as well as a typology of answers that should be expected for each type of questions. We also present preliminary experiments using these typologies for answering complex questions and leading to good results.","Question-answering systems, complex questions"],"keyphrases":["Syst\u00e8me de question-r\u00e9ponse","questions complexes"],"prmu":["P","P"]} {"id":"taln-2010-court-008","title":"Pseudo-racinisation de la langue amazighe","abstract":"Dans le cadre de la promotion de la langue amazighe, nous avons voulu lui apporter des ressources et outils linguistiques pour son traitement automatique et son int\u00e9gration dans le domaine des nouvelles technologies de l'information et de la communication. Partant de ce principe, nous avons opt\u00e9, au sein de l\u2019Institut Royal de la Culture Amazighe, pour une d\u00e9marche innovante de r\u00e9alisations progressives de ressources linguistiques et d\u2019outils de base de traitement automatique, qui permettront de pr\u00e9parer le terrain pour d\u2019\u00e9ventuelles recherches scientifiques. Dans cette perspective, nous avons entrepris de d\u00e9velopper, dans un premier temps, un outil de pseudoracinisation bas\u00e9 sur une approche relevant du cas de la morphologie flexionnelle et reposant sur l\u2019\u00e9limination d\u2019une liste de suffixes et de pr\u00e9fixes de la langue amazighe. Cette approche permettra de regrouper les mots s\u00e9mantiquement proches \u00e0 partir de ressemblances afin d\u2019\u00eatre exploit\u00e9s dans des applications tel que la recherche d\u2019information et la classification.","translation":["","In the context of promoting the Amazigh language, we would like to provide this language with linguistic resources and tools in the aim to enable its automatic processing and its integration in the field of Information and Communication Technology. Thus, we have opted, in the Royal Institute of Amazigh Culture, for an innovative approach of progressive realizations of linguistic resources and basic natural language processing tools that will pave the way for further scientific researches. In this perspective, we are trying initially to develop a light stemmer based on an approach dealing with inflectional morphology, and on stripping a list of Amazigh suffixes and prefixes. This approach will conflate word variants into a common stem that will be used in many applications such as information retrieval and classification.","Amazigh language, Light stemming, Inflectional morphology"],"keyphrases":["Pseudo-racinisation","Langue amazighe","Morphologie flexionnelle"],"prmu":["P","P","P"]} {"id":"taln-2010-court-009","title":"Une approche paresseuse de l\u2019analyse s\u00e9mantique ou comment construire une interface syntaxe-s\u00e9mantique \u00e0 partir d\u2019exemples","abstract":"Cet article montre comment calculer une interface syntaxe-s\u00e9mantique \u00e0 partir d\u2019un analyseur en d\u00e9pendance quelconque et interchangeable, de ressources lexicales vari\u00e9es et d\u2019une base d\u2019exemples associ\u00e9s \u00e0 leur repr\u00e9sentation s\u00e9mantique. Chaque exemple permet de construire une r\u00e8gle d\u2019interface. Nos repr\u00e9sentations s\u00e9mantiques sont des graphes hi\u00e9rarchis\u00e9s de relations pr\u00e9dicat-argument entre des acceptions lexicales et notre interface syntaxe-s\u00e9mantique est une grammaire de correspondance polaris\u00e9e. Nous montrons comment obtenir un syst\u00e8me tr\u00e8s modulaire en calculant certaines r\u00e8gles par \u00ab soustraction \u00bb de r\u00e8gles moins modulaires.","translation":["","This article shows how to extract a syntax-semantics interface starting from an interchangeable dependency parser, various lexical resources and from samples associated with their semantic representations. Each example allows us to build an interface rule. Our semantic representations are hierarchical graphs of predicate-argument relations between lexical meanings and our syntax-semantics interface is a polarized unification grammar. We show how to obtain a very modular system by computing some rules by \u201csubtraction\u201d of less modular rules.","Syntax-semantics Interface, Semantic Graph, Dependency Grammar, PUG (Polarized Unification Grammar), MTUG (Meaning-Text Unification Grammar)"],"keyphrases":["Interface syntaxe-s\u00e9mantique","graphe s\u00e9mantique","grammaires de d\u00e9pendance","GUP (Grammaire d\u2019unification polaris\u00e9e)","GUST (Grammaire d\u2019unification Sens-Texte)"],"prmu":["P","R","R","M","M"]} {"id":"taln-2010-court-010","title":"La traduction automatique des pronoms clitiques. Quelle approche pour quels r\u00e9sultats?","abstract":"Dans cet article, nous abordons la probl\u00e9matique de la traduction automatique des pronoms clitiques, en nous focalisant sur la traduction de l\u2019italien vers le fran\u00e7ais et en comparant les r\u00e9sultats obtenus par trois syst\u00e8mes : Its-2, d\u00e9velopp\u00e9 au LATL (Laboratoire d\u2019Analyse et de Technologie du Langage) et bas\u00e9 sur un analyseur syntaxique profond ; Babelfish, bas\u00e9 sur des r\u00e8gles linguistiques ; et Google Translate, caract\u00e9ris\u00e9 par une approche statistique.","translation":["","In this article, we discuss the problem of automatic translation of clitic pronouns, focalysing our attention on the translation from Italian to French and comparing the results obtained by three MT systems : Its-2, developed at LATL (Language Technology Laboratory) and based on a syntactic parser ; Babelfish, a rule-based system ; and Google Translate, caracterised by a statistical approach.","Syntactic parser, automatic translation, clitic pronouns, proclisis, enclisis"],"keyphrases":["traduction automatique","pronoms clitiques","Analyseur syntaxique","proclise","enclise"],"prmu":["P","P","P","U","U"]} {"id":"taln-2010-court-011","title":"L\u2019antonymie observ\u00e9e avec des m\u00e9thodes de TAL : une relation \u00e0 la fois syntagmatique et paradigmatique ?","abstract":"Cette \u00e9tude utilise des outils de TAL pour tester l\u2019hypoth\u00e8se avanc\u00e9e par plusieurs \u00e9tudes linguistiques r\u00e9centes selon laquelle la relation antonymique, classiquement d\u00e9crite comme une relation paradigmatique, a la particularit\u00e9 de fonctionner \u00e9galement sur le plan syntagmatique, c\u2019est-\u00e0-dire de r\u00e9unir des mots qui sont non seulement substituables mais qui apparaissent \u00e9galement r\u00e9guli\u00e8rement dans des relations contextuelles. Nous utilisons deux m\u00e9thodes \u2013 l\u2019analyse distributionnelle pour le plan paradigmatique, la recherche par patrons antonymiques pour le plan syntagmatique. Les r\u00e9sultats montrent que le diagnostic d\u2019antonymie n\u2019est pas significativement meilleur lorsqu\u2019on croise les deux m\u00e9thodes, puisqu\u2019une partie des antonymes identifi\u00e9s ne r\u00e9pondent pas au test de substituabilit\u00e9, ce qui semble confirmer la pr\u00e9pond\u00e9rance du plan syntagmatique pour l\u2019\u00e9tude et l\u2019acquisition de cette relation.","translation":["","In this paper, we use NLP methods to test the hypothesis, suggested by several linguistic studies, that antonymy is not only a paradigmatic but also a syntagmatic relation : antonym pairs, that have been classically described by their ability to be substituted for each other, also tend to frequently co-occur in texts. We use two methods \u2013 distributional analysis on the paradigmatic level, lexico-syntactic pattern recognition on the syntagmatic level. Results show that antonym detection is not significantly improved by combining the two methods : a set of antonyms do not satisfy the test for substitutability, which tends to confirm the predominance of the syntagmatic level for studying and identifying antonymy.","lexical semantics, antonymy, distributional analysis, lexico-grammatical patterns"],"keyphrases":["antonymie","analyse distributionnelle","s\u00e9mantique lexicale","patrons lexico-syntaxiques"],"prmu":["P","P","U","M"]} {"id":"taln-2010-court-012","title":"L\u2019apport des concepts m\u00e9tiers pour la classification des questions ouvertes d\u2019enqu\u00eate","abstract":"EDF utilise les techniques de Text Mining pour optimiser sa relation client, en analysant des r\u00e9ponses aux questions ouvertes d'enqu\u00eate de satisfaction, et des retranscriptions de conversations issues des centres d'appels. Dans cet article, nous pr\u00e9sentons les diff\u00e9rentes contraintes applicatives li\u00e9es \u00e0 l\u2019utilisation d\u2019outils de text mining pour l\u2019analyse de donn\u00e9es clients. Apr\u00e8s une analyse des diff\u00e9rents outils pr\u00e9sents sur le march\u00e9, nous avons identifi\u00e9 la technologie Skill CartridgeTM fournie par la soci\u00e9t\u00e9 TEMIS comme la plus adapt\u00e9e \u00e0 nos besoins. Cette technologie nous permet une mod\u00e9lisation s\u00e9mantique de concepts li\u00e9s au motif d\u2019insatisfaction. L\u2019apport de cette mod\u00e9lisation est illustr\u00e9e pour une t\u00e2che de classification de r\u00e9ponses d\u2019enqu\u00eates de satisfaction charg\u00e9e d\u2019\u00e9valuer la fid\u00e9lit\u00e9 des clients EDF. La mod\u00e9lisation s\u00e9mantique a permis une nette am\u00e9lioration des scores de classification (F-mesure = 75,5%) notamment pour les cat\u00e9gories correspondant \u00e0 la satisfaction et au m\u00e9contentement.","translation":["","The French power supply company EDF uses text mining tools to improve customer insight by analysing satisfaction inquiries or transcriptions of call-centre conversations. In this paper, we present the various application needs for text mining tools. After an analysis of the various existing industrial tools, we identify the Skill Cartridge tool provided by TEMIS company as the more relevant to our needs. This tool offers the capability to model expressions linked to reason for satisfaction\/dissatisfaction. The contribution of this modelling is illustrated here for the classification of satisfaction inquiries dedicated to the evaluation of customer loyalty. The semantic models provide a marked improvement of classification scores (F-mesure = 75.5%) for the satisfaction\/dissatisfaction categories in particular.","text mining tools, business concept modelling, supervised classification"],"keyphrases":["outils de text mining","mod\u00e9lisation de concepts m\u00e9tier","classification supervis\u00e9e"],"prmu":["P","R","M"]} {"id":"taln-2010-court-013","title":"Un \u00e9tiqueteur de r\u00f4les grammaticaux libre pour le fran\u00e7ais int\u00e9gr\u00e9 \u00e0 Apache UIMA","abstract":"L\u2019\u00e9tiquetage des r\u00f4les grammaticaux est une t\u00e2che de pr\u00e9-traitement r\u00e9currente. Pour le fran\u00e7ais, deux outils sont majoritairement utilis\u00e9s : TreeTagger et Brill. Nous proposons une d\u00e9marche, ne n\u00e9cessitant aucune ressource, pour la cr\u00e9ation d\u2019un mod\u00e8le de Markov cach\u00e9 (HMM) pour palier les probl\u00e8mes de ces outils, et de licences notamment. Nous distribuons librement toutes les ressources li\u00e9es \u00e0 ce travail.","translation":["","Part-of-speech tagging is a common preprocessing task. For the French language, Brill and TreeTagger are the most often used tools. We propose a method, requiring no resource, to create a Hidden Markov Model to get rid of the problems and licences of these tools. We freely distribute all the resources related to this work.","grammatical tagging, Hidden Markov Model, UIMA, Brill, TreeTagger"],"keyphrases":["UIMA","TreeTagger","Brill","Mod\u00e8le de Markov cach\u00e9","\u00e9tiquetage grammatical"],"prmu":["P","P","P","P","R"]} {"id":"taln-2010-court-014","title":"Segmentation Automatique de Lettres Historiques","abstract":"Cet article pr\u00e9sente une approche bas\u00e9e sur la comparaison fr\u00e9quentielle de mod\u00e8les lexicaux pour la segmentation automatique de textes historiques Portugais. Cette approche traite d\u2019abord le probl\u00e8me de la segmentation comme un probl\u00e8me de classification, en attribuant \u00e0 chaque \u00e9l\u00e9ment lexical pr\u00e9sent dans la phase d\u2019apprentissage une valeur de saillance pour chaque type de segment. Ces mod\u00e8les lexicaux permettent \u00e0 la fois de produire une segmentation et de faire une analyse qualitative de textes historiques. Notre \u00e9valuation montre que l\u2019approche adopt\u00e9e permet de tirer de l\u2019information s\u00e9mantique que des approches se concentrant sur la d\u00e9tection des fronti\u00e8res s\u00e9parant les segments ne peuvent acqu\u00e9rir.","translation":["","This article presents an approach based on the frequency comparison of lexical models for the automatic segmentation of historical texts. This approach first addresses the problem of segmentation as a classification problem by assigning each token present in the learning phase a value of salience for each type of segment. These lexical patterns can both produce a segmentation and make possible a qualitative analysis of historical texts. Our evaluation shows that the approach can extract semantic information that approaches focusing on the detection of boundaries between segments cannot capture.","Comparable corpora, Salience, Segmentation, Historical Texts"],"keyphrases":["Segmentation","Textes historiques","Saillance","Corpus comparables"],"prmu":["P","P","P","U"]} {"id":"taln-2010-court-015","title":"Traitement des inconnus : une approche syst\u00e9matique de l\u2019incompl\u00e9tude lexicale","abstract":"Cet article aborde le ph\u00e9nom\u00e8ne de l\u2019incompl\u00e9tude des ressources lexicales, c\u2019est-\u00e0-dire la probl\u00e9matique des inconnus, dans un contexte de traitement automatique. Nous proposons tout d\u2019abord une d\u00e9finition op\u00e9rationnelle de la notion d\u2019inconnu. Nous d\u00e9crivons ensuite une typologie des diff\u00e9rentes classes d\u2019inconnus, motiv\u00e9e par des consid\u00e9rations linguistiques et applicatives ainsi que par l\u2019annotation des inconnus d\u2019un petit corpus selon notre typologie. Cette typologie sera mise en oeuvre et valid\u00e9e par l\u2019annotation d\u2019un corpus important de l\u2019Agence France-Presse dans le cadre du projet EDyLex.","translation":["","This paper addresses the incompleteness of lexical resources, i.e., the problem of unknown words, in the context of natural language processing. First, we put forward an operational definition of the notion of unknown words. Next, we describe a typology of the various classes of unknown words, motivated by linguistic and applicative considerations as well as the annotation of unknown words in a small-scale corpus w.r.t. our typology. This typology shall be applied and validated through the annotation of a large corpus from the Agence France-Presse as part of the EDyLex project.","unknown words, lexical incompleteness, dynamic acquisition of lexical information"],"keyphrases":["incompl\u00e9tude lexicale","mots inconnus","acquisition dynamique des ressources lexicales"],"prmu":["P","M","M"]} {"id":"taln-2010-court-016","title":"Th\u00e9saurus et corpus de sp\u00e9cialit\u00e9 sciences du langage : approches lexicom\u00e9triques appliqu\u00e9es \u00e0 l\u2019analyse de termes en corpus","abstract":"Cet article s'inscrit dans les recherches sur l'exploitation de ressources terminologiques pour l'analyse de textes de sp\u00e9cialit\u00e9, leur annotation et leur indexation. Les ressources en pr\u00e9sence sont, d'une part, un thesaurus des Sciences du Langage, le Thesaulangue et, d'autre part, un corpus d\u2019\u00e9chantillons issus de cinq ouvrages relevant du m\u00eame domaine. L'article a deux objectifs. Le premier est de d\u00e9terminer dans quelle mesure les termes de Thesaulangue sont repr\u00e9sent\u00e9s dans les textes. Le second est d'\u00e9valuer si les occurrences des unit\u00e9s lexicales correspondant aux termes de Thesaulangue rel\u00e8vent majoritairement d'emplois terminologiques ou de langue courante. A cette fin, les travaux pr\u00e9sent\u00e9s utilisent une mesure de richesse lexicale telle qu'elle a \u00e9t\u00e9 d\u00e9finie par Brunet (rapport\u00e9 dans Muller, 1992) dans le domaine de la lexicom\u00e9trie, l'indice W. Cette mesure est adapt\u00e9e afin de mesurer la richesse terminologie (co-occurrents lexicaux et s\u00e9mantiques qui apparaissent dans Thesaulangue).","translation":["","This article aims to contribute to the field of the exploitation of terminological resources for the analysis of technical and scientific texts, their annotation and their indexation. The available resources are on one hand a thesaurus, Thesaulangue, which deals with Linguistics, and on the other hand, a corpus made of samples extracted from five books about Linguistics. More precisely, the article has two goals: first, studying how to determine which terms of Thesaulangue occur in texts. Second, attempting to measure if the lexical units which correspond to terms of Thesaulangue are used in texts in a terminological way or not. In this perspective, the presented work uses and adapts the Brunet\u2019s W-index designed in the area of lexicometry.","lexical semantics, terminology, corpora, lexical richness, lexicometry"],"keyphrases":["corpus","lexicom\u00e9trie","terminologie","richesse lexicale","s\u00e9mantique lexicale"],"prmu":["P","P","P","P","R"]} {"id":"taln-2010-court-017","title":"D\u00e9tection hors contexte des \u00e9motions \u00e0 partir du contenu linguistique d\u2019\u00e9nonc\u00e9s oraux : le syst\u00e8me EmoLogus","abstract":"Le projet EmotiRob, soutenu par l'agence nationale de la recherche, s'est donn\u00e9 pour objectif de d\u00e9tecter des \u00e9motions dans un contexte d'application original : la r\u00e9alisation d'un robot compagnon \u00e9motionnel pour des enfants fragilis\u00e9s. Nous pr\u00e9sentons dans cet article le syst\u00e8me qui caract\u00e9rise l'\u00e9motion induite par le contenu linguistique des propos de l'enfant. Il se base sur un principe de compositionnalit\u00e9 des \u00e9motions, avec une valeur \u00e9motionnelle fixe attribu\u00e9e aux mots lexicaux, tandis que les verbes et les adjectifs agissent comme des fonctions dont le r\u00e9sultat d\u00e9pend de la valeur \u00e9motionnelle de leurs arguments. L'article pr\u00e9sente la m\u00e9thode de calcul utilis\u00e9e, ainsi que la norme lexicale \u00e9motionnelle correspondante. Une analyse quantitative et qualitative des premi\u00e8res exp\u00e9rimentations pr\u00e9sente les diff\u00e9rences entre les sorties du module de d\u00e9tection et l'annotation d'experts, montrant des r\u00e9sultats satisfaisants, avec la bonne d\u00e9tection de la valence \u00e9motionnelle dans plus de 90% des cas.","translation":["","The ANR Emotirob project aims at detecting emotions in an original application context: realizing an emotional companion robot for weakened children. This paper presents a system which aims at characterizing emotions by only considering linguistic content. It is based on the assumption that emotions can be compound: simple lexical words have an intrinsic emotional value, while verbal and adjectival predicates act as a function on the emotional values of their arguments. The paper describes the algorithm of compositional computation of the emotion and the lexical emotional norm used by this algorithm. A quantitative and qualitative analysis of the differences between system outputs and expert annotations is given, which shows satisfactory results, with a good detection of emotional valency in 90.0% of the test utterances.","Emotion, Emotional valency, Emotional lexical standard, companion robot, spoken language understanding"],"keyphrases":["robot compagnon","norme lexicale \u00e9motionnelle","valence \u00e9motionnelle","Emotion","compr\u00e9hension de parole"],"prmu":["P","P","P","U","M"]} {"id":"taln-2010-court-018","title":"Acquisition de paraphrases sous-phrastiques depuis des paraphrases d\u2019\u00e9nonc\u00e9s","abstract":"Dans cet article, nous pr\u00e9sentons la t\u00e2che d\u2019acquisition de paraphrases sous-phrastiques (impliquant des paires de mots ou de groupes de mots), et d\u00e9crivons plusieurs techniques op\u00e9rant \u00e0 diff\u00e9rents niveaux. Nous d\u00e9crivons une \u00e9valuation visant \u00e0 comparer ces techniques et leurs combinaisons sur deux corpus de paraphrases d\u2019\u00e9nonc\u00e9s obtenus par traduction multiple. Les conclusions que nous tirons peuvent servir de guide pour am\u00e9liorer des techniques existantes.","translation":["","In this article, the task of acquiring sub-sentential paraphrases (word or phrase pairs) is discussed and several automatic techniques operating at different levels are presented. We describe an evaluation methodology to compare these techniques and their combination that is applied on two corpora of sentential paraphrases obtained by multiple translation. The conclusions that are drawn can be used to guide future work for improving existing techniques.","Paraphrase, Monolingual bi-phrase patterns"],"keyphrases":["Paraphrase","Patrons de correspondances de segments monolingues"],"prmu":["P","M"]} {"id":"taln-2010-court-019","title":"JAWS : Just Another WordNet Subset","abstract":"WordNet, une des ressources lexicales les plus utilis\u00e9es aujourd\u2019hui a \u00e9t\u00e9 constitu\u00e9e en anglais et les chercheurs travaillant sur d\u2019autres langues souffrent du manque d\u2019une telle ressource. Malgr\u00e9 les efforts fournis par la communaut\u00e9 fran\u00e7aise, les diff\u00e9rents WordNets produits pour la langue fran\u00e7aise ne sont toujours pas aussi exhaustifs que le WordNet de Princeton. C\u2019est pourquoi nous proposons une m\u00e9thode novatrice dans la production de termes nominaux instanciant les diff\u00e9rents synsets de WordNet en exploitant les propri\u00e9t\u00e9s syntaxiques distributionnelles du vocabulaire fran\u00e7ais. Nous comparons la ressource que nous obtenons avecWOLF et montrons que notre approche offre une couverture plus large.","translation":["","WordNet, one of the most used lexical resource until today has been made up for the English language and scientists working on other languages suffer from the lack of such a resource. Despite the efforts performed by the French community, the differentWordNets produced for the French language are still not as exhaustive as the original Princeton WordNet. We propose a new approach in the way of producing nominal terms filling the synset slots. We use syntactical distributional properties of French vocabulary to determine which of the candidates given by a bilingual dictionary matches the best. We compare the resource we obtain withWOLF and show that our approach provides a much larger coverage.","French lexical resources, WordNet, semantic relations, syntactical distributionality"],"keyphrases":["WordNet","ressources lexicales fran\u00e7aises","relations s\u00e9mantiques","distributions syntaxiques"],"prmu":["P","R","U","M"]} {"id":"taln-2010-court-020","title":"Un syst\u00e8me de d\u00e9tection d\u2019entit\u00e9s nomm\u00e9es adapt\u00e9 pour la campagne d\u2019\u00e9valuation ESTER 2","abstract":"Dans cet article nous relatons notre participation \u00e0 la campagne d\u2019\u00e9valuation ESTER 2 (Evaluation des Syst\u00e8mes de Transcription Enrichie d\u2019Emissions Radiophoniques). Apr\u00e8s avoir d\u00e9crit les objectifs de cette campagne ainsi que ses sp\u00e9cificit\u00e9s et difficult\u00e9s, nous pr\u00e9sentons notre syst\u00e8me d\u2019extraction d\u2019entit\u00e9s nomm\u00e9es en nous focalisant sur les adaptations r\u00e9alis\u00e9es dans le cadre de cette campagne. Nous d\u00e9crivons ensuite les r\u00e9sultats obtenus lors de la comp\u00e9tition, ainsi que des r\u00e9sultats originaux obtenus par la suite. Nous concluons sur les le\u00e7ons tir\u00e9es de cette exp\u00e9rience.","translation":["","In this paper, we report our participation to the ESTER 2 (Evaluation des Syst\u00e8mes de Transcription Enrichie d\u2019Emissions Radiophoniques) evaluation campaign. After describing the goals, specificities and challenges of the campaign, we present our named entity detection system and focus on the adaptations made in the framework of the campaign. We present the results obtained during the competition and then new results obtained afterward. We then conclude by the lessons we learned from this experiment.","named entities, evaluation, information extraction"],"keyphrases":["entit\u00e9s nomm\u00e9es","\u00e9valuation","extraction d\u2019information"],"prmu":["P","P","M"]} {"id":"taln-2010-court-022","title":"RefGen : un module d\u2019identification des cha\u00eenes de r\u00e9f\u00e9rence d\u00e9pendant du genre textuel","abstract":"Dans cet article, nous pr\u00e9sentons RefGen, un module d\u2019identification des cha\u00eenes de r\u00e9f\u00e9rence pour le fran\u00e7ais. RefGen effectue une annotation automatique des expressions r\u00e9f\u00e9rentielles puis identifie les relations de cor\u00e9f\u00e9rence \u00e9tablies entre ces expressions pour former des cha\u00eenes de r\u00e9f\u00e9rence. Le calcul de la r\u00e9f\u00e9rence utilise des propri\u00e9t\u00e9s des cha\u00eenes de r\u00e9f\u00e9rence d\u00e9pendantes du genre textuel, l\u2019\u00e9chelle d\u2019accessibilit\u00e9 d\u2019(Ariel, 1990) et une s\u00e9rie de filtres lexicaux, morphosyntaxiques et s\u00e9mantiques. Nous \u00e9valuons les premiers r\u00e9sultats de RefGen sur un corpus issu de rapports publics.","translation":["","We present RefGen, a reference chain identification module for French. RefGen automatically annotates referential expressions then identifies coreference relations between these expressions to make reference chains. Reference calculus uses textual genre specific properties of reference chains, (Ariel, 1990)\u2019s accessibility theory and applies lexical, morphosyntactic and semantic filters. We evaluate the first results obtained by RefGen from a public reports corpus.","Reference chain identification, coreference relation, salience, genre"],"keyphrases":["Cha\u00eenes de r\u00e9f\u00e9rence","genre textuel","relation de cor\u00e9f\u00e9rence","saillance"],"prmu":["P","P","P","U"]} {"id":"taln-2010-court-023","title":"D\u00e9tection et r\u00e9solution d\u2019entit\u00e9s nomm\u00e9es dans des d\u00e9p\u00eaches d\u2019agence","abstract":"Nous pr\u00e9sentons NP, un syst\u00e8me de reconnaissance d\u2019entit\u00e9s nomm\u00e9es. Comprenant un module de r\u00e9solution, il permet d\u2019associer \u00e0 chaque occurrence d\u2019entit\u00e9 le r\u00e9f\u00e9rent qu\u2019elle d\u00e9signe parmi les entr\u00e9es d\u2019un r\u00e9f\u00e9rentiel d\u00e9di\u00e9. NP apporte ainsi des informations pertinentes pour l\u2019exploitation de l\u2019extraction d\u2019entit\u00e9s nomm\u00e9es en contexte applicatif. Ce syst\u00e8me fait l\u2019objet d\u2019une \u00e9valuation gr\u00e2ce au d\u00e9veloppement d\u2019un corpus annot\u00e9 manuellement et adapt\u00e9 aux t\u00e2ches de d\u00e9tection et de r\u00e9solution.","translation":["","We introduce NP, a system for named entity recognition. It includes a resolution module for linking each entity occurrence to its matching entry in a dedicated reference base. NP thus brings information relevant for using named entity extraction in an applicative context. We have evaluated NP by the means of a manually annotated corpus designed for the tasks of recognition and resolution.","named entity resolution, named entity recognition, information extraction"],"keyphrases":["r\u00e9solution d\u2019entit\u00e9s nomm\u00e9es","d\u00e9tection d\u2019entit\u00e9s nomm\u00e9es","extraction d\u2019information"],"prmu":["P","R","R"]} {"id":"taln-2010-court-024","title":"Processus de d\u00e9cision \u00e0 base de SVM pour la composition d\u2019arbres de frames s\u00e9mantiques","abstract":"Cet article pr\u00e9sente un processus de d\u00e9cision bas\u00e9 sur des classifieurs \u00e0 vaste marge (SVMDP) pour extraire l\u2019information s\u00e9mantique dans un syst\u00e8me de dialogue oral. Dans notre composant de compr\u00e9hension, l\u2019information est repr\u00e9sent\u00e9e par des arbres de frames s\u00e9mantiques d\u00e9finies selon le paradigme FrameNet. Le processus d\u2019interpr\u00e9tation est r\u00e9alis\u00e9 en deux \u00e9tapes. D\u2019abord, des r\u00e9seaux bay\u00e9siens dynamiques (DBN) sont utilis\u00e9s comme mod\u00e8les de g\u00e9n\u00e9ration pour inf\u00e9rer des fragments d\u2019arbres de la requ\u00eate utilisateur. Ensuite, notre SVMDP d\u00e9pendant du contexte compose ces fragments afin d\u2019obtenir la repr\u00e9sentation s\u00e9mantique globale du message. Les exp\u00e9riences sont men\u00e9es sur le corpus de dialogue MEDIA. Une proc\u00e9dure semi-automatique fournit une annotation de r\u00e9f\u00e9rence en frames sur laquelle les param\u00e8tres des DBN et SVMDP sont appris. Les r\u00e9sultats montrent que la m\u00e9thode permet d\u2019am\u00e9liorer les performances d\u2019identification de frames pour les exemples de test les plus complexes par rapport \u00e0 un processus de d\u00e9cision d\u00e9terministe ad hoc.","translation":["","This paper presents a decision process based on Support Vector Machines to extract the semantic information from the user\u2019s input in a spoken dialog system. In our interpretation component, the information is represented by means of trees of semantic frames, as defined in the Berkeley FrameNet paradigm, and the understanding process is performed in two steps. First Dynamic Bayesian Networks are used as generative models to sequentially infer tree fragments from the users\u2019 inputs. Then the contextsensitive SVMDP introduced in this paper is applied to detect the relations between the frames hypothesized in the fragments and compose them to obtain the overall semantic representation of the user\u2019s request. Experiments are reported on the French MEDIA dialogue corpus. A semi-automatic process provides a reference frame annotation of the speech training data. The parameters of DBNs and SVMDP are learned from these data. The method is shown to outperform an ad-hoc deterministic decision process on the most complex test examples for frame identification.","spoken dialogue system, spoken language understanding, semantic composition, semantic frame, support vector machines"],"keyphrases":["frame s\u00e9mantique","syst\u00e8me de dialogue oral","compr\u00e9hension de la parole","composition s\u00e9mantique","s\u00e9parateur \u00e0 vaste marge"],"prmu":["P","P","M","R","M"]} {"id":"taln-2010-court-025","title":"Les entit\u00e9s nomm\u00e9es \u00e9v\u00e9nement et les verbes de cause-cons\u00e9quence","abstract":"L\u2019extraction des \u00e9v\u00e9nements d\u00e9sign\u00e9s par des noms est peu \u00e9tudi\u00e9e dans des corpus g\u00e9n\u00e9ralistes. Si des lexiques de noms d\u00e9clencheurs d\u2019\u00e9v\u00e9nements existent, les probl\u00e8mes de polys\u00e9mie sont nombreux et beaucoup d\u2019\u00e9v\u00e9nements ne sont pas introduits par des d\u00e9clencheurs. Nous nous int\u00e9ressons dans cet article \u00e0 une hypoth\u00e8se selon laquelle les verbes induisant la cause ou la cons\u00e9quence sont de bons indices quant \u00e0 la pr\u00e9sence d\u2019\u00e9v\u00e9nements nominaux dans leur cotexte.","translation":["","Few researches focus on nominal event extraction in open-domain corpora. Lists of cue words for events exist, but raise many problems of polysemy. In this article, we focus on the following hypothesis : verbs introducing cause or consequence links have good chances to have an event noun around them.","Named entity, event, cause and consequence links"],"keyphrases":["Entit\u00e9 nomm\u00e9e","\u00e9v\u00e9nement","rapports de cause et cons\u00e9quence"],"prmu":["P","P","M"]} {"id":"taln-2010-court-026","title":"Construction d\u2019un lexique affectif pour le fran\u00e7ais \u00e0 partir de Twitter","abstract":"Un lexique affectif est un outil utile pour l\u2019\u00e9tude des \u00e9motions ainsi que pour la fouille d\u2019opinion et l\u2019analyse des sentiments. Un tel lexique contient des listes de mots annot\u00e9s avec leurs \u00e9valuations \u00e9motionnelles. Il existe un certain nombre de lexiques affectifs pour la langue anglaise, espagnole, allemande, mais tr\u00e8s peu pour le fran\u00e7ais. Un travail de longue haleine est n\u00e9cessaire pour construire et enrichir un lexique affectif. Nous proposons d\u2019utiliser Twitter, la plateforme la plus populaire de microblogging de nos jours, pour recueillir un corpus de textes \u00e9motionnels en fran\u00e7ais. En utilisant l\u2019ensemble des donn\u00e9es recueillies, nous avons estim\u00e9 les normes affectives de chaque mot. Nous utilisons les donn\u00e9es de la Norme Affective desMots Anglais (ANEW, Affective Norms of EnglishWords) que nous avons traduite en fran\u00e7ais afin de valider nos r\u00e9sultats. Les valeurs du coefficient tau de Kendall et du coefficient de corr\u00e9lation de rang de Spearman montrent que nos scores estim\u00e9s sont en accord avec les scores ANEW.","translation":["","Affective lexicons are a useful tool for emotion studies as well as for opinion mining and sentiment analysis. Such lexicons contain lists of words annotated with their emotional assessments. There exist a number of affective lexicons for English, Spanish, German and other languages. However, only a few of such resources are available for French. A lot of human efforts are needed to build and extend an affective lexicon. We propose to use Twitter, the most popular microblogging platform nowadays, to collect a dataset of emotional texts in French. Using the collected dataset, we estimated the affective norms of words present in our corpus. We used the dataset of Affective Norms of English Words (ANEW) that we translated into French to validate our results. Values of Kendall\u2019s tau coefficient and Spearman\u2019s rank correlation coefficient show that our estimated scores correlate well with the ANEW scores.","Sentiment analysis, ANEW, Twitter"],"keyphrases":["Twitter","Analyse de sentiments","ANEW"],"prmu":["P","P","P"]} {"id":"taln-2010-court-027","title":"Analyse d\u2019opinion : annotation s\u00e9mantique de textes chinois","abstract":"Notre travail concerne l\u2019analyse automatique des \u00e9nonc\u00e9s d\u2019opinion en chinois. En nous inspirant de la th\u00e9orie linguistique de l\u2019Appraisal, nous proposons une m\u00e9thode fond\u00e9e sur l\u2019usage de lexiques et de r\u00e8gles locales pour d\u00e9terminer les caract\u00e9ristiques telles que la Force (intensit\u00e9), le Focus (prototypicalit\u00e9) et la polarit\u00e9 de tels \u00e9nonc\u00e9s. Nous pr\u00e9sentons le mod\u00e8le et sa mise en oeuvre sur un corpus journalistique. Si pour la d\u00e9tection d\u2019\u00e9nonc\u00e9s d\u2019opinion, la pr\u00e9cision est bonne (94 %), le taux de rappel (67 %) pose cependant des questions sur l\u2019enrichissement des ressources actuelles.","translation":["","Our work concerns automatic analysis of opinion in texts. Based on the Appraisal linguistic theory, our method uses lexical and syntactic resources to process such properties as the Force, the Focus and the polarity of an opinion. We present our model and its implementation on a journalistic corpus. The precision for detecting opinion expressions is high (94%), but the recall (67%) raises the question of how to enhance the resources.","Opinion analysis, Appraisal theory"],"keyphrases":["Analyse d\u2019opinion","th\u00e9orie de l\u2019Appraisal"],"prmu":["P","R"]} {"id":"taln-2010-court-028","title":"Fouille de donn\u00e9es s\u00e9quentielles d\u2019itemsets pour l\u2019apprentissage de patrons linguistiques","abstract":"Dans cet article nous pr\u00e9sentons une m\u00e9thode utilisant l\u2019extraction de motifs s\u00e9quentiels d\u2019itemsets pour l\u2019apprentissage automatique de patrons linguistiques. De plus, nous proposons de nous appuyer sur l\u2019ordre partiel existant entre les motifs pour les \u00e9num\u00e9rer de fa\u00e7on structur\u00e9e et ainsi faciliter leur validation en tant que patrons linguistiques.","translation":["","In this paper, we present a method based on the extraction of itemset sequential patterns in order to automatically generate linguistic patterns. In addition, we propose to use the partial ordering between sequential patterns to enumerate and validate them.","Data mining, sequential patterns, information extraction, linguistic pattern learning"],"keyphrases":["Fouille de donn\u00e9es","apprentissage de patrons linguistiques","motifs s\u00e9quentiels","extraction d\u2019information"],"prmu":["P","P","P","M"]} {"id":"taln-2010-court-030","title":"Adapter un syst\u00e8me de question-r\u00e9ponse en domaine ouvert au domaine m\u00e9dical","abstract":"Dans cet article, nous pr\u00e9sentons Esculape, un syst\u00e8me de question-r\u00e9ponse en fran\u00e7ais d\u00e9di\u00e9 aux m\u00e9decins g\u00e9n\u00e9ralistes et \u00e9labor\u00e9 \u00e0 partir d\u2019OEdipe, un syst\u00e8me de question-r\u00e9ponse en domaine ouvert. Esculape ajoute \u00e0 OEdipe la capacit\u00e9 d\u2019exploiter la structure d\u2019un mod\u00e8le du domaine, le domaine m\u00e9dical dans le cas pr\u00e9sent. Malgr\u00e9 l\u2019existence d\u2019un grand nombre de ressources dans ce domaine (UMLS, MeSH ...), il n\u2019est pas possible de se reposer enti\u00e8rement sur ces ressources, et plus sp\u00e9cifiquement sur les relations qu\u2019elles abritent, pour r\u00e9pondre aux questions. Nous montrons comment surmonter cette difficult\u00e9 en apprenant de fa\u00e7on supervis\u00e9e des patrons linguistiques d\u2019extraction de relations et en les appliquant \u00e0 l\u2019extraction de r\u00e9ponses.","translation":["","In this article, we present Esculape, a question-answering system for French dedicated to family doctors and built from OEdipe, an open-domain system. Esculape adds to OEdipe the capability to exploit the concepts and relations of a domain model, the medical domain in the present case. Although a large number of resources exist in this domain (UMLS, MeSH ...), it is not possible to rely only on them, and more specifically on the relations they contain, to answer questions. We show how this difficulty can be overcome by learning linguistic patterns for identifying relations and applying them to extract answers.","question-answering systems, relation extraction, medical domain"],"keyphrases":["syst\u00e8mes de question-r\u00e9ponse","domaine m\u00e9dical","extraction de relations"],"prmu":["P","P","P"]} {"id":"taln-2010-court-031","title":"L\u2019apport d\u2019une approche hybride pour la reconnaissance des entit\u00e9s nomm\u00e9es en langue arabe","abstract":"Dans cet article, nous proposons une m\u00e9thode hybride pour la reconnaissance des entit\u00e9s nomm\u00e9es pour la langue arabe. Cette m\u00e9thode profite, d\u2019une part, des avantages de l\u2019utilisation d\u2019une m\u00e9thode d\u2019apprentissage pour extraire des r\u00e8gles permettant l\u2019identification et la classification des entit\u00e9s nomm\u00e9es. D\u2019autre part, elle repose sur un ensemble de r\u00e8gles extraites manuellement pour corriger et am\u00e9liorer le r\u00e9sultat de la m\u00e9thode d\u2019apprentissage. Les r\u00e9sultats de l\u2019\u00e9valuation de la m\u00e9thode propos\u00e9e sont encourageants. Nous avons obtenu un taux global de F-mesure \u00e9gal \u00e0 79.24%.","translation":["","In this paper, we propose a hybrid method for Arabic named entities recognition. This method takes advantage of the use of a learning method to extract rules for the identification and classification of named entities. Moreover, it is based on a set of rules extracted manually to correct and improve the outcome of the learning method. The evaluation results are encouraging as we get an overall F-measure equal to 79.24%.","Arabic language processing, named entity recognition, learning method"],"keyphrases":["reconnaissance des entit\u00e9s nomm\u00e9es","m\u00e9thode d\u2019apprentissage","Traitement de la langue arabe"],"prmu":["P","P","M"]} {"id":"taln-2010-court-033","title":"Exploitation de r\u00e9sultats d\u2019analyse syntaxique pour extraction semi-supervis\u00e9e des chemins de relations","abstract":"Le pr\u00e9sent article d\u00e9crit un travail en cours sur l\u2019acquisition des patrons de relations entre entit\u00e9s nomm\u00e9es \u00e0 partir de r\u00e9sultats d\u2019analyse syntaxique. Sans aucun patron pr\u00e9d\u00e9fini, notre m\u00e9thode fournit des chemins syntaxiques susceptibles de repr\u00e9senter une relation donn\u00e9e \u00e0 partir de quelques exemples de couples d\u2019entit\u00e9s nomm\u00e9es entretenant la relation en question.","translation":["","This paper describes our current work on the acquisition of named entity relation patterns from parsing results. Without any predefined pattern, our method provides candidate syntactic paths that represent a given relationship with a small seed set of named entity pairs on this relationship.","Knowledge extraction, pattern extraction, named entity relation, syntactic dependency tree"],"keyphrases":["Extraction des connaissances","extraction des patrons","relation des entit\u00e9s nomm\u00e9es","arbre syntaxique d\u00e9pendanciel"],"prmu":["M","R","R","M"]} {"id":"taln-2010-court-034","title":"Reconnaissance d\u2019entit\u00e9s nomm\u00e9es : enrichissement d\u2019un syst\u00e8me \u00e0 base de connaissances \u00e0 partir de techniques de fouille de textes","abstract":"Dans cet article, nous pr\u00e9sentons et analysons les r\u00e9sultats du syst\u00e8me de reconnaissance d\u2019entit\u00e9s nomm\u00e9es CasEN lors de sa participation \u00e0 la campagne d\u2019\u00e9valuation Ester2. Nous identifions quelles ont \u00e9t\u00e9 les difficult\u00e9s pour notre syst\u00e8me, essentiellement : les mots hors-vocabulaire, la m\u00e9tonymie, les fronti\u00e8res des entit\u00e9s nomm\u00e9es. Puis nous proposons une approche pour am\u00e9liorer les performances de syst\u00e8mes \u00e0 base de connaissances, en utilisant des techniques exhaustives de fouille de donn\u00e9es s\u00e9quentielles afin d\u2019extraire des motifs qui repr\u00e9sentent les structures linguistiques en jeu lors de la reconnaissance d\u2019entit\u00e9s nomm\u00e9es. Enfin, nous d\u00e9crivons l\u2019exp\u00e9rimentation men\u00e9e \u00e0 cet effet, donnons les r\u00e9sultats obtenus \u00e0 ce jour et en faisons une premi\u00e8re analyse.","translation":["","In this paper, we present and analyze the results obtained by our named entity recognition system, CasEN, during the Ester2 evaluation campaign.We identify on what difficulties our system was the most challenged, which mainly are : out-of-vocabulary words, metonymy and detection of the boundaries of named entities. Next, we propose a direction which may help us for improving performances of our system, by using exhaustive hierarchical and sequential data mining algorithms. This approach aims at extracting patterns corresponding to useful linguistic constructs for recognizing named entities. Finaly, we describe our experiments, give the results we currently obtain and analyze those results.","Named Entity Recognition, Hierarchical Sequences, Patterns, Ester2"],"keyphrases":["Reconnaissance d\u2019Entit\u00e9s Nomm\u00e9es","Ester2","Motifs","S\u00e9quences Hi\u00e9rarchiques"],"prmu":["P","P","P","U"]} {"id":"taln-2010-court-035","title":"Traduction de requ\u00eates bas\u00e9e sur Wikip\u00e9dia","abstract":"Cet article s'inscrit dans le domaine de la recherche d'information multilingue. Il propose une m\u00e9thode de traduction automatique de requ\u00eates bas\u00e9e sur Wikip\u00e9dia. Une phase d'analyse permet de segmenter la requ\u00eate en syntagmes ou unit\u00e9s lexicales \u00e0 traduire en s'appuyant sur les liens multilingues entre les articles de Wikip\u00e9dia. Une deuxi\u00e8me phase permet de choisir, parmi les traductions possibles, celle qui est la plus coh\u00e9rente en s'appuyant sur les informations d'ordre s\u00e9mantique fournies par les cat\u00e9gories associ\u00e9es \u00e0 chacun des articles de Wikip\u00e9dia. Cet article justifie que les donn\u00e9es issues de Wikip\u00e9dia sont particuli\u00e8rement pertinentes pour la traduction de requ\u00eates, d\u00e9taille l'approche propos\u00e9e et son impl\u00e9mentation, et en d\u00e9montre le potentiel par la comparaison du taux d'erreur du prototype de traduction avec celui d'autres services de traduction automatique.","translation":["","This work investigates query translation using only Wikipedia-based resources in a two steps approach: analysis and disambiguation. After arguing that data mined from Wikipedia is particularly relevant to query translation, we detail the implementation of the approach. In the analysis phase, queries are segmented into lexical units that are associated to several possible translations using a bilingual dictionary extracted from Wikipedia. During the second phase, one translation is chosen amongst the various candidates, based on consistency, asserted with the help of semantic information carried by categories associated to Wikipedia articles. These two steps take advantage of data mined from Wikipedia, which is very rich and detailed, constantly updated but also easy and free to access. We report promising results regarding translation accuracy.","cross language information retrieval, query translation, Wikipedia"],"keyphrases":["traduction de requ\u00eates","Wikip\u00e9dia","recherche d'information multilingue"],"prmu":["P","P","P"]} {"id":"taln-2010-demo-002","title":"TerminoWeb : recherche et analyse d\u2019information th\u00e9matique","abstract":"Notre d\u00e9monstration porte sur le prototype TerminoWeb, une plateforme Web qui permet (1) la construction automatique d\u2019un corpus th\u00e9matique \u00e0 partir d\u2019une recherche de documents sur le Web, (2) l\u2019extraction de termes du corpus, et (3) la recherche d\u2019information d\u00e9finitionnelle sur ces termes en corpus. La plateforme int\u00e9grant les trois modules, elle aidera un langagier (terminologue, traducteur, r\u00e9dacteur) \u00e0 d\u00e9couvrir un nouveau domaine (th\u00e8me) en facilitant la recherche et l\u2019analyse de documents informatifs pertinents \u00e0 ce domaine.","translation":["","Our demonstration shows the TerminoWeb prototype, a Web platform which can (1) automatically assemble a thematic corpus from Web documents, (2) extract terms from that corpus, and (3) find definitional information in the corpus about terms of interest. As the platform integrates all three modules, it can help a language worker (terminologist, translator, writer) to explore a new domain (theme) as it facilitates the gathering and analysis of informative documents about that domain.","thematic information, corpus construction, term extraction, definitional contexts discovery"],"keyphrases":["information th\u00e9matique","extraction de termes","construction de corpus","d\u00e9couverte de contextes d\u00e9finitionnels"],"prmu":["P","P","R","M"]} {"id":"taln-2010-demo-004","title":"L'int\u00e9gration d'un outil de rep\u00e9rage d'entit\u00e9s nomm\u00e9es pour la langue arabe dans un syst\u00e8me de veille","abstract":"Dans cette d\u00e9monstration, nous pr\u00e9sentons l'impl\u00e9mentation d'un outil de rep\u00e9rage d'entit\u00e9s nomm\u00e9es \u00e0 base de r\u00e8gle pour la langue arabe dans le syst\u00e8me de veille m\u00e9diatique EMM (Europe Media Monitor).","translation":["","We will present in this demo an Arabic rule-based named entity recogntion tool which is integrated within the news monitoring system EMM (Europe Media Montior).","Named entity recognition, Arabic language, news monitoring system"],"keyphrases":["langue arabe","syst\u00e8me de veille m\u00e9diatique","\u00c9tiquetage des entit\u00e9s nomm\u00e9es"],"prmu":["P","P","M"]} {"id":"taln-2010-demo-005","title":"Expressive : G\u00e9n\u00e9ration automatique de parole expressive \u00e0 partir de donn\u00e9es non linguistiques","abstract":"Nous pr\u00e9sentons Expressive, un syst\u00e8me de g\u00e9n\u00e9ration de parole expressive \u00e0 partir de donn\u00e9es non linguistiques. Ce syst\u00e8me est compos\u00e9 de deux outils distincts : Taittingen, un g\u00e9n\u00e9rateur automatique de textes d\u2019une grande vari\u00e9t\u00e9 lexico-syntaxique produits \u00e0 partir d\u2019une repr\u00e9sentation conceptuelle du discours, et StyloPhone, un syst\u00e8me de synth\u00e8se vocale multi-styles qui s\u2019attache \u00e0 rendre le discours produit attractif et naturel en proposant diff\u00e9rents styles vocaux.","translation":["","We present Expressive, a system that converts non-linguistic data into expressive speech. This system is made of two distinct parts : Taittingen, a natural language generation tool able to produce lexically and syntactically rich texts from a discourse abstract representation, and StyloPhone, a text-to-speech synthesis system that proposes varying speaking styles, to make the speech sound both more attractive and natural.","Natural language generation, text-to-speech synthesis, expressiveness"],"keyphrases":["expressivit\u00e9","synth\u00e8se vocale","G\u00e9n\u00e9ration de texte"],"prmu":["P","P","R"]} {"id":"taln-2010-demo-006","title":"Exploitation de Wikip\u00e9dia pour l\u2019Enrichissement et la Construction des Ressources Linguistiques","abstract":"Cet article pr\u00e9sente une approche et des r\u00e9sultats utilisant l'encyclop\u00e9die en ligne Wikip\u00e9dia comme ressource semi-structur\u00e9e de connaissances linguistiques et en particulier comme un corpus comparable pour l\u2019extraction de terminologie bilingue. Cette approche tend \u00e0 extraire d\u2019abord des paires de terme et traduction \u00e0 partir de types des informations, liens et textes de Wikip\u00e9dia. L\u2019\u00e9tape suivante consiste \u00e0 l\u2019utilisation de l\u2019information linguistique afin de r\u00e9-ordonner les termes et leurs traductions pertinentes et ainsi \u00e9liminer les termes cibles inutiles. Les \u00e9valuations pr\u00e9liminaires utilisant les paires de langues fran\u00e7ais-anglais, japonais-fran\u00e7ais et japonais-anglais ont montr\u00e9 une bonne qualit\u00e9 des paires de termes extraits. Cette \u00e9tude est tr\u00e8s favorable pour la construction et l\u2019enrichissement des ressources linguistiques tels que les dictionnaires et ontologies multilingues. Aussi, elle est tr\u00e8s utile pour un syst\u00e8me de recherche d\u2019information translinguistique (RIT).","translation":["","Multilingual linguistic resources are usually constructed from parallel corpora, but since these corpora are available only for selected text domains and language pairs, the potential of other resources is being explored as well. This article seeks to explore and exploit the idea of using multilingual web-based encyclopaedias such as Wikipedia as comparable corpora for bilingual terminology extraction. We propose an approach to extract terms and their translations from different types of Wikipedia link information and texts. The next step will be using a linguistic-based information to re-rank and filter the extracted term candidates in the target language. Preliminary evaluations using the combined statisticsbased and linguistic-based approaches were applied on Japanese-French, French-English and Japanese- French. These evaluations showed a real open improvement and good quality of the extracted term candidates for building or enriching multilingual ontologies, dictionaries or feeding a cross-language information retrieval system with the related expansion terms of the source query.","Bilingual terminology, comparable corpora, Wikipedia, mulilingual ontologies"],"keyphrases":["Wikip\u00e9dia","corpus comparable","Terminologie bilingue","ontologie multilingue"],"prmu":["P","P","P","P"]} {"id":"taln-2010-demo-007","title":"Traitement automatique des langues des signes : le projet Dicta-Sign, des corpus aux applications","abstract":"Cet article pr\u00e9sente Dicta-Sign, un projet de recherche sur le traitement automatique des langues des signes (LS), qui aborde un grand nombre de questions de recherche : linguistique de corpus, mod\u00e9lisation linguistique, reconnaissance et g\u00e9n\u00e9ration automatique. L\u2019objectif de ce projet est de r\u00e9aliser trois applications prototypes destin\u00e9es aux usagers sourds : un traducteur de termes de LS \u00e0 LS, un outil de recherche par l\u2019exemple et un Wiki en LS. Pour cela, quatre corpus comparables de cinq heures de dialogue seront produits et analys\u00e9s. De plus, des avanc\u00e9es significatives sont attendues dans le domaine des outils d\u2019annotation. Dans ce projet, le LIMSI est en charge de l\u2019\u00e9laboration des mod\u00e8les linguistiques et participe aux aspects corpus et g\u00e9n\u00e9ration automatique. Nous nous proposons d\u2019illustrer l\u2019\u00e9tat d\u2019avancement de Dicta-Sign au travers de vid\u00e9os extraites du corpus et de d\u00e9monstrations des outils de traitement et de g\u00e9n\u00e9ration d\u2019animations de signeur virtuel.","translation":["","This paper presents Dicta-Sign, a research project related to sign language (SL) processing. It covers numerous research topics: corpus linguistics, linguistic modelling, automatic recognition and generation. The aim of this project is to design three proof-of-concept end user applications: an SL-to-SL term translator, a search-by-example tool, and a SL wiki. For that, four comparable corpora of five hours will be produced and analysed. Aside from these applications, we also expect major improvements to be integrated to annotation tools. In this project, LIMSI is in charge of the linguistic modelling, and participates in building the corpus and in the generation efforts. We propose to illustrate the current work with excerpts from the corpus and demonstrations of the processing and generation tools.","Sign languages, comparable video corpora, automatic recognition, automatic generation"],"keyphrases":["Langue des signes","g\u00e9n\u00e9ration automatique","corpus vid\u00e9o comparables","reconnaissance automatique"],"prmu":["P","P","M","R"]} {"id":"taln-2010-demo-008","title":"FipsColor : grammaire en couleur interactive pour l\u2019apprentissage du fran\u00e7ais","abstract":"L'analyseur multilingue FiPS permet de transformer une phrase en une structure syntaxique riche et accompagn\u00e9e d'informations lexicales, grammaticales et th\u00e9matiques. On d\u00e9crit ici une application qui adapte les structures en constituants de l\u2019analyseur FiPS \u00e0 une nomenclature grammaticale permettant la repr\u00e9sentation en couleur. Cette application interactive et disponible en ligne (http:\/\/latl.unige.ch\/fipscolor) peut \u00eatre utilis\u00e9e librement par les enseignants et \u00e9l\u00e8ves de primaire.","translation":["","The FiPS parser analyzes a sentence into a syntactic structure reflecting lexical, grammatical and thematic information. The present paper describes the adaptation of the structures in terms of constituents as existent in FiPS to a grammatical annotation, as well as its coloured representation. This online interactive application (available at http:\/\/latl.unige.ch\/fipscolor) can be freely used by teachers and pupils of primary education.","chart parser, generative grammar, web services, tei"],"keyphrases":["analyse syntaxique","grammaire g\u00e9n\u00e9rative","services web","tei"],"prmu":["M","M","U","U"]} {"id":"taln-2010-demo-009","title":"Des cartes dialectologiques num\u00e9ris\u00e9es pour le TALN","abstract":"Cette d\u00e9monstration pr\u00e9sente une interface web pour des donn\u00e9es num\u00e9ris\u00e9es de l\u2019atlas linguistique de la Suisse allemande. Nous pr\u00e9sentons d\u2019abord l\u2019int\u00e9gration des donn\u00e9es brutes et des donn\u00e9es interpol\u00e9es de l\u2019atlas dans une interface bas\u00e9e sur Google Maps. Ensuite, nous montrons des prototypes de syst\u00e8mes de traduction automatique et d\u2019identification de dialectes qui s\u2019appuient sur ces donn\u00e9es dialectologiques num\u00e9ris\u00e9es.","translation":["","This demonstration presents a web interface for digitized data of the linguistic atlas of German-speaking Switzerland. First, we present the integration of raw and interpolated atlas data with an interface based on Google Maps. Then, we show prototypes of machine translation and dialect identification systems which rely on the digitized dialectological data.","Dialectology, linguistic atlas, machine translation, dialect identification"],"keyphrases":["Dialectologie","atlas linguistique","traduction automatique","identification de dialectes"],"prmu":["P","P","P","P"]} {"id":"taln-2010-demo-010","title":"Text-it \/Voice-it Une application mobile de normalisation des SMS","abstract":"Cet article pr\u00e9sente Text-it \/ Voice-it, une application de normalisation des SMS pour t\u00e9l\u00e9phone mobile. L\u2019application permet d\u2019envoyer et de recevoir des SMS normalis\u00e9s, et offre le choix entre un r\u00e9sultat textuel (Text-it) et vocal (Voice-it).","translation":["","This paper presents Text-it \/ Voice-it, an application that makes it possible to normalize text messages directly from mobile phones. The application allows the user to both send and receive normalized text messages, and gives the choice between a textual (Text-it) and a vocal (Voice-it) result.","Text messages, normalization, application, plugin, server"],"keyphrases":["application","normalisation","SMS","plugin","serveur"],"prmu":["P","P","P","U","U"]} {"id":"taln-2010-demo-012","title":"MeTAE : Plate-forme d\u2019annotation automatique et d\u2019exploration s\u00e9mantiques pour le domaine m\u00e9dical","abstract":"Nous pr\u00e9sentons une plate-forme d\u2019annotation s\u00e9mantique et d\u2019exploration de textes m\u00e9dicaux, appel\u00e9e \u00ab MeTAE \u00bb. Le processus d\u2019annotation automatique comporte une premi\u00e8re \u00e9tape de reconnaissance des entit\u00e9s m\u00e9dicales pr\u00e9sentes dans les textes suivie d\u2019une \u00e9tape d\u2019identification des relations s\u00e9mantiques qui les relient. Cette identification se fonde sur des patrons linguistiques construits manuellement pour chaque type de relation. MeTAE g\u00e9n\u00e8re des annotations RDF \u00e0 partir des informations extraites et offre une interface d\u2019exploration des textes annot\u00e9s avec des requ\u00eates sous forme de formulaire. La plate-forme peut \u00eatre utilis\u00e9e pour analyser s\u00e9mantiquement les textes m\u00e9dicaux ou interroger la base d\u2019annotation disponible pour avoir une\/des r\u00e9ponses \u00e0 une requ\u00eate donn\u00e9e (e.g. \u00ab ?X pr\u00e9vient maladie d\u2019Alzheimer \u00bb, \u00e9quivalent \u00e0 la question \u00ab comment pr\u00e9venir la maladie d\u2019Alzheimer ? \u00bb). Cette application peut \u00eatre la base d\u2019un syst\u00e8me de questions-r\u00e9ponses pour le domaine m\u00e9dical.","translation":["","This paper presents MeTAE, a platform for semantic annotation and exploration of medical texts. The annotation process encompasses medical entity recognition and semantic relationship identification between the retrieved entities. This identification is based on linguistic patterns constructed manually for each type of relation. MeTAE generates RDF annotations from the extracted information and allows semantic exploration of the annotated texts through a form-based interface. The platform can be used to semantically analyze medical texts or to explore the available annotation base through structured queries (e.g. \u201c?X Prevents Alzheimer\u2019s disease\u201d for its natural-language equivalent: \u201chow to prevent Alzheimer\u2019s disease?\u201d). MeTAE can be a basis for a medical question-answering system.","Semantic annotation, semantic querying, medical domain"],"keyphrases":["domaine m\u00e9dical","Annotation s\u00e9mantique","interrogation s\u00e9mantique"],"prmu":["P","P","R"]} {"id":"taln-2010-demo-013","title":"LEOPAR, un analyseur syntaxique pour les grammaires d\u2019interaction","abstract":"Nous pr\u00e9sentons ici l\u2019analyseur syntaxique LEOPAR bas\u00e9 sur les grammaires d\u2019interaction ainsi que d\u2019autres outils utiles pour notre cha\u00eene de traitement syntaxique.","translation":["","We present the parser LEOPAR which is based on the Interaction Grammars formalism. We present also other tools used in our framework for parsing.","Parsing, Interaction Grammars, polarities"],"keyphrases":["grammaires d\u2019interaction","Analyse syntaxique","polarit\u00e9s"],"prmu":["P","M","U"]} {"id":"taln-2010-demo-014","title":"TransSearch : un moteur de recherche de traductions","abstract":"Malgr\u00e9 les nombreuses \u00e9tudes visant \u00e0 am\u00e9liorer la traduction automatique, la traduction assist\u00e9e par ordinateur reste la solution pr\u00e9f\u00e9r\u00e9e des traducteurs lorsqu\u2019une sortie de qualit\u00e9 est recherch\u00e9e. Cette d\u00e9monstration vise \u00e0 pr\u00e9senter le moteur de recherche de traductions TransSearch. Cetteapplication commerciale, accessible sur leWeb, repose d\u2019une part sur l\u2019exploitation d\u2019un bitexte align\u00e9 au niveau des phrases, et d\u2019autre part sur des mod\u00e8les statistiques d\u2019alignement de mots.","translation":["","Despite the impressive amount of studies devoted to improving the state of the art of machine translation, computer assisted translation tools remain the preferred solution of human translators when publication quality is of concern. This demonstration presents the translation search engine TransSearch. This web-based commercial application relies on a sentence-aligned bitext and a statistical word alignment techniques.","Statistical machine translation, translation spotting, word alignment, linguistic queries"],"keyphrases":["alignement de mots","Traduction automatique statistique","rep\u00e9rage de traductions","requ\u00eates linguistiques"],"prmu":["P","R","M","U"]}