Dataset Preview Go to dataset viewer
id (string)title (string)abstract (string)keyphrases (json)prmu (json)translation (json)
recital-2011-long-001
Analyse de l’ambiguïté des requêtes utilisateurs par catégorisation thématique
Dans cet article, nous cherchons à identifier la nature de l’ambiguïté des requêtes utilisateurs issues d’un moteur de recherche dédié à l’actualité, 2424actu.fr, en utilisant une tâche de catégorisation. Dans un premier temps, nous verrons les différentes formes de l’ambiguïté des requêtes déjà décrites dans les travaux de TAL. Nous confrontons la vision lexicographique de l’ambiguïté à celle décrite par les techniques de classification appliquées à la recherche d’information. Dans un deuxième temps, nous appliquons une méthode de catégorisation thématique afin d’explorer l’ambiguïté des requêtes, celle-ci nous permet de conduire une analyse sémantique de ces requêtes, en intégrant la dimension temporelle propre au contexte des news. Nous proposons une typologie des phénomènes d’ambiguïté basée sur notre analyse sémantique. Enfin, nous comparons l’exploration par catégorisation à une ressource comme Wikipédia, montrant concrètement les divergences des deux approches.
[ "ambiguïté", "recherche d’information", "classification de requêtes" ]
[ "P", "P", "R" ]
[ "", "In this paper, we try to identify the nature of ambiguity of user queries from a search engine dedicated to news, 2424actu.fr, using a categorization task. At first, we see different forms of ambiguity queries already described in the works of NLP. We confront lexicographical vision of the ambiguity to that described by classification techniques applied to information retrieval. In a second step, we apply a method of categorizing themes to explore the ambiguity of queries, it allow us to conduct a semantic analysis of these applications by integrating temporal context-specific news. We propose a typology of phenomena of ambiguity based on our semantic analysis. Finally, we compare the exploration by categorization with a resource as Wikipedia, showing concretely the differences between these two approaches.", "Information retrieval, ambiguity, classification queries" ]
recital-2011-long-002
Extraction Automatique d'Informations Pédagogiques Pertinentes à partir de Documents Textuels
Plusieurs utilisateurs ont souvent besoin d'informations pédagogiques pour les intégrer dans leurs ressources pédagogiques, ou pour les utiliser dans un processus d'apprentissage. Une indexation de ces informations s'avère donc utile en vue d'une extraction des informations pédagogiques pertinentes en réponse à une requête utilisateur. La plupart des systèmes d'extraction d'informations pédagogiques existants proposent une indexation basée sur une annotation manuelle ou semi-automatique des informations pédagogiques, tâche qui n'est pas préférée par les utilisateurs. Dans cet article, nous proposons une approche d'indexation d'objets pédagogiques (Définition, Exemple, Exercice, etc.) basée sur une annotation sémantique par Exploration Contextuelle des documents. L'index généré servira à une extraction des objets pertinents répondant à une requête utilisateur sémantique. Nous procédons, ensuite, à un classement des objets extraits selon leur pertinence en utilisant l'algorithme Rocchio. Notre objectif est de mettre en valeur une indexation à partir de contextes sémantiques et non pas à partir de seuls termes linguistiques.
[ "objets pédagogiques", "exploration contextuelle", "algorithme Rocchio", "extraction d’informations", "carte sémantique" ]
[ "P", "P", "P", "M", "M" ]
[ "", "Different users need pedagogical information in order to use them in their resources or in a learning process. Indexing this information is therefore useful for extracting relevant pedagogical information in response to a user request. Several searching systems of pedagogical information propose manual or semi-automatic annotations to index documents, which is a complex task for users. In this article, we propose an approach to index pedagogical objects (Definition, Exercise, Example, etc.) based on automatic annotation of documents using Contextual Exploration. Then, we use the index to extract relevant pedagogical objects as response to the user's requests. We proceed to sort the extracted objects according to their relevance. Our objective is to reach the relevant objects using a contextual semantic analysis of the text.", "Information retrieval, pedagogical objects, semantic map, Contextual Exploration, Rocchio algorithm" ]
recital-2011-long-003
Des outils de TAL en support aux experts de sûreté industrielle pour l’exploitation de bases de données de retour d’expérience
Cet article présente des applications d’outils et méthodes du traitement automatique des langues (TAL) à la maîtrise du risque industriel grâce à l’analyse de données textuelles issues de volumineuses bases de retour d’expérience (REX). Il explicite d’abord le domaine de la gestion de la sûreté, ses aspects politiques et sociaux ainsi que l’activité des experts en sûreté et les besoins qu’ils expriment. Dans un deuxième temps il présente une série de techniques, comme la classification automatique de documents, le repérage de subjectivité, et le clustering, adaptées aux données REX visant à répondre à ces besoins présents et à venir, sous forme d’outils, en support à l’activité des experts.
[ "sûreté industrielle", "risque", "REX", "classification automatique", "subjectivité", "clustering", "rapport d’incident", "signaux faibles", "recherche d’information", "similarité" ]
[ "P", "P", "P", "P", "P", "P", "M", "U", "M", "U" ]
[ "", "This article presents a series of natural language processing (NLP) techniques, applied to the domain of industrial risk management and the analysis of large collections of textual feedback data. First we describe the socio-political aspects of the risk mangement domain, the activity of the investigators working with this data. We then present present applications of NLP techniques like automatic text classification, clustering and opinion extraction, responding to different needs stated by the investigators.", "risk management, incident report, industrial safety, weak signals, automatic classification, information retrieval, similarity, clustering, subjectivity" ]
recital-2011-long-004
Vers une algèbre des relations de discours pour la comparaison de structures discursives
Nous proposons une méthodologie pour la construction de règles de déduction de relations de discours, destinées à être intégrées dans une algèbre de ces relations. La construction de ces règles a comme principal objectif de pouvoir calculer la fermeture discursive d’une structure de discours, c’est-à-dire de déduire toutes les relations que la structure contient implicitement. Calculer la fermeture des structures discursives peut permettre d’améliorer leur comparaison, notamment dans le cadre de l’évaluation de systèmes d’analyse automatique du discours. Nous présentons la méthodologie adoptée, que nous illustrons par l’étude d’une règle de déduction.
[ "Relation de discours", "déduction", "fermeture discursive", "évaluation" ]
[ "P", "P", "P", "P" ]
[ "", "We propose a methodology for the construction of discourse relations inference rules, to be integrated into an algebra of these relations. The construction of these rules has as main objective to allow for the calculation of the discourse closure of a structure, i.e. deduce all the relations implicitly contained in the structure. Calculating the closure of discourse structures improves their comparison, in particular within the evaluation of discourse parsing systems. We present the adopted methodology, which we illustrate by the study of a rule.", "Discourse relation, discourse closure, evaluation, inference" ]
recital-2011-court-002
Ressources lexicales au service de recherche et d’indexation des images
Cet article présente une méthodologie d’utilisation du Trésor de la Langue Française informatisée (TLFi) pour l’indexation et la recherche des images fondée sur l’annotation textuelle. Nous utilisons les définitions du TLFi pour la création automatique et l’enrichissement d’un thésaurus à partir des mots-clés de la requête de recherche et des mots-clés attribués à l’image lors de l’indexation. Plus précisement il s’agit d’associer, de façon automatisé, à chaque mot-clé de l’image une liste des mots extraits de ses définitions TLFi pour un domaine donné, en construisant ainsi un arbre hiérarchique. L’approche proposée permet une catégorisation très précise des images, selon les domaines, une indexation de grandes quantités d’images et une recherche rapide.
[ "recherche", "indexation", "images", "TLFi", "thésaurus" ]
[ "P", "P", "P", "P", "P" ]
[ "", "This article presents a methodology for using the “Trésor de la Langue Française informatisée” (TLFi) for indexing and searching images based on textual annotation. We use the definitions of TLFi for automatic creation and enrichment of a thesaurus based on keywords from the search query and the keywords assigned to the image during indexing. More specifically it is automatically to associate, to each keyword of the image a list of words from their TLFi’s definitions for a given area, thus building a hierarchical tree. The proposed approach allows a very accurate categorization of images, depending on the fields, a indexing of large amounts of images and a quick search.", "TLFi, indexing, search, images, thesaurus" ]
recital-2011-court-003
Repérer les phrases évaluatives dans les articles de presse à partir d’indices et de stéréotypes d’écriture
Ce papier présente une méthode de recherche des phrases évaluatives dans les articles de presse économique et financière à partir de marques et d’indices stéréotypés, propres au style journalistique, apparaissant de manière concomitante à l’expression d’évaluation(s) dans les phrases. Ces marques et indices ont été dégagés par le biais d’une annotation manuelle. Ils ont ensuite été implémentés, en vue d’une phase-test d’annotation automatique, sous forme de grammaires DCG/GULP permettant, par filtrage, de matcher les phrases les contenant. Les résultats de notre première tentative d’annotation automatique sont présentés dans cet article. Enfin les perspectives offertes par cette méthode relativement peu coûteuse en ressources (à base d’indices non intrinsèquement évaluatifs) font l’objet d’une discussion.
[ "évaluation", "presse économique et financière", "style journalistique", "Opinion", "repérage de phrases évaluatives", "indices/marques/stéréotypes d’écriture" ]
[ "P", "P", "P", "U", "M", "R" ]
[ "", "This paper presents a method to locate evaluative sentences in financial and economic newspapers, relying on marks and stereotyped signs. Peculiar to journalese, these are present concomitantly with the expression of evaluation(s) in sentences. These marks or signs have been found by means of a manual annotation. Then, in preparation for an automatic annotation phase, they have been implemented in the form of DCG/GULP grammars which, by filtering, allows to locate the sentences containing them. The results of our first automatic annotation attempt are shown in this article. Furthermore, the prospects offered by this method, which relies on nonintrinsically evaluative marks and therefore does not require long lists of lexical resources, are discussed.", "Opinion, appraisal, detection of evaluative sentences, financial and economic newspapers, journalese, writing signs/marks/stereotypes" ]
recital-2011-court-004
La complexité linguistique Méthode d’analyse
La complexité linguistique regroupe différents phénomènes dont il s’agit de modéliser le rapport. Le travail en cours que je décris ici propose une réflexion sur les approches linguistiques et techniques de cette notion et la mise en application d’un balayage des textes qui s’efforce de contribuer à leur enrichissement. Ce traitement en surface effectué suivant une liste de critères qui représentent parfois des approximations de logiques plus élaborées tente de fournir une image ``raisonnable'' de la complexité.
[ "Complexité", "lisibilité", "allemand", "analyse de surface" ]
[ "P", "U", "U", "R" ]
[ "", "Linguistic complexity includes various linguistic phenomena which interaction is to be modeled. The ongoing work described here tackles linguistic and technical approaches of this idea as well as an implementation of a parsing method which is part of text enrichment techniques. This chunk parsing is performed according to a list of criteria that may consist in logical approximations of more sophisticated processes in order to provide a ``reasonable'' image of complexity.", "Complexity, lisibility, German, chunk parsing" ]
recital-2010-long-001
Attribution d’auteur au moyen de modèles de langue et de modèles stylométriques
Dans une tâche consistant à trouver l’auteur (parmi 53) de chacun de 114 textes, nous analysons la performance de modèles de langue et de modèles stylométriques sous les angles du rappel et du nombre de paramètres. Le modèle de mots bigramme à lissage de Kneser-Ney modifié interpolé est le plus performant (75 % de bonnes réponses au premier rang). Parmi les modèles stylométriques, une combinaison de 7 paramètres liés aux parties du discours produit les meilleurs résultats (rappel de 25 % au premier rang). Dans les deux catégories de modèles, le rappel maximal n’est pas atteint lorsque le nombre de paramètres est le plus élevé.
[ "Attribution d’auteur", "modèle de langue", "stylométrie", "n-grammes", "vecteurs de traits" ]
[ "P", "P", "P", "U", "M" ]
[ "", "In a task consisting of attributing the proper author (among 53) of each of 114 texts, we analyze the performance of language models and stylometric models from the point of view of recall and the number of parameters. The best performance is obtained with a bigram word model using interpolated modified Kneser-Ney smoothing (first-rank recall of 75 %). The best of the stylometric models, which combines 7 parameters characterizing the proportion of the different parts of speech in a text, has a firstrank recall of 25 % only. In both types of models, the maximal recall is not reached when the number of parameters is highest.", "Authorship attribution, language model, stylometry, n-grams, feature vectors" ]
recital-2010-long-002
Densidées : calcul automatique de la densité des idées dans un corpus oral
La densité des idées, qui correspond au ratio entre le nombre de propositions sémantiques et le nombre de mots dans un texte reflète la qualité informative des propositions langagières d’un texte. L'apparition de la maladie d'Alzheimer a été reliée à une dégradation de la densité des idées, ce qui explique l'intérêt pour un calcul automatique de cette mesure. Nous proposons une méthode basée sur un étiquetage morphosyntaxique et des règles d'ajustement, inspirée du logiciel CPIDR. Cette méthode a été validée sur un corpus de quarante entretiens oraux transcrits et obtient de meilleurs résultats pour le français que CPIDR pour l’anglais. Elle est implémentée dans le logiciel libre Densidées disponible sur http://code.google.com/p/densidees.
[ "densité des idées", "analyse prédicative", "étiquetage sémantique", "psycholinguistique" ]
[ "P", "U", "R", "U" ]
[ "", "Idea density, which is the ratio of semantic propositions divided by the number of words in a text, reflects the informative quality of the sentences of a text. A decreasing idea density has been identified as one of the symptoms of Alzheimer’s disease, which explains the interest in an automatic calculation of idea density. We propose a method based on part-of-speech tagging followed by adjustment rules inspired from the CPIDR software. This method was validated on a corpus of 40 transcribed conversations in French and obtains better results in French than CPIDR in English. It is implemented in the free software Densidées available at http://code.google.com/p/densidees.", "idea density, propositional analysis, semantic tagging, psycholinguistics" ]
recital-2010-long-003
Outils de segmentation du chinois et textométrie
La segmentation en mots est une première étape possible dans le traitement automatique de la langue chinoise. Les systèmes de segmentation se sont beaucoup développés depuis le premier apparu dans les années 1980. Il n’existe cependant aucun outil standard aujourd’hui. L’objectif de ce travail est de faire une comparaison des différents outils de segmentation en s’appuyant sur une analyse statistique. Le but est de définir pour quel type de texte chacun d’eux est le plus performant. Quatre outils de segmentation et deux corpus avec des thèmes distincts ont été choisis pour cette étude. À l’aide des outils textométriques Lexico3 et mkAlign, nous avons centré notre analyse sur le nombre de syllabes du chinois. Les données quantitatives ont permis d’objectiver des différences entre les outils. Le système Hylanda s’avère performant dans la segmentation des termes spécialisés et le système Stanford est plus indiqué pour les textes généraux. L’étude de la comparaison des outils de segmentation montre le statut incontournable de l’analyse textométrique aujourd’hui, celle-ci permettant d’avoir accès rapidement à la recherche d’information.
[ "Textométrie", "nombre de syllabes", "comparaison des segmenteurs chinois" ]
[ "P", "P", "M" ]
[ "", "Chinese word segmentation is the first step in Chinese natural language processing. The system of segmentation has considerably developed since the first automatic system of segmentation of the 1980’s. However, till today there are no standard tools. The aim of this paper is to compare various tools of segmentation by through statistical analysis. Our goal is to identify the kind of texts for which these segmentation tools are the most effective. This study chose four segmentation tools and two corpora, marked by distinct themes. Using two textometric toolboxes, Lexico3 and mkAlign, we focused on the number of syllables in Chinese. The quantitative data allowed us to objectify disparities between tools. The Hylanda system turns out to be effective in the segmentation of specialized terms and the Stanford system is more appropriate for general texts. The comparative study of segmenters shows the undeniable status of textometrical analysis which is able to quickly access information retrieval.", "Textometry, comparison of Chinese segmenters, number of syllables" ]
recital-2010-long-004
Acquisition de grammaires locales pour l’extraction de relations entre entités nommées
La constitution de ressources linguistiques est une tâche cruciale pour les systèmes d’extraction d’information fondés sur une approche symbolique. Ces systèmes reposent en effet sur des grammaires utilisant des informations issues de dictionnaires électroniques ou de réseaux sémantiques afin de décrire un phénomène linguistique précis à rechercher dans les textes. La création et la révision manuelle de telles ressources sont des tâches longues et coûteuses en milieu industriel. Nous présentons ici un nouvel algorithme produisant une grammaire d’extraction de relations entre entités nommées, de manière semi-automatique à partir d’un petit ensemble de phrases représentatives. Dans un premier temps, le linguiste repère un jeu de phrases pertinentes à partir d’une analyse des cooccurrences d’entités repérées automatiquement. Cet échantillon n’a pas forcément une taille importante. Puis, un algorithme permet de produire une grammaire en généralisant progressivement les éléments lexicaux exprimant la relation entre entités. L’originalité de l’approche repose sur trois aspects : une représentation riche du document initial permettant des généralisations pertinentes, la collaboration étroite entre les aspects automatiques et l’apport du linguiste et sur la volonté de contrôler le processus en ayant toujours affaire à des données lisibles par un humain.
[ "grammaire", "relation", "entité nommée" ]
[ "P", "P", "P" ]
[ "", "Building linguistics resources is a vital task for information extraction systems based on a symbolic approach : cascaded patterns use information from digital dictionaries or semantic networks to describe a precise linguistic phenomenon in texts. The manual elaboration and revision of such patterns is a long and costly process in an industrial environment. This work presents a semi-automatic method for creating patterns that detect relations between named entities in corpora. The process is made of two different phases. The result of the first phase is a collection of sentences containing the relevant relation. This collection isn’t necessairly big. During the second phase, an algorithm automatically produces the recognition grammar by generalizing the actual content of the different relevant sentences. This method is original from three different points of view : it uses a rich description of the linguistic content to allow accurate generalizations, it is based on a close collaboration between an automatic process and a linguist and, lastly, the output of the acquisition process is always readable and modifiable by the end user.", "relation, named entity, pattern" ]
recital-2010-long-005
Construction d’un corpus de paraphrases d’énoncés par traduction multiple multilingue
Les corpus de paraphrases à large échelle sont importants dans de nombreuses applications de TAL. Dans cet article nous présentons une méthode visant à obtenir un corpus parallèle de paraphrases d’énoncés en français. Elle vise à collecter des traductions multiples proposées par des contributeurs volontaires francophones à partir de plusieurs langues européennes. Nous formulons l’hypothèse que deux traductions soumises indépendamment par deux participants conservent généralement le sens de la phrase d’origine, quelle que soit la langue à partir de laquelle la traduction est effectuée. L’analyse des résultats nous permet de discuter cette hypothèse.
[ "paraphrases", "traductions multiples", "corpus monolingue parallèle" ]
[ "P", "P", "M" ]
[ "", "Large scale paraphrase corpora are important for a variety of natural language processing applications. In this paper, we present an approach which collects multiple translations from several languages proposed by volunteers in order to obtain a parallel corpus of paraphrases in French. We hypothesize that two translations proposed independently by two volunteers usually retain the meaning of the original sentence, regardless of the language from which the translation is done. The analysis of results allows us to discuss this hypothesis.", "monolingual parallel corpora, paraphrases, multiple translations" ]
recital-2010-long-006
Ces noms qui cachent des événements : un premier repérage
La détection des informations temporelles est cruciale pour le traitement automatique des textes, qu’il s’agisse de modélisation linguistique, d’applications en compréhension du langage ou encore de tâches de recherche documentaire ou d’extraction d’informations. De nombreux travaux ont été dédiés à l’analyse temporelle des textes, et plus précisément l’annotation des expressions temporelles ou des événements sous leurs différentes formes : verbales, adjectivales ou nominales. Dans cet article, nous décrivons une méthode pour la détection des syntagmes nominaux dénotant des événements. Notre approche est basée sur l’implémentation d’un test linguistique simple proposé par les linguistes pour cette tâche. Nous avons expérimenté notre méthode sur deux corpus différents ; le premier est composé d’articles de presse et le second est beaucoup plus grand, utilisant une interface pour interroger automatiquement le moteur de recherche Yahoo. Les résultats obtenus ont montré que cette méthode se révèle plus pertinente pour un plus large corpus.
[ "Repérage des événements nominaux", "annotation temporelle" ]
[ "R", "R" ]
[ "", "The detection of temporal information is a crucial task for automatic text processing. It is not only used in linguistics for the modelization of phenomenon and reasoning implying time entities but also in numerous applications in language comprehension, information retrieval, question-answering and information extraction. Many studies have been devoted to the temporal analysis of texts, and more precisely to the tagging of temporal entities and relations occurring in texts. Among these lasts, the various avatars of events in their multiples occurring forms has been tackled by numerous works. In this article we describe a method for the detection of noun phrases denoting events. Our approach is based on the implementation of a simple linguistic test proposed by linguists for this task. Our method is applied on two different corpora ; the first is composed of newspaper articles and the second, a much larger one, rests on an interface for automatically querying the Yahoo search engine. Primary results are encouraging and increasing the size of the learning corpora should allow for a real statistical validation of the results.", "Nominal event recognition, temporal annotation" ]
recital-2010-long-007
Catégorisation automatique d'adjectifs d'opinion à partir d'une ressource linguistique générique
Cet article décrit un processus d’annotation manuelle de textes d’opinion, basé sur un schéma fin d'annotation indépendant de la langue et du corpus. Ensuite, à partir d'une partie de ce schéma, une méthode de construction automatique d'un lexique d'opinion à partir d'un analyseur syntaxique et d'une ressource linguistique est décrite. Cette méthode consiste à construire un arbre de décision basé sur les classes de concepts de la ressource utilisée. Dans un premier temps, nous avons étudié la couverture du lexique d'opinion obtenu par comparaison avec l’annotation manuelle effectuée sur un premier corpus de critiques de restaurants. La généricité de ce lexique a été mesurée en le comparant avec un second lexique, généré à partir d'un corpus de commentaires de films. Dans un second temps, nous avons évalué l'utilisabilité du lexique au travers d'une tâche extrinsèque, la reconnaissance de la polarité de commentaires d'internautes.
[ "Analyse d'opinion", "Extension de lexique", "Annotation d'opinions" ]
[ "M", "M", "M" ]
[ "", "This paper introduces a manual annotation process of opinion texts, based on a fine-featured annotation scheme, independent of language and corpus. Then, from a part of this scheme, a method to build automatically an opinion lexicon from a syntactic analyser and a linguistic resource is described. This method consists in building a decision tree from the classes of the resource. The coverage of the lexicon has been determined by comparing it to the gold annotation of a restaurants review corpus. Its genericity was determined by comparing it to another lexicon generated from a different domain corpus (movie reviews). Eventually, the usefulness of the lexicon has been measured with an extrinsic task, the recognition of the polarity of reviews.", "Opinion mining, Lexicon extension, Opinion annotation" ]
recital-2010-long-008
Résumé automatique de documents arabes basé sur la technique RST
Dans cet article, nous nous intéressons au résumé automatique de textes arabes. Nous commençons par présenter une étude analytique réalisée sur un corpus de travail qui nous a permis de déduire, suite à des observations empiriques, un ensemble de relations et de frames (règles ou patrons) rhétoriques; ensuite nous présentons notre méthode de production de résumés pour les textes arabes. La méthode que nous proposons se base sur la Théorie de la Structure Rhétorique (RST) (Mann et al., 1988) et utilise des connaissances purement linguistiques. Le principe de notre proposition s’appuie sur trois piliers. Le premier pilier est le repérage des relations rhétoriques entres les différentes unités minimales du texte dont l’une possède le statut de noyau – segment de texte primordial pour la cohérence – et l’autre a le statut noyau ou satellite – segment optionnel. Le deuxième pilier est le dressage et la simplification de l’arbre RST. Le troisième pilier est la sélection des phrases noyaux formant le résumé final, qui tiennent en compte le type de relation rhétoriques choisi pour l’extrait.
[ "Résumé automatique de textes arabes", "Théorie de la Structure Rhétorique", "Relations rhétoriques", "Marqueurs linguistiques" ]
[ "P", "P", "P", "M" ]
[ "", "In this paper, we focus on automatic summarization of Arabic texts. We start by presenting an analytical study carried out on a study corpus which enabled us to deduce, following empirical observations, a set of relations and rhetorical frames; then we present our proposed method to produce summaries for Arabic texts. This method is based bases on the Rhetorical Structure Theory (RST) technique (Mann and Al., 1988) and uses purely linguistic knowledge. The principle of the proposed method is based on three pillars. The first pillar is the location of the rhetorical relations between the various minimal units of the text of which one has the status of nucleus - text segment necessary to maintain coherence - and the other has the status of nucleus or satellite - optional segment. The second pillar is the representation and the simplification of RST-tree that is considered most descriptive. The third pillar is the selection of the nucleus sentences forming the final summary, which hold in account the type of rhetorical relations chosen.", "Rhetorical Structure Theory, Rhetorical relations, Linguistic markers, Automatic summarization of Arabic texts" ]
recital-2010-long-009
Inférences aspecto-temporelles analysées avec la Logique Combinatoire
Ce travail s’inscrit dans une recherche centrée sur une approche de l’Intelligence Artificielle (IA) et de la linguistique computationnelle. Il permet d’intégrer différentes techniques formelles de la Logique Combinatoire avec des types (Curry) et sa programmation fonctionnelle (Haskell) avec une théorie énonciative du temps et de l’aspect. Nous proposons des calculs formels de valeurs aspectotemporelles (processus inaccompli présent, processus inaccompli passé, événement passé et étatrésultant présent) associées à des représentations de significations verbales sous forme de schèmes applicatifs.
[ "Logique Combinatoire", "Haskell", "Référentiel énonciatif", "Schème sémantico-cognitif", "Grammaire Applicative et Cognitive" ]
[ "P", "P", "M", "M", "M" ]
[ "", "This work is in line with the research centered on an approach of the Artificial Intelligence and the Computational linguistic. It allows integrating different formal technologies of the Combinatory Logic with types (Curry) and their functional programme (Haskell) with an enunciative theory of the tense and the aspect. We propose formal calculus of aspecto-temporal values (present unaccomplished process, past unaccomplished process, past event and present résultative-state) associated with representations of verbal meanings in the form of applicative schemes.", "Combinatory Logic, Enunciative Frame of reference, Semantic-cognitive scheme, Applicative and Cognitive Grammar, Haskell" ]
recital-2010-long-010
Automatiser la rédaction de définitions terminographiques : questions et traitements
Dans cet article, nous présentons une analyse manuelle de corpus de contextes conceptuels afin (i) de voir dans quelle mesure les méthodes de TALN existantes sont en principe adéquates pour automatiser la rédaction de définitions terminographiques, et (ii) de dégager des question précises dont la résolution permettrait d’automatiser davantage la production de définitions. Le but est de contribuer à la réflexion sur les enjeux de l’automatisation de cette tâche, en procédant à une série d’analyses qui nous mènent, étape par étape, à examiner l’adéquation des méthodes d’extraction de définitions et de contextes plus larges au travail terminographique de rédaction des définitions. De ces analyses émergent des questions précises relatives à la pertinence des informations extraites et à leur sélection. Des propositions de solutions et leurs implications pour le TALN sont examinées.
[ "définitions terminographiques", "contextes conceptuels", "extraction de définitions", "Terminologie", "sélection des traits", "pertinence des traits", "traitement automatique des définitions." ]
[ "P", "P", "P", "U", "R", "R", "M" ]
[ "", "A manual corpus analysis of conceptual contexts is presented in order (i) to indicatively evaluate to what extent NLP methods can in principle be used to automate the production of terminographic definitions, and (ii) to identify central questions to be answered if one wants to further automate the task. The objective is to contribute to reflection on the challenges faced by the automation of this task. Through a series of analyses, the adequacy of extraction methods for defining or knowledge-rich contexts is examined in the light of the terminographic activity of definition writing. Precise questions emerge from these analyses relating to the relevance and the selection of the extracted information. Some solutions are proposed and their implications to NLP reviewed.", "Terminology, terminographic definitions, feature selection, feature relevance, definition extraction, conceptual contexts, definition processing." ]
recital-2010-long-011
Représentation vectorielle de textes courts d’opinions, Analyse de traitements sémantiques pour la fouille d’opinions par clustering
Avec le développement d’internet et des sites d’échanges (forums, blogs, sondages en ligne, ...), l’exploitation de nouvelles sources d’informations dans le but d’en extraire des opinions sur des sujets précis (film, commerce,...) devient possible. Dans ce papier, nous présentons une approche de fouille d’opinions à partir de textes courts. Nous expliquons notamment en quoi notre choix d’utilisation de regroupements autour des idées exprimées nous a conduit à opter pour une représentation implicite telle que la représentation vectorielle. Nous voyons également les différents traitements sémantiques intégrés à notre chaîne de traitement (traitement de la négation, lemmatisation, stemmatisation, synonymie ou même polysémie des mots) et discutons leur impact sur la qualité des regroupements obtenus.
[ "représentation vectorielle", "représentation des textes", "traitement de textes courts", "regroupements d’opinions" ]
[ "P", "R", "R", "R" ]
[ "", "With the internet and sharing web sites developement (forums, blogs, online surveys, ...), new data source exploitation in order to extract opinions about various subjects (film, business, ...) becomes possible. In this paper, we show an opinion mining approach from short texts. We explain how our choice of using opinions clustering have conducted us to use an implicit representation like vectorial representation. We present different semantic process that we have incorporated into our process chain (negation process, lemmatisation, stemmatisation, synonymy or polysemy) and we discut their impact on the cluster quality.", "text representation, vectorial representation, short text processing, opinion clustering" ]
recital-2003-long-001
Analyse syntaxique de l’'Arabe: Le système MASPAR
De nombreux systèmes de Traitement Automatique des Langues (TAL) utilisent une architecture séquentielle basée sur la transmission, à la fin de chaque phase d’analyse, des résultats trouvés à la phase d’analyse suivante. Ces types de systèmes séquentiels posent plusieurs problèmes (i.e. explosion combinatoire des solutions, lourdeur d’analyse, etc.). Pour remédier à ces problèmes, plusieurs solutions de remplacement ont vu le jour, nous pouvons citer par exemple, l’utilisation des approches multi-agent que nous avons adopté pour faire l’analyse syntaxique de textes Arabes, et que nous présentons dans cet article.
[ "Analyse syntaxique", "Robustesse d’analyse", "HPSG", "système multi-agent", "AgentBuilder" ]
[ "P", "M", "U", "R", "U" ]
[ "", "", "Syntactic Analysis, Robust analysis, HPSG, multi-agent system, AgentBuilder" ]
recital-2003-long-002
Fusionner pour mieux analyser: quelques idées et une première expérience
L’objectif de cet article est de présenter nos travaux sur l’analyse d’un énoncé vers une structure de dépendance. Cette structure décrit les relations entre mots, des relations syntaxiques mais également des relations sémantiques de surface de l’énoncé de départ dans un certain contexte. L’idée est de créer une plateforme d’analyse capable d’intégrer des analyseurs linguistiques existants (syntaxiques ou de dépendance) et de fusionner leurs résultats dans le but d’obtenir une analyse de dépendance pour des énoncés quelconques.
[ "fusion", "intégration", "Analyse de dépendance", "analyse syntaxique" ]
[ "P", "P", "P", "R" ]
[ "", "The article’s goal is to present our work about the parsing of a sentence to a dependency structure. This structure describes the relations between words, syntactic relations but also surface semantic relations of a sentence in a certain context. The idea is to create an analysis’ platform capable of integrating existing linguistic parsers (syntactic parsers or dependency parsers) and to fusion their results to obtain a dependency parsing from a sentence.", "Dependency parsing, syntactic parsing, integration, fusion" ]
recital-2003-long-003
Extraction de segments thématiques pour la construction de résumé multi-document orienté par un profil utilisateur
Dans cet article, nous présentons une méthode qui vise à donner à un utilisateur la possibilité de parcourir rapidement un ensemble de documents par le biais d’un profil utilisateur. Un profil est un ensemble de termes structuré en sous-ensembles thématiquement homogènes. L’analyse des documents se fonde pour sa part sur l’extraction des passages les plus étroitement en relation avec ce profil. Cette analyse permet en particulier d’étendre le vocabulaire définissant un profil en fonction du document traité en sélectionnant les termes de ce dernier les plus étroitement liés aux termes du profil. Cette capacité ouvre ainsi la voie à une plus grande finesse du filtrage en permettant la sélection d’extraits de documents ayant un lien plus ténu avec les profils mais davantage susceptibles d’apporter des informations nouvelles et donc intéressantes. La production du résumé résulte de l’appariement entre les segments délimités lors de l’analyse des documents et les thèmes du profil.
[ "résumé multi-document", "profil utilisateur", "Extraction d’information" ]
[ "P", "P", "R" ]
[ "", "In this article, we present an information extraction method that selects from a set of documents their most significant excerpts in relation to an user profile. This method relies on both structured profiles and a topical analysis of documents. The topical analysis is notably used for expanding a profile in relation to a particular document by selecting the terms of the document that are closely linked to those of the profile. This expansion is a way for selecting in a more reliable way excerpts that are not strongly linked to profiles but that may bring new and interessant information about their topics.", "Information extraction, user profile, multi-document summarization" ]
recital-2003-long-004
Structure communicative du discours : étude pour la génération automatique de textes
Dans cet article, nous montrons que la cohérence d’un discours dépend de la relation entre la structure communicative des phrases et la structure du discours. Du point de vue de la synthèse, la visée communicative contrôle la structure du discours, et la structure du discours contraint le choix des structures communicatives phrastiques : nous proposons de reproduire ce processus dans un système de génération de textes. Nous montrons de quelle manière la structure communicative intervient lors de la phase de structuration de document pour permettre la génération de discours cohérents et répondant à des visées communicatives particulières.
[ "génération automatique de textes", "structuration de document", "Structure communicative (ou structure informationnelle)", "progression thématique", "structure du discours (relations de discours)" ]
[ "P", "P", "M", "U", "M" ]
[ "", "In this paper, we show that discourse coherence depends on the relationship between communicative structure of sentences and discourse structure. From the synthesis point of view, communicative goal controls discourse structure, and discourse structure constrains choice of communicative structures of sentences : we propose to reproduce this process in a natural language generation system. We show how communicative structure can be used during document structuring task so as to produce discourses which are coherent and corresponding to particular communicative goals.", "Communicative structure (or information structure), thematic progression, discourse structure (discourse relations), document structuring, natural language generation" ]
recital-2003-long-005
Procédures d’apprentissage endogène doublées de ressources exogènes : résolution en corpus d’une ambiguïté sur “de ”
Dans cette étude, nous nous intéressons à l’apport de ressources exogènes dans un analyseur syntaxique de corpus basé sur des procédures d’apprentissage endogène. Nous menons une expérience en corpus sur un cas d’ambiguïté catégorielle du français (forme de en position postverbale, article ou préposition). Après avoir présenté et évalué la stratégie endogène, nous en analysons les limites. Nous discutons ensuite la perspective d’une approche mixte combinant des informations acquises de manière endogène à des informations exogènes (données de sous-catégorisation verbale sur la préposition de). Nous montrons alors comment un apport maximal de ressources exogènes améliore les performances de l’analyseur (+8%, +15% sur les deux corpus évalués). Nous présentons les premiers résultats d’une approche mixte avant de conclure sur les orientations futures du travail.
[ "ressource exogène", "approche mixte", "analyse syntaxique automatique", "approche endogène", "ambiguïté catégorielle" ]
[ "P", "P", "M", "R", "R" ]
[ "", "This paper addresses the issue of the contribution of exogenous resources within the framework of a parser, based on endogenous techniques. We discuss how exogenous resources could combine with endogenous techniques in the context of a POS French ambiguity (the word de, determiner or preposition). We present and evaluate our endogenous strategy on cases where verbs are adjacent to de. We highlight the limits of such a strategy and show how exogenous resources improve the parser output (+8%, +15% on the corpus evaluated). Finally, we present the first results of the combined strategy and conclude on future work.", "automatic parsing, endogenous strategy, exogenous resources, hybrid approach, POS ambiguity" ]
recital-2003-long-006
Polysémie verbale et construction syntaxique : étude sur le verbe jouer
Dans l’analyse sémantique de textes, un des obstacles au TAL est la polysémie des unités linguistiques. Par exemple, le sens du verbe jouer peut varier en fonction du contexte : Il joue de la trompette (pratiquer) ; Il joue avec son fils (s’amuser). Une des approches pour traiter ces ambiguïtés de sens, est le modèle de la construction dynamique du sens proposé par B. Victorri et C. Fuchs (1996). Dans ce modèle, on associe à chaque unité polysémique un espace sémantique, et le sens de l’unité dans un énoncé donné est le résultat d’une interaction dynamique avec les autres unités présentes dans l’énoncé. Nous voulons montrer ici que les constructions verbales sont des éléments du co-texte qui contribuent, au même titre que le co-texte lexical, au processus dynamique de construction du sens du verbe. L’objectif est alors de montrer que les constructions verbales sont porteuses de sens intrinsèque (Goldberg, 1995) et qu’elles permettent dans notre modèle de contraindre automatiquement le sens d’un verbe.
[ "polysémie", "construction syntaxique", "espace sémantique", "calcul du sens", "préposition" ]
[ "P", "P", "P", "M", "U" ]
[ "", "Polysemy is an important issue in Natural Language Processing. For instance, in French, the meaning of the verb jouer (to play) change with the context : Il joue de la trompette (to practice) ; Il joue avec son fils (to enjoy oneself). The model of \"Dynamical construction of meaning\" (Victorri, Fuchs, 1996) is an interesting approach for dealing with this problem. In this model, each polysemic unit is assigned a semantic space. The meaning of unit in a particular sentence is the result of a dynamical interaction with all other units of the sentence. In this paper, we consider the syntactic constructions as units contributing to the global meaning like the other linguistics units. We want to show that verbal constructions have an intrinsic meaning (Goldberg, 1995), and that we can use automatically this meaning to held selecting the right meaning of a verb.", "polysemy, meaning calculation, syntactic structure, semantic space, preposition" ]
recital-2003-long-007
Vers une Approche Fonctionnelle de la Résolution de la Référence dans le Dialogue Finalisé
Dans cet article, nous montrons l’insuffisance du pouvoir d’expression des approches par prédicats pour la résolution de la référence en extension dans un cadre générique de dialogue homme-machine. Cette insuffisance oblige pour l’instant les concepteurs de tels systèmes de dialogue à concevoir des heuristiques ad hoc impossibles à intégrer dans un cadre de description unifié. Nous montrons que la résolution des expressions référentielles nécessite la prise en compte du contexte même pour les termes portant sur des caractéristiques intrinsèques aux éléments. Nous proposons alors un formalisme pour représenter la sémantique des extracteurs référentiels intrinsèques. Ce formalisme repose sur trois fonctions, la première permet de calculer le rapport de similarité de deux éléments en fonction d’une certaine dimension et dans un certain contexte, les deux autres permettent de partitionner un domaine de référence trié par l’utilisation de la première fonction.
[ "Approche Fonctionnelle", "Résolution de la Référence Intrinsèque", "Dialogue Homme Machine" ]
[ "P", "R", "M" ]
[ "", "In this paper, we show the lack of expressiveness of predicative approaches for extensional reference resolution. This drawback forces dialogue systems designers to develop specific heuristics for solving some reference cases they can’t integrate in a unified representation framework. As we focus on extensional reference resolution in a generic framework for human computer dialogue system, we point the fact that the process of resolving referential expressions needs to take context into account even for expressions involving intrinsic characteristics of elements. Thus we propose a representation model for the semantic of intrinsic referential extractors. This model is built on three functions, the first one serves to calculate the similarity ratio between two elements, the two others serve to partition a reference domain which is previously sorted by the first function.", "Reference Resolution, Intrinsic Reference, Functional Approach, Human Computer Dialogue" ]
recital-2003-long-008
Société d’agents apprenants et sémantique lexicale : comment construire des vecteurs conceptuels à l’aide de la double boucle
Dans le cadre de la représentation du sens en TALN, nous développons actuellement un système d’analyse des aspects thématiques des textes et de désambiguïsation lexicale basée sur les vecteurs conceptuels. Ces vecteurs visent à représenter un ensemble d’idées associées à tout segment textuel. À partir de ce modèle, nous avons posé des hypothèses sur la construction des vecteurs. Dans cet article, nous montrons comment ces hypothèses, ainsi que des considérations techniques comme la possibilité de distribuer les tâches à effectuer ou la modularité, nous ont amenées à adopter une architecture multi-agents. Chaque agent possède un certain nombre de compétences, une mémoire qui lui est propre et peut interragir avec son environnement (les autres agents). Pour finir, nous présentons les agents déjà implémentés et un exemple de leur collaboration.
[ "sociétés d’agents", "sémantique lexicale", "vecteurs conceptuels", "apprentissage" ]
[ "P", "P", "P", "U" ]
[ "", "In the framework of research in meaning representations in NLP, we focus our attention on thematic aspects and lexical disambiguation based on conceptual vectors. These vectors are supposed to encode “ideas” associated to words or expressions. Starting from this model, we have built a number of hypothesis on the construction of vectors. In this article, we show how we adopted a multi-agents architecture using these hypothesis together with some technical considerations such as modularity and tasks distribution. Each agent has some abilities, a memory, and can interact with its environment (the other agents). To conclude, we present implemented agents and an example of their collaboration.", "agents society, conceptual vectors, lexical semantic, learning" ]
recital-2003-poster-001
Un "langage pivot" pour articuler description et formalisation : l’exemple des verbes introducteurs de "que-phrases"
Nous présentons dans cet article une réflexion en vue de la modélisation d’une partie du patrimoine descriptif du français finalement peu utilisé en TALN. Pour ce faire, nous utilisons le concept de langage "pivot" qui permet d’articuler la description et la présentation formalisée.
[ "description", "formalisation", "que-phrase", "Langage \"pivot\"" ]
[ "P", "P", "P", "P" ]
[ "", "This paper presents insights to rewrite in a \"one level\" formal language a part of French descriptive patrimony finally not much employed in NLP. We make use the concept of \"pivot\" language that allows to combine the description of a language and his formalized presentation.", "\"pivot\" language, Wh-sentence, description, formalization" ]
recital-2003-poster-002
Un étiquetage morphologique pour une résolution des ambiguïtés morphologiques en anglais
Cet article expose la recherche effectuée dans le cadre de mon doctorat visant à élaborer un étiquetage morphologique de l’anglais et à désambiguïser automatiquement les ambiguïtés dues à la morphologie dans le cadre du projet LABELGRAM [9]. Nous montrons qu’il est très pertinent et efficace de travailler conjointement sur l’étiquetage et la désambiguïsation. Nous décrivons de manière précise notre contribution au système qui a consisté à mettre en place la partie anglaise. Pour ce faire, nous avons établi un dictionnaire en intention, nous avons évalué quantitativement le phénomène d’ambiguïté morphologique et établi la validité de la méthode de désambiguïsation par règles contextuelles pour l’anglais.
[ "étiquetage morphologique", "Anglais", "ambiguïtés dues à la morphologie", "TAL", "grammaires locales", "contexte" ]
[ "P", "P", "P", "U", "U", "U" ]
[ "", "The issue of this paper is to present a morphological tagging of English dedicated to resolve morphological ambiguities within the LABELGRAM project. We show it is useful to work on both fields of NLP at the same time since they make their mutual contribution to each other. To establish the base of the English part of the LABELGRAM software, we completely built up an intention dictionary of the English language, we quantitatively brought the ambiguity to the fore, and we precisely described ambiguous contexts of simple words and proved the context based disambiguation valid for English. Finally we give a tool, useful for many NLP fields, even semantic processing.", "English, NLP, morphological tagging, morphological ambiguities, local grammars, context" ]
recital-2003-poster-003
Traitement de la morphologie du finnois par transducteurs à nombre fini d’états
Cette étude présente un modèle pour le traitement de la morphologie du finnois. Ce modèle est fondé sur des transducteurs à nombre fini d’états. L’approche utilise une façon originale d’organiser les données et de générer dynamiquement une structure sémantique à partir d’une analyse morphologique. L’approche est linguistiquement validée par une étude des suffixes de dérivation verbale en finnois.
[ "finnois", "suffixe", "Dérivation", "tranducteurs à nombre fini d’états" ]
[ "P", "P", "P", "M" ]
[ "", "This study presents a model for Finnish morphology processing. This model is based on finite-state machines. The approach uses an original way to structure the data and dynamically generates semantic information from the morphology analysis. The approach is linguistically validated by a study of Finnish verbal suffixes.", "Derivation, suffix, finnish, finite state tranducers" ]
recital-2003-poster-004
Un outil de représentation et de développement des Grammaires de Propriétés
Nous présentons dans cet article un outil graphique de développement de grammaire, basé sur le formalisme des Grammaires de Propriétés. Nous y exprimons les raisons pour lesquelles l’association d’une représentation complète et ergonomique, et d’un modèle formel flexible et homogène fournit un avantage considérable pour l’intégration des informations issues de la linguistique descriptive.
[ "Linguistique descriptive", "Linguistique formelle", "Grammaires de Propriétés (GP)", "Traitement Automatique des Langues Naturelles (TALN)", "Syntaxe" ]
[ "P", "R", "M", "M", "U" ]
[ "", "We present in this paper a graphical tool for grammar development, based upon the Property Grammars formalism. We explain the reasons why the association of a complete and ergonomic representation and a neutral and homogeneous model, provides the considerable advantage of integrating information coming from descriptive linguistics.", "Descriptive linguistics, Formal linguistics, Property Grammars (PG), Natural Language Processing (NLP), Syntax" ]
recital-2003-poster-005
Annotation sémantique hors-source à l’aide de vecteurs conceptuels
Dans le cadre de la recherche en sémantique lexicale, nous utilisons le modèle des vecteurs conceptuels pour représenter les sens de termes. La base vectorielle est construite à partir de définitions provenant de diverses sources lexicales, ce qui permet statistiquement de tempérer les diverses incohérences locales. Pour désigner le sens obtenu après un regroupement des définitions, nous utilisons un identificateur qui entraîne certaines contraintes. En particulier, un “cluster” de définition est désigné par une référence vers différentes définitions de la multisource. D’autre part, le contrôle de la qualité d’une classification ou désambiguisation de sens impose de faire référence en permanence au lexique source. Nous proposons donc de nommer un sens à l’aide d’un autre terme du lexique. L’annotation est un outil léger et efficace qui est essentiellement une association d’idées que l’on peut extraire de toute base de connaissance linguistique. Les annotations obtenues peuvent finalement constituer une nouvelle source d’apprentissage pour la base de vecteurs conceptuels.
[ "annotation sémantique", "désambiguisation sémantique lexicale" ]
[ "P", "R" ]
[ "", "In the framework of research in meaning representation in NLP, we focus our attention on thematic aspects and conceptual vectors. This vectorial base is built by a morphosyntaxic analysis of several lexical resources to reduce isolated problems. Also a meaning is a cluster of definitions that are pointed by an Id number. To check the results of an automatic clustering or WSD, we must refer continously to the source dictionnary. We describe in this article a method for naming a word sens by a term of vocabulary. This kind of annotation is a light and efficient method the uses meanings associations someone or something can extract from any lexical knowledge base. Finally, the annotations should become a new lexical learning resource to improve the vectorial base.", "WSD, word sense disambiguation, word sense tagging, annotation" ]
recital-2003-poster-006
Un système de segmentation du chinois basé sur des triplets
Un des problèmes rencontrés lors de l’analyse de textes en chinois est qu’il n’existe pas de séparateur entré lés mots dans cette langue. Le mot étant une unité linguistique fondamentale en traitement automatique dé la langue, il est nécessaire d'identifier les mots dans un texte chinois afin que des analysés de plus haut niveau puissent être réalisées. Le but de cet article est dé présenter un système d’idéntification dés mots basé sur un algorithme utilisant des triplets dé catégories grammaticales ét dés fréquences de mots. Cé système comprend deux dictionnaires : l’un dédié aux mots ét à léurs fréquences, l’autré aux triplets dés catégories correspondantes. Les tests qui ont été effectués révèlent que 98,5% dés phrases sont découpées correctement. Certaines erreurs sont dués à la taillé limitée du dictionnaire utilisé. Une réflexion sur la création de nouvelles catégories ét dés études proposant des règles grammaticales sont en cours de réalisation afin d’aug1nénter la performance du système.
[ "segmentation du chinois", "Tokenisation", "ngrammes", "approche statistique", "maximum matching" ]
[ "P", "U", "U", "U", "U" ]
[ "", "One of the problems encountered by Chinese texts analysis is that there is no separator between the words in this language. As a fundamental linguistic unit in automatic treatment of the language, word is necessary to be identified in a Chinese text so that higher-level analyses can be carried out. The goal of this work is to develop a system, identifying words, based on an algorithm of triplets of grammatical categories and words frequencies. This system contains two dictionaries. One is dedicated to the words and their frequencies, the other, to the triplets of the corresponding categories. The tests carried out reveal that this system works very well, 98.5% of the sentences are segmented correctly. Thus, a reflection about the creation of new categories and the study proposing the grammatical rules are carrying out to improve the performance of the triplets.", "Chinese segmentation, ngrams, statistical approach, maximum matching" ]
recital-2003-poster-007
Vers une architecture générique de système de dialogue oral homme-machine
Cet article présente une architecture générique de système de dialogue oral homme-machine. Premièrement, nous abordons quelques problèmes soulevés par la généricité des systèmes de dialogue homme-machine. Nous décrivons ensuite dans ce cadre quelques systèmes récents et typiques. Nous présentons finalement une architecture générique pour concevoir/construire des systèmes de dialogue oral homme-machine.
[ "Dialogue homme-machine", "gestion du dialogue", "gestion de la tâche", "compréhension", "interprétation" ]
[ "P", "M", "M", "U", "U" ]
[ "", "In this paper, we present a general architecture for the dialog person-machine system that enables human interacts with a machine via speech’s modality. First, we approach some notions of dialog system, the role of the speech in application, their interests and their limitations. Then, we present some recent, critical dialog person-machine systems and finally, we describe our architecture proposed for designing and constructing the general dialog systems.", "Human-machine dialogue system, dialogue management, task management, comprehension, interpretation" ]
recital-2003-poster-008
Sélection de critères pour le filtrage automatique de messages
La plupart des systèmes de filtrage du courrier électronique existants enregistrent des lacunes ou faiblesses sur l’efficacité du filtrage. Certains systèmes sont basés seulement sur le traitement de la partie structurée (un ensemble de règles sur l’entête du message), et d’autres sont basés sur un balayage superficiel de la partie texte du message (occurrence d’un ensemble de mots clés décrivant les intérêts de l’utilisateur). Cet article propose une double amélioration de ces systèmes. D’une part, nous proposons un ensemble de critères automatisables et susceptibles d’influer sur le processus de filtrage. Ces critères sont des indices qui portent généralement sur la structure et le contenu des messages. D’autre part, nous utilisons une méthode d’apprentissage automatique permettant au système d’apprendre à partir de données et de s’adapter à la nature des mails dans le temps. Dans cet article, nous nous intéressons à un type de messages bien particulier, qui continue à polluer nos boîtes emails de façon croissante : les messages indésirables, appelés spam. Nous présentons à la fin les résultats d’une expérience d’évaluation.
[ "spam", "Filtrage d’information", "e-mail", "réseaux de neurones", "apprentissage" ]
[ "P", "M", "U", "M", "U" ]
[ "", "Most of existing filtering messages systems exhibit weaknesses in term of efficiency. In fact, there are systems that use only message header information and others use a superficial processing of message body. In this paper, we try to improve the filtering processes efficiency. First, we introduce a set of criteria which are cues related to the message structure and content. Second, we use a machine learning method allowing the system to learn from data and to adapt to the email nature. We are interested in a special type of messages that continuously poluate our email boxes: spam email. At the end, to measure the approach performances, we illustrate and discuss the results obtained by experimental evaluations.", "Information filtering, e-mail, neural network, learning, e-mail filtering, spam" ]
recital-2004-long-001
Système de Question Réponse : apport de l’analyse syntaxique lors de l’extraction de la réponse
Dans cet article, nous présentons le système de Question Réponse QALC, et nous nous intéressons tout particulièrement à l’extraction de la réponse. Un appariement question-réponse fondé sur les relations syntaxiques a été développé, afin d’améliorer les performances du système. Un projet de génération de réponses à partir de plusieurs documents est également discuté.
[ "Système de Question Réponse", "analyse syntaxique", "fusion de documents" ]
[ "P", "P", "M" ]
[ "", "In this paper, we present the question answering system QALC, and we particularly focus on the answer extraction. A question and answer matching based on syntactic relations has been developed, in order to improve the results of our system. A project aiming at fusing answers from several documents is also discussed.", "Question answering system, syntactic analysis, document fusion" ]
recital-2004-long-002
Acquisition de relations lexicales désambiguïsées à partir du Web
Nous montrons dans cet article qu’un pré-étiquetage des usages des mots par un algorithme de désambiguïsation tel qu’HyperLex (Véronis, 2003, 2004) permet d’obtenir des relations lexicales (du type NOM-ADJECTIF, NOM de NOM, NOM-VERBE) beaucoup plus exploitables, parce qu’elles-mêmes catégorisées en fonction des usages. De plus, cette technique permet d’obtenir des relations pour des usages très peu fréquents, alors qu’une extraction indifférenciée « noie » ces relations au milieu de celles correspondant aux usages les plus fréquents. Nous avons conduit une évaluation sur un corpus de plusieurs milliers de pages Web comportant l’un des 10 mots-cibles très polysémiques choisis pour cette expérience, et nous montrons que la précision obtenue est très bonne, avec un rappel honorable, suffisant en tout cas pour de nombreuses applications. L’analyse des erreurs ouvre des perspectives d’améliorations pour la suite de notre travail de thèse.
[ "relations lexicales", "Corpus", "acquisition automatique", "désambiguïsation lexicale" ]
[ "P", "P", "M", "R" ]
[ "", "This study shows that a pre-labeling of word uses by means of a disambiguation algorithm such as HyperLex (Véronis, 2003, 2004) allows a better extraction of lexical relations (NOUNADJECTIVE, NOUN “de” NOUN, NOUN-VERB, etc.), since these relations are categorised with respect to word use. In addition, this technique enables us to retrieve relations for very infrequent word uses, which otherwise would be buried in the residual noise corresponding to the most frequent uses. We performed an evaluation on several thousand web pages containing a target word among a set of 10 highly polysemic ones. We show that the precision obtained is very good, with a quite honourable recall, sufficient in any case for many applications. The analysis of errors opens avenues of research for the rest of our PhD work.", "Corpus, lexical relations, automatic acquisition, word sense disambiguation" ]
recital-2004-long-003
Indexation automatique de ressources de santé à l’aide d’un vocabulaire contrôlé
Nous présentons ici le système d’indexation automatique actuellement en cours de développement dans l’équipe CISMeF afin d’aider les documentalistes lors de l’indexation de ressources de santé. Nous détaillons l’architecture du système pour l’extraction de mots clés MeSH, et présentons les résultats d’une première évaluation. La stratégie d’indexation choisie atteint une précision comparable à celle des systèmes existants. De plus, elle permet d’extraire des paires mot clé/qualificatif, et non des termes isolés, ce qui constitue une indexation beaucoup plus fine. Les travaux en cours s’attachent à étendre la couverture des dictionnaires, et des tests à plus grande échelle sont envisagés afin de valider le système et d’évaluer sa valeur ajoutée dans le travail quotidien des documentalistes.
[ "Indexation Automatique", "Vocabulaire Contrôlé", "Terminologie Médicale" ]
[ "P", "P", "U" ]
[ "", "This paper presents the automatic indexing system currently developed in the CISMeF team to assist human indexers. The system architecture, using the INTEX platform for MeSH term extraction is detailed. The results of a preliminary experiment indicate that the automatic indexing strategy is relevant, as it achieves a precision comparable to that of other existing operational systems. Moreover, the system presented in this paper retrieves keyword/qualifier pairs as opposed to single terms, therefore providing a significantly more precise indexing. Further development and tests will be carried out in order to improve the coverage, and validate the efficiency of the system in the librarians’ everyday work.", "Automatic Indexing, Medical terminology, Controlled Vocabulary" ]
recital-2004-long-004
Appariement bilingue de mots par propagation syntaxique à partir de corpus français/anglais alignés
Nous présentons une méthode d’appariement de mots, à partir de corpus français/anglais alignés, qui s’appuie sur l’analyse syntaxique en dépendance des phrases. Tout d’abord, les mots sont appariés à un niveau global grâce au calcul des fréquences de cooccurrence dans des phrases alignées. Ces mots constituent les couples amorces qui servent de point de départ à la propagation des liens d’appariement à l’aide des différentes relations de dépendance identifiées par un analyseur syntaxique dans chacune des deux langues. Pour le moment, cette méthode dite d’appariement local traite majoritairement des cas de parallélisme, c’est-à-dire des cas où les relations syntaxiques sont identiques dans les deux langues et les mots appariés de même catégorie. Elle offre un taux de réussite de 95,4% toutes relations confondues.
[ "appariement syntaxique de mots", "corpus parallèle", "traitement automatique des langues naturelles" ]
[ "R", "R", "M" ]
[ "", "We present a word alignment procedure based on a syntactic dependency analysis of French/English parallel corpora. First, words are associated at a global level by comparing their co-occurrences in aligned sentences with respect to their overall occurrences in order to derive a set of anchor words. The anchor words are the starting point of the propagation process of alignment links using the different syntactic relations identified by a parser for each language. This process is called the local alignment. For the moment, it is performed basically when the syntactic relations are identical in both languages and the words aligned have the same part of speech. This method achieves a precision rate of 95,4% all syntactic relations taken into account.", "syntactic word alignment, parallel corpora, natural language processing" ]
recital-2004-long-005
Quelques principes pour une grammaire multimodale non-modulaire du français
Dans cet article, nous introduisons une approche de la représentation et de l’analyse des discours multimodaux, basée sur un traitement unimodulaire par contraintes. Le but de cet article est de présenter (i) un système de représentation des données et (ii) une méthode d’analyse, permettant une interaction simplifiée entre les différentes modalités de communication. L’avantage de cette méthode est qu’elle permet la prise en compte rigoureuse d’informations communicatives de natures diverses en un traitement unique, grâce à une représentation homogène des objets, de leurs relations, et de leur méthode d’analyse, selon le modèle des Grammaires de Propriétés.
[ "Grammaires de Propriétés", "Analyse multimodale", "Linguistique formelle", "Développement de grammaire" ]
[ "P", "R", "U", "M" ]
[ "", "In this paper, we introduce an approach to multimodal discourse representation and analysis, based on a unimodular constraint-based treatment. The aim of this paper is to present (i) a data representation system, and (ii) an analysis method, which allow a simple interaction between the various modalities of communication. The advantage of this method is that it allows to rigorously take into account multi-character information within a single treatment, thanks to a homogeneous representation of the objects, of their relations, and of their analysis method, according to the Property Grammars formalism.", "Multimodal analysis, Formal linguistics, Grammar development, Property Grammars" ]
recital-2004-long-006
L'annotation syntaxique de corpus oraux constitue-t-elle un problème spécifique ?
Dans cet article, nous présentons une typologie des phénomènes qui posent problème pour l'annotation syntaxique de corpus oraux. Nous montrons également que ces phénomènes, même s'ils y sont d'une fréquence moindre, sont loin d'être absents à l'écrit (ils peuvent même être tout à fait significatifs dans certains corpus : e-mails, chats, SMS…), et que leur prise en compte peut améliorer l'annotation et fournir un cadre intégré pour l'oral et l'écrit.
[ "Annotation syntaxique", "corpus oraux", "NFCE", "annotation de référence" ]
[ "P", "P", "U", "M" ]
[ "", "In this paper, we present a typology of the phenomena that create problems for the syntactic tagging of spoken corpora. We also show that these phenomena, although less frequent, are far from being absent in written language (they can even be quite significant in some corpora: e-mails, chats, SMS…). Taken them into account can improve the annotation and provide a unified analysis framework for both spoken and written data.", "Syntactic annotation, spoken corpora, reference annotation" ]
recital-2004-long-007
Automates lexicaux avec structure de traits
Nous présentons les automates lexicaux avec structure de traits, une extension du modèle des automates finis sur le mots dans lesquels les transitions sont étiquetées par des motifs qui sélectionnent un sous-ensemble des mots étiquetés en fonction de leurs traits positionnés. Nous montrons l’adéquation de ce modèle avec les ressources linguistiques dont nous disposons et nous exposons les grandes lignes de nos méthodes pour effectuer des opérations telles que la déterminisation, l’intersection ou la complémentation sur ces objets. Nous terminons en présentant une application concrète de ces méthodes pour la levée d’ambiguïtés lexicales par intersection d’automates à l’aide de contraintes locales.
[ "automates finis", "levée d’ambiguïtés", "grammaire locale", "dictionnaire électronique", "lexique-grammaire" ]
[ "P", "P", "M", "U", "U" ]
[ "", "We present an extension to finite automata on words in which transitions are labeled with lexical masks describing a subset of their alphabet. We first show the connection between this model and our linguitic data and we present our implementation of classical automata operations on these objects. Then we show a concrete application of our methods to lexical disambiguation making use of grammatical constraints described in local grammars.", "finite state automata, local grammar, electronic dictionnary, disambiguation, lexicon-grammar" ]
recital-2004-long-008
Géométriser le sens
Les recherches en sémantique lexicale s’appuient de plus en plus sur des ressources électroniques de grande taille (dictionnaires informatisés, corpus, ontologies) à partir desquelles on peut obtenir diverses relations sémantiques entre unités lexicales. Ces relations sont naturellement modélisées par des graphes. Bien qu'ils décrivent des phénomènes lexicaux très différents, ces graphes ont en commun des caractéristiques bien particulières. On dit qu’ils sont de type petit monde. Nous voulons mener une étude théorique mathématique et informatique de la structure de ces graphes pour le lexique. Il s’agit de les géométriser afin de faire apparaître l'organisation du lexique, qui est implicitement encodée dans leur structure. Les outils mis en place sont testés sur le graphe du dictionnaire électronique des synonymes (www.crisco.unicaen.fr). Ils constituent une extension du logiciel Visusyn développé par Ploux et Victorri (1998).
[ "Lexique", "synonymie", "espace sémantique", "graphes petit monde" ]
[ "P", "P", "M", "R" ]
[ "", "Research in lexical semantics tends to rely on large-scale electronic language resources (machine-readable dictionaries, corpora, ontologies), from which one can get varied semantic relationships between lexical units. Such relationships are naturally modelled by graphs. Although they describe different lexical phenomena, these graphs share some very specific characteristics. They are called \"small worlds\". We want to carry out a theoretical mathematical and informatic study of these graphs. The point is to geometrise them in order to reveal the organisation of the lexicon that is encoded in their structure. The tools we developed are tested on the graph of the electronic dictionary of synonyms (www.crisco.unicaen.fr). They represent an extension of Visusyn, the software developed by Ploux and Victorri (1998).", "Lexicon, Semantic space, synonymy, graph, small world" ]
recital-2004-poster-001
ICHARATE : Un Atelier Logique pour les Grammaires Multimodales
Cet article présente le projet de l’atelier logique ICHARATE dédié à l’étude des grammaires catégorielles multimodales. Cet atelier se présente sous la forme de bibliothèques pour l’assistant de preuves Coq.
[ "grammaires catégorielles", "assistant de preuves", "analyse syntaxique", "théorie des types" ]
[ "P", "P", "U", "M" ]
[ "", "", "" ]
recital-2004-poster-002
De la lexie au vocable : la représentation formelle des liens de polysémie
Cet article s’intéresse aux définitions formalisées de la base de données BDéf et montre en quoi la structure formelle de ces définitions est à même d’offrir une représentation originale de la polysémie lexicale.
[ "LEC", "dictionnaire électronique formalisé", "structure définitionnelle", "TAL" ]
[ "U", "M", "M", "U" ]
[ "", "This article deals with formal structure of BDéf’s definitions and shows in what way this structure is appropriate to offer an original representation of the lexical polysemy phenomenon.", "ECL, formalised electronical dictionnary, structure of the definition, NLP" ]
recital-2004-poster-003
Système d'extraction d'information dédié à la veille Qui est qui? Qui fait quoi? Où? Quand? Comment?
Dans cet article nous présentons un outil d’extraction d’information dédié à la veille qui répond à un certain nombre de requêtes formulées par l'utilisateur, en combinant la puissance des outils et les ressources informatiques à une analyse linguistique. Cette analyse linguistique permet le repérage des entités nommées (acteurs, lieux, temps,…) ainsi que la mise en relation des acteurs avec leur environnement dans l'espace et le temps au moyen d'indices déclencheurs, d’indices complémentaires et de règles qui les combinent, c'est le principe de l'Exploration Contextuelle. Les résultats capitalisés dans des fichiers XML, sont proposés par le biais d’une interface, soit sous forme de graphes soit sous forme de base d'informations.
[ "Extraction d’information", "Ressources", "Exploration Contextuelle", "Classes sémantiques", "Réseau sémantique" ]
[ "P", "P", "P", "U", "U" ]
[ "", "In this article we present an information extraction tool which answers a certain number of requests formulated by the user, by combining data-processing with a linguistic analysis. This linguistic analysis allows the location of the named entities (actors, places, time...) thus the relations between actors and their environments in space and time by means of indices, indicators and rules which combine them, it is the principle of Contextual Exploration. The results capitalized in XML files are presented in an interface, either in the form of graphs or in the form of databases.", "Semantic classes, Information Extraction, Contextual Exploration, Resources, Semantic network" ]
recital-2004-poster-004
Développement d’un système de Résumé automatique de Textes Juridiques
Nous décrivons notre méthode de production automatique du résumé de textes juridiques. C’est une nouvelle application du résumé qui permet aux juristes de consulter rapidement les idées clés d’une décision juridique pour trouver les jurisprudences pertinentes à leurs besoins. Notre approche est basée sur l’exploitation de l’architecture des documents et les structures thématiques, afin de constituer automatiquement des fiches de résumé qui augmentent la cohérence et la lisibilité du résumé. Dans cet article nous détaillons les conceptions des différentes composantes du système, appelé LetSum et le résultat d’évaluation.
[ "Résumé automatique", "textes juridiques", "fiches de résumé", "segmentation thématique" ]
[ "P", "P", "P", "M" ]
[ "", "We describe our method for dealing with automatic summarization techniques in the legal domain. This new application of summary helps a legal expert determine the key ideas of a judgement. Our approach is based on the exploration of the document’s architecture and its thematic structures, in order to build a table style summary, which improves coherency and readability in the summary. We present the components of a system, called LetSum, built with this approach and some preliminary results of the evaluation.", "Automatic text summarization, summary table, topic segmentation, legals texts" ]
recital-2004-poster-005
Méthodes statistiques et apprentissage automatique pour l’évaluation de requêtes en recherche documentaire
Pour la recherche documentaire il est souvent intéressant d’avoir une bonne mesure de confiance dans les réponses trouvées par le moteur de recherche. Une bonne estimation de pertinence peut permettre de faire un choix entre plusieurs réponses (venant éventuellement de différents systèmes), d’appliquer des méthodes d’enrichissement additionnelles selon les besoins, ou encore de permettre à l’utilisateur de prendre des décisions (comme d’approfondir la recherche à travers un dialogue). Nous proposons une méthode permettant de faire une telle estimation, utilisant des connaissances extraites d’un ensemble de requˆetes connues pour en déduire des prédictions sur d’autres requˆetes posées au système de recherche documentaire.
[ "recherche documentaire", "apprentissage/décision automatique", "expansion de requêtes", "évaluation de difficulté" ]
[ "P", "M", "M", "M" ]
[ "", "In document retrieval applications it is often interesting to have a measure of confidence in the answers found by the retrieval system. A good relevance estimation can allow us to make a choice between different answers (possibly provided by different sources), apply additional expansion techniques according to the specific needs, or enable the user to make decisions (such as to refine the search interactively). We propose a method that allows us to make such estimations, using knowledge extracted from a known query corpus to deduce predictions on new queries presented to the document retrieval system.", "automatic learning/decision, document retrieval, query expansion, difficulty evaluation" ]
recital-2004-poster-006
Mot vide, mot plein ? Comment trancher localement
Nous présentons une méthode multilingue de catégorisation en mot vide / mot plein à partir de corpus brut. Cette méthode fait appel à des propriétés très générales des langues ainsi qu’à des techniques issues de la communauté de la fouille de données.
[ "Traitements multilingues", "découverte de mots vides", "alternative à une stop-list", "extraction de règles et de motifs fréquents" ]
[ "M", "M", "M", "M" ]
[ "", "We are presenting a NLP multilingual method for function word / content word categorization using no other resource than the raw text itself. This method uses very general linguistic properties and also engineering from data mining community.", "Multilingual NLP, function words discovery, stop-list alternation, rules and frequent pattern mining" ]
recital-2004-poster-007
Génération sémantico-syntaxique pour la traduction automatique basée sur une architecture interlingue
Dans cet article, nous présentons un processus de génération sémantico-syntaxique conçu et mis en oeuvre dans la réalisation d’un prototype de traduction automatique basée sur le modèle à structure intermédiaire (ou structure pivot). Dans une première partie de l’article, nous présentons l’organisation des ressources lexicales et sémantiques multilingues, ainsi que les mécanismes permettant d’exploiter ces ressources pour produire une représentation conceptuelle du sens de la phrase source. Dans une seconde partie, nous présentons la première phase de génération à partir d’une structure pivot (génération Sémantico-Syntaxique) permettant la construction d’une structure syntaxique profonde de la phrase cible à produire. Les autres phases de génération ne seront pas abordées dans cet article.
[ "Traduction Automatique", "Architecture interlingue", "structure syntaxique profonde", "sémantique lexicale", "Génération sémanticosyntaxique" ]
[ "P", "P", "P", "R", "M" ]
[ "", "This paper aims to present a method for the semantic-syntactic generation that has been proposed to build a machine translation prototype based on the interlingua translation model. The first part of the paper introduces the multilingual lexical and semantical resources, and the way they are used to build conceptual representations of the meaning of source sentences. The following part of the paper presents the first step in generating the target text from the conceptual representation (semantic-syntactic generation) which results on a deep syntactic structure of the targeted text. The other steps of the generation process will not be discussed in this paper.", "Machine Translation, Interlingual architecture, lexical semantics, semantic-syntactic generation, deep syntactic structure" ]
recital-2004-poster-008
Reconnaissance automatique des adjectifs durs et des adverbes réguliers lors de l’analyse morphologique automatique du slovaque
L’analyse morphologique automatique du slovaque constitue la première étape d’un système d’analyse automatique du contenu des textes scientifiques et techniques slovaques. Un tel système pourrait être utilisé par des applications telles que l’indexation automatique des textes, la recherche automatique de la terminologie ou par un système de traduction. Une description des régularités de la langue par un ensemble de règles ainsi que l’utilisation de tous les éléments au niveau de la forme du mot qui rendent possible son interprétation permettent de réduire d’une manière considérable le Volume des dictionnaires. Notamment s’il s’agît d’une langue à flexion très riche, comme le slovaque. La reconnaissance automatique des adjectifs durs et des adverbes réguliers constitue la partie la plus importante de nos travaux. Les résultats que nous obtenons lors de l’analyse morphologique confirment la faisabilité et la grande fiabilité d’une analyse morphologique basée sur la reconnaissance des formes et ceci pour toutes les catégories lexicales.
[ "Analyse morphologique", "Traitement automatique du slovaque", "Morphologie flexionnelle", "Morphologie dérivationnelle" ]
[ "P", "M", "M", "M" ]
[ "", "Automatic morphological analysis of Slovak language is the first level of an automatic analyser for Slovak scientific and technical texts. Such a system could be used for different applications: automatic text indexation, automatic research of terminology or translation systems. Rule-based descriptions of language regularities as Well as the use of all the formal level elements of Words allow reducing considerably the volume of dictionaries. Notably in case of inflectionally rich languages such as Slovak. The most important part of our research is the automatic recognition of adjectives and regular adverbs. The results obtained by our morphological analyser justify such an approach and confirm the high reliability of morphological analysis based on form-recognition for all lexical categories.", "Natural Language Processing of Slovak, Morphological Analysis, Inflectional Morphology, Derivational Morphology" ]
recital-2004-poster-009
Traitement informatique de l’inflexion dans le Lunaf, dictionnaire électronique du luxembourgeois
Afin de générer les formes fléchies des noms luxembourgeois dans le dictionnaire luxembourgeois, nous utilisons un code flexionnel. Ce code s’étant révélé trop contraignant pour traiter l’inflexion (alternance vocalique/Umlaut), nous présentons ici un moyen efficace pour coder ce phénomène. La pertinence de ce type de code est double. D’une part, il correspond mieux aux besoins du linguiste qui aimerait établir des classes flexionnelles naturelles sans trop de contraintes informatiques. D’autre part, il permet de réduire significativement le nombre de classes flexionnelles. Le dictionnaire électronique luxembourgeois dispose ainsi de deux codes qui peuvent se combiner entre eux pour mieux traiter les particularités morphologiques des mots luxembourgeois.
[ "luxembourgeois", "inflexion vocalique", "codage", "génération automatique" ]
[ "P", "R", "U", "M" ]
[ "", "In order to generate the inflected forms of the Luxemburgish nouns in the Luxemburgish dictionary, we use a flexional. This code having proved to be too constraining to treat the inflection (vocalic alternation/Umlaut), we present here an effective means to encode this phenomenon. The relevance of this code is two-fold. On the one hand, it corresponds better to the needs of the linguist who would like to establish natural flexional classes without too many data-processing constraints. In addition, it reduces the number of flexional classes significantly. The Luxemburgish dictionary has thus two codes which can be combined for a better processing of the morphological characteristics of the Luxemburgish words.", "vowel inflection, encoding, automatic generation, Luxemburgish" ]
recital-2004-poster-010
Nouvelle méthode syntagmatique de vectorisation appliquée au self-organizing map des textes vietnamiens
Par ses caractéristiques éminentes dans la présentation des données, Self-Organizing Map (SOM) est particulièrement convenable à l’organisation des cartes. SOM se comporte d’un ensemble des vecteurs prototypes pour représenter les données d’entrée, et fait une projection, en conservant la topologie, à partir des vecteurs prototypes de n-dimensions sur une carte de 2-dimensions. Cette carte deviendra une vision qui reflète la structure des classes des données. Nous notons un problème crucial pour SOM, c’est la méthode de vectorisation des données. Dans nos études, les données se présentent sous forme des textes. Bien que le modèle général du SOM soit déjà créé, il nous faut de nouvelles recherches pour traiter des langues spécifiques, comme le vietnamien, qui sont de nature assez différente de l’anglais. Donc, nous avons appliqué la conception du syntagme pour établir un algorithme qui est capable de résoudre ce problème.
[ "syntagme", "Self-Organizing Map", "text mining", "classification", "vectorisation du texte", "évaluation visuelle" ]
[ "P", "P", "M", "U", "R", "U" ]
[ "", "", "" ]
recital-2004-poster-011
Représentation compositionnelle de la sémantique de aussi
L’objectif de notre travail est de dégager une représentation formelle compositionnelle de la contribution sémantique de aussi lorsqu’il a une valeur additive. Plusieurs problèmes de compositionnalité, liés surtout à la diversité des arguments concernés par l’adverbe, vont se poser. Nous proposons une alternative compositionnelle à la représentation proposée initialement en l-DRT.
[ "Sémantique", "compositionnalité", "l-DRT", "présupposition" ]
[ "P", "P", "P", "U" ]
[ "", "The aim is to find a compositional formal representation to the French adverb aussi when it has an additive meaning. The variety of arguments of the adverb entails several problems of compositionality. Given the l-DRT representation is problematic, we try to propose an other one, compositional too.", "Semantics, l-DRT, presupposition, compositionality" ]
recital-2004-poster-012
La Transcription Orthographique-Phonetique De La Langue Arabe
Notre article présente les composants nécessaires à la synthèse de la parole arabe. Nous nous attarderons sur la transcription graphème phonème, étape primordiale pour l’élaboration d’un système de synthèse d’une qualité acceptable. Nous présenterons ensuite quelques-unes des règles utilisées pour la réalisation de notre système de traitement phonétique. Ces règles sont, pour notre système, stockées dans une base de données et sont parcourues plusieurs fois lors de la transcription.
[ "langue arabe", "Transcription graphème-phonème", "règles de transcription" ]
[ "P", "M", "R" ]
[ "", "Our paper presents the components which are necessary for the arabic speech synthesis. We will dwell on the transcription graphème phoneme, a primordial stage for the development of a synthesis system with an acceptable quality. Then, we will present some of the rules used for the realization of our phonetic treatment system. These rules are, for our system, stocked in a data base and are browsed several times during the transcription.", "Grapheme-phoneme transcription, Arabic language, transcription rules" ]
recital-2004-poster-014
Un système adaptable pour l’initialisation automatique d’une base lexicale interlingue par acceptions
Cet article présente une stratégie de construction semi-automatique d’une base lexicale interlingue par acception, à partir de ressources existantes, qui utilise en synergie des techniques existantes de désambiguïsation. Les apports et limitations de chaque technique sont présentés. Notre proposition est de pouvoir composer arbitrairement des techniques, en fonction des ressources disponibles, afin d’obtenir une base interlingue de la qualité souhaitée. Jeminie, un système adaptable qui met en oeuvre cette stratégie, est introduit dans cet article.
[ "base lexicale multilingue", "construction automatique de lexies et axies", "acception interlingue" ]
[ "M", "M", "R" ]
[ "", "This article presents a strategy for the semi-automatic building of an interlingual lexical database, based on existing resources, and using existing disambiguisation techniques in synergy. The pros and cons of each technique are given. Our proposal is to be able to compose techniques arbitrarily, according to the available resources, in order to produce an interlingual database of the desired quality. Jeminie, an adaptable system that implements this strategy, is introduced in this article.", "multilingual lexical database, automatic building of lexies and axies, interlingual acception" ]
recital-2004-poster-015
Analyse syntaxique et granularité variable
Il est souhaitable qu’une analyse syntaxique -en traitement automatique des langues naturellessoit réalisée avec plus ou moins de précision en fonction du contexte, c’est-à-dire que sa granularité soit réglable. Afin d’atteindre cet objectif, nous présentons ici des études préliminaires permettant d’appréhender les contextes technique et scientifique qui soulèvent ce problème. Nous établissons un cadre pour les développements à réaliser. Plusieurs types de granularité sont définis. Puis nous décrivons une technique basée sur la densité de satisfaction, développée dans ce cadre avec des algorithmes basés sur un formalisme de satisfaction de contraintes (celui des Grammaires de Propriétés) ayant l’avantage de permettre l’utilisation des mêmes ressources linguistiques avec un degré de précision réglable. Enfin, nous envisageons les développements ultérieurs pour une analyse syntaxique à granularité variable.
[ "Analyse syntaxique", "granularité variable", "densité de satisfaction", "grammaire de propriétés", "shallow parsing", "deep parsing" ]
[ "P", "P", "P", "P", "U", "U" ]
[ "", "It is gainful for a syntactic analysis - in Natural Language Processing- to be carried out with more or less accuracy depending on the context, i.e. its granularity should be adjustable. In order to reach this objective, we present here preliminary studies allowing, first of all, to understand the technical and scientific contexts which raise this problem. We establish a framework within which developments can be carried out. Several kinds of variable granularity are defined. We then describe a technic developed within this framework using satisfaction density, on algorithms based on a constraints satisfaction formalism (Property Grammars) and allowing the use of the same linguistic resources with an adjustable degree of accuracy. Lastly, we further consider developments towards a syntactic analysis with variable granularity.", "Parsing, variable granularity, property grammars, shallow parsing, deep parsing, satisfaction density" ]
recital-2004-poster-016
Réutilisation de traducteurs gratuits pour développer des systèmes multilingues
Nous présentons ici une méthode de réutilisation de systèmes de traduction automatique gratuits en ligne pour développer des applications multilingues et évaluer ces mêmes systèmes. Nous avons développé un outil de traitement et de traduction de documents hétérogènes (multilingues et multicodage). Cet outil permet d'identifier la langue et le codage du texte, de segmenter un texte hétérogène en zones homogènes, d'appeler un traducteur correspondant avec une paire de langue source et cible, et de récupérer les résultats traduits dans la langue souhaitée. Cet outil est utilisable dans plusieurs applications différentes comme la recherche multilingue, la traduction des courriers électroniques, la construction de sites web multilingues, etc.
[ "Multilinguisme", "Traduction Automatique", "Traducteur Multilingue", "Document Multilingue" ]
[ "P", "P", "R", "R" ]
[ "", "We present here a method of the reuse of the free on line automatic translation systems to develop multilingual applications and to evaluate translators. We developed a tool for treatment and translation of the heterogeneous documents (multilingual and multicoding). This tool makes it possible to identify the language and the coding of the text, to segment a heterogeneous text in homogeneous zones, to call a translator corresponding with a fair of languages and to recover the results translated into desired language. We can use this tool in several different applications as multilingual research, the translation of the e-mail, the construction of the multilingual Web, etc.", "Machine Translation, Multilingual Translator, Multilingualism, Multilingual Document" ]
recital-2004-poster-017
La relation de synonymie en génomique
L’accès au contenu des textes de génomique est aujourd’hui un enjeu important. Cela suppose au départ d’identifier les noms d’entités biologiques comme les gènes ou les protéines. Se pose alors la question de la variation de ces noms. Cette question revêt une importance particulière en génomique où les noms de gènes sont soumis à de nombreuses variations, notamment la synonymie. A partir d’une étude de corpus montrant que la synonymie est une relation stable et linguistiquement marquée, cet article propose une modélisation de la synonymie et une méthode d’extraction spécifiquement adaptée à cette relation. Au vu de nos premières expériences, cette méthode semble plus prometteuse que les approches génériques utilisées pour l’extraction de cette relation.
[ "synonymie", "génomique", "Extraction d’information", "entités nommées" ]
[ "P", "P", "M", "M" ]
[ "", "The access to textual content in genomics is now recognized as an important issue. One of the first steps is the recognition of biological entity names such as gene or protein names. It has often been observed that entity names may vary in texts but this phenomenon is especially common in genomics. Besides a gene canonical name, one can find various abbreviation forms, typographic variants and synonyms. Stemming in a corpus analysis, this paper argues that synonymy in genomic texts is a stable and linguistically marked relation. This paper presents a method for extracting couples of synonymous gene or protein names. From a preliminary experiment, this method seems more promising than generic approaches that are exploited to extract synonymy relations.", "Information extraction, synonymy, named entities, genomics" ]
recital-2004-poster-018
Analyse macro-sémantique: vers une analyse rhétorique du discours
S’inscrivant dans les domaines du TAL, de la linguistique sur corpus et de l’informatique documentaire, l’étude présentée ici opère plus précisément dans la perspective d’une analyse macrosémantique de la structuration discursive. Plus spécifiquement, nous proposons une analyse sémantique des structures rhétoriques du discours. Après avoir envisagé certaines voies ouvertes en la matière, nous définissons notre approche, et présentons les expérimentations conduites, dans le cadre du projet GeoSem, sur les structures énumératives dans le domaine géographique.
[ "Macro-sémantique", "analyse rhétorique", "structure du discours", "extraction d’information" ]
[ "P", "P", "R", "M" ]
[ "", "Within the frameworks of automatic NLP, corpus linguistics, and automatic document processing, this study aims more precisely at a macro-semantic examination of the discursive structuring. Specifically, a semantic study of the rhetorical structures of discourse is here suggested. After considering existing approaches, we present our own methodology, and relate experimentations, as part of the GeoSem project, on enumerative structures in geographical corpus.", "Macro-semantics, rhetorical analysis, discourse structuring, information retrieval" ]
recital-2005-long-002
Quels types de connaissance sémantique pour Questions-Réponses ?
Les systèmes de Questions Réponse ont besoin de connaissances sémantiques pour trouver dans les documents des termes susceptibles d’être des reformulations des termes de la question. Cependant, l’utilisation de ressources sémantiques peut apporter un bruit important et altérer la précision du système. ne fournit qu’une partie des reformulations possibles. Cet article présente un cadre d’évaluation pour les ressources sémantiques dans les systèmes de question-réponse. Il décrit la fabrication semi-automatique d’un corpus de questions et de réponses destiné à étudier les reformulations présentes entre termes de la question et termes de la réponse. Il étudie la fréquence et la fiabilité des reformulations extraites de l’ontologie WordNet.
[ "Système de Question Réponse", "ressources sémantiques", "évaluation des reformulations" ]
[ "P", "P", "R" ]
[ "", "Question Answering systems need semantic knowledge to find in the documents terms that are reformulations of the question’s terms. However, the use of semantic resources brings an important noise and a system’s precision might get depreciated. This article presents a framework for evaluating semantic resources in question-answering systems. It describes the semi-automated construction of a corpus containing questions and answers. This corpus can be used to study the various reformulations between the terms of the questions and the terms of the answers. This article studies the frequency and reliability of reformulations given by the WordNet ontology.", "Question Answering system, semantic resources, evaluation of reformulations" ]
recital-2005-long-003
Une plate-forme logicielle dédiée à la cartographie thématique de corpus
Cet article présente les principes de fonctionnement et les intérêts d’une plate-forme logicielle centrée sur un utilisateur ou un groupe d’utilisateurs et dédiée à la visualisation de propriétés thématiques d’ensembles de documents électroniques. Cette plate-forme, appelée ProxiDocs, permet de dresser des représentations graphiques (des cartes) d’un ensemble de textes à partir de thèmes choisis et définis par un utilisateur ou un groupe d’utilisateurs. Ces cartes sont interactives et permettent de visualiser les proximités et les différences thématiques entre textes composant le corpus étudié. Selon le type d’analyse souhaitée par l’utilisateur, ces cartes peuvent également s’animer afin de représenter les changements thématiques d’un ensemble de textes au fil du temps.
[ "cartographie de corpus", "analyse thématique", "logiciel individu-centré", "analyse des données textuelles" ]
[ "R", "R", "M", "M" ]
[ "", "This article presents a user-centered software dedicated to the visualization of thematic properties of sets of electronic documents. This software, called ProxiDocs, allows its users to realize thematic maps from a corpora and themes they choose and defined. These maps are interactive and reveal thematic proximities and differences between texts composing the studied corpus. According to the analysis wished by the user, maps can be animated in order to represent thematic changes of the analysed set of texts relating to the time.", "corpora cartography, thematic analysis, user-centered software, textual data analysis" ]
recital-2005-long-004
Segmentation morphologique à partir de corpus
Nous décrivons une méthode de segmentation morphologique automatique. L'algorithme utilise uniquement une liste des mots d'un corpus et tire parti des probabilités conditionnelles observées entre les sous-chaînes extraites de ce lexique. La méthode est également fondée sur l'utilisation de graphes d'alignement de segments de mots. Le résultat est un découpage de chaque mot sous la forme (préfixe*) + base + (suffixe*). Nous évaluons la pertinence des familles morphologiques découvertes par l'algorithme sur un corpus de textes médicaux français contenant des mots à la structure morphologique complexe.
[ "Segmentation morphologique", "corpus", "alignement de segments de mots" ]
[ "P", "P", "P" ]
[ "", "We describe a method that automatically segments words into morphs. The algorithm only uses a list of words collected in a corpus. It is based on the conditional probabilities between the substrings extracted from this lexicon. The method also makes use of word segments alignment graphs. As a result, all words are segmented into a sequence of morphs which has the following pattern: (prefix*) + base + (suffix*). We evaluate the morphological families discovered by the algorithm using a corpus of French medical texts containing words whose morphological structure is complex.", "Morphological segmentation, word segments alignment, corpus" ]
recital-2005-long-005
Traduction des règles de construction des mots pour résoudre l'incomplétude lexicale en traduction automatique - Etude de cas
Cet article propose d’exploiter les similitudes constructionnelles de deux langues morphologiquement proches (le français et l’italien), pour créer des règles de construction des mots capables de déconstruire un néologisme construit de la langue source et générer de manière similaire un néologisme construit dans la langue cible. Nous commençons par présenter diverses motivations à cette méthode, puis détaillons une expérience pour laquelle plusieurs règles de transfert ont été créées et appliquées à un ensemble de néologismes construits.
[ "incomplétude lexicale", "Traduction automatique", "morphologie constructionnelle" ]
[ "P", "P", "R" ]
[ "", "This paper presents a method which aims at exploiting constructional similarities between two morphologically-related languages (French an Italian), in order to create wordconstruction rules that can disassemble a constructed neologism and create in a similar way a constructed neologism into the target language. We present the main motivation for this method and describe an experiment for which transfer rules has been developed and applied to a group of constructed neologism.", "Machine Translation, constructional morphology, lexical incompleteness" ]
recital-2005-long-006
A la découverte de la polysémie des spécificités du français technique
Cet article décrit l’analyse sémantique des spécificités dans le domaine technique des machines-outils pour l’usinage des métaux. Le but de cette étude est de vérifier si et dans quelle mesure les spécificités dans ce domaine sont monosémiques ou polysémiques. Les spécificités (situées dans un continuum de spécificité) seront identifiées avec la KeyWords Method en comparant le corpus d’analyse à un corpus de référence. Elles feront ensuite l’objet d’une analyse sémantique automatisée à partir du recouvrement des cooccurrences des cooccurrences, afin d’établir le continuum de monosémie. Les travaux de recherche étant en cours, nous présenterons des résultats préliminaires de cette double analyse.
[ "polysémie", "spécificités", "cooccurrences", "sémantique lexicale", "langue spécialisée" ]
[ "P", "P", "P", "M", "U" ]
[ "", "This article discusses a semantic analysis of pivotal terms (keywords) in the domain of machining terminology in French. Building on corpus data, the investigation attempts to find out whether, and to what extent, the keywords are polysemous. In order to identify the most typical words of the typicality continuum, the KeyWords Method will be used to compare the technical corpus with a reference corpus. The monosemy continuum will be implemented in terms of degree of overlap between the co-occurrents of the co-occurrents of the keywords. We present some preliminary results of work in progress.", "lexical semantics, language for specific purposes (LSP), keywords, polysemy, co-occurrences" ]
recital-2005-long-007
Système AlALeR - Alignement au niveau phrastique des textes parallèles français-japonais
Le présent article décrit le Système AlALeR (Système d’Alignement Autonome, Léger et Robuste). Capable d’aligner au niveau phrastique un texte en français et un texte en japonais, le Système AlALeR ne recourt cependant à aucun moyen extérieur tel qu’un analyseur morphologique ou des dictionnaires, au contraire des méthodes existantes. Il est caractérisé par son analyse morphologique partielle mettant à profit des particularités du système d’écriture japonais et par la transcription des mots emprunts, à l’aide d’un transducteur.
[ "Alignement", "corpus parallèles", "analyse morphologique japonaise partielle", "mémoire de traduction" ]
[ "P", "M", "M", "M" ]
[ "", "The present paper describes the AlALeR System, an Autonomous, Robust and Light Alignment System. Capable of aligning at the sentence level a French text and a Japanese one, the AlALeR System doesn’t use any external tool, such as morphological parsers or dictionaries, contrary to existing methods. This system is characterized by a partial morphological analysis taking advantage of some peculiarities of japanese writing system, and by the transcription of loan words with a transducer.", "Alignment, parallel corpora, partial japanese morphological analysis, translation memory" ]
recital-2005-long-008
Acquisition semi-automatique de relations lexicales bilingues (français-anglais) à partir du Web
Cet article présente une méthode d’acquisition semi-automatique de relations lexicales bilingues (français-anglais) faisant appel à un processus de validation sur le Web. Notre approche consiste d’abord à extraire automatiquement des relations lexicales françaises. Nous générons ensuite leurs traductions potentielles grâce à un dictionnaire électronique. Ces traductions sont enfin automatiquement filtrées à partir de requêtes lancées sur le moteur de recherche Google. Notre évaluation sur 10 mots français très polysémiques montre que le Web permet de constituer ou compléter des bases de données lexicales multilingues, encore trop rares, mais dont l’utilité est pourtant primordiale pour de nombreuses applications, dont la traduction automatique.
[ "acquisition semi-automatique", "relations lexicales bilingues", "Traduction", "corpus", "World Wide Web" ]
[ "P", "P", "P", "U", "M" ]
[ "", "This paper presents a method of semi-automatic acquisition of bilingual (French-English) lexical relations using a validation process via the Web. Our approach consists firstly of automatically extracting French lexical relations. We then generate their potential translations by means of an electronic dictionary. These translations are finally automatically filtered using queries on the Google search engine. Our evaluation on 10 very polysemous French words shows that the Web is a useful resource for building or improving multilingual lexical databases, which are urgently needed in a wide range of applications, such as machine translation.", "Translation, corpus, bilingual lexical relations, semi-automatic acquisition, World Wide Web" ]
recital-2005-long-010
Constitution d'un corpus de français tchaté
Nous présentons dans cet article un corpus de français tchaté, destiné à l'étude de la langue du tchat. Ce corpus, collecté et encodé automatiquement, est remarquable avant tout par son étendue, puisqu'il couvre un total de 4 millions de messages sur 105 canaux, hétérogènes sur les plans thématique et pragmatique. Son codage simple ne sera toutefois pas satisfaisant pour tous les usages. Il est disponible sur un site Internet, et consultable grâce à une interface web.
[ "langue tchatée", "ressources linguistiques", "collecte de données" ]
[ "R", "U", "M" ]
[ "", "We present in this article a french chat corpus, intended for the study of chat language. This corpus, automatically collected and coded, is especially remarkable for its extent, since it covers a total of 4 million messages on 105 channels, heterogeneous from a thematic and pragmatic point of view. Its simple coding will not, however, be sufficient for all purposes. It is available on an Internet site, and viewable using a web interface.", "chat language, linguistic resources, resource acquisition" ]
recital-2005-long-011
Étude de quelques problèmes de phonétisation dans un système de synthèse de la parole à partir de SMS
Cet article présente une étude dont l’’objectif était d’’améliorer la phonétisation d’’un système de synthèse vocale de SMS en ce qui concerne trois types de problèmes : l’’écriture rébus (chiffres et lettres utilisés pour leur valeur phonique), les abréviations sous forme de squelettes consonantiques et les agglutinations (déterminants ou pronoms collés graphiquement au mot qui suit). Notre approche se base sur l’’analyse d’’un corpus de SMS, à partir duquel nous avons extrait des listes de formes permettant de compléter les lexiques du système, et mis au point de nouvelles règles pour les grammaires internes. Les modifications effectuées apportent une amélioration substantielle du système, bien qu’’il reste, évidemment, de nombreuses autres classes de problèmes à traiter.
[ "phonétisation", "synthèse de la parole", "SMS" ]
[ "P", "P", "P" ]
[ "", "This article presents a study whose goal is to improve the grapheme-to-phoneme component of an SMS-to-speech system. The three types of problems tackled in the study are: rebus writing (digits and letters used for their phonetic value), consonant skeleton abbreviations and agglutinations (determiner or pronouns merged with the next word). Our approach is based on the analysis of an SMS corpus, from which we extracted lists of forms to enhance the system’’s lexicons, and developed new grammatical rules for the internal grammars. Our modifications result in a substantial improvement of the system, although, of course, there remain many other categories of problems to address.", "SMS, phonetisation, speech synthesis" ]
recital-2005-court-001
Synchronisation syntaxe sémantique, des grammaires minimalistes catégorielles (GMC) aux Constraint Languages for Lambda Structures (CLLS)
Ces travaux se basent sur l’approche computationelle et logique de Ed Stabler (?), qui donne une formalisation sous forme de grammaire du programme minimaliste de Noam Chomsky (?). La question que je veux aborder est comment, à partir d’une analyse syntaxique retrouver la forme prédicative de l’énoncé. Pour cela, il faut mettre en place une interface entre syntaxe et sémantique. C’est ce que je propose en utilisant les Grammaires Minimalistes Catégorielles (GMC) extension des GM vers le calcul de Lambeck. Ce nouveau formalisme permet une synchronisation simple avec le lambda-calcul. Parmi les questions fréquemment rencontrées dans le traitement des langues naturelles, j’interroge la performance de cette interface pour la résolution des problèmes de portée des quantificateurs. Je montre pourquoi et comment il faut utiliser un lambda-calcul plus élaboré pour obtenir les différentes lectures, en utilisant Constraint Languages for Lambda Structures -CLLS.
[ "grammaires minimalistes catégorielles", "Constraint Language for Lambda Structures", "logique", "lambda-calcul", "portée des quantificateurs" ]
[ "P", "P", "P", "P", "P" ]
[ "", "This work is based on the computational and logical approach of Ed Stabler (?), which gives a formalization of the minimalist program of Noam Chomsky (?). The question I want to solve is, starting from a syntactic analysis, how to find the predicative forms of a sentence. I propose an interface between syntax and semantic by using Categorical Minimalists Grammars (CMG) extension of the MG towards the Lambeck calculus and Constraint Language for Lambda Structures (CLLS). This interface is powerful for the resolution of quantifier scope ambiguities.", "logic, minimalist grammars, lambda-calculus, quantifiers scope, Constraint Language for Lambda Structures" ]
recital-2005-court-002
Recherche d'information en langue arabe : influence des paramètres linguistiques et de pondération en LSA
Nous nous intéressons à la recherche d’information en langue arabe en utilisant le modèle de l’analyse sémantique latente (LSA). Nous proposons dans cet article de montrer que le traitement linguistique et la pondération des unités lexicales influent sur la performance de la LSA pour quatre cas d’études : le premier avec un simple prétraitement des corpus; le deuxième en utilisant un anti-dictionnaire; le troisième avec un racineur de l’arabe ; le quatrième où nous avons combiné l’anti-dictionnaire et le racineur. Globalement les résultats de nos expérimentations montrent que les traitements linguistiques ainsi que la pondération des unités lexicales utilisés améliorent la performance de LSA.
[ "Langue arabe", "Recherche d’information", "Analyse de la sémantique latente", "Racinisation" ]
[ "P", "P", "R", "U" ]
[ "", "We are interested in information retrieval in Arabic language by using latent semantic analysis method (LSA). We propose in this article to show that the linguistic treatment and weighting of lexemes influence the performance of LSA. Four cases are studied: the first with a simple pretreatment of the corpora; the second by using a stopword list; the third with arabic stemmer; the fourth where we combined stopword list and arabic stemmer. Broadly the results of our experiments show that the linguistic treatments as well as weighting of lexemes used improve the performance of LSA.", "Information retrieval, Latent semantic analyses, Arabic language, Stemming" ]
recital-2005-court-003
Etiquetage morpho-syntaxique des textes arabes par modèle de Markov caché
L’étiquetage des textes est un outil très important pour le traitement automatique de langage, il est utilisé dans plusieurs applications par exemple l’analyse morphologique et syntaxique des textes, l’indexation, la recherche documentaire, la voyellation pour la langue arabe, les modèles de langage probabilistes (modèles n-classes), etc. Dans cet article nous avons élaboré un système d’étiquetage morpho-syntaxique de la langue arabe en utilisant les modèles de Markov cachés, et ceci pour construire un corpus de référence étiqueté et représentant les principales difficultés grammaticales rencontrées en langue arabe générale. Pour l’estimation des paramètres de ce modèle, nous avons utilisé un corpus d’apprentissage étiqueté manuellement en utilisant un jeu de 52 étiquettes de nature morpho-syntaxique. Ensuite on procède à une amélioration du système grâce à la procédure de réestimation des paramètres de ce modèle.
[ "Etiquetage morpho-syntaxique", "texte arabe", "modèle de Markov caché", "Corpus", "jeu d’étiquettes" ]
[ "P", "P", "P", "P", "R" ]
[ "", "The tagging of texts is a very important tool for various applications of natural language processing : morphological and syntactic analysis of texts, indexation and information retrieval, vowelling of arabic texts, probabilistic language model (n-class model). In this paper we have used the Hidden Markov Model (HMM) to tag the arabic texts. This system of tagging is used to build a large labelled arabic corpus. The experiments are carried in the set of the labelled texts and the 52 tags of morpho-syntactic nature, in order to estimate the parameters of the HMM.", "Corpus, the set of tags, the morpho-syntactic tagging, arabic text, Hidden Markov Model" ]
recital-2005-court-004
Identification des composants temporels pour la représentation des dépêches épidémiologiques
Dans le cadre du projet EpidémIA qui vise à la construction d’un système d’aide à la décision pour assister l’utilisateur dans son activité de gestion des risques sanitaires, un travail préalable sur la compositionalité des évènements (STEEL) nous a permis d’orienter notre travail dans le domaine de la localisation d’information spatio-temporelle. Nous avons construit des graphes de transducteurs pour identifier les informations temporelles sur un corpus de 100 dépêches de la langue anglaise de ProMed. Nous avons utilisé le système d’extraction d’information INTEX pour la construction de ces transducteurs. Les résultats obtenus présentent une efficacité de ces graphes pour l’identification des données temporelles.
[ "extraction d’information", "Analyse de textes", "structure des évènements", "sémantique du temps" ]
[ "P", "M", "M", "M" ]
[ "", "EpidémIA project aims to the construction of a computerized decision-making system to assist user in his activity of medical risk management. A preliminary work on the events compositionality (STEEL) enables us to direct our work in the field of the space-time information localization. We have created some transducers graphs to identify temporal information on a corpus of 100 SARS ProMed English reports. We used the extraction information system INTEX to construct these transducers. The results obtained present an effectiveness of these graphs to identify temporal data.", "Text analysis, event structure, extraction information, temporal semantics" ]
recital-2005-court-005
Utilisation de la Linguistique Systémique Fonctionnelle pour la détection des noms de personnes ambigus
Dans cet article, nous nous proposons de construire un lexique étiqueté selon les principes de la Linguistique Systémique Fonctionnelle (LSF) et de l’appliquer à la détection des noms de personnes ambigus dans les textes. Nous ne faisons pas d’analyse complète mais testons plutôt si certaines caractéristiques de la LSF peuvent permettre de compléter les modèles linguistiques actuellement utilisés pour la détection des entités nommées. Nous souhaitons ainsi apporter une contribution à l’application du formalisme LSF dans l’analyse automatique de textes après son application déjà éprouvée à la génération de textes.
[ "Linguistique Systémique Fonctionnelle", "Détection des entités nommées", "Fouille de textes" ]
[ "P", "P", "M" ]
[ "", "In this paper, we propose to build a tagged lexicon according to the Systemic Functional Linguistics (SFL) principles and to apply it to the recognition of ambiguous person names in texts. We do not achieve a complete analysis but rather test if some characteristics of the SFL could enable the completion of actual linguistic models used in named entity recognition. We want thus to bring a contribution to the application of the SFL model in automatic text analysis while it already proved its usefulness for text generation.", "Systemic Functional Linguistics, Named entity recognition, Text mining" ]
recital-2005-court-006
Durée des consonnes géminées en parole arabe : mesures et comparaison
Dans ce papier, nous présentons les résultats d’une étude expérimentale de la durée des consonnes géminées de l’arabe. Nous visons à déterminer la durée, pour une séquence VCCV, de la consonne géminée CC ainsi que de la voyelle qui la précède. Nous comparons ces valeurs à celles mesurées pour une séquence VCV. Les résultats ont prouvé que la durée de la consonne simple était sensiblement différente de celle géminée, ainsi que la durée de la voyelle précédant la consonne. A la base, ce travail est entrepris dans un but d’étudier l’utilisation des durées de phonèmes comme une source d’information pour optimiser un système de reconnaissance, donc introduire des modèles explicites de durée des phonèmes, et mettre en application ces modèles comme partie du modèle acoustique du système de reconnaissance.
[ "durée", "gémination", "Analyse acoustique", "arabe standard", "reconnaissance de la parole" ]
[ "P", "P", "M", "M", "R" ]
[ "", "In this paper, we represent the results of an experimental study concerning the duration of geminated consonants in the Arabic language. We are seeking to determine the duration of a sequence VCCV, of the geminated consonant CC and of the vowel that precedes it. We are comparing these items with those measured for a sequence VCV. The results have shown that the duration of the simple consonant was so apparently different from that geminated and the same was true for the duration of the vowel that precedes such consonant. Basically, this work is undertaken with an aim of studying the use of the durations of phonemes like a source of information to optimize a recognition system, therefore to introduce explicit models of duration of the phonemes, and to apply these models like part of the acoustic model of the recognition system.", "Acoustic analyze, standard Arabic, gemination, duration, speech recognition" ]
recital-2005-court-007
Vers une utilisation du TAL dans la description pédagogique de textes dans l'enseignement des langues
Alors que de nombreux travaux portent actuellement sur la linguistique de corpus, l'utilisation de textes authentiques en classe de langue, ou de corpus dans l'enseignement des langues (via concordanciers), quasiment aucun travail n'a été réalisé en vue de la réalisation de bases de textes à l'usage des enseignants de langue, indexées en fonction de critères relevant de la problématique de la didactique des langues. Dans le cadre de cet article, nous proposons de préciser cette notion d'indexation pédagogique, puis de présenter les principaux standards de description de ressources pédagogiques existants, avant de montrer l'inadéquation de ces standards à la description de textes dans l'optique de leur utilisation dans l'enseignement des langues. Enfin nous en aborderons les conséquences relativement à la réalisation de la base.
[ "TAL", "Corpus", "indexation pédagogique", "ALAO", "ressources textuelles" ]
[ "P", "P", "P", "U", "M" ]
[ "", "Despite numerous works concerning corpus linguistics, the use of authentic texts in language teaching as well as corpora in language teaching (through concordancers), hardly any work deals with the creation of a teacher-friendly text base that would be indexed according to criteria relevant to the set of problems of language didactics. In this article, we will first discuss the notion of pedagogical indexation. We will then present the principal pedagogical resource description standards, before showing that those standards are inadequate to handle our problem. Finally we shall give an overview of the consequences of these inadequacies on the implementation of the text base.", "Corpus, CALL, NLP, pedagogical indexation, textual resources" ]
recital-2005-court-008
Une méthode pour la classification de signal de parole sur la caractéristique de nasalisation
Nous exposons ici une méthode permettant d’étudier la nature d’un signal de parole dans le temps. Plus précisément, nous nous intéressons à la caractéristique de nasalisation du signal. Ainsi nous cherchons à savoir si à un instant t le signal est nasalisé ou oralisé. Nous procédons par classification à l’aide d’un réseau de neurones type perceptron multi-couches, après une phase d’apprentissage supervisée. La classification, après segmentation du signal en fenêtres, nous permet d’associer à chaque fenêtre de signal une étiquette renseignant sur la nature du signal.
[ "réseaux de neurones", "Phonologie", "phonétique", "classifieur" ]
[ "P", "U", "U", "U" ]
[ "", "In this paper we expose a method that allows the study of the phonetic features of a speech signal through time. More specifically, we focus on the nasal features of the signal. We try to consider the signal as [+nasal] or [-nasal] at any given time.We proceed with a classifier system based on a multilayer perceptron neural net. The classifier is trained on a hand tagged corpus. The signal is tokenized into 30ms hamming windows. The classification process lets us tag each window with information concerning the properties of its content.", "Phonology, phonetic, classifier, neural nets" ]
recital-2005-court-009
De la linguistique aux statistiques pour indexer des documents dans un référentiel métier
Cet article présente une méthode d’indexation automatique de documents basée sur une approche linguistique et statistique. Cette dernière est une combinaison séquentielle de l’analyse linguistique du document à indexer par l’extraction des termes significatifs du document et de l’analyse statistique par la décomposition en valeurs singulières des mots composant le document. La pondération des termes tire avantage de leur contexte local, par rapport au document, global, par rapport à la base de données, et de leur position par rapport aux autres termes, les co-occurrences. Le système d’indexation présenté fait des propositions d’affectations du document à un référentiel métier dont les thèmes sont prédéfinis. Nous présentons les résultats de l’expérimentation de ce système menée sur un corpus des pôles métiers de la société Suez-Environnement.
[ "Linguistique", "statistique", "indexation", "recherche d’information" ]
[ "P", "P", "P", "M" ]
[ "", "This article presents an automatic method of documents indexing based on a hybrid, linguistic statistical approach. The proposed approach combines a linguistic analysis of the document by the extraction of the significant terms of the document in conformity with the referential; and a statistical analysis of the same document decomposed into separed words. Innovating weighting of terms is set to take judiciously advantage of both their position with respect to other terms (co-occurrence) and their local and global context. An application was developed in order to assign referential-based topics to documents. Finally, we will present experiments results and evaluation carried out on documents of Suez-Environnement Company.", "Linguistics, statistics, indexing, information processing" ]
recital-2005-court-010
Vers un Système d'écriture Informatique Amazighe :Méthodes et développements
L'intégration des technologies de l'information et de communication (TIC) à l'apprentissage de la langue Amazighe est absolument nécessaire pour qu’elle ait droit de cité plein et entier sur le Web et dans le monde informatisé. Nous présentons quelques réflexions sur les stratégies et méthodes d'informatisation de l'amazighe qui est une langue peu dotée informatiquement. Ces réflexions visent surtout l'optimisation de l'effort d'informatisation. En effet, les méthodes proposées tiennent en compte non seulement l'alphabet proposé par l'IRCAM1 et confirmée par l'ISO (format Unicode) le 21 juin 2004 (IRCAM, 2004 a) mais aussi le contexte francophone des populations berbères.
[ "Amazighe", "Alphabet Tifinaghe", "Traitement des langues naturelles" ]
[ "P", "M", "M" ]
[ "", "Learning the Amazighe language would require the introduction of Information and Communication technologies so that the language would have full entire freedom of a mentioning on the Web and in the computerized world. We present some reflections on strategies and methods of the amazighe computerization which is a language little dowered. These reflections aim particularly the optimisation of the effort of computerization. Indeed, proposed methods hold in account no only the proposed alphabet by the IRCAM1 and confirmed by the ISO (Unicode format) the 21 June 2004 but therefore the French speaking context of Berber populations.", "Amazighe, Tifinaghe Alphabet, Natural Language Processing" ]
recital-2005-court-011
Un système de lissage linéaire pour la synthèse de la parole arabe : Discussion des résultats obtenus
Notre article s'intègre dans le cadre du projet intitulé "Oréodule" : un système embarqué temps réel de reconnaissance, de traduction et de synthèse de la parole. L'objet de notre intérêt dans cet article est la présentation de notre système de synthèse hybride de la parole arabe. Nous présenterons, dans ce papier, les différents modules et les différents choix techniques de notre système de synthèse hybride par concaténation de polyphèmes. Nous détaillerons également les règles de transcription et leurs effets sur le traitement linguistique, les règles de syllabation et leurs impacts sur le coût (temps et difficulté) de réalisation du module acoustique et nous poursuivrons par l'exposé de nos choix au niveau du module de concaténation. Nous décrirons le module de lissage, un traitement acoustique, post concaténation, nécessaire à l'amélioration de la qualité de la voix synthétisée. Enfin, nous présenterons les résultats de l'étude statistique de compréhension, réalisée sur un corpus.
[ "Synthèse de la parole arabe", "Phonèmes", "Diphones", "Triphones", "Unités acoustiques", "Dictionnaire de polyphones" ]
[ "P", "U", "U", "U", "M", "M" ]
[ "", "This research paper is within the project entitled \"Oreillodule\" : a real time embedded system of speech recognition, translation and synthesis. The core of our interest in this work is the presentation of the hybrid system of the Arabic speech synthesis and more precisely of the linguistic and the acoustic treatment. Indeed, we will focus on the grapheme-phoneme transcription, an integral stage for the development of this speech synthesis system with an acceptable quality. Then, we will present some of the rules used for the realization of the phonetic treatment system. These rules are stocked in a data base and browsed several times during the transcription. We will also present the module of syllabication in acoustic units of variable sizes (phoneme, diphone and triphone), as well as the corresponding polyphones dictionary. We will list the stages of the establishment of this dictionary and the difficulties faced during its development. Finally, we will present the results of the statistical survey of understanding, achieved on a corpus.", "Arabic speech sythesis, Phoneme, Diphones, Triphones, Acoustic units, Polyphones dictionary" ]
recital-2005-court-013
Memory-based-Learning et Base de règles pour un Etiqueteur du Texte Arabe
Jusqu’a présent il n’y a pas de système automatique complet pour l’étiquetage du texte arabe. Les méthodes qu’elles soient basées sur des règles explicites ou sur des calculs statistiques, ont été développées pour pallier au problème de l’ambiguïté lexicale. Celles-ci introduisent des informations sur le contexte immédiat des mots, mais font l’impasse sur les exceptions qui échappent aux traitements. L'apparition des méthodes Memory-Based Learning(MBL) a permis l’exploitation automatique de la similarité de l’information contenue dans de grandes masses de textes et , en cas d'anomalie, permet de déduire la catégorie la plus probable dans un contexte donné, sans que le linguiste ait à formuler des règles explicites. Ce papier qui présente une approche hybride combine les méthodes à base de règles et MBL afin d’optimiser la performance de l’étiqueteur. Les résultats ainsi obtenus, présentés en section 6, sont satisfaisants et l’ objectif recherché est atteint.
[ "Base de règles", "Etiquetage", "Memory-Based Leaning", "K-NN", "Morphosyntaxique", "Langue Arabe" ]
[ "P", "U", "M", "U", "U", "M" ]
[ "", "Since now there is no complete automatic system for tagging an Arabian text. Methods based on explicit rules or on statistical calculations, have been developed to palliate problems of lexical ambiguousness. They introduce some information on the immediate context of the words but , make the dead end on the exceptions that escape to treatments. The apparition of the Memory-Based Learning(MBL) methods, that exploit automatically the similarity of information contained in big masses of texts and permit, in case of anomaly, to deduct the likeliest category in a given context, without the linguist has to formulate explicit rules. This paper presents an hybrid approach that combines methods based on rules and MBL, thus, in order to optimize the labeller's performance. Our objective is reached and the gotten results, presented in section 6, are satisfactory.", "Tagging, Memory-based learning, K-NN, Based-rules, Morphosyntaxitic, Arabic language" ]
recital-2005-court-014
Cent mille milliards de poèmes et combien de sens? Une étude d'analyse potentielle
A partir du concept de cohésion comme mesure de l’unité du texte et du modèle oulipien de la littérature par contraintes, notre étude propose une méthode d’analyse potentielle sur ordinateur dans le cas des Cent mille milliards des poèmes. En s’appuyant sur un ensemble de contraintes initiales, notre programme serait capable d’analyser tous les textes potentiels produits par la machine en utilisant ces contraintes.
[ "Unité du discours", "réseaux de cohésion", "analyse thématique", "littérature potentielle" ]
[ "M", "M", "M", "R" ]
[ "", "Using the concept of cohesion as a measure for the unity of text and the Oulipian model of the literature by constraints, our study proposes a computational method of potential analysis for One hundred billions sonnets. Starting from a set of initial constraints, our program would be able to analyze all the potential texts produced by the machine under these constraints.", "Discourse unity, networks of cohesion, thematic analysis, potential literature" ]
recital-2005-court-015
Analyse informatique du roman proustien "Du coté de chez Swann"
Dans le cadre du développement des environnements d’analyse linguistique, d’étiquetage de corpus et d’analyse statistique afin de traiter des corpus de grande taille, nous proposons de mettre au point des procédures nouvelles d’étiquetage morpho-syntaxique et sémantique. Nous présentons un ensemble de ressources linguistiques - dictionnaires et grammaires - dans le but d’étiqueter entièrement le roman proustien : « Du côté de chez Swann ». Notre recherche avance deux atouts majeurs : la précision des étiquettes attribuées aux formes linguistiques du texte ; et le repérage et étiquetage exhaustifs des mots composés.
[ "étiquetage morpho-syntaxique", "Automate fini", "grammaire locale", "dictionnaire électronique", "désambiguïsation", "textes littéraires" ]
[ "P", "U", "M", "M", "U", "M" ]
[ "", "To deal with a great amount of corpus data within the framework of environmental development of linguistic analysis of corpus' tagging and statistic analysis, we propose to establish new procedures of syntactic and semantic tagging. We present some general linguistic resources, such as dictionary and grammar built-in the way to entirely tag the novel of Proust «Du côté de chez Swann». Our research leads to two main advantages: precise tagging assigned to linguistic forms of the text and identification and exhaustive tagging of compound nouns.", "Finite state automata, local grammar, electronic dictionary, morpho-syntactic tagging, disambiguation, literary texts" ]
recital-2005-court-016
Un étiqueteur sémantique des énoncés en langue arabe
Notre article s’intègre dans le cadre du projet intitulé Oréodule: un système de reconnaissance, de traduction et de synthèse de la parole spontanée. L’objectif de cet article est de présenter un modèle d’étiquetage probabiliste, selon une approche componentielle et sélective. Cette approche ne considère que les éléments de l’énoncé porteurs de sens. La signification de chaque mot est représentée par un ensemble de traits sémantiques Ts. Ce modèle participe au choix des Ts candidats lors du décodage sémantique d’un énoncé.
[ "Approche componentielle et sélective", "Décodage sémantique", "Modèles statistiques de langage", "Modèles n-classes" ]
[ "P", "P", "M", "M" ]
[ "", "The work reported here is part of a larger research project, Oréodule, aiming at developing tools for automatic speech recognition, translation, and synthesis for the Arabic language. This article focuses on a probabilistic labelling model, according to a componential and selective approach. This approach considers only the elements of the statement carrying direction. The significance of each word is represented by a whole of semantic features Ts. This model takes part in the choice of the Ts candidates at the time of the semantic decoding of a statement.", "Statistical models of language, Models N-classes, Semantic analyze, Componential and selective approach" ]
recital-2002-long-001
Méthodologie pour la création d’un dictionnaire distributionnel dans une perspective d’étiquetage lexical semi-automatique
Des groupes de recherche de plus en plus nombreux s'intéressent à l’étiquetage lexical ou la désambiguïsation du sens. La tendance actuelle est à l’exploitation de très grands corpus de textes qui, grâce à l'utilisation d’outils lexicographiques appropriés, peuvent fournir un ensemble de données initiales aux systèmes. A leur tour ces systèmes peuvent être utilisés pour extraire plus d'informations des corpus, qui peuvent ensuite être réinjectées dans les systèmes, dans un processus récursif. Dans cet article, nous présentons une méthodologie qui aborde la résolution de l’ambiguïté lexicale comme le résultat de l’interaction de divers indices repérables de manière semi-automatique au niveau syntaxique (valence), sémantique (collocations, classes d’objets) avec la mise en oeuvre de tests manuels.
[ "dictionnaire", "collocations", "classes d’objets", "Désambiguïsation lexicale", "propriétés distributionnelles" ]
[ "P", "P", "P", "R", "M" ]
[ "", "More and more research groups are involved in sense tagging or sense disambiguation. The current trend is to use very large text corpora which, with the help of appropriate lexicographical tools, can provide initial data to the disambiguation systems. In turn, these systems can be used to extract more data from corpora, which can be fed again to the systems, in a bootstrapping process. In this paper, we tackle lexical disambiguation through the interaction of various cues which can be detected semi-automatically at the syntactic and semantic levels (valency, collocations, object classes), along with manual tests.", "WSD, dictionary, distributional properties, collocations, classes of objects" ]
recital-2002-long-002
Etude des critères de désambiguïsation sémantique automatique : présentation et premiers résultats sur les cooccurrences
Nous présentons dans cet article les débuts d’un travail visant à rechercher et à étudier systématiquement les critères de désambiguïsation sémantique automatique. Cette étude utilise un corpus français étiqueté sémantiquement dans le cadre du projet SyntSem. Le critère ici étudié est celui des cooccurrences. Nous présentons une série de résultats sur le pouvoir désambiguïsateur des cooccurrences en fonction de leur catégorie grammaticale et de leur éloignement du mot à désambiguïser.
[ "Désambiguïsation sémantique", "cooccurrences", "corpus sémantiquement étiqueté" ]
[ "P", "P", "R" ]
[ "", "This paper describes the beginning of a study which aims at researching and systematically analysing criteria for automatic word sense disambiguation. This study uses a French sense tagged corpus developed in the SyntSem project. We analyse here the cooccurrence criterion and report a series of results on the disambiguative power of cooccurrences with respect to their grammatical category and distance from the word to be disambiguated.", "Word sense disambiguation, sense tagged corpora, cooccurrences" ]
recital-2002-long-003
LIZARD, un assistant pour le développement de ressources linguistiques à base de cascades de transducteurs
Nous présentons un outil visant à assister les développeurs de ressources linguistiques en automatisant la fouille de corpus. Cet outil, est guidé par les principes de l’analyse distributionnelle sur corpus spécialisés, étendue grâce à des ressources lexicales génériques. Nous présentons une évaluation du gain de performances dû à l’intégration de notre outil à une application de filtrage d’information et nous élargissons le champ d’application de l’assistant aux études sur corpus menées à l’aide de cascades de transducteurs à états finis.
[ "ressources linguistiques", "études sur corpus", "TALN", "assistant linguistique", "agents autonomes" ]
[ "P", "P", "U", "R", "U" ]
[ "", "We present a tool providing linguistic resources developers with automated corpus analysis features. Our tool implements specialized corpora distributional analysis principles, extended by the integration of external generic lexical resources. We present an evaluation of the gain in performance attributable to our tool, for a text filtering task. We also widen our tool’s scope of applications to transducer cascades-based corpus processing activities.", "NLP, linguistic wizard, linguistic resources, autonomous agents, corpus-based studies" ]
recital-2002-long-004
Conceptualisation d’un système d’informations lexicales, une interface paramétrable pour le T.A.L
La nécessité de ressources lexicales normalisées et publiques est avérée dans le domaine du TAL. Cet article vise à montrer comment, sur la base d’une partie du lexique MULTEXT disponible sur le serveur ABU, il serait possible de construire une architecture permettant tout à la fois l’accès aux ressources avec des attentes différentes (lemmatiseur, parseur, extraction d’informations, prédiction, etc.) et la mise à jour par un groupe restreint de ces ressources. Cette mise à jour consistant en l’intégration et la modification, automatique ou manuelle, de données existantes. Pour ce faire, nous cherchons à prendre en compte à la fois les besoins et les données accessibles. Ce modèle est évalué conceptuellement dans un premier temps en fonction des systèmes utilisés dans notre équipe : un analyseur TAG, un constructeur de grammaires TAGs, un extracteur d’information.
[ "ressources lexicales", "Bases de données" ]
[ "P", "R" ]
[ "", "Lexical ressources which would be normalized and freely accessible is a major issue in the NLP research area. This article aims to show how to built an information system which allow (1) a freely access for distinct NLP systems (tagging, parsing, information extraction, etc.) and (2) an easy update of data by a restricted team of researchers, this update being manual or computed. Starting with a a subset of the MULTEXT lexicon which is accessible from the server ABU, we aim to take into account the various needs and the variability of accessible lexical data. Our modelisation is evaluated with three existing systems of our team : EGAL (parsing), a builder of Tag grammars and VULCAIN (information extraction).", "Data Bases, Lexical Ressources" ]
recital-2002-long-005
Problèmes posés par la reconnaissance de gestes en Langue des Signes
Le but de cet article est d’expliciter certains des problèmes rencontrés lorsque l’on cherche à concevoir un système de reconnaissance de gestes de la Langue des Signes et de proposer des solutions adaptées. Les trois aspects traités ici concernent la simultanéïté d’informations véhiculées par les gestes des mains, la synchronisation éventuelle entre les deux mains et le fait que différentes classes de signes peuvent se rencontrer dans une phrase en Langue des Signes.
[ "Reconnaissance de gestes", "Langue des Signes" ]
[ "P", "P" ]
[ "", "The aim of this paper is to specify some of the problems raised when one wants to design a gesture recognition system dedicated to Sign Language, and to propose suited solutions. The three topics considered here concern the simultaneity of information conveyed by hand gestures, the possible synchronicity between the two hands, and the different classes of signs that may be encountered in a Sign Language sentence.", "Gesture recognition, Sign Language" ]
recital-2002-long-006
Annotation des descriptions définies : le cas des reprises par les rôles thématiques
Nous présentons dans cet article un cas particulier de description définie où la description reprend le rôle thématique d’un argument (implicite ou explicite) d’un événement mentionné dans le contexte linguistique. Nous commençons par montrer que les schémas d’annotation proposés (MATE) et utilisés (Poesio et Vieira 2000) ne permettent pas une caractérisation uniforme ni, partant, un repérage facile de ces reprises. Nous proposons une extension du schéma MATE qui pallie cette difficulté.
[ "annotation", "rôles thématiques", "Génération automatique de textes", "coréférence" ]
[ "P", "P", "M", "U" ]
[ "", "We present in this paper a particular kind of definite description which mentions the thematic role of an (implicit or explicit) argument of an event mentioned in the context. We show that the annotation schemes which are either proposed (MATE) or used (Poesio and Vieira 2000) permit neither a uniform characterisation of the phenomenon nor an easy identification of these anaphors. We propose an extension of the MATE schemes which remedy this difficulty.", "Natural language generation, annotation, coreference, thematic role" ]
recital-2002-long-007
Etude des répétitions en français parlé spontané pour les technologies de la parole
Cet article rapporte les résultats d’une étude quantitative des répétitions menée à partir d’un corpus de français parlé spontané d’un million de mots, étude réalisée dans le cadre de notre première année de thèse. L’étude linguistique pourra aider à l’amélioration des systèmes de reconnaissance de la parole et de l'étiquetage grammatical automatique de corpus oraux. Ces technologies impliquent la prise en compte et l’étude des répétitions de performance (en opposition aux répétitions de compétence, telles que nous nous sujet + complément) afin de pouvoir, par la suite, les « gommer » avant des traitements ultérieurs. Nos résultats montrent que les répétitions de performance concernent principalement les mots-outils et apparaissent à des frontières syntaxiques majeures.
[ "Répétitions", "français parlé spontané", "étude quantitative", "reconnaissance de la parole", "« disfluences »", "phénomènes de performance", "étiquetage morpho-syntaxique" ]
[ "P", "P", "P", "P", "M", "M", "M" ]
[ "", "This article is a report of a quantitative study of repetitions based on a corpus of a onemillion- word spontaneous spoken French, conducted during the first year of our PhD thesis. This linguistic study can contribute to the improvement of speech recognition and spoken French part-of-speech tagging. Improvement of these technologies requires taking into account and studying performance repetitions (such as complement + complement nous nous) in order to be able to \"erase\" them before further processing. Our results show that repetitions mainly involve function words and take place at major syntactic boundaries.", "Repetitions, spontaneous French speech, disfluencies, performance phenomena, quantitative study, speech recognition, part-of-speech tagging" ]
recital-2002-long-008
Normalisation de documents par analyse du contenu à l’aide d’un modèle sémantique et d’un générateur
La problématique de la normalisation de documents est introduite et illustrée par des exemples issus de notices pharmaceutiques. Un paradigme pour l’analyse du contenu des documents est proposé. Ce paradigme se base sur la spécification formelle de la sémantique des documents et utilise une notion de similarité floue entre les prédictions textuelles d’un générateur de texte et le texte du document à analyser. Une implémentation initiale du paradigme est présentée.
[ "normalisation de document", "génération", "analyse de contenu", "création assistée de documents" ]
[ "P", "P", "R", "M" ]
[ "", "This paper discusses document normalization and gives examples based on a class of pharmaceutical documents. The discussion is based on a paradigm for document content analysis. This paradigm focusses on a formal specification of document semantics and uses a fuzzy matching measure between the textual predictions of a natural language generator and the input document. An initial implementation is presented.", "content analysis, generation, document authoring, document normalization" ]
recital-2002-poster-001
Un Modèle Distribué d’Interprétation de Requêtes fondé sur la notion d’Observateur
Nous proposons un modèle de conception d’agent conversationnel pour l’assistance d’interface. Notre but est d’obtenir un système d’interprétation de requêtes en contexte, générique pour l’indépendance vis-à-vis de la tâche, extensible pour sa capacité à intégrer des connaissances sur un nouveau domaine sans remettre en cause les connaissances antérieures et unifié dans le sens où tous les aspects du traitement de la langue naturelle, syntaxe, sémantique, ou pragmatique doivent s’exprimer dans un même formalisme. L’originalité de notre système est de permettre de représenter des connaissances d’interprétation de niveaux de granularité divers sous une même forme, réduisant la problématique de communication entre sources de connaissances qui existe dans les systèmes modulaires. Nous adoptons l’approche des micro-systèmes suivant laquelle l’interprétation de la langue se fait selon un processus non stratifié, et où absolument tous les niveaux peuvent interagir entre eux. Pour cela, nous introduisons et définissons un type d’entité que nous avons nommé observateur.
[ "Agents Conversationnels", "Micro-Systèmes", "Analyse Distribuée", "Sémantique Procédurale" ]
[ "P", "P", "M", "M" ]
[ "", "This paper describes a conversationnal agent design model for interface assistance. The model is meant to be generic, i.e. task independant extensible for the ability of integrating knowledge about a new task without revising previous knowledge, and unified because every level of Natural Language, from syntax, semantics, pragmatics and dialogue to production should be described within the same formalism. The main originality of the proposed system is its ability to represent in the same way various granularity levels of interpretation knowledge sources. This avoids communication problems between heterogeneous knowledge sources, as they occur in modular systems. Thus we adopt a micro-systemics approach, stating that the Natural Language Interpretation, rather than being made of multi-layered processes, a process where all the components levels can interact with each others. This is achieved by introducing the notion of observer.", "Conversationnal Agents, Distributed Analysis, Micro-Systems, Procedural Semantics" ]
recital-2002-poster-002
Extraction et classification automatique de matériaux textuels pour la création de tests de langue
Nous présentons l’état de développement d’un outil d’extraction et de classification automatique de phrases pour la création de tests de langue. Cet outil de TAL est conçu pour, dans un premier temps, localiser et extraire de larges corpus en ligne du matériel textuel (phrases) possédant des propriétés linguistiques bien spécifiques. Il permet, dans un deuxième temps, de classifier automatiquement ces phrases-candidates d’après le type d’erreurs qu’elles sont en mesure de contenir. Le développement de cet outil s’inscrit dans un contexte d’optimalisation du processus de production d’items pour les tests d’évaluation. Pour répondre aux exigences croissantes de production, les industries de développement de tests de compétences doivent être capable de développer rapidement de grandes quantités de tests. De plus, pour des raisons de sécurité, les items doivent être continuellement remplacés, ce qui crée un besoin d’approvisionnement constant. Ces exigences de production et révision sont, pour ces organisations, coûteuses en temps et en personnel. Les bénéfices à retirer du développement et de l’implantation d’un outil capable d’automatiser la majeure partie du processus de production de ces items sont par conséquents considérables.
[ "classification automatique de phrases", "Automates à états finis", "analyse de corpus", "extraction automatique de phrases", "INTEX" ]
[ "P", "M", "M", "R", "U" ]
[ "", "We present here the state of development of an automatic sentence extractor and classificator for use in the creation of language tests. This NLP tool has been designed to, in a first instance, automatically locate and extract from designated on-line databases candidate source sentences meeting specific linguistic criteria and, in a second instance, to classify those sentences according to the specific types of errors they are capable of supporting. The development of this NLP tool is couched in the context and goals of automated item models instantiating for educational assessment. To meet increasing testing demands, assessment industries must be able to quickly produce large number of tests and regularly replace the items to prevent lapses in test security. The high number of items that must be continuously ‘retired’ and replaced creates a great need for continuous item supply. Those high production and revision demands, apart from being timeconsuming, are also costly. The development and implementation of a NLP tool capable of automating the bulk of the processing involved in instantiating the test item models is thus of considerable benefit to educational testing organisations.", "Finite-state automaton, corpus analysis, automatic sentence extraction, automatic sentence classification, INTEX" ]
recital-2002-poster-003
MemLabor, un environnement de création, de gestion et de manipulation de corpus de textes
Nous présentons dans cet article un logiciel d’étude permettant la création, la gestion et la manipulation de corpus de textes. Ce logiciel appelé MemLabor se veut un outil ouvert et open-source adaptable à toutes les opérations possibles que l’on peut effectuer sur ce type de matériau. Dans une première partie, nous présenterons les principes généraux de l’outil. Dans une seconde, nous en proposerons une utilisation dans le cadre d’une acquisition supervisée de classes sémantiques.
[ "analyse de corpus", "acquisition supervisée de terminologie", "sémantique lexicale" ]
[ "M", "M", "M" ]
[ "", "In this article, we present a study software that allows creation, management and handling of corpora. This software called MemLabor is an open-source program, adaptable to all operations that we can carry out on this type of material. In the first part of this article, we will present the main principles of this tool. In the second part, we will suggest one of it use within the framework of a semantic classes supervised acquisition.", "corpus analysis, supervised terminology acquisition, lexical semantics" ]
recital-2002-poster-004
Classification Automatique de messages : une approche hybride
Les systèmes actuels de filtrage de l’information sont basés d’une façon directe ou indirecte sur les techniques traditionnelles de recherche d’information (Malone, Kenneth, 1987), (Kilander, Takkinen, 1996). Notre approche consiste à séparer le processus de classification du filtrage proprement dit. Il s’agit d’effectuer un traitement reposant sur une compréhension primitive du message permettant d’effectuer des opérations de classement. Cet article décrit une solution pour classer des messages en se basant sur les propriétés linguistiques véhiculées par ces messages. Les propriétés linguistiques sont modélisées par un réseau de neurone. A l'aide d'un module d'apprentissage, le réseau est amélioré progressivement au fur et à mesure de son utilisation. Nous présentons à la fin les résultats d’une expérience d’évaluation.
[ "propriétés linguistiques", "réseaux de neurones", "Filtrage d’information", "e-mail", "classification de messages", "filtrage d’email" ]
[ "P", "P", "R", "U", "R", "M" ]
[ "", "The current approaches in information filtering are based directly or indirectly on the traditional methods of information retrieval (Malone, Kenneth, 1987), (Kilander, Takkinen, 1996). Our approach to email filtering is to separate classification from filtering. Once the classification process is complete, the filtering takes place. This paper presents an approach to classify e-mail, based on linguistic features model. The main feature of the model is its representation by a neural network and its learning capability. At the end, to measure the approach performances, we illustrate and discuss the results obtained by experimental evaluations.", "Information filtering, e-mail, information classification, linguistic proprieties, neural network, Filters, e-mail filtering" ]
recital-2015-long-001
fr2sql : Interrogation de bases de données en français
Les bases de données sont de plus en plus courantes et prennent de plus en plus d'ampleur au sein des applications et sites Web actuels. Elles sont souvent amenées à être utilisées par des personnes n'ayant pas une grande compétence en la matière et ne connaissant pas rigoureusement leur structure. C'est pour cette raison que des traducteurs du langage naturel aux requêtes SQL sont développés. Malheureusement, la plupart de ces traducteurs se cantonnent à une seule base du fait de la spécificité de l'architecture de celle-ci. Dans cet article, nous proposons une méthode visant à pouvoir interroger n'importe quelle base de données à partir de questions en français. Nous évaluons notre application sur deux bases à la structure différente et nous montrons également qu'elle supporte plus d'opérations que la plupart des autres traducteurs.
[ "Requêtes SQL", "Base de données (BdD)", "Traducteur français SQL", "Interface Homme-BdD" ]
[ "P", "M", "R", "U" ]
[ "fr2sql : database query in French", "Databases are increasingly common and are becoming increasingly important in actual applications and Web sites. They often used by people who do not have great competence in this domain and who do not know exactly their structure. This is why translators from natural language to SQL queries are developed. Unfortunately, most of these translators is confined to a single database due to the specificity of the base architecture. In this paper, we propose a method to query any database from french. We evaluate our application on two different databases and we also show that it supports more operations than most other translators.", "Databases (DB), Structured Query Language (SQL), French to SQL translator, Natural language interfaces to databases (NLIDB)" ]
recital-2015-long-002
Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques
La désambiguïsation lexicale permet d'améliorer de nombreuses applications en traitement automatique des langues (TAL) comme la recherche d'information, l'extraction d'information, la traduction automatique, ou la simplification lexicale de textes. Schématiquement, il s'agit de choisir quel est le sens le plus approprié pour chaque mot d'un texte. Une des approches classiques consiste à estimer la similarité sémantique qui existe entre les sens de deux mots puis de l'étendre à l'ensemble des mots du texte. La méthode la plus directe donne un score de similarité à toutes les paires de sens de mots puis choisit la chaîne de sens qui retourne le meilleur score (on imagine la complexité exponentielle liée à cette approche exhaustive). Dans cet article, nous proposons d'utiliser une méta-heuristique d'optimisation combinatoire qui consiste à choisir les voisins les plus proches par sélection distributionnelle autour du mot à désambiguïser. Le test et l'évaluation de notre méthode portent sur un corpus écrit en langue française en se servant du réseau sémantique BabelNet. Le taux d'exactitude obtenu est de 78% sur l'ensemble des noms et des verbes choisis pour l'évaluation.
[ "désambiguïsation lexicale non supervisée", "mesure de similarité distributionnelle", "mesures de similarité sémantique" ]
[ "M", "M", "M" ]
[ "A Knowledge-Based Approach to Word Sense Disambiguation by distributional selection and semantic features", "Word sense disambiguation improves many Natural Language Processing (NLP) applications such as Information Retrieval, Information Extraction, Machine Translation, or Lexical Simplification. Roughly speaking, the aim is to choose for each word in a text its best sense. One of the most popular method estimates local semantic similarity relatedness between two word senses and then extends it to all words from text. The most direct method computes a rough score for every pair of word senses and chooses the lexical chain that has the best score (we can imagine the exponential complexity that returns this comprehensive approach). In this paper, we propose to use a combinatorial optimization metaheuristic for choosing the nearest neighbors obtained by distributional selection around the word to disambiguate. The test and the evaluation of our method concern a corpus written in French by means of the semantic network BabelNet. The obtained accuracy rate is 78 % on all names and verbs chosen for the evaluation.", "unsupervised word sense disambiguation, distributional similarity measure, semantic similarity measures" ]
recital-2015-long-003
Vers un modèle de détection des affects, appréciations et jugements dans le cadre d'interactions humain-agent
Cet article aborde la question de la détection des expressions d'attitude – i.e affect, d'appréciation et de jugement (Martin & White, 2005) – dans le contenu verbal de l'utilisateur au cours d'interactions en face-à-face avec un agent conversationnel animé. Il propose un positionnement en termes de modèles et de méthodes pour le développement d'un système de détection adapté aux buts communicationnels de l'agent et à une parole conversationnelle. Après une description du modèle théorique de référence choisi, l'article propose un modèle d'annotation des attitudes dédié l'exploration de ce phénomène dans un corpus d'interaction humain-agent. Il présente ensuite une première version de notre système. Cette première version se concentre sur la détection des expressions d'attitudes pouvant référer à ce qu'aime ou n'aime pas l'utilisateur. Le système est conçu selon une approche symbolique fondée sur un ensemble de règles sémantiques et de représentations logico-sémantiques des énoncés.
[ "interaction humain-agent", "agents conversationnels animés", "Analyse de sentiments", "dialogue homme-machine" ]
[ "P", "P", "M", "U" ]
[ "Toward a detection model of affects, appreciations, jugements within human-agent interactions", "This article concerns the detection of attitudes – i.e affects, appreciations and jugements (Martin & White, 2005) – in the user's verbal content during a face-to-face interaction with an embodied conversational agent. It tackles the issue of the adaptation to the ECA's communicational goals and to the conversational speech. After a description of our theoretical model, it introduces an annotation model dedicated to the study of attitudes in a human-agent interaction corpus. Then, it describes a first version of our detection system, focusing on the attitude which can refer to a user's like or dislike. The system is rule-based and embeds logic and semantic representations of the sentences.", "Sentiment analysis, human-agent interaction, embodied conversational agents, dialogue homme-machine" ]
recital-2015-long-004
Résumé Automatique Multi-Document Dynamique : État de l'Art
Les travaux menés dans le cadre du résumé automatique de texte ont montré des résultats à la fois très encourageants mais qui sont toujours à améliorer. La problématique du résumé automatique ne cesse d'évoluer avec les nouveaux champs d'application qui s'imposent, ce qui augmente les contraintes liées à cette tâche. Nous nous inté- ressons au résumé extractif multi-document dynamique. Pour cela, nous examinons les différentes approches existantes en mettant l'accent sur les travaux les plus récents. Nous montrons ensuite que la performance des systèmes de résumé multi-document et dynamique est encore modeste. Trois contraintes supplémentaires sont ajoutées : la redondance inter-document, la redondance à travers le temps et la grande taille des données à traiter. Nous essayons de déceler les insuffisances des systèmes existants afin de bien définir notre problématique et guider ainsi nos prochains travaux.
[ "Résumé multi-document", "redondance", "résumé dynamique", "évaluation" ]
[ "P", "P", "R", "U" ]
[ "Automatic multi-document update summarization : State of the Art", "The field of automatic text summarization is characterized both by some interesting achievements and a lot of issues to address, especially with the introduction of new tasks brought by applications. In this article, we focus more particularly on the multi-document update summarization task and review the existing work about it with a special emphasis on recent work. We show that the results for this task are still low because of the necessity to take into account three important constraints : information redundancy through documents and time and the size of data. We analyze the strengths and weaknesses of existing systems according to these constraints to propose subsequently new solutions.", "Multi-document summarization, update summarization, redundancy, evaluation" ]
recital-2015-long-005
Alignement multimodal de ressources éducatives et scientifiques
Cet article présente certaines questions de recherche liées au projet COC O 1 . L'ambition de ce projet est de valoriser les ressources éducatives et académiques en exploitant au mieux les différents médias disponibles (vidéos de cours ou de présentations d'articles, manuels éducatifs, articles scientifiques, présentations, etc). Dans un premier temps, nous décrirons le problème d'utilisation jointe de ressources multimédias éducatives ou scientifiques pour ensuite introduire l'état de l'art dans les domaines concernés. Cela nous permettra de présenter quelques questions de recherche sur lesquelles porteront des études ultérieures. Enfin nous finirons en introduisant trois prototypes développés pour analyser ces questions.
[ "alignement", "multimodalité", "e-research", "e-learning" ]
[ "P", "P", "U", "U" ]
[ "Multimodal Alignment of Educative and Scientific Resources", "This article presents some questions linked to the COC O 1 project. The ambition of this project is to better exploit educa- tive and academic resources by leveraging the different available supports (courses and conference talks videos, scientific articles, textbooks, slides, etc). We will first describe the problem of joint educative or scientific multimedia resources use. We will then give an overview of the related state of the art that will allow us to introduce a few research questions that will be the subject of further studies. Finally we will introduce three research prototypes that are helpful to start to investigate those research questions.", "alignment, e-research, e-learning, multimodality" ]
End of preview (truncated to 100 rows)

TALN-Archives Benchmark Dataset for Keyphrase Generation

About

TALN-Archives is a dataset for benchmarking keyphrase extraction and generation models. The dataset is composed of 1207 abstracts of scientific papers in French collected from the TALN Archives. Keyphrases were annotated by authors in an uncontrolled setting (that is, not limited to thesaurus entries). English translations of title/abstract/keyphrases are also available for a subset of the documents (456 fully- and 719 partially-translated documents), allowing to experiment with cross-lingual / multilingual keyphrase generation. Details about the dataset can be found in the original paper (Boudin, 2013).

Reference (indexer-assigned) keyphrases are also categorized under the PRMU (Present-Reordered-Mixed-Unseen) scheme as proposed in (Boudin and Gallina, 2021). Present reference keyphrases are also ordered by their order of apparition in the concatenation of title and abstract.

Text pre-processing (tokenization) is carried out using spacy (fr_core_news_sm model) with a special rule to avoid splitting words with hyphens (e.g. graph-based is kept as one token). Stemming (Snowball stemmer implementation for french provided in nltk) is applied before reference keyphrases are matched against the source text. Details about the process can be found in prmu.py.

Content and statistics

The dataset contains the following test split:

Split # documents #words # keyphrases % Present % Reordered % Mixed % Unseen
Test 1207 138.3 4.12 53.83 12.32 21.69 12.16

The following data fields are available :

  • id: unique identifier of the document.
  • title: title of the document.
  • abstract: abstract of the document.
  • keyphrases: list of reference keyphrases.
  • prmu: list of Present-Reordered-Mixed-Unseen categories for reference keyphrases.
  • translation: translations of title, abstract and keyphrases in English if available.

References

Edit dataset card