id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
recital-2015-long-006
État de l'art : analyse des conversations écrites en ligne porteuses de demandes d'assistance en termes d'actes de dialogue
Le développement du Web 2.0 et le processus de création et de consommation massive de contenus générés par les utilisateurs qu'elle a enclenché a permis le développement de nouveaux types d'interactions chez les internautes. En particulier, nous nous intéressons au développement du support en ligne et des plate-formes d'entraide. En effet, les archives de conversations en ligne porteuses de demandes d'assistance représentent une ressource inestimable, mais peu exploitée. L'exploitation de cette ressource permettrait non seulement d'améliorer les systèmes liés à la résolution collaborative des problèmes, mais également de perfectionner les canaux de support proposés par les entreprises opérant sur le web. Pour ce faire, il est cependant nécessaire de définir un cadre formel pour l'analyse discursive de ce type de conversations. Cet article a pour objectif de présenter l'état de la recherche en analyse des conversations écrites en ligne, sous différents médiums, et de montrer dans quelle mesure les différentes méthodes exposées dans la littérature peuvent être appliquées à des conversations fonctionnelles inscrites dans le cadre de la résolution collaborative des problèmes utilisateurs.
[ "Conversation", "Acte de dialogue", "Analyse discursive", "Résolution de problèmes", "Schéma d'annotation" ]
[ "P", "P", "P", "R", "M" ]
[ "State of the Art : analysis of problem-oriented online written conversations in terms of dialog acts", "The advent of Web 2.0 and the massive creation and consumption of user generated content it triggered allowed for new kinds of interactions among web users. Indeed, freely available archives of problem-oriented online conversations represent an invaluable resource, however it remains largely unexploited. Exploiting this resource would not only allow for the improvement of systems related to collaborative problem resolution, but also to refine the customer support channels that web-based companies put at their users' disposal. However, in order to achieve this, it is first necessary to define a formal framework for the fine-grained analysis of online written conversations bearing requests for assistance. This paper presents an overview of the state of the art for discourse analysis in online written conversations, and discusses the applicability of the different methods for the analysis of conversations set within the scope of collaborative problem-solving.", "Discourse analysis, Conversation, Problem solving, Annotation scheme, Dialog act" ]
recital-2012-long-001
Segmentation non supervisée : le cas du mandarin
Dans cet article, nous présentons un système de segmentation non supervisée que nous évaluons sur des données en mandarin. Notre travail s’inspire de l’hypothèse de Harris (1955) et suit Kempe (1999) et Tanaka-Ishii (2005) en se basant sur la reformulation de l’hypothèse en termes de variation de l’entropie de branchement. Celle-ci se révèle être un bon indicateur des frontières des unités linguistiques. Nous améliorons le système de (Jin et Tanaka-Ishii, 2006) en ajoutant une étape de normalisation qui nous permet de reformuler la façon dont sont prises les décisions de segmentation en ayant recours à la programmation dynamique. Ceci nous permet de supprimer la plupart des seuils de leur modèle tout en obtenant de meilleurs résultats, qui se placent au niveau de l’état de l’art (Wang et al., 2011) avec un système plus simple que ces derniers. Nous présentons une évaluation des résultats sur plusieurs corpus diffusés pour le Chinese Word Segmentation bake-off II (Emerson, 2005) et détaillons la borne supérieure que l’on peut espérer atteindre avec une méthode non-supervisée. Pour cela nous utilisons ZPAR en apprentissage croisé (Zhang et Clark, 2010) comme suggéré dans (Huang et Zhao, 2007; Zhao et Kit, 2008)
[ "segmentation", "mandarin", "Apprentissage non-supervisé", "chinois" ]
[ "P", "P", "R", "U" ]
[ "Unsupervized Word Segmentation", "In this paper, we present an unsupervised segmentation system tested on Mandarine Chinese. Following Harris’s Hypothesis in Kempe (1999) and Tanaka-Ishii (2005) reformulation, we base our work on the Variation of Branching Entropy. We improve on (Jin et Tanaka-Ishii, 2006) by adding normalization and Viterbi-decoding. This enables us to remove most of the thresholds and parameters from their model and to reach near state-of-the-art results (Wang et al., 2011) with a simpler system. We provide evaluation on different corpora available from the Segmentation bake-off II (Emerson, 2005) and define a more precise topline for the task using cross-trained supervised system available off-the-shelf (Zhang et Clark, 2010; Zhao et Kit, 2008; Huang et Zhao, 2007)", "Unsupervized machine learning, segmentation, Mandarin Chinese" ]
recital-2012-long-002
Incrémentation lexicale dans les textes : une auto-organisation
Nous proposons une étude dynamique du lexique, en décrivant la manière dont il s’organise progressivement du début à la fin d’un texte. Pour ce faire, nous nous focalisons sur la co-occurrence généralisée, en formant un graphe qui représente tous les lemmes du texte et synthétise leurs relations mutuelles de co-occurrence. L’étude d’un corpus de 40 textes montre que ces relations évoluent d’une manière auto-organisée : la forme - et l’identité - du graphe de co-occurrence restent stables après une phase d’organisation terminée avant la 1ère moitié du texte. Ensuite, il n’évolue plus : les nouveaux mots et les nouvelles relations de co-occurrence s’inscrivent peu à peu dans le réseau, sans modifier la forme d’ensemble de la structure. La relation de co-occurrence généralisée dans un texte apparaît donc comme la construction rapide d’un système, qui est ensuite assez souple pour canaliser un flux d’information sans changer d’identité.
[ "Texte", "auto-organisation", "lexique", "co-occurrence généralisée" ]
[ "P", "P", "P", "P" ]
[ "Lexical Incrementation within Texts: a Self-Organization", "We propose here a dynamic study of lexicon: we describe how it is organized progressively from the beginning to the end of a given text. We focus on the “generalized co-occurrence”, forming a graph that represents all the lemmas of the text and their mutual co-occurrence relations. The study of a corpus of 40 texts shows that these relations have a self-organized evolution: the shape and the identity of the graph of cooccurrence become stable after a period of organization finished before the first half of the text. Then they no longer change: new words and new co-occurrence relations gradually take place in the network without changing its overall shape. We show that the evolution of the “generalized co-occurrence” is the quick construction of a system, which is then flexible enough to channel the flow of information without changing its identity.", "Text, lexicon, generalized co-occurrence, self-organization" ]
recital-2012-long-003
Etude des mesures de similarité hétérogènes pour l’extraction de relations sémantiques
L’article évalue un éventail de mesures de similarité qui ont pour but de prédire les scores de similarité sémantique et les relations sémantiques qui s’établissent entre deux termes, et étudie les moyens de combiner ces mesures. Nous présentons une analyse comparative à grande échelle de 34 mesures basées sur des réseaux sémantiques, le Web, des corpus, ainsi que des définitions. L’article met en évidence les forces et les faiblesses de chaque approche en contexte de l’extraction de relations. Enfin, deux techniques de combinaison de mesures sont décrites et testées. Les résultats montrent que les mesures combinées sont plus performantes que toutes les mesures simples et aboutissent à une corrélation de 0,887 et une Precision(20) de 0,979.
[ "Relations sémantiques", "Similarité sémantique", "Similarité distributionnelle" ]
[ "P", "P", "M" ]
[ "A Study of Heterogeneous Similarity Measures for Semantic Relation Extraction", "This paper evaluates a wide range of heterogeneous semantic similarity measures on the task of predicting semantic similarity scores and the task of predicting semantic relations that hold between two terms, and investigates ways to combine these measures. We present a large-scale benchmarking of 34 knowledge-, web-, corpus-, and definition-based similarity measures. The strengths and weaknesses of each approach regarding relation extraction are discussed. Finally, we describe and test two techniques for measure combination. These combined measures outperform all single measures, achieving a correlation of 0.887 and Precision(20) of 0.979.", "Semantic Similarity, Semantic Relations, Distributional Similarity" ]
recital-2012-long-004
Intégration de paramètres lexicaux, syntaxiques et issus du système de traduction automatique pour améliorer l’estimation des mesures de confiance au niveau des mots
L’estimation des mesures de confiance (MC) au niveau des mots consiste à prédire leur exactitude dans la phrase cible générée par un système de traduction automatique. Ceci permet d’estimer la fiabilité d'une sortie de traduction et de filtrer les segments trop mal traduits pour une post-édition. Nous étudions l’impact sur le calcul des MC de différents paramètres : lexicaux, syntaxiques et issus du système de traduction. Nous présentons la méthode permettant de labelliser automatiquement nos corpus (mot correct ou incorrect), puis le classifieur à base de champs aléatoires conditionnels utilisé pour intégrer les différents paramètres et proposer une classification appropriée des mots. Nous avons effectué des expériences préliminaires, avec l’ensemble des paramètres, où nous mesurons la précision, le rappel et la F-mesure. Finalement nous comparons les résultats avec notre système de référence. Nous obtenons de bons résultats pour la classification des mots considérés comme corrects (F-mesure : 86.7%), et encourageants pour ceux estimés comme mal traduits (F-mesure : 36,8%).
[ "Système de traduction automatique", "mesure de confiance", "champs aléatoires conditionnels", "estimation de la confiance" ]
[ "P", "P", "P", "R" ]
[ "Integrating Lexical, Syntactic and System-based Features to Improve Word Confidence Estimation in SMT", "Confidence Estimation at word level is the task of predicting the correct and incorrect words in the target sentence generated by a MT system. It helps to conclude the reliability of a given translation as well as to filter out sentences that are not good enough for post-editing. This paper investigates various types of features to circumvent this issue, including lexical, syntactic and system-based features. A method to set training label for each word in the hypothesis is also presented. A classifier based on conditional random fields (CRF) is employed to integrate features and determine the word’s appropriate label. We conducted our preliminary experiment with all features, tracked precision, recall and F-score and we compared with our baseline system. Experimental results of the full combination of all features yield the very encouraging precision, recall and F-score for Good label (F-score: 86.7%), and acceptable scores for Bad label (F-score: 36.8%).", "Machine translation, confidence measure, confidence estimation, conditional random fields" ]
recital-2012-long-005
Application d’un algorithme de traduction statistique à la normalisation de textos
Ce travail porte sur l’application d’une technique de traduction statistique au problème de la normalisation de textos. La méthode est basée sur l’algorithme de recherche vorace décrit dans (Langlais et al., 2007). Une première normalisation est générée, puis nous appliquons itérativement une fonction qui génère des nouvelles hypothèses à partir de la normalisation courante, et maximisons une fonction de score. Cette méthode fournit une réduction du taux d’erreurs moyen par phrase de 33 % sur le corpus de test, et une augmentation du score BLEU de plus de 30 %. Nous mettons l’accent sur les fonctions qui génèrent la normalisation initiale et sur les opérations permettant de générer des nouvelles hypothèses.
[ "Traduction statistique", "normalisation de textos", "algorithme de recherche vorace", "modèle de langue" ]
[ "P", "P", "P", "M" ]
[ "Applying a Statistical Machine Translation Algorithm to SMS Text Message Normalization", "We report on the application of a statistical machine translation algorithm to the problem of SMS text message normalization. The technique is based on a greedy search algorithm described in (Langlais et al., 2007). A first normalization is generated, then a function that generates new hypotheses is applied iteratively to a current best guess, while maximizing a scoring function. This method leads to a drop in word error rate of 33% on a held-out test set, and a BLEU score gain of over 30%. We focus on the methods of generating the initial normalization and the operations that allow us to generate new hypotheses.", "Machine translation, SMS, text message, normalization, greedy search algorithm, language model" ]
recital-2012-long-006
Vers la correction automatique de textes bruités: Architecture générale et détermination de la langue d’un mot inconnu
Dans ce papier, nous introduisons le problème que pose la correction orthographique sur des corpus de qualité très dégradée tels que les messages publiés sur les forums, les sites d’avis ou les réseaux sociaux. Nous proposons une première architecture de correction qui a pour objectif d’éviter au maximum la sur-correction. Nous présentons, par ailleurs l’implémentation et les résultats d’un des modules de ce système qui a pour but de détecter si un mot inconnu, dans une phrase de langue connue, est un mot qui appartient à cette langue ou non.
[ "Correction automatique", "détection de langue", "données produite par l’utilisateur" ]
[ "P", "R", "M" ]
[ "Towards Automatic Spell-Checking of Noisy Texts : General Architecture and Language Identification for Unknown Words", "This paper deals with the problem of spell checking on degraded-quality corpora such as blogs, review sites and social networks. We propose a first architecture of correction which aims at reducing overcorrection, and we describe its implementation. We also report and discuss the results obtained thanks to the module that detects whether an unknown word from a sentence in a known language belongs to this language or not.", "Spelling correction, language identification, User-Generated Content" ]
recital-2012-long-007
Une plate-forme générique et ouverte pour l’acquisition des expressions polylexicales
Cet article présente et évalue une plate-forme ouverte et flexible pour l’acquisition automatique d’expressions polylexicales (EPL) à partir des corpus monolingues. Nous commençons par une motivation pratique suivie d’une discussion théorique sur le comportement et les défis posés par les EPL dans les applications de TAL. Ensuite, nous décrivons les modules de notre plate-forme, leur enchaînement et les choix d’implémentation. L’évaluation de la plate-forme a été effectuée à travers une applications : la lexicographie assistée par ordinateur. Cette dernière peut bénéficier de l’acquisition d’EPL puisque les expressions acquises automatiquement à partir des corpus peuvent à la fois accélérer la création et améliorer la qualité et la couverture des ressources lexicales. Les résultats prometteurs encouragent une recherche plus approfondie sur la manière optimale d’intégrer le traitement des EPL dans de nombreuses applications de TAL, notamment dans les systèmes traduction automatique.
[ "Expressions polylexicales", "corpus", "lexicographie", "extraction lexicale", "lexique", "mesures d’association" ]
[ "P", "P", "P", "M", "U", "M" ]
[ "An Open and Generic Framework for the Acquisition of Multiword Expressions", "In this paper, we present and evaluate an open and flexible methodological framework for the automatic acquisition of multiword expressions (MWEs) from monolingual textual corpora. We start with a pratical motivation followed by a theoretical discussion of the behaviour and of the challenges that MWEs pose for NLP applications. Afterwards, we describe the modules of our framework, the overall pipeline and the design choices of the tool implementing the framework. The evaluation of the framework was performed extrinsically based on an application : computerassisted lexicography. This application can benefit from MWE acquisition because the expressions acquired automatically from corpora can both speed up the creation and improve the quality and the coverage of the lexical resources. The promising results of previous and ongoing experiments encourage further investigation about the optimal way to integrate MWE treatment into NLP applications, and particularly into machine translation systems.", "Multiword expression, lexical extraction, lexicon, association measures, corpus, lexicography" ]
recital-2012-long-008
Système de prédiction de néologismes formels : le cas des N suffixés par -IER dénotant des artefacts
Nous présentons ici un système de prédiction de néologismes formels avec pour exemple la génération automatique de néologismes nominaux suffixés par -IER dénotant des artefacts (saladier, brassière, thonier). L’objectif de cet article est double. Il s’agira (i) de mettre en évidence les contraintes de la suffixation par -IER afin de les implémenter dans un système de génération morphologique puis (ii) de montrer qu’il est possible de prédire les néologismes formels. Ce système de prédiction permettrait ainsi de compléter automatiquement les lexiques pour le Traitement Automatique des Langues (TAL).
[ "néologie", "génération morphologique", "morphologie constructionnelle", "incomplétude lexicale" ]
[ "P", "P", "M", "U" ]
[ "Prediction Device of Formal Neologisms : the Case of -IER Suffixed Nouns Denoting Artifacts", "We’ll introduce here a device that can predict neologisms using an example the automatical generation of nominal neologisms suffixed by -IER denoting artifacts (saladier, brassière, thonier). The aim of this article is double. We will first address the - IER suffixation constraints in order to take them into account on the implementation of our morphological generator. Second, we will describe our method to predict formal neologisms. Such a method will permit to automatically enrich NLP lexicons.", "constructional morphology, neology, morphological generation, lexical incompleteness" ]
recital-2012-long-009
Prémices d’une analyse syntaxique par transition pour des structures de dépendance non-projectives
L’article présente une extension de l’analyseur traditionnel en dépendances par transitions adapté aux dépendances discontinues et les premiers résultats de son entraînement sur un corpus de structures de dépendances de phrases en français. Les résultats des premières expérimentations vont servir de base pour le choix des traits des configurations de calcul bien adaptés aux dépendances discontinues pour améliorer l’apprentissage des dépendances tête.
[ "analyse syntaxique par transitions", "structure de dépendance non-projective", "grammaire catégorielle de dépendance" ]
[ "P", "P", "M" ]
[ "Beginnings of a Transition-Based Parsing for Non-Projectives Dependency Structures", "This paper presents an extension of the traditional transition-based dependency parser adapted to discontinuous dependencies and the first results of its training on a dependency tree corpus of French. The first experimental results will be useful for the choice of parsing configuration features well adapted to discontinuous dependencies in order to ameliorate learning of head dependencies.", "transition-based parsing, non-projective dependency structure, dependency categorial grammar" ]
recital-2012-long-010
Création d’un multi-arbre à partir d’un texte balisé : l’exemple de l’annotation d’un corpus d’oral spontané
Dans cette étude, nous nous intéressons au problème de l’analyse d’un corpus annoté de l’oral. Le système d’annotation considéré est celui introduit par l’équipe des syntacticiens du projet Rhapsodie. La principale problématique qui sous-tend un tel projet est que la base écrite sur laquelle on travaille est en réalité une transcription de l’oral, balisée par les annotateurs de manière à délimiter un ensemble de structures arborescentes. Un tel système introduit plusieurs structures, en particulier macro et micro-syntaxiques. Du fait de leur étroite imbrication, il s’est avéré difficile de les analyser de façon indépendante et donc de travailler sur l’aspect macro-syntaxique indépendamment de l’aspect micro-syntaxique. Cependant, peu d’études jusqu’à présent considèrent ces problèmes conjointement et de manière automatisée. Dans ce travail, nous présentons nos efforts en vue de produire un outil de parsing capable de rendre compte à la fois de l’information micro et macro-syntaxique du texte annoté. Pour ce faire, nous proposons une représentation partant de la notion de multi-arbre et nous montrons comment une telle structure peut être générée à partir de l’annotation et utilisée à des fins d’analyse.
[ "micro-syntaxe", "Arbres syntaxiques", "unité illocutoire", "unités rectionnelles", "macrosyntaxe", "entassement" ]
[ "P", "U", "U", "U", "U", "U" ]
[ "Creating a Multi-Tree from a Tagged Text : Annotating Spoken French", "This study focuses on automatic analysis of annotated transcribed speech. The annotation system considered has been recently introduced to address the several limitations of classical syntactic annotations when faced to natural speech transcriptions. It introduces many different components such as embedding, piles, kernels, pre-kernels, discursive markers etc.. All those components are tightly coupled in a complex tree structure and can hardly be considered separately because of their close intrication. Hence, a joint analysis is required but no analysis tool to handle them all together was available yet. In this study, we introduce such an automatic parser of annotated transcriptions of speech and present the corresponding framework based on multi-trees. This framework permits to jointly handle separate aspects of speech such as macro and micro syntactic levels, which are traditionnaly considered separately. Several applications are proposed, including analysis of the transcribed speech by classical parsers designed for written language.", "Syntactic trees, illocutionary unit, microsyntax, macrosyntax, piles" ]
recital-2012-long-011
Construction automatique d’un lexique de modifieurs de polarité
La recherche présentée 1 s’inscrit dans le domaine de la fouille d’opinion, domaine qui consiste principalement à déterminer la polarité d’un texte ou d’une phrase. Dans cette optique, le contexte autour d’un mot polarisé joue un rôle essentiel, car il peut modifier la polarité initiale de ce terme. Nous avons choisi d’approfondir cette question et de détecter précisément ces modifieurs de polarité. Une étude exploratoire, décrite dans des travaux antérieurs, nous a permis d’extraire automatiquement des adverbes qui jouent un rôle sur la polarité des adjectifs auxquels ils sont associés et de préciser leur impact. Nous avons ensuite amélioré le système d’extraction afin de construire automatiquement un lexique de structures lexico-syntaxiques modifiantes associées au type d’impact qu’elles ont sur un terme polarisé. Nous présentons ici le fonctionnement du système actuel ainsi que l’évaluation du lexique obtenu.
[ "modifieurs de polarité", "fouille d’opinion", "modifieurs de valence affective" ]
[ "P", "P", "M" ]
[ "Automatic Construction of a Contextual Valence Shifters Lexicon", "The research presented in this paper takes place in the field of Opinion Mining, which is mainly devoted to assigning a positive or negative label to a text or a sentence. The context of a highly polarized word plays an essential role, as it can modify its original polarity. The present work addresses this issue and focuses on the detection of polarity shifters. In a previous study, we have automatically extracted adverbs impacting the polarity of the adjectives they are associated to and qualified their influence. The extraction system has then been improved to automatically build a lexicon of contextual valence shifters. This lexicon contains lexico-syntactic patterns combined with the type of influence they have on the valence of the polarized item. The purpose of this paper is to show how the current system works and to present the evaluation of the created lexicon.", "opinion mining, contextual valence shifters" ]
recital-2012-long-012
Apport de la diacritisation dans l’analyse morphosyntaxique de l’arabe
Ce travail s’inscrit dans le cadre de l’analyse morphologique et syntaxique automatique de la langue arabe. Nous nous intéressons au traitement de la diacritisation et à son apport pour l’analyse morphologique. En effet, la plupart des analyseurs morphologiques et des étiqueteurs morphosyntaxiques existants ignorent les diacritiques présents dans le texte à analyser et commettent des erreurs qui pourraient être évitées. Dans cet article, nous proposons une méthode qui prend en considération les diacritiques lors de l’analyse, et nous montrons que cette prise en compte permet de diminuer considérablement le taux d’erreur de l’analyse morphologique selon le taux de diacritiques du texte traité.
[ "diacritisation", "analyse morphosyntaxique", "langue arabe", "traitement automatique" ]
[ "P", "P", "P", "R" ]
[ "Apport of Diacritization in Arabic Morpho-Syntactic Analysis", "This work is concerned with the automatic morphological and syntactical analysis of the Arabic language. It focuses on diacritization and on its contribution to morphological analysis. Most of existing morphological analyzers and syntactical taggers do not take diacritics into account; as a consequence, they make mistakes that could have been avoided. In this paper, we propose a method which process diacritics. We show that doing so reduces considerably the morphological error rate, depending on the diacritics rate in the input text.", "diacritization, computer processing, morpho-syntaxic analysis, Arabic language" ]
recital-2012-long-013
Extraction d’indicateurs de construction collective de connaissances dans la formation en ligne
Dans le cadre d’apprentissages humains assistés par des environnements informatiques, les techniques de TAL ne sont que rarement employées ou restreintes à des tâches ou des domaines spécifiques comme l’ALAO (Apprentissage de la Langue Assisté par Ordinateur) où elles sont omniprésentes mais ne concernent que certaines dimensions du TAL. Nous cherchons à explorer les possibilités ou les performances des techniques voire des méthodes de TAL pour des systèmes moins spécifiques dès lors qu’une dimension de réseau et de collectivité est présente. Plus particulièrement, notre objectif est d’obtenir des indicateurs sur la construction collective de connaissances, et ses modalités. Ce papier présente la problématique de notre thèse, son contexte, nos motivations ainsi que nos premières réflexions.
[ "formation en ligne", "TAL", "EIAH", "socio-constructivisme", "acquisition des connaissances", "apprentissage collaboratif en ligne" ]
[ "P", "P", "U", "U", "M", "M" ]
[ "Collaborative Knowledge Building Indicators Extraction in Distance Learning", "Natural Language Processing techniques are still not very much used within the field of Technology Enhanced Learning. They are restricted to specific tasks or domains such as CALL (standing for Computer Assisted Language Learning) in which they are ubiquitous but do not match every linguistic aspect they could process. We are seeking to explore possibilities or performances of thoses techniques for less specific systems including a network or community aspect. More precisely, our goal is to get indicators about collective knowledge building and its modalities. This paper presents the problem and the background of our thesis problem, as well as our motivation and our first reflections.", "NLP, TEL, distance learning, socio-constructivism, knowledge aquisition, collaboration, CSCL" ]
recital-2012-long-014
État de l’art : mesures de similarité sémantique locales et algorithmes globaux pour la désambiguïsation lexicale à base de connaissances
Dans cet article, nous présentons les principales méthodes non supervisées à base de connaissances pour la désambiguïsation lexicale. Elles sont composées d’une part de mesures de similarité sémantique locales qui donnent une valeur de proximité entre deux sens de mots et, d’autre part, d’algorithmes globaux qui utilisent les mesures de similarité sémantique locales pour trouver les sens appropriés des mots selon le contexte à l’échelle de la phrase ou du texte.
[ "désambiguïsation lexicale non-supervisée", "mesures de similarité sémantique à base de connaissances", "algorithmes globaux de propagation de mesures locales" ]
[ "M", "R", "M" ]
[ "State of the art : Local Semantic Similarity Measures and Global Algorithmes for Knowledge-based Word Sense Disambiguation", "We present the main methods for unsupervised knowledge-based word sense disambiguation. On the one hand, at the local level, we present semantic similarity measures, which attempt to quantify the semantic proximity between two word senses. On the other hand, at the global level, we present algorithms which use local semantic similarity measures to assign the appropriate senses to words depending on their context, at the scale of a text or of a corpus.", "unsupervised word sense disambiguation, knowledge-based semantic similarity measures, global algorithms for the propagation of local measures" ]
recital-2012-long-015
Compression textuelle sur la base de règles issues d'un corpus de sms
La présente recherche cherche à réduire la taille de messages textuels sur la base de techniques de compression observées, pour la plupart, dans un corpus de sms. Ce papier explique la méthodologie suivie pour établir des règles de contraction. Il présente ensuite les 33 règles retenues, et illustre les quatre niveaux de compression proposés par deux exemples concrets, produits automatiquement par un premier prototype. Le but de cette recherche n'est donc pas de produire de "l'écrit-sms", mais d'élaborer un procédé de compression capable de produire des textes courts et compréhensibles à partir de n'importe quelle source textuelle en français. Le terme "d'essentialisation" est proposé pour désigner cette approche de réduction textuelle.
[ "sms", "essentialisation", "résumé automatique", "compression de texte", "lisibilité" ]
[ "P", "P", "M", "R", "U" ]
[ "Textual Compression Based on Rules Arising from a Corpus of Text Messages", "The present research seeks to reduce the size of text messages on the basis of compression techniques observed mostly in a corpus of sms. This paper explains the methodology followed to establish compression rules. It then presents the 33 considered rules, and illustrates the four suggested levels of compression with two practical examples, automatically generated by a first prototype. This research’s main purpose is not to produce \"sms-language\", but consists in designing a textual compression process able to generate short and understandable texts from any textual source in French. The term of \"essentialization\" is proposed to describe this approach of textual reduction.", "summarization, text compression, text messaging, readability, essentialization" ]
recital-2012-long-016
Pour un étiquetage automatique des séquences verbales figées : état de l’art et approche transformationnelle
Cet article présente une approche permettant de reconnaitre automatiquement dans un texte des séquences verbales figées (casser sa pipe, briser la glace, prendre en compte) à partir d’une ressource. Cette ressource décrit chaque séquence en termes de possibilités et de restrictions transformationnelles. En effet, les séquences figées ne le sont pas complètement et nécessitent une description exhaustive afin de ne pas extraire seulement les formes canoniques. Dans un premier temps nous aborderons les approches traditionnelles permettant d’extraire des séquences phraséologiques. Par la suite, nous expliquerons comment est constituée notre ressource et comment celle-ci est utilisée pour un traitement automatique.
[ "étiquetage", "séquences verbales figées", "reconnaissance automatique", "transformations linguistiques", "ressources électroniques" ]
[ "P", "P", "M", "U", "M" ]
[ "For an Automatic Fixed Verbal Sequence Tagging: State of the Art and Transformational Approach", "This article presents a resource-based method aiming at automatically recognizing fixed verbal sequences in French (i.e casser sa pipe, briser la glace, prendre en compte) inside a text. This resource describes each sequence from the view-point of transformational possibilities and restrictions. Fixed sequences are not totally fixed and an exhaustive description is necessary to not only extract canonical forms. We will first describe some transformational approaches that are able to extract phraseological sequences. The building of the resource will be then addressed followed by our approach to automatically recognize fixed sequences in corpora.", "fixed verbal sequences, automatic recognition, tagging, linguistical transformations, electronic resources" ]
recital-2012-long-017
L’analyse de l’émotion dans les forums de santé
Les travaux sur l’émotion dans les forums sont nombreux en Linguistique et Psychologie. L’objectif de cette contribution est de proposer une analyse de l’émotion dans les forums de santé selon l’angle des Sciences de l’Information et de la Communication mais également selon une approche interdisciplinaire. Il s’agira ici, d’étudier l’émotion comme un critère de pertinence lorsque des personnes malades effectuent des recherches dans les forums. Ce papier introduit la méthodologie utilisée en traitement automatique de la langue afin de répondre à cette interrogation. Ainsi, le travail présenté abordera l’exploitation d’un corpus de messages de forums, la catégorisation semi-supervisée et l’utilisation du logiciel NooJ pour traiter de manière automatique les données.
[ "émotion", "forum de santé", "traitement automatique de la langue", "désambiguïsation lexicale" ]
[ "P", "P", "P", "U" ]
[ "Analysis of Emotion in Health Fora", "Studies about emotion in fora are numerous in Linguistics and Psychology. This contribution approaches this subject from an Information and Communication Sciences point of view, and studies emotion as a criteron of pertinence for patients in a health forum. This paper introduces the empirical step of automatic language processing in order to answer this question, and uses data processing on the corpus of forum messages, semi-supervised categorisation of messages and use of software NooJ for Natural Language Processing.", "emotion, health forum, automatic language processing, lexical disambiguation" ]
recital-2012-long-018
Peuplement d’une ontologie modélisant le comportement d’un environnement intelligent guidé par l’extraction d’instances de relations
Nous présentons une approche de peuplement d’ontologie dont le but est de modéliser le comportement de composants logiciels afin de faciliter le passage de descriptions d’exigences en langue naturelle à des spécifications formelles. L’ontologie que nous cherchons à peupler a été conçue à partir des connaissances du domaine de la domotique et est initialisée à partir d’une description de la configuration physique d’un environnement intelligent. Notre méthode est guidée par l’extraction d’instances de relations permettant par là-même d’extraire les instances de concepts liés par ces relations. Nous construisons des règles d’extraction à partir d’éléments issus de l’analyse syntaxique de descriptions de besoins utilisateurs et de ressources terminologiques associées aux concepts et relations de l’ontologie. Notre approche de peuplement se distingue par sa finalité qui n’est pas d’extraire toutes les instances décrivant un domaine mais d’extraire des instances pouvant participer sans conflit à un des multiples fonctionnements décrit par des utilisateurs.
[ "peuplement d’ontologie", "extraction de relations", "représentation des connaissances" ]
[ "P", "R", "M" ]
[ "Population of an Ontology Modeling the Behavior of an Intelligent Environment Guided by Instance Relation Extractions", "We present an approach for ontology population, which aims at modeling the behavior of software components, for enabling a transition from natural language requirements to formal specifications. The ontology was designed based on the knowledge of the domotic domain and is initialized from a description of a physical configuration of an intelligent environment. Our method focuses on extracting relation instances which allows the extraction of concept instances linked by these relations. We built extraction rules using elements coming from syntactic analysis of user need descriptions, semantic and terminological resources linked to the knowledge contained in the ontology. Our approach for ontology population, distinguishes itself by its purpose, which is not to extract all instances describing a domain but to extract instances that can participate without any conflict to one of the mutiple operation decribed by users.", "relation extraction, ontology population, knowledge representation" ]
recital-2012-long-019
De l'utilisation du dialogue naturel pour masquer les QCM au sein des jeux sérieux
Une des principales faiblesses des jeux sérieux à l'heure actuelle est qu'ils incorporent très souvent des questionnaires à choix multiple (QCM). Or, aucune étude n'a démontré que les QCM sont capables d'évaluer précisément le niveau de compréhension des apprenants. Au contraire, certaines études ont montré expérimentalement que permettre à l'apprenant d'entrer une phrase libre dans le programme au lieu de simplement cocher une réponse dans un QCM rend possible une évaluation beaucoup plus fine des compétences de l'apprenant. Nous proposons donc de concevoir un agent conversationnel capable de comprendre des énoncés en langage naturel dans un cadre sémantique restreint, cadre correspondant au domaine de compétence testé chez l'apprenant. Cette fonctionnalité est destinée à permettre un dialogue naturel avec l'apprenant, en particulier dans le cadre des jeux sérieux. Une telle interaction en langage naturel a pour but de masquer les QCM sous-jacents. Cet article présente notre approche.
[ "questionnaire à choix multiple", "Agent conversationnel éducatif", "intelligence artificielle", "jeu sérieux", "système d'évaluation de réponses libres" ]
[ "P", "M", "U", "M", "M" ]
[ "Of the Use of Natural Dialogue to Hide MCQs in Serious Games", "A major weakness of serious games at the moment is that they often incorporate multiple choice questionnaires (MCQs). However, no study has demonstrated that MCQs can accurately assess the level of understanding of a learner. On the contrary, some studies have experimentally shown that allowing the learner to input a free-text answer in the program instead of just selecting one answer in an MCQ allows a much finer evaluation of the learner's skills. We therefore propose to design a conversational agent that can understand statements in natural language within a narrow semantic context corresponding to the area of competence on which we assess the learner. This feature is intended to allow a natural dialogue with the learner, especially in the context of serious games. Such interaction in natural language aims to hide the underlying MCQs. This paper presents our approach.", "Educational conversational agent, artificial intelligence, serious game, multiple-choice questionnaire, automatic assessment of free-text answer" ]
recital-2012-long-020
ResTS : Système de Résumé Automatique des Textes d’Opinions basé sur Twitter et SentiWordNet
Comme le E-commerce est devenu de plus en plus populaire, le nombre de commentaires des internautes est en croissance constante. Les opinions sur le Web affectent nos choix et nos décisions. Il s’avère alors indispensable de traiter une quantité importante de critiques des clients afin de présenter à l’utilisateur l’information dont il a besoin dans la forme la plus appropriée. Dans cet article, nous présentons ResTS, un nouveau système de résumé automatique de textes d’opinions basé sur les caractéristiques des produits. Notre approche vise à transformer les critiques des utilisateurs en des scores qui mesurent le degré de satisfaction des clients pour un produit donné et pour chacune de ses caractéristiques. Ces scores sont compris entre 0 et 1 et peuvent être utilisés pour la prise de décision. Nous avons étudié les opinions véhiculées par les noms, les adjectifs, les verbes et les adverbes, contrairement aux recherches précédentes qui utilisent essentiellement les adjectifs. Les résultats expérimentaux préliminaires montrent que notre méthode est comparable aux méthodes classiques de résumé automatique basées sur les caractéristiques des produits.
[ "Fouille d’opinion", "Classification", "Intensité de l’Opinion", "Résumé de texte d’opinion", "Popularité" ]
[ "M", "U", "M", "M", "U" ]
[ "System of Customer Review Summarization using Twitter and SentiWordNet", "As E-commerce is becoming more and more popular, the number of customer reviews raises rapidly. Opinions on the Web affect our choices and decisions. Thus, it is more efficient to automatically process a mixture of reviews and prepare to the customer the required information in an appropriate form. In this paper, we present ResTS, a new system of feature-based opinion summarization. Our approach aims to turn the customer reviews into scores that measure the customer satisfaction for a given product and its features. These scores are between 0 and 1 and can be used for decision making and then help users in their choices. We investigated opinions extracted from nouns, adjectives, verbs and adverbs contrary to previous research which use only adjectives. Experimental results show that our method performs comparably to classic feature-based summarization methods.", "Opinion mining, Sentiment Classification, Opinion Strength, Feature-based Opinion Summarization, Feature Buzz Summary" ]
recital-2012-long-021
Typologie des questions à réponses multiples pour un système de question-réponse
L’évaluation des systèmes de question-réponse lors des campagnes repose généralement sur la validité d’une réponse individuelle supportée par un passage (question factuelle) ou d’un groupe de réponses toutes contenues dans un même passage (questions listes). Ce cadre évaluatif empêche donc de fournir un ensemble de plusieurs réponses individuelles et ne permet également pas de fournir des réponses provenant de documents différents. Ce recoupement inter-documents peut être necessaire pour construire une réponse composée de plusieurs éléments afin d’être le plus complet possible. De plus une grande majorité de questions formulées au singulier et semblant n’attendre qu’une seule réponse se trouve être des questions possédant plusieurs réponses correctes. Nous présentons ici une typologie des questions à réponses multiples ainsi qu’un aperçu sur les problèmes posés à un système de question-réponse par ce type de question.
[ "questions à réponses multiples", "question-réponse", "question liste" ]
[ "P", "P", "P" ]
[ "Typology of Multiple Answer Questions for a Question-answering System", "The evaluation campaigns of question-answering systems are generally based on the validity of an individual answer supported by a passage (for a factual question) or a group of answers coming all from a same supporting passage (for a list question). This framework does not allow the possibily to answer with a set of answers, nor with answers gathered from several documents. This cross-checking can be needed for building an answer composed of several elements in order to be as accurate as possible. Besides a large majority of questions with a singular form seems to be answered with a single answer whereas they can be satisfied with many. We present here a typology of questions with multiple answers and an overview of problems encountered by a question-answering system with this kind of questions.", "question-answering, multiple answer questions, list question" ]
recital-2012-long-022
Adaptation d’un système de reconnaissance d’entités nommées pour le français à l’anglais à moindre coût
La portabilité entre les langues des systèmes de reconnaissance d’entités nommées est coûteuse en termes de temps et de connaissances linguistiques requises. L’adaptation des systèmes symboliques souffrent du coût de développement de nouveaux lexiques et de la mise à jour des règles contextuelles. D’un autre côté, l’adaptation des systèmes statistiques se heurtent au problème du coût de préparation d’un nouveau corpus d’apprentissage. Cet article étudie l’intérêt et le coût associé pour porter un système existant de reconnaissance d’entités nommées pour du texte bien formé vers une autre langue. Nous présentons une méthode peu coûteuse pour porter un système symbolique dédié au français vers l’anglais. Pour ce faire, nous avons d’une part traduit automatiquement l’ensemble des lexiques de mots déclencheurs au moyen d’un dictionnaire bilingue. D’autre part, nous avons manuellement modifié quelques règles de manière à respecter la syntaxe de la langue anglaise. Les résultats expérimentaux sont comparés à ceux obtenus avec un système de référence développé pour l’anglais.
[ "Reconnaissance d’entités nommées", "portabilité entre les langues", "approche symbolique" ]
[ "P", "P", "M" ]
[ "Adapting a French Named Entity Recognition System to English with Minimal Costs", "Cross-language portability of Named Entity Recognition systems requires linguistic expertise and needs human effort. Adapting symbolic systems suffers from the cost of developing new lexicons and updating grammar rules. Porting statistical systems on the other hand faces the problem of the high cost of annotation of new training corpus. This paper examines the cost of adapting a rule-based Named Entity Recognition system designed for well-formed text to another language. We present a low-cost method to adapt a French rule-based Named Entity Recognition system to English. We first solve the problem of lexicon adaptation to English by simply translating the French lexical resources. We then get to the task of grammar adaptation by slightly modifying the grammar rules. Experimental results are compared to a state-of-the-art English system.", "Named entity recognition, symbolic approache, cross-language portability" ]
recital-2012-long-023
Analyse automatique de discours en langue des signes : Représentation et traitement de l’espace de signation
En langue des signes, l’espace est utilisé pour localiser et faire référence à certaines entités dont l’emplacement est important pour la compréhension du sens. Dans cet article, nous proposons une représentation informatique de l’espace de signation et les fonctions de création et d’accès associées, afin d’analyser les gestes manuels et non manuels qui contribuent à la localisation et au référencement des signes et de matérialiser leur effet. Nous proposons une approche bi-directionnelle qui se base sur l’analyse de données de capture de mouvement de discours en langue des signes dans le but de caractériser les événements de localisation et de référencement.
[ "Langue des signes", "Espace de signation", "capture de mouvement", "gestes de pointage", "suivi du regard" ]
[ "P", "P", "P", "M", "M" ]
[ "Automatic Analysis of Discourse in Sign Language : Signing Space Representation and Processing", "In sign language, signing space is used to locate and refer to entities whose locations are important for understanding the meaning. In this paper, we propose a computer-based representation of the signing space and their associated functions. It aims to analyze manual and non-manual gestures, that contribute to locating and referencing signs, and to make real their effect. For that, we propose an approach based on the analysis of motion capture data of entities’ assignment and activation events in the signing space.", "Sign language, Signing space, pointing gestures, motion capture, gaze tracker" ]
recital-2012-long-024
État de l’art : l’influence du domaine sur la classification de l’opinion, Dis-moi de quoi tu parles, je te dirai ce que tu penses
L’intérêt pour la fouille d’opinion s’est développé en même temps que se sont répandus les blogs, forums et autres plate-formes où les internautes peuvent librement exprimer leur opinion. La très grande quantité de données disponibles oblige à avoir recours à des traitements automatiques de fouille d’opinion. Cependant, la manière dont les gens expriment leur avis change selon ce dont ils parlent. Les distributions des mots utilisés sont différentes d’un domaine à l’autre. Aussi, il est très difficile d’obtenir un classifieur d’opinion fonctionnant sur tous les domaines. De plus, on ne peut appliquer sans adaptation sur un domaine cible un classifieur entraîné sur un domaine source différent. L’objet de cet article est de recenser les moyens de résoudre ce problème difficile.
[ "État de l’art", "Fouille d’opinion", "Multi-domaines", "Cross-domaines" ]
[ "P", "P", "U", "U" ]
[ "State of the Art : Influence of Domain on Opinion Classification", "The interest in opinion mining has grown concurrently with blogs, forums, and others platforms where the internauts can freely write about their opinion on every topic. As the amounts of available data are increasingly huge, the use of automatic methods for opinion mining becomes imperative. However, sentiment is expressed differently in different domains : words distributions can indeed differ significantly. An effective global opinion classifier is therefore hard to develop. Moreover, a classifier trained on a source domain can’t be used without adaptation on a target domain. This article aims to describe the state-of-the-art methods used to solve this difficult task.", "State of the art, Opinion mining, Multi-domain, Cross-domain" ]
recital-2012-long-025
État de l’art sur l’acquisition de relations sémantiques entre termes : contextualisation des relations de synonymie
L’accès au contenu des textes de spécialité est une tâche difficile à réaliser. Cela nécessite la définition de méthodes automatiques ou semi-automatiques pour identifier des relations sémantiques entre les termes que contiennent ces textes. Nous distinguons les approches de TAL permettant d’acquérir ces relations suivant deux types d’information : la structure interne des termes ou le contexte de ces termes en corpus. Afin d’améliorer la qualité des relations acquises et faciliter leur réutilisation en corpus, nous nous intéressons à la prise en compte du contexte dans une méthode d’acquisition de relations de synonymie basée sur l’utilisation de la structure interne des termes. Nous présentons les résultats d’une expérience préliminaire tenant compte de l’usage des termes dans un corpus biomédical en anglais. Nous donnons quelques pistes de travail pour définir des contraintes sémantiques sur les relations de synonymie acquises.
[ "Acquisition de relations", "Relations sémantiques", "Synonymie", "Terminologie", "Domaine Biomédical", "Corpus de spécialité" ]
[ "P", "P", "P", "U", "M", "R" ]
[ "State of the Art on the Acquisition of Semantic Relations between Terms : Contextualisation of the Synonymy Relations", "Accessing to the context of specialised texts is a crucial but difficult task. It requires automatic or semi-automatic methods dedicated to the identification of semantic relations between terms appearing in the texts. NLP approaches for acquiring semantic relations between terms can be distinguished according to the type of information : the internal structure of the terms and the term context. In order to improve the quality of the acquired synonymy relations and their reusability in other corpora, we aim at taking into account the context into an approach based on the internal structure of the terms. We present the results of a preliminary experiment taking into account the use of the terms in a English biomedical corpora. This experiment will be helpful to add semantic constraints to the already acquired synonymy relations.", "Relation Acquisition, Synonymy, Semantic Relations, Terminology, Biomedical Domain, Specialised corpora" ]
recital-2012-long-026
Extraction de PCFG et analyse de phrases pré-typées
Cet article explique la chaîne de traitement suivie pour extraire une grammaire PCFG à partir du corpus de Paris VII. Dans un premier temps cela nécessite de transformer les arbres syntaxiques du corpus en arbres de dérivation d’une grammaire AB, ce que nous effectuons en utilisant un transducteur d’arbres généralisé ; il faut ensuite extraire de ces arbres une PCFG. Le transducteur d’arbres généralisé est une variation des transducteurs d’arbres classiques et c’est l’extraction de la grammaire à partir des arbres de dérivation qui donnera l’aspect probabiliste à la grammaire. La PCFG extraite est utilisée via l’algorithme CYK pour l’analyse de phrases.
[ "PCFG", "transducteur d’arbre", "algorithme CYK", "Extraction de grammaire", "grammaire de Lambek" ]
[ "P", "P", "P", "R", "M" ]
[ "PCFG Extraction and Pre-typed Sentences Analysis", "This article explains the way we extract a PCFG from the Paris VII treebank. Firslty, we need to transform the syntactic trees of the corpus into derivation trees. The transformation is done with a generalized tree transducer, a variation of the usual top-down tree transducers, and gives as result some derivation trees for an AB grammar. Secondely, we have to extract a PCFG from the derivation trees. For this, we assume that the derivation trees are representative of the grammar. The extracted grammar is used, via the CYK algorithm, for sentence analysis.", "Grammar Extraction, Lambek grammar, PCFG, tree transducer, CYK Algorithm" ]
recital-2013-long-001
Acquisition de lexique bilingue d’expressions polylexicales: Une application à la traduction automatique statistique
Cet article décrit une méthode permettant d’acquérir un lexique bilingue d’expressions polylexicales (EPLS) à partir d’un corpus parallèle français-anglais. Nous identifions dans un premier temps les EPLS dans chaque partie du corpus parallèle. Ensuite, nous proposons un algorithme d’alignement assurant la mise en correspondance bilingue d’EPLS. Pour mesurer l’apport du lexique construit, une évaluation basée sur la tâche de Traduction Automatique Statistique (TAS) est menée. Nous étudions les performances de trois stratégies dynamiques et d’une stratégie statique pour intégrer le lexique bilingue d’expressions polylexicales dans un système de TAS. Les expériences menées dans ce cadre montrent que ces unités améliorent significativement la qualité de traduction.
[ "Expression polylexicale", "traduction automatique statistique", "alignement bilingue" ]
[ "P", "P", "R" ]
[ "Mining a Bilingual Lexicon of MultiWord Expressions : A Statistical Machine Translation Evaluation Perspective", "This paper describes a method aiming to construct a bilingual lexicon of MultiWord Expressions (MWES) from a French-English parallel corpus. We first extract monolingual MWES from each part of the parallel corpus. The second step consists in acquiring bilingual correspondences of MWEs. In order to assess the quality of the mined lexicon, a Statistical Machine Translation (SMT) task-based evaluation is conducted. We investigate the performance of three dynamic strategies and of one static strategy to integrate the mined bilingual MWES lexicon in a SMT system. Experimental results show that such a lexicon significantly improves the quality of translation.", "MultiWord expression, bilingual alignment, statistical machine translation" ]
recital-2013-long-002
Quelques variations sur les mesures de comparabilité quantitatives et évaluations sur des corpus comparables Français-Anglais synthétiques
Dans la suite des travaux de (Li et Gaussier, 2010) nous abordons dans cet article l'analyse d'une famille de mesures quantitatives de comparabilité pour la construction ou l'évaluation des corpus comparables. Après avoir rappelé la définition de la mesure de comparabilité proposée par (Li et Gaussier, 2010), nous développons quelques variantes de cette mesure basées principalement sur la prise en compte des fréquences d'occurrences des entrées lexicales et du nombre de leurs traductions. Nous comparons leurs avantages et inconvénients respectifs dans le cadre d'expérimentations basées sur la dégradation progressive du corpus parallèle Europarl par remplacement de blocs selon la méthodologie suivie par (Li et Gaussier, 2010). L'impact sur ces mesures des taux de couverture des dictionnaires bilingues vis-à-vis des blocs considérés est également examiné.
[ "Mesures de comparabilité", "Évaluation", "Corpus comparables" ]
[ "P", "P", "P" ]
[ "Some variations on quantitative comparability measures and evaluations on synthetic French-English comparable corpora", "Following the pioneering work by (Li et Gaussier, 2010) we address in this paper the analysis of a family of quantitative measures of comparability dedicated to the construction or evaluation of comparable corpora. After recalling the definition of the comparability measure proposed by (Li et Gaussier, 2010), we develop some variants of this measure based primarily on the consideration of the occurrence frequency of lexical entries and the number of their translations. We compare the respective advantages and disadvantages of these variants in the context of an experiments based on the progressive degradation of the Europarl parallel corpus, by replacing blocks according to the methodology followed by (Li et Gaussier, 2010). The impact of the coverage of bilingual dictionaries on these measures is also discussed.", "Comparable corpora, Comparability measures, Evaluation" ]
recital-2013-long-003
Inférence grammaticale guidée par clustering
Dans cet article, nous nous focalisons sur la manière d’utiliser du clustering hiérarchique pour apprendre une grammaire AB à partir d’arbres de dérivation partiels. Nous décrirons brièvement les grammaires AB ainsi que les arbres de dérivation dont nous nous servons comme entrée pour l’algorithme, puis la manière dont nous extrayons les informations des corpus arborés pour l’étape de clustering. L’algorithme d’unification, dont le pivot est le cluster, sera décrit et les résultats analysés en détails.
[ "inférence grammaticale", "clustering hiérarchique", "grammaires catégorielles" ]
[ "P", "P", "M" ]
[ "Clustering for categorial grammar induction", "In this article, we describe the way we use hierarchical clustering to learn an AB grammar from partial derivation trees. We describe AB grammars and the derivation trees we use as input for the clustering, then the way we extract information from Treebanks for the clustering. The unification algorithm, based on the information extracted from our cluster, will be explained and the results discussed.", "categorial grammars, hierarchical clustering, grammatical inference" ]
recital-2013-long-004
Améliorer l’extraction et la description d’expressions polylexicales grâce aux règles transformationnelles
Cet article présente une méthodologie permettant d’extraire et de décrire des locutions verbales vis-à-vis de leur comportement transformationnel. Plusieurs objectifs sont ciblés : 1) extraire automatiquement les expressions phraséologiques et en particulier les expressions figées, 2) décrire linguistiquement le comportement des phraséologismes 3) comparer les méthodes statistiques et notre approche et enfin 4) montrer l’importance de ces expressions dans un outil de classification de textes.
[ "extraction", "expressions polylexicales", "locution verbale", "expressions figées", "classification de textes", "transformation" ]
[ "P", "P", "P", "P", "P", "U" ]
[ "Enhance Multiword Expressions Extraction and Description with Transformational Rules", "This paper presents a methodology to extract and describe verbal multiword expressions using their transformational behavior. Several objectives are targeted: 1) automatically extracting MWE and especially frozen expression, 2) describing linguistically their MWE behavior, 3) comparing statistical methods and our approach, and finally 4) showing the importance of MWE in a text classification tool.", "multiword expression, verbal phrase, extraction, transformation, text classification" ]
recital-2013-long-005
Construction de corpus multilingues : état de l’art
Les corpus multilingues sont extensivement exploités dans plusieurs branches du traitement automatique des langues. Cet article présente une vue d’ensemble des travaux en construction automatique de ces corpus. Nous traitons ce sujet en donnant premièrement un aperçu de différentes perceptions de la comparabilité. Nous examinons ensuite les principales approches de calcul de similarité, de construction et d’évaluation développées dans le domaine. Nous observons que Le calcul de la similarité textuelle se fait généralement sur la base de statistiques de corpus, de la structure de ressources ontologiques ou de la combinaison de ces deux approches. Dans un cadre multilingue avec l’utilisation d’un dictionnaire multilingue ou d’un traducteur automatique, de nombreux problèmes apparaissent. L’exploitation d’une ressource ontologique multilingue semble être une solution. En classification, la problématique de l’ajout de documents à la base initiale sans affecter la qualité des clusters demeure ouverte.
[ "corpus multilingues", "comparabilité", "classification", "similarité textuelle translingue" ]
[ "P", "P", "P", "M" ]
[ "Multilingual document clustering : state of the art", "Multilingual corpora are extensively exploited in several branches of natural language processing. This paper presents an overview of works in the automatic construction of such corpora. We address this topic by first providing an overview of different perceptions of comparability. We then examine the main approaches to similarity computation, construction and evaluation developed in the field. We notice that the measurement of the textual similarity is usually based on corpus statistics or the structure of ontological resources or on a combination of these two approaches. In a multilingual framework, with the use of a multilingual dictionary or a machine translator, many problems arise. The exploitation of a multilingual ontological ressource seems to be a worthy option. In clustering, the problem of adding documents to the initial base without affecting the quality of clusters remains open.", "multilingual corpora, comparability, crosslingual textual similarity, classification" ]
recital-2013-long-006
Développement de ressources pour l’entrainement et l’utilisation de l’étiqueteur morphosyntaxique TreeTagger sur l’arabe
Dans cet article, nous présentons les étapes du développement de ressources pour l’entraînement et l’utilisation d’un nouvel outil de l’étiquetage morphosyntaxique de la langue arabe. Nous avons mis en oeuvre un système basé sur l'étiqueteur stochastique TreeTagger, réputé pour son efficacité et la généricité de son architecture. Pour ce faire, nous avons commencé par la constitution de notre corpus de travail. Celui-ci nous a d'abord servi à réaliser l'étape de segmentation lexicale. Dans un second temps, ce corpus a permis d'effectuer l'entrainement de TreeTagger, grâce à un premier étiquetage réalisé avec l'étiqueteur ASVM 1.0, suivi d'une phase de correction manuelle. Nous détaillons ainsi les prétraitements requis, et les différentes étapes de la phase d'apprentissage avec cet outil. Nous terminons par une évaluation sommaire des résultats, à la fois qualitative et quantitative. Cette évaluation, bien que réalisée sur un corpus de test de taille modeste, montre que nos premiers résultats sont encourageants.
[ "TreeTagger", "étiquetage morphosyntaxique", "langue arabe", "ASVM 1.0", "TALN", "corpus d'apprentissage", "segmentation de l'arabe", "arbre de décision", "lexique", "jeux d’étiquette" ]
[ "P", "P", "P", "P", "U", "R", "R", "M", "U", "M" ]
[ "Development of resources for training and the use of the tagger TreeTagger on Arabic", "In this paper, we present the steps of the development of resources for training and the use of a new tool for the part-of-speech tagging of Arabic. We implemented a tagging system based on TreeTagger, a generic stochastic tagging tool, very popular for its efficiency. First of all, we began by gathering a working corpus, large enough to ensure a general linguistic coverage. This corpus has been used to implement the tokenization process, as well as to train TreeTagger. We first present our method of tokenization, then we describe all the steps of the preprocessing and training process, using ASVM 1.0 to yield a raw POS tagging that was subsequently manually corrected. Finally, we implemented a straightforward evaluation of the outputs, both in a quantitative and qualitative way, on a small test corpus. Though restricted, this evaluation showed really encouraging results.", "NLP, Arabic language, training corpus, POS tagging, tokenization, decision tree, lexicon, tagsets, TreeTagger, ASVM 1.0" ]
recital-2013-long-007
Détection de polarité d’opinions dans les forums en langue arabe par fusion de plusieurs SVM
Cet article décrit notre contribution sur la détection de polarité d’opinions en langue arabe par apprentissage supervisé. En effet le système proposé comprend trois phases: le prétraitement du corpus, l’extraction des caractéristiques et la classification. Pour la deuxième phase, nous utilisons vingt caractéristiques dont les principales sont l’émotivité, la réflexivité, l’adressage et la polarité. La phase de classification représente dans notre travail la combinaison des plusieurs classifieurs SVMs (Machine à Vecteur de Support) pour résoudre le problème multi classes. Nous avons donc analysés les deux stratégies de SVM multi classes qui sont : « un contre tous » et « un contre un » afin de comparer les résultats et améliorer la performance du système global.
[ "apprentissage supervisé", "Fouille d’opinions", "Machine à Vecteur de Support (SVM)", "combinaison des classifieurs" ]
[ "P", "M", "R", "R" ]
[ "Polarity Opinion Detection in Arabic Forums by Fusing Multiple SVMs", "This article describes our contribution on the polarity’s detection of opinions in Arabian language by supervised training. Indeed the proposed system consists of three phases: the pretreatment of the corpus, the extraction of the features and the classification. For the second phase, we use twenty features of which the main are emotionalism, the reflexivity, the adressage and the polarity. The phase of classification represents in our work the combination of the several SVMs (Support Vector Machine),to solve the multi class problem. We analyzed the two strategies of the SVMs multi class that are: \"one against all\" and \"one against one\" in order to compare the results and to improve the performance of the global system.", "Opinion Mining, supervised training, Support Vector Machine (SVM), classifiers combination" ]
recital-2013-long-008
État de l’art des méthodes d’extraction automatique de termes-clés
Cet article présente les principales méthodes d’extraction automatique de termes-clés. La tâche d’extraction automatique de termes-clés consiste à analyser un document pour en extraire les expressions (phrasèmes) les plus représentatives de celui-ci. Les méthodes d’extraction automatique de termes-clés sont réparties en deux catégories : les méthodes supervisées et les méthodes non supervisées. Les méthodes supervisées réduisent la tâche d’extraction de termes-clés à une tâche de classification binaire (tous les phrasèmes sont classés parmi les termesclés ou les non termes-clés). Cette classification est possible grâce à une phase préliminaire d’apprentissage, phase qui n’est pas requise par les méthodes non-supervisées. Ces dernières utilisent des caractéristiques (traits) extraites du document analysé (et parfois d’une collection de documents de références) pour vérifier des propriétés permettant d’identifier ses termes-clés.
[ "état de l’art", "méthodes supervisées", "extraction de termes-clés", "méthodes non-supervisées" ]
[ "P", "P", "P", "P" ]
[ "State of the Art of Automatic Keyphrase Extraction Methods", "This article presents the state of the art of the automatic keyphrase extraction methods. The aim of the automatic keyphrase extraction task is to extract the most representative terms of a document. Automatic keyphrase extraction methods can be divided into two categories : supervised methods and unsupervised methods. For supervised methods, the task is reduced to a binary classification where terms are classified as keyphrases or non keyphrases. This classification requires a learning step which is not required by unsupervised methods. The unsupervised methods use features extracted from the analysed document (sometimes a document collection) to check properties which allow keyphrase identification.", "keyphrase extraction, supervised methods, unsupervised methods, state of the art" ]
recital-2013-long-009
Influence de l’étiquetage syntaxique des têtes sur l’analyse en dépendances discontinues du français
Dans cet article nous souhaitons mettre en évidence l’utilité d’un étiquetage syntaxique appliqué en amont d’une analyse syntaxique en dépendances. Les règles de la grammaire catégorielle de dépendances du français utilisées pour l’analyse gèrent les dépendances discontinues et les relations syntaxiques à longue distance. Une telle méthode d’analyse génère un nombre conséquent de structures de dépendances et emploie un temps d’analyse trop important. Nous voulons alors montrer qu’une méthode locale d’étiquetage peut diminuer l’ampleur de ces difficultés et par la suite aider à résoudre le problème global de désambiguïsation d’analyse en dépendances. Nous adaptons alors une méthode d’étiquetage aux catégories de la grammaire catégorielle de dépendance. Nous obtenons ainsi une pré-sélection des têtes des dépendances permettant de réduire l’ambiguïté de l’analyse et de voir que les résultats locaux d’une telle méthode permettent de trouver des relations distantes de dépendances.
[ "Étiquetage syntaxique", "Analyse syntaxique en dépendances discontinues" ]
[ "P", "R" ]
[ "On the Effect of Head Tagging on Parsing Discontinuous Dependencies in French", "In this paper we want to show the strong impact of syntactic tagging on syntactic dependency parsing. The rules of categorial dependency grammar used to parse French deal with discontinuous dependencies and long distance syntactic relations. Such parsing method produces a substantial number of dependency structures and takes too much parsing time. We want to show that a local tagging method can reduce these problems and help to solve the global problem of dependency parsing disambiguation. Then we adapt a tagging method to types of the categorial dependency grammar. We obtain a dependency-head pre-selection allowing to reduce parsing ambiguity and to see that we can find distant relation of dependencies through local results of such method.", "Discontinuous Dependency Parsing, Syntactic Tagging" ]
recital-2013-long-010
Une approche linguistique pour l'extraction des connaissances dans un texte arabe
Nous présentons dans cet article un système d'extraction de connaissances en arabe, fondé sur une analyse morphosyntaxique profonde. Ce système reconnaît les mots simples, les expressions idiomatiques, les mots composés et les entités nommées. L'analyse identifie aussi les relations syntaxiques de dépendance et traite les formes passives et actives. L’extraction des connaissances est propre à l’application et utilise des règles d’extraction sémantiques qui s'appuient sur le résultat de l'analyse morphosyntaxique. A ce niveau, le type de certaines entités nommées peut être révisé. L'extraction se base, dans nos expérimentations, sur une ontologie dans le domaine de la sécurité. Le RDF (Resource Description Framework) produit est ensuite traité pour regrouper les informations qui concernent un même événement ou une même entité nommée. Les informations ainsi extraites peuvent alors aider à appréhender les informations contenues dans un ensemble de textes, alimenter une base de connaissances, ou bien servir à des outils de veille.
[ "arabe", "entités nommées", "règles d’extraction", "ontologie", "Analyse linguistique", "fouille de textes", "extraction d’informations" ]
[ "P", "P", "P", "P", "R", "M", "R" ]
[ "A linguistic approach for knowledge extraction from an Arabic text", "We present in this paper a knowledge extraction system for Arabic. The information extraction is based on a deep morphosyntactic analysis. It also recognizes single words, idiomatic expressions, compounds and named entities. The analysis also identifies dependency relations, verb tenses and passive/active forms. Information extraction is application-independent and uses extraction rules that rely on the result of the morphosyntactic analysis. At this level, some named entity categories can be reconsidered. This extraction is based in our experimentations on the security ontology. The Resource Description Framework (RDF) obtained is then processed to gather information concerning a single event or named entity. The information extracted can help to understand the information contained in a set of texts, to infer knowledge into a knowledge base, or be used for monitoring tools.", "Linguistic analysis, Text Mining, Arabic, named entities, information extraction, extraction rules, ontology" ]
recital-2013-long-011
Extraction des mots simples du lexique scientifique transdisciplinaire dans les écrits de sciences humaines : une première expérimentation
Nous présentons dans cet article les premiers résultats de nos travaux sur l'extraction de mots simples appartenant au lexique scientifique transdisciplinaire sur un corpus analysé morpho-syntaxiquement composé d'articles de recherche en sciences humaines et sociales. La ressource générée sera utilisée lors de l'indexation automatique de textes comme filtre d'exclusion afin d'isoler ce lexique de la terminologie. Nous comparons plusieurs méthodes d'extraction et montrons qu'un premier lexique de mots simples peut être dégagé et que la prise en compte des unités polylexicales ainsi que de la distribution seront nécessaires par la suite afin d'extraire l'ensemble de la phraséologie transdisciplinaire.
[ "lexique", "corpus", "phraséologie", "écrits scientifiques" ]
[ "P", "P", "P", "R" ]
[ "Extraction of academic lexicon's simple words in humanities writings", "This paper presents a first extraction of academic lexicon's simple words in french academic writings in the fields of humanities and social sciences through a corpus study of research articles using morpho-syntactic analysis. This academic lexicon resource will be used for automatic indexing as a stoplist in order to exclude this lexicon from the terminology. We try various extraction methods and show that a first simple words lexicon can be generated but that multiwords expressions and words distribution should be taken into consideration to extract academic phraseology.", "corpus, scientific writings, lexicon, phraseology" ]
recital-2013-long-012
Vers une identification automatique du chiasme de mots
Cette recherche porte sur le chiasme de mots : figure de style jouant sur la réversion (ex. « Bonnet blanc, blanc bonnet »). Elle place le chiasme dans la problématique de sa reconnaissance automatique : qu’est-ce qui le définit et comment un ordinateur peut le trouver ? Nous apportons une description formelle du phénomène. Puis nous procédons à la constitution d’une liste d’exemples contextualisés qui nous sert au test des hypothèses. Nous montrons ainsi que l’ajout de contraintes formelles (contrôle de la ponctuation et omission des mots vides) pénalise très peu le rappel et augmente significativement la précision de la détection. Nous montrons aussi que la lemmatisation occasionne peu d’erreurs pour le travail d’extraction mais qu’il n’en est pas de même pour la racinisation. Enfin nous mettons en évidence que l’utilisation d’un thésaurus apporte quelques résultats pertinents.
[ "chiasme", "figure de style", "rhétorique", "antimétabole" ]
[ "P", "P", "U", "U" ]
[ "Towards an automatic identification of chiasmus of words", "This article summarises the study of the rhetorical figure “chiasmus” (e.g : “Quitters never win and winners never quit.”). We address the problem of its computational identification. How can a computer identify this automatically ? For this purpose this article will provide a formal description of the phenomenon. First, we put together an annotated text for testing our hypothesis. At the end we demonstrate that the use of stopword lists and the identification of the punctuation improve the precision of the results with very little impact on the recall. We discover also that using lemmatization improves the results but stemming doesn’t. Finally we see that a French thesaurus provided us with good results on the most elaborate form of chiasmus.", "chiasmus, rhetoric, antimetabole, stylistic device" ]
recital-2013-long-013
Représentation des connaissances du DEC: Concepts fondamentaux du formalisme des Graphes d’Unités
Dans cet article nous nous intéressons au choix d’un formalisme de représentation des connaissances qui nous permette de représenter, manipuler, interroger et raisonner sur des connaissances linguistiques du Dictionnaire Explicatif et Combinatoire (DEC) de la Théorie Sens-Texte. Nous montrons que ni les formalismes du web sémantique ni le formalisme des Graphes conceptuels n’est adapté pour cela, et justifions l’introduction d’un nouveau formalisme dit des Graphes d’Unités. Nous introduisons la hiérarchie des Types d’Unités au coeur du formalisme, et présentons les Graphes d’Unités ainsi que la manière dont on peut les utiliser pour représenter certains aspects du DEC.
[ "Graphes d’Unités", "Dictionnaire Explicatif et Combinatoire", "Théorie Sens-Texte", "Représentation de Connaissances Linguistiques" ]
[ "P", "P", "P", "R" ]
[ "ECD Knowledge Representation : Fundamental Concepts of the Unit Graphs Framework", "In this paper we are interested in the choice of a knowledge representation formalism that enables the representation, manipulation, query, and reasoning over linguistic knowledge of the Explanatory and Combinatorial Dictionary (ECD) of the Meaning-Text Theory. We show that neither the semantic web formalisms nor the Conceptual Graphs Formalism suit our needs, and justify the introduction of a new formalism denoted Unit Graphs. We introduce the core of this formalism which is the Unit Types hierarchy, and present Unit Graphs and how one may use them to represent aspects of the ECD.", "Linguistic Knowledge Representation, Meaning-Text Theory, Unit Graphs, Explanatory and Combinatorial Dictionary" ]
recital-2013-long-014
Vers un système générique de réécriture de graphes pour l’enrichissement de structures syntaxiques
Ce travail présente une nouvelle approche pour injecter des dépendances profondes (sujet des verbes à contrôle, partage du sujet en cas d’ellipses, ...) dans un corpus arboré présentant un schéma d’annotation surfacique et projectif. Nous nous appuyons sur un système de réécriture de graphes utilisant des techniques de programmation par contraintes pour produire des règles génériques qui s’appliquent aux phrases du corpus. Par ailleurs, nous testons la généricité des règles en utilisant des sorties de trois analyseurs syntaxiques différents, afin d’évaluer la dégradation exacte de l’application des règles sur des analyses syntaxiques prédites.
[ "réécriture de graphes", "évaluation de shéma d’annotations", "parsing", "analyse en syntaxe profonde" ]
[ "P", "M", "U", "R" ]
[ "Towards a generic graph rewriting system to enrich syntactic structures", "This work aims to present a new approach for injecting deep dependencies (subject of control verbs, subject sharing in case of ellipsis, ...) into a surfacic and projective treebank. We use a graph rewriting system with constraint programming techniques for producing generic rules which can be easily applied to a treebank. Moreover, we are testing the genericity of our rules by using output of three different parsers to evaluate how the rules behave on predicted parse trees.", "graph rewriting system, annotation schemes evaluation, deep syntax parsing" ]
recital-2013-long-015
État de l'art de l'induction de sens: une voie vers la désambiguïsation lexicale pour les langues peu dotées
La désambiguïsation lexicale, le processus qui consiste à automatiquement identifier le ou les sens possible d'un mot polysémique dans un contexte donné, est une tâche fondamentale pour le Traitement Automatique des Langues (TAL). Le développement et l'amélioration des techniques de désambiguïsation lexicale ouvrent de nombreuses perspectives prometteuses pour le TAL. En effet, cela pourrait conduire à un changement paradigmatique en permettant de réaliser un premier pas vers la compréhension des langues naturelles. En raison du manque de ressources langagières, il est parfois difficile d'appliquer des techniques de désambiguïsation à des langues peu dotées. C'est pourquoi, nous nous intéressons ici, à enquêter sur comment avoir un début de recherche sur la désambiguïsation lexicale pour les langues peu dotées, en particulier en exploitant des techniques d'induction des sens de mots, ainsi que quelques suggestions de pistes intéressantes à explorer.
[ "induction de sens", "désambiguïsation lexicale", "langues peu dotées", "ressources langagières" ]
[ "P", "P", "P", "P" ]
[ "A State of the Art of Word Sense Induction: A Way Towards Word Sense Disambiguation for Under-Resourced Languages", "Word Sense Disambiguation (WSD), the process of automatically identifying the meaning of a polysemous word in a sentence, is a fundamental task in Natural Language Processing (NLP). Progress in this approach to WSD opens up many promising developments in the field of NLP and its applications. Indeed, improvement over current performance levels could allow us to take a first step towards natural language understanding. Due to the lack of lexical resources it is sometimes difficult to perform WSD for under-resourced languages. This paper is an investigation on how to initiate research in WSD for under-resourced languages by applying Word Sense Induction (WSI) and suggests some interesting topics to focus on.", "Word Sense Disambiguation, Word Sense Induction, under-resourced languages, lexical resources" ]
recital-2013-long-016
Génération des corpus en dialecte tunisien pour la modélisation de langage d'un système de reconnaissance
Ces derniers temps, vu la situation préoccupante du monde arabe, les dialectes arabes et notamment le dialecte tunisien est devenu de plus en plus utilisé dans les interviews, les journaux télévisés et les émissions de débats. Cependant, cette situation présente des conséquences négatives importantes pour le Traitement Automatique du Langage Naturel (TALN): depuis que les dialectes parlés ne sont pas officiellement écrits et n’ont pas d’orthographe standard, il est très coûteux d'obtenir des corpus adéquats à utiliser pour des outils de TALN. Par conséquent, il n’existe pas des corpus parallèles entre l’Arabe Standard Moderne(ASM) et le Dialecte Tunisien (DT). Dans ce travail, nous proposons une méthode pour la création d’un lexique bilingue ASM–DT et un processus pour la génération automatique de corpus dialectaux. Ces ressources vont servir à la construction d’un modèle de langage pour les journaux télévisés tunisiens, afin de l’intégrer dans un Système de Reconnaissance Automatique de Parole (SRAP).
[ "Dialecte Tunisien", "lexique ASM-DT", "TDT: Tunisian Dialect Translator" ]
[ "P", "M", "M" ]
[ "Generation of tunisian dialect corpora for adapting language models", "Lately, given the serious situation in the Arab world, the Arab dialects such as Tunisian dialect became increasingly used and represented in the interviews, news and debate programs. However, this situation presents negative consequences for Natural Language Processing (NLP): Since dialects are not officially written and have no orthographic standard, it is very costly to obtain adequate corpora to train NLP tools. Therefore, it does not even exist parallel corpora between Standard Arabic (MSA) and Tunisian Dialect(TD). In this work, we propose a method for the creation of a bilingual lexicon MSA-TD and an automatic process for generating dialectal corpora. These resources will be used to build a language model for Tunisian news, in order to integrate it into an Automatic Speech Recognition (ASR).", "Tunisian Dialect, MSA-TD lexicon, TDT: Tunisian Dialect Translator" ]
recital-2013-long-017
Détection automatique des sessions de recherche par similarité des résultats provenant d’une collection de documents externe
Les utilisateurs d’un système de recherche d’information mettent en oeuvre des comportements de recherche complexes tels que la reformulation de requête et la recherche multitâche afin de satisfaire leurs besoins d’information. Ces comportements de recherche peuvent être observés à travers des journaux de requêtes, et constituent des indices permettant une meilleure compréhension des besoins des utilisateurs. Dans cette perspective, il est nécessaire de regrouper au sein d’une même session de recherche les requêtes reliées à un même besoin d’information. Nous proposons une méthode de détection automatique des sessions exploitant la collection de documents WIKIPÉDIA, basée sur la similarité des résultats renvoyés par l’interrogation de cette collection afin d’évaluer la similarité entre les requêtes. Cette méthode obtient de meilleures performances que les approches temporelle et lexicale traditionnellement employées pour la détection de sessions séquentielles, et peut être appliquée à la détection de sessions imbriquées. Ces expérimentations ont été réalisées sur des données provenant du portail OpenEdition.
[ "détection automatique de sessions de recherche", "Recherche d’information", "analyse de journal de requêtes" ]
[ "P", "P", "M" ]
[ "Automatic search session detection exploiting results similarity from an external document collection", "Search engines users apply complex search behaviours such as query reformulation and multitasking search to satisfy their information needs. These search behaviours may be observed through query logs, and constitute clues allowing a better understanding of users’ needs. In this perspective, it is decisive to group queries related to the same information need into a unique search session. We propose an automatic session detection method exploiting the WIKIPEDIA documents collection, based on the similarity between the results returned for each query pair to estimate the similarity between queries. This method shows better performance than both temporal and lexical approaches traditionally used for successive session detection, and can be applied as well to multitasking search session detection. These experiments were conducted on a dataset originating from the OpenEdition Web portal.", "Information retrieval, automatic search session detection, query log analysis" ]
recital-2013-long-018
Une approche mixte morpho-syntaxique et statistique pour la reconnaissance d'entités nommées en langue chinoise
Cet article présente une approche mixte, morpho-syntaxique et statistique, pour la reconnaissance d'entités nommées en langue chinoise dans un système d'extraction automatique d'information. Le processus se divise principalement en trois étapes : la première génère des noms propres potentiels à l'aide de règles morphologiques ; la deuxième utilise un modèle de langue afin de sélectionner le meilleur résultat ; la troisième effectue la reconnaissance d'entités nommées grâce à une analyse syntaxique locale. Cette dernière permet une reconnaissance automatique d'entités nommées plus pertinente et plus complète.
[ "Reconnaissance d'entités nommées", "Analyse syntaxique", "Reconnaissance de noms propres", "Traitement automatique du chinois", "Extraction d'information" ]
[ "P", "P", "R", "M", "R" ]
[ "A Mixed Morpho-Syntactic and Statistical Approach to Chinese Named Entity Recognition", "This paper presents a morpho-syntactic and statistical approach for Chinese named entity recognition which is a part of an automatic system for information extraction. The process is divided into three steps : first, the generation of possible proper nouns is based on morphological rules; second a language model is used to select the best result, and last, a local syntactic parsing performs the named entity recognition. Syntactic parsing makes named entity recognition more relevant and more complete.", "Proper noun recogition, Named entity recognition (NER), Chinese Natural Language Processing, Information extraction, Syntactic parsing" ]
recital-2014-long-001
Modélisation probabiliste de l’interface syntaxe sémantique à l’aide de grammaires hors contexte probabilistes Expériences avec FrameNet
Cet article présente une méthode générative de prédiction de la structure sémantique en cadres d’une phrase à partir de sa structure syntaxique et décrit les grammaires utilisées ainsi que leurs performances. Ce système permet de prédire, pour un mot dans le contexte syntaxique d’une phrase, le cadre le plus probable. Le système génératif permet d’attribuer à ce mot un cadre et à l’ensemble de chemins des rôles sémantiques. Bien que les résultats ne soient pas encore satisfaisants, cet analyseur permet de regrouper les tâches d’analyse sémantique (sélection du cadre, sélection des actants, attribution des rôles), contrairement aux travaux précédemment publiés. De plus, il offre une nouvelle approche de l’analyse sémantique en cadres, dans la mesure où elle repose plus sur la structure syntaxique que sur les mots de la phrase.
[ "interface syntaxe sémantique", "FrameNet", "Analyse sémantique automatique" ]
[ "P", "P", "M" ]
[ "Probabilistic modeling of the syntax semantic interface using probabilistic context free grammars, Experiments with FrameNet", "This paper presents a generative method for predicting the frame semantic structure of a sentence from its syntactic structure and describes the grammars used with their performances. This system allows to predict, for a word in the syntactic context of a sentence, the most probable frame. The generative system allows to give a frame to a word and semantic roles to a set of pathes. Although results are not yet satisfying, this parser allows to group semantic parsing tasks (frame selection, role fillers selection, role assignment) unlike previously published works. In addition, it offers a new approach to parse semantic frames insofar as it is based more on syntactic structure rather than words of the sentence.", "Automatic Semantic Parsing, syntax semantic parsing, FrameNet" ]
recital-2014-long-002
Traitement FrameNet des constructions à attribut de l’objet
Dans le cadre du projet ASFALDA, qui comporte une phase d’annotation sémantique d’un FrameNet français, nous cherchons à fournir un traitement linguistiquement motivé des constructions à attribut de l’objet, un exemple typique de divergence syntaxe-sémantique. Pour ce faire, nous commençons par dresser un panorama des propriétés syntaxiques et sémantiques des constructions à attribut de l’objet. Nous étudions ensuite le traitement FrameNet des verbes anglais typiques de cette construction, avant de nous positionner pour un traitement homogénéisé dans le cas du FrameNet français.
[ "FrameNet", "construction à attribut de l’objet", "français", "divergence syntaxe-sémantique" ]
[ "P", "P", "P", "P" ]
[ "Addressing object predicative complements in a French FrameNet", "Within the ASFALDA project, which includes the production of a French FrameNet, we try to provide a linguistically motivated treatment for a typical example of syntax-semantics mismatch : object complement construction. In order to do so, we first give an overview of syntactic and semantic properties of object complement constructions. Next, we study the way FrameNet deals with English verbs taking part in those constructions, and finally take a stance for a homogenized treatment of the construction within the French FrameNet.", "FrameNet, French, object complement construction, syntax-semantics mismatch" ]
recital-2014-long-003
Expressions différenciées des besoins informationnels en Langue Naturelle : construction de profils utilisateurs en fonction des tâches de recherche d’informations
Devant des collections massives et hétérogènes de données, les systèmes de RI doivent désormais pouvoir appréhender des comportements d’utilisateurs aussi variés qu’imprévisibles. L’objectif de notre approche est d’évaluer la façon dont un utilisateur verbalise un besoin informationnel à travers un énoncé de type « expression libre » ; appelé langage naturel (LN). Pour cela, nous nous situons dans un contexte applicatif, à savoir des demandes de remboursement des utilisateurs d’un moteur de recherche dédié à des études économiques en français. Nous avons recueilli via ce moteur, les demandes en LN sur 5 années consécutives totalisant un corpus de 1398 demandes. Nous avons alors comparé l’expression en tant que tel du besoin informationnel en fonction de la tâche de recherche d’informations (RI) de l’utilisateur.
[ "Besoin informationnel", "tâches de recherche d’informations", "Langage naturel", "Recherche informations", "Expression et interprétation des besoins", "Formulation question", "comportement utilisateur" ]
[ "P", "P", "P", "R", "M", "U", "R" ]
[ "Distinctions in the Formulation of Information Needs in Natural Language; Construction of a Task-Based User Profile Database", "With the massive and heterogeneous web document collections, IR system must analyze the behaviors of users which are unpredictable and varied. The approach described in this paper provides a description of the verbalizations of the information need in natural language. For this, we used data collected (i.e. users’ complaints in natural language) through a search engine dedicated to economic reports in French over 5 consecutive years totaling a corpus of 1398 natural language requests. Then, we compared the expression as such of the information need according to the IR task.", "Information Retrieval, Information Need, Query formulation and Query Expression, Query Formulation, Natural Language, User Behavior, IR task" ]
recital-2014-long-004
Les modèles de description du verbe dans les travaux de Linguistique, Terminologie et TAL
Dans le cadre de notre projet de recherche, qui a pour but l’implémentation d’un outil de simplification des emplois spécialisés de verbes dans des corpus médicaux à partir de l’analyse syntaxico-sémantique de ces verbes en contexte, nous proposons une analyse de quelques approches et travaux qui ont pour objet principal la description du verbe dans les trois domaines de recherche à l’interface desquels se situe notre projet : linguistique, TAL et terminologie. Nous décrivons plus particulièrement les travaux qui peuvent avoir une incidence sur notre étude. Cet état de l’art nous permet de mieux connaître le cadre théorique dans lequel s’intègre notre projet de recherche et d’avoir les repères et références susceptibles de contribuer à sa réalisation.
[ "Verbe terminologique ou spécialisé", "sémantique des cadres", "sémantique lexicale", "structure argumentale", "étiquetage en rôles sémantiques" ]
[ "M", "M", "U", "U", "M" ]
[ "The descriptive approaches of the verb in Linguistics, Terminology and NLP", "As part of our research project, which aims to implement a text simplification tool for the specialized usages of verbs in medical corpora using the syntactic and semantic analysis of these verbs in context, we propose an overview of some approaches and work whose main research object is the description of verbs, within the three research areas which interface our study is : linguistics, terminology and NLP. We pay a particular attention to studies that can have an impact on our work. This state of the art allows us to better understand the theoretical framework related to our research project. Moreover, it allows us to have benchmarks and references that might be usefull for the realization of our project.", "Specialized verb, Frame Semantics, lexical semantics, argumental structure, Semantic Role Labeling" ]
recital-2014-long-005
Réseau de neurones profond pour l’étiquetage morpho-syntaxique
L’analyse syntaxique et sémantique de langages non-canoniques est principalement limitée par le manque de corpus annotés. Il est donc primordial de mettre au point des systèmes robustes capables d’allier références canoniques et non-canoniques. Les méthodes exploitant la théorie des réseaux de neurones profonds ont prouvé leur efficacité dans des domaines tels que l’imagerie ou les traitements acoustiques. Nous proposons une architecture de réseau de neurones appliquée au traitement automatique des langages naturels, et plus particulièrement à l’étiquetage morpho-syntaxique. De plus, plutôt que d’extraire des représentations empiriques d’une phrase pour les injecter dans un algorithme de classification, nous nous inspirons de récents travaux portant sur l’extraction automatique de représentations vectorielles des mots à partir de corpus non-annotés. Nous souhaitons ainsi tirer profit des propriétés de linéarité et de compositionnalité de tels plongements afin d’améliorer les performances de notre système.
[ "Réseau de Neurones Profond", "Étiquetage morpho-syntaxique", "Plongements", "TALN", "Apprentissage Automatique" ]
[ "P", "P", "P", "U", "M" ]
[ "Deep Neural Network applied to Part-of-Speech Tagging", "Syntactic and semantic parsing of non-canonical languages is mainly restricted by the lack of labelled data sets. It is thus essential to develop strong systems capable of combining canonical and non-canonical text corpora. Deep Learning methods proved their efficiency in domains such as imaging or acoustic process.We propose neural network architecture applied to natural languages processing. Furthermore, instead of extracting from the sentence a rich set of hand-crafted features wich are the fed to a standard classification algorithm, we drew our inspiration from recent papers about the automatic extraction of word embeddings from large unlabelled data sets. On such embeddings, we expect to benefit from linearity and compositionality properties to improve our system performances.", "NLP, Part-of-Speech Tagging, Machine Learning, Deep Neural Network, Embeddings" ]
recital-2014-long-006
Extraction terminologique : vers la minimisation de ressources
Cet article présente une méthode ayant pour objectif de minimiser l’apport extérieur nécessaire à la tâche d’extraction terminologique (ET) et de rendre cette tâche moins dépendante de la langue. Pour cela, la méthode prévoit des ressources morphologiques et morphosyntaxiques simplifiées construites directement à partir d’un corpus lemmatisé. Ces ressources endogènes servent à la création d’un système de filtres qui affinent les calculs statistiques et à la génération de patrons pour l’identification de candidats termes polylexicaux. La méthode a été testée sur deux corpus comparables en chimie et en télécommunication, en français et en anglais. La précision observée sur les 100 premiers candidats termes monolexicaux fluctue entre 71% et 87% pour le français et entre 44 % et 69 % en anglais ; celle des candidats termes polylexicaux s’élève à 69-78 % en français et 69-85 % en anglais en fonction du domaine.
[ "extraction terminologique", "ressources endogènes", "apprentissage automatique" ]
[ "P", "P", "U" ]
[ "Terminology Extraction: Towards Resource Minimization", "The article presents the method which aims to minimize the use of external resources for the terminology extraction task and to make this task less langage dependent. For that purpose, the method builds simplified morphological and morphosyntactic resources directly from a lemmatized corpus. These endogenous resources are used both in filters, which refine the statistical calculations, and in patterns for polylexical terms identification. The method was tested on two comparable corpora in chemistry and in telecommunication in French and in English. The precision observed on the first 100 monolexical terms fluctuates between 71% and 87% for French and between 44% and 69% in English ; for polylexical terms the precision was 69-78% in French and 69-85% in English depending on the domain.", "terminology extraction, endogenous resources, machine learning" ]
recital-2014-long-007
Une description des structures de la durée en Langue des Signes Française à partir d’une grammaire formelle
Dans cet article, nous abordons la problématique du fonctionnement de la temporalité en langue des signes française (LSF). Nous allons étudier plus particulièrement quelques structures portant sur la durée. Nous présenterons dans un premier temps les descriptions existantes du système aspecto-temporel de la LSF et les difficultés que nous trouvons pour modéliser ces travaux. Le but de cet article est de proposer une grammaire formelle qui prenne en compte le fonctionnement de la LSF et qui puisse faire l’objet d’un traitement de modélisation. Notre démarche consiste à étudier un corpus LSF pour établir des liens de fonction à forme afin d’obtenir des règles de grammaire qu’on peut générer dans un projet de synthèse à l’aide d’un signeur avatar.
[ "grammaire", "temporalité", "LSF", "modélisation LSF" ]
[ "P", "P", "P", "R" ]
[ "Description of structures of time (in French sign \nlanguage) based on a formal grammar", "Temporality constitutes a major issue in filed of modeling french signed language (LSF). In fact, it is very difficult to model actual discriptions of the aspect-temporal systems of LSF. In this paper we present the bases of a novel formal grammar that permits the modeling of the LSF. This paper presents a study to construct this grammar. We analysed a French SL corpus to create formel rool between the signed gesture and its signification. Our objective is to obtain rules of grammar that can generate a synthesis project using a signer avatar.", "grammar, LSF, temporality, modeling LSF" ]
recital-2014-long-008
Interaction homme-machine en domaine large à l’aide du langage naturel : une amorce par mise en correspondance
Cet article présente le problème de l’association entre énoncés en langage naturel exprimant des instructions opérationnelles et leurs expressions équivalentes et langage formel. Nous l’appliquons au cas du français et du langage R. Développer un assistant opérationnel apprenant, qui constitue notre objectif à long terme, requiert des moyens pour l’entraîner et l’évaluer, c’est-à-dire un système initial capable d’interagir avec l’utilisateur. Après avoir introduit la ligne directrice de ce travail, nous proposons un modèle pour représenter le problème et discutons de l’adéquation des méthodes par mise en correspondance, ou mapping, à notre tâche. Pour finir, nous montrons que, malgré des scores modestes, une approche simple semble suffisante pour amorcer un tel système interactif apprenant.
[ "assistants interactifs", "apprentissage artificiel", "systèmes de question-réponse" ]
[ "R", "U", "M" ]
[ "Natural Human-Machine Interaction for Manipulating Formal Language: Bootstrapping with Mapping", "We consider the problem of mapping natural language written utterances expressing operational instructions to formal language expressions, applied to French and the R programming language. Designing a learning operational assistant, which is our long term goal, requires the means to train and evaluate it, that is, a baseline system able to interact with the user. After presenting the guidelines of our work, we propose a model to represent the problem and discuss the fit of direct mapping methods to our task. Finally, we show that, while not resulting in excellent scores, a simple approach seems to be sufficient to bootstrap an interactive learning system.", "interactive assistants, machine learning, question answering systems" ]
recital-2014-long-009
Regroupement de structures de dérivations lexicales par raisonnement analogique
Cet article propose une méthode de regroupement de structures de dérivations lexicales par raisonnement analogique. Nous présentons les caractéristiques générales d’un graphe lexical issu du Réseau Lexical du Français, dont nous exploitons par la suite les composantes faiblement connexes. Ces composantes sont regroupées en trois étapes : par isomorphisme, par similarité de relations, puis par similarité d’attributs. Les résultats du dernier regroupement sont analysés en détail.
[ "dérivation lexicale", "raisonnement analogique", "analogie", "graphe lexical", "composantes connexes" ]
[ "P", "P", "P", "P", "R" ]
[ "Merging structures of lexical derivations by analogical reasoning", "This paper presents a method for merging structures of lexical derivations by analogical reasoning. Following the presentation of general features of a lexical graph from the French Lexical Network, we focus on the weak connected components of this graph. This components are grouped together in three steps : by isomorphism, by relational similarity and finally by attributional similarity. The results of the last merging are analyzed in detail.", "lexical graph, analogy, connected components, analogical reasoning, lexical derivation" ]
recital-2014-long-010
Méthodes par extraction pour le résumé automatique de conversations parlées provenant de centres d’appels
Dans ce papier nous traitons des résumés automatiques de conversations parlées spontanées. Pour cela nous utilisons des conversations provenant de cas réels d’appels téléphoniques de centre d’appels issues du corpus DECODA. Nous testons des méthodes extractives classiques utilisées en résumé de texte (MMR) ainsi que des méthodes basées sur des heuristiques du dialogue dans le cadre des centres d’appels. Il s’agit de la sélection du tour de parole le plus long dans le premier quart de la conversation, dans l’ensemble de la conversation et dans le dernier quart de la conversation. L’ensemble est évalué avec la métrique ROUGE. Les résultats obtenus soulignent les limites de ces approches « classiques » et confirment la nécessité d’envisager des méthodes abstractives intégrant des informations de structures sur les conversations. En effet, ces premiers résultats montrent que les méthodes heuristiques basées sur la structure produisent des résultats comparables, voir meilleurs que des méthodes telles que MMR.
[ "corpus DECODA", "MMR", "ROUGE", "Résumé de conversations parlées", "résumé par extraction" ]
[ "P", "P", "P", "R", "R" ]
[ "Extraction methods for automatic summarization of spoken conversations from call centers", "In this paper we speak about automatic spoken conversation summaries. We use conversation from some real cases call from a call center extracted from the DECODA corpus. We test some extractive summary methods used in text summary (MMR) and some dialogue heuristics methods. It’s mainly to select the longest speaker turn in different part of the dialogue, the first quarter, the whole dialogue, and the last quarter of the dialogue. All the results are evaluated thanks the ROUGE software. The results show the limits of these classical approaches and suggest that we need some abstractive methods including some structural features of the conversation. In fact, these results show that the structural heuristics based methods are even or better than the classic method like MMR.", "spoken conversation summarization, extractive summary, ROUGE, DECODA corpus, MMR" ]
recital-2014-long-011
Identification de Contextes Riches en Connaissances en corpus comparable
Dans les études s’intéressant à la traduction assistée par ordinateur (TAO), l’un des objectifs consiste à repérer les passages qui focalisent l’attention des traducteurs humains. Ces passages sont considérés comme étant des contextes « riches en connaissances », car ils aident à la traduction. Certains contextes textuels ne donnent qu’une simple attestation d’un terme recherché, même s’ils le renferment. Ils ne fournissent pas d’informations qui permettent de saisir sa signification. D’autres, en revanche, contiennent des fragments de définitions, mentionnent une variante terminologique ou utilisent d’autres notions facilitant la compréhension du terme. Ce travail s’intéresse aux « contextes définitoires » qui sont utiles à l’acquisition de connaissances à partir de textes, en particulier dans la perspective de traduction terminologique assistée par ordinateur à partir de corpus comparables. En effet, l’association d’un exemple à un terme permet d’en appréhender le sens exact. Nous proposons, tout d’abord, trois hypothèses définissant la notion d’exemple définitoire. Ensuite nous évaluons sa validité grâce une méthode s’appuyant sur les Contextes Riches en Connaissances (CRC) ainsi que les relations hiérarchiques reliant les termes entre eux.
[ "Contextes Riches en Connaissances", "terminologie", "traduction terminologique", "CRC", "identification de définitions", "identification d’exemples", "énoncé définitoire" ]
[ "P", "P", "P", "P", "R", "R", "M" ]
[ "Knowledge-Rich Contexts Extraction from Comparable Corpora", "Some contexts provide only a simple explanation of a given term even if they contain it. However, others contain fragments of definitions, mention a terminological variant or use other concepts to make it easy the term understanding. In this work we focus on « definitory contexts » that would be valuable to a human for knowledge acquisition from texts, mainly in order to assist in terminological translation from comparable corpora. Indeed, provide the term with an example, makes it possible to understand its exact meaning. First, we specify three hypothesis defining the concept of a defnitory example. Then we evaluate its validity through a method based on the knowledge-Rich Contexts (KRCs) and hierarchical relationships between terms.", "Knowledge-Rich Contexts, KRCs, mining definitions, minging examples, terminology, terminological translation" ]
recital-2014-long-012
Induction d’une grammaire de propriétés à granularité variable à partir du treebank arabe ATB
Dans cet article, nous présentons une démarche pour l’induction d’une grammaire de propriétés (GP) arabe en utilisant le treebank ATB. Cette démarche se base sur deux principales étapes : (1) l’induction d’une grammaire hors contexte et (2) l’induction d’une GP par la génération automatique des relations qui peuvent exister entre les unités grammaticales décrites dans la CFG. Le produit obtenu constitue une ressource ouvrant de nouvelles perspectives pour la description et le traitement de la langue arabe.
[ "grammaires de propriétés", "Treebanks", "langue arabe", "grammaire hors-contexte" ]
[ "P", "P", "P", "M" ]
[ "Induction of a variable granularity property grammar from the Arabic Treebank ATB", "This paper presents an approach for building an Arabic property grammar using the treebank ATB. This approach consists in two main steps: (1) inducing a context-free grammar from a treebank and (2) inducing a property grammar. So, we acquire first a context-free grammar (CFG) from the source treebank and then, we induce the property grammar by generating automatically existing relations between grammatical units described in the CFG. The result is a new resource for Arabic, opening the way to new tools and descriptions.", "Treebanks, Arabic language, context-free grammar, property grammars" ]
recital-2007-long-001
Utilisation des ontologies pour la modélisation logique d’une commande en langue naturel
Dans cet article, nous nous intéressons à l’interprétation de commandes en langue naturelle pour un agent artificiel. Notre architecture repose sur une modélisation logique de la commande pour l’interprétation sémantique, qui permet de capturer la « structure fonctionnelle » de la phrase, c’est-à-dire les rôles des termes les uns par rapport aux autres. Cet article décrit une méthode d’analyse structurelle de surface qui s’appuie sur l’ontologie de l’agent pour construire cette modélisation logique. Nous définissons tout d’abord un algorithme d’ancrage des termes de la commande dans l’ontologie de l’agent puis nous montrons comment s’en servir pour l’analyse de surface. Enfin, nous expliquons brièvement comment notre modélisation peut être utilisée au moment de l’interprétation sémantique des commandes.
[ "ontologies", "modélisation logique", "commande en langue naturelle", "analyse structurelle de surface" ]
[ "P", "P", "P", "P" ]
[ "", "In this paper, we focus on natural language interaction for artificial agents. Our architecture relies on a command logical model to enhance the semantic interpretation. It allows us to catch the « functional structure » of the user sentence, i.e. each terms compared to each others. This paper describes a partial structural approach which relies on the agent ontology to build a logical form of the sentence. We first define an algorithm to anchor a word from the command in the ontology and we use it to make our partial analysis. Lastly, we explain briefly how to use our model for the semantic interpretation of the user command.", "natural language command, partial structural analysis, logical form, ontologies" ]
recital-2007-long-002
L’analyse morphologique des réponses d’apprenants
Nous présentons une approche empirique de l’évaluation automatique des réponses d’apprenants au sein d’un système d’Apprentissage des Langues Assisté par Ordinateur (ALAO). Nous proposons la mise en place d’un module d’analyse d’erreurs attestées sur corpus qui s’appuie sur des techniques robustes de Traitement Automatique des Langues (TAL). Cet article montre la réalisation d’un module d’analyse de morphologie flexionnelle, en situation hors-contexte, à partir d’un modèle linguistique existant.
[ "ALAO", "TAL", "morphologie flexionnelle", "détection d’erreurs", "rétroaction(s)" ]
[ "P", "P", "P", "M", "M" ]
[ "", "We present an empirical approach to the automated evaluation of learner's answers in a CALL system (Computer Assisted Language Learning). We suggest the realization of an error parsing module using NLP techniques (Natural Language Processing). The errors stem from a language learners corpus. This article describes the implementation, from an existing linguistic model, of an inflectional context-free morphology parser.", "NLP, CALL, errors detection, inflectional morphology, feedback" ]
recital-2007-long-003
Repérage automatique de génériques dans les définitions terminographiques
Cet article présente une procédure de repérage et de balisage de l’élément générique de la définition terminographique exploitant les caractéristiques formelles du sous-langage définitoire. La procédure, qui comporte quatre étapes, constitue l’une des sous-tâches d’un analyseur (semi-)automatique de la structure conceptuelle des définitions terminographiques, destiné à faciliter l’annotation d’un corpus en vue de l’étude de régularités dans cette structure. La tâche décrite consiste à mettre au point un système d’annotation automatique basé sur le repérage d’indices morphosyntaxiques, sans recourir à d’autres ressources linguistiques informatisées.
[ "définition terminographique", "sous-langage", "annotation automatique", "indices morphosyntaxiques", "repérage de frontière" ]
[ "P", "P", "P", "P", "M" ]
[ "", "This article presents a procedure to locate and tag the generic elements of terminographic definitions, taking advantage of the formal characteristics of the definition sublanguage. This four step procedure is part of a larger (semi-)automatic parser of the conceptual structure of terminographic definitions, intended to ease the tagging of a corpus for studying conceptual regularities in definition structure. The method involves the development of an automatic tagging system, based on the identification of morphosyntactic boundary markers, which does not require the use of additional linguistic resources.", "terminographic definition, automatic tagging, boundary location, morphosyntactic markers, sublanguage" ]
recital-2007-long-004
Extraction de paraphrases désambiguïsées à partir d’un corpus d’articles encyclopédiques alignés automatiquement
Nous décrivons ici comment enrichir automatiquement WordNet en y important des articles encyclopédiques. Ce processus permet de créer des nouvelles entrées, en les rattachant au bon hyperonyme. Par ailleurs, les entrées préexistantes de WordNet peuvent être enrichies de descriptions complémentaires. La répétition de ce processus sur plusieurs encyclopédies permet de constituer un corpus d’articles comparables. On peut ensuite extraire automatiquement des paraphrases à partir des couples d’articles ainsi créés. Grâce à l’application d’une mesure de similarité, utilisant la hiérarchie de verbes de WordNet, les constituants de ces paraphrases peuvent être désambiguïsés.
[ "extraction de paraphrases", "WordNet", "mesure de similarité", "fusion d’articles", "distance sémantique", "identification d’hyperonyme", "Wikipedia", "entités nommées", "analyse syntaxique", "désambiguïsation lexicale", "cadres de sous-catégorisation", "apprentissage" ]
[ "P", "P", "P", "M", "U", "M", "U", "U", "U", "M", "M", "U" ]
[ "", "We describe here how to automatically import encyclopedic articles into WordNet. This process makes it possible to create new entries, attached to their appropriate hypernym. In addition, the preexisting entries of WordNet can get enriched with complementary descriptions. Reiterating this process on several encyclopedias makes it possible to constitute a corpus of comparable articles; we can then automatically extract paraphrases from the couples of articles that have been created. The paraphrases components can finally be disambiguated, by means of a similarity measure (using the verbs WordNet hierarchy).", "paraphrases extraction, articles merging, similarity measure, semantic distance, hypernym identification, WordNet, Wikipedia, named entities, syntactic analysis, word sense disambiguation, syntactic frames, unsupervised learning" ]
recital-2007-long-005
Extension de l'encodage formel des fonctions lexicales dans le cadre de la Lexicologie Explicative et Combinatoire
Dans les ressources dictionnairiques développées à partir du cadre théorique de la Lexicologie Explicative et Combinatoire telles que le DiCo, les relations sémanticolexicales sont modélisées au moyen de fonctions lexicales. Cependant, seulement la majorité d'entre elles (dites standard) répondent véritablement à un encodage formel. Les autres (dites non standard), représentant des relations plus spécifiques à certaines unités lexicales, sont écrites sous la forme d'un encodage hétérogène et très peu formalisé. Par conséquent, certaines relations ne peuvent entrer en ligne de compte dans les traitements automatiques. Nous proposons dans cet article une méthodologie pour la normalisation des fonctions lexicales non standard afin de les rendre exploitables dans des applications telles que l'analyse et la génération de texte. Pour ce faire, nous discutons certains principes théoriques associés à ce formalisme de description et esquissons des propositions pour un traitement global et homogène de l'ensemble des relations décrites dans le DiCo.
[ "DiCo", "Fonctions lexicales (non standard)", "modélisation des relations sémanticolexicales" ]
[ "P", "R", "R" ]
[ "", "In the lexicographical products developped within the framework of the Explicative and Combinatorial Lexicology such as the DiCo, the lexico-semantic links are modeled by means of lexical functions. However, only a part of them (called standard) happen to appear as a real formal encoding. The others (called non-standard), which represent links more specific to some lexical units, are written in a heterogeneous and barely formalized way. Therefore, some relations can't be taken into account in automatic processings. We propose, in this paper, a methodology for the normalization of non standard lexical functions in order to make them machine readable in applications such as text-analysis and generation. To complete this work, we discuss some theoretical assumptions drawn upon this formalism and sketch some propositions for a global and homogeneous processing of all the lexical links described in the DiCo.", "(non standard) Lexical Function, modelling of lexico-semantic links, DiCo" ]
recital-2007-long-006
Traitement de désignations orales dans un contexte visuel
Nous nous intéressons aux systèmes multimodaux qui utilisent les modes et modalités suivantes : l’oral (et le langage naturel) en entrée et en sortie, le geste en entrée et le visuel en sortie par affichage sur écran. L’usager échange avec le système par un geste et/ou un énoncé oral en langue naturelle. Dans cet échange, encodé sur les différentes modalités, se trouvent l’expression du but de l’usager et la désignation des objets (référents) nécessaires à la réalisation de ce but. Le système doit identifier de manière précise et non ambiguë les objets désignés par l’usager. Nous traitons plus spécialement dans cet article les désignations orales, sans geste, des objets dans le contexte visuel. En effet, l’ensemble du contexte multimodal, dont le mode visuel, influe sur la production de l’entrée de l’usager. Afin d’identifier une désignation produite en s’appuyant sur le contexte visuel, nous proposons un algorithme qui utilise des connaissances « classiques » linguistiques, des connaissances sur les objets manipulés, et des connaissances sur les aspects perceptifs (degré de saillance) associés à ces objets.
[ "référence", "saillance", "communication homme machine multimodale" ]
[ "P", "P", "M" ]
[ "", "We are interested about multimodal systems that use the following modes and modalities : speech (and natural language) as input as well as output, gesture as input and visual as output through displaying on the screen. The user exchanges with the system by a gesture and/or an oral statement in natural language. This exchange, encoded on the different modalities, contains the goal of the user and also the designation of objects (referents) necessary to the realization of this goal. The system must identify in a precise and non-ambiguous way the objects designated by the user. In this paper, our main concern is the oral designations, without gesture, of objects in the visual context. Indeed, the whole of the multimodale context including visual mode, influences the production of the user input. In order to identify a designation based on the visual context, we propose an algorithm which uses « traditional » linguistic knowledge, knowledge about manipulated objects and perceptive aspects (degree of salience) associated to these objects.", "multimodal human computer communication, reference, salience" ]
recital-2007-long-007
Combinaison de ressources linguistiques pour l’aide à l’accès lexical : étude de faisabilité
Cet article propose une évaluation combinée et comparative de 5 ressources (descriptive, paradigmatique et syntagmatiques) pour l’aide à l’accès lexical en situation de "mot sur le bout de la langue", en vue de la création d’un outil utilisant la combinaison de ces ressources. En situation de "mot sur le bout de la langue", l’utilisateur n’accède plus au mot qu’il veut dire ou écrire mais est capable d’en produire d’autres sémantiquement associés. L’évaluation se base sur un corpus de 20 mots "sur le bout de la langue" pour lesquels on dispose de 50 groupes de 5 associations sémantiques effectuées par des utilisateurs. Les résultats montrent que les ressources sont complémentaires et peu redondantes. De plus au moins une association proposée parmi les 5 permettrait de retrouver le mot "sur le bout de la langue" dans 79% des cas, à condition de le sélectionner parmi les 2500 mot potentiels. Enfin, les résultats montrent des disparités entre les utilisateurs, ce qui permettrait de définir des profils d’utilisateur pour une amélioration des performances.
[ "accès lexical", "profil d’utilisateur", "réseaux sémantiques" ]
[ "P", "P", "M" ]
[ "", "This paper describes a joint and comparative evaluation of 5 lexical resources (descriptive, paradigmatic and syntagmatic) from a lexical access angle, with the further perspective of constructing a tool based on a combination of these resources to avoid the \"tip of the tongue\" (TOT) phenomenon. This phenomenon characterises a person who has difficulty in saying or writing an intended word but one who is able to produce semantically associated words. The evaluation corpus is composed of 20 TOT examples each linked to 50 users’ association sets of 5 semantically associated words. The results highlight that all the tested resources are complementary. Moreover, 79% of proposed association sets contain at least one association leading to the TOT through its relative words in at least one resource (in the worse case the TOT has to be found among 2500 words). Finally the results show variations between users which could increase performance thanks to user profiles.", "semantic networks, lexical access, user profiling" ]
recital-2007-poster-001
Vers une nouvelle structuration de l’information extraite automatiquement
Les systèmes d’Extraction d’Information se contentent, le plus souvent, d’enrichir des bases de données plates avec les informations qu’ils extraient. Nous décrivons dans cet article un travail en cours sur l’utilisation de données extraites automatiquement pour la construction d’une structure de représentation plus complexe. Cette structure modélise un réseau social composé de relations entre les entités d’un corpus de biographies.
[ "extraction d’information", "biographies", "analyse de réseaux sociaux", "entités nommées", "représentation de connaissances" ]
[ "P", "P", "M", "M", "M" ]
[ "", "Information Extraction systems are widely used to create flat databases of templates filled with the data they extract from text. In this article we describe an ongoing research project that focuses on the use of automatically extracted data to create a more complex representation structure. This structure is a model of the social network underlying the relations that can be established between the entities of a corpus of biographies.", "information extraction, social network analysis, named entities, biographies, knowledge representation" ]
recital-2007-poster-002
Vers une ressource prédicative pour l’extraction d’information
Cet article présente une méthode pour construire, à partir d’une ressource lexicale prédicative existante, une ressource enrichie pouvant servir à une tâche d’extraction. Nous montrons les points forts et les lacunes de deux ressources existantes pour le Français : les Tables du LADL et Volem. Après avoir montré pourquoi nous avons sélectionné Volem, nous listons les données nécessaires à la tâche d’extraction d’information. Nous présentons le processus d’enrichissement de la ressource initiale et une évaluation, à travers une tâche d’extraction d’information concernant des textes de rachats d’entreprise.
[ "ressource prédicative", "extraction d’information", "patrons lexico-syntaxiques" ]
[ "P", "P", "U" ]
[ "", "In this article, we present a method aiming at building a resource for an information extraction task, from an already existing French predicative lexical resource. We point out the weaknesses and strengthnesses of two predicative resources we worked with : Les tables du LADL and Volem. We present why we select Volem as the most interesting resource for the task. Thereafter, we make a list of the needs an information extraction task implies, and how we include missing information in the resource we selected. We evaluate the resource completed by those missing informations, using it in an information extraction task.", "predicative resource, information extraction, lexico-syntactic patterns" ]
recital-2007-poster-003
Caractérisation d’un corpus de requêtes d’assistance
Afin de concevoir un agent conversationnel logiciel capable d’assister des utilisateurs novices d’applications informatiques, nous avons été amenés à constituer un corpus spécifique de requêtes d’assistance en français, et à étudier ses caractéristiques. Nous montrons ici que les requêtes d’assistance se distinguent nettement de requêtes issues d’autres corpus disponibles dans des domaines proches. Nous mettons également en évidence le fait que ce corpus n’est pas homogène, mais contient au contraire plusieurs activités conversationnelles distinctes, dont l’assistance elle-même. Ces observations nous permettent de discuter de l’opportunité de considérer l’assistance comme un registre particulier de la langue générale.
[ "corpus de requêtes d’assistance", "agent conversationnel", "activité conversationnelle", "actes de dialogue" ]
[ "P", "P", "P", "M" ]
[ "", "In order to conceive a conversational agent able to assist ordinary people using softwares, we have built up a specific corpus of assistance requests in french, and studied its characteristics. We show here that assistance requests can be clearly distinguished from the ones from other available corpora in related domains. We also show that this corpus isn’t homogenous, but on the contrary reflects various conversational activities, among which the assistance itself. Those observations allow us to discuss about the opportunity to consider assistance as a general language particular registre.", "corpus of assistance requests, conversational agent, conversational activity, speech acts" ]
recital-2007-poster-004
Extraction endogène d’une structure de document pour un alignement multilingue
Pour des raisons variées, diverses communautés se sont intéressées aux corpus multilingues. Parmi ces corpus, les textes parallèles sont utilisés aussi bien en terminologie, lexicographie ou comme source d’informations pour les systèmes de traduction par l’exemple. L’Union Européenne, qui a entraîné la production de document législatif dans vingtaine de langues, est une des sources de ces textes parallèles. Aussi, avec le Web comme vecteur principal de diffusion de ces textes parallèles, cet objet d’étude est passé à un nouveau statut : celui de document. Cet article décrit un système d’alignement prenant en compte un grand nombre de langues simultanément (> 2) et les caractéristiques structurelles des documents analysés.
[ "alignement multilingue", "corpus parrallèles", "multitextes", "multidocuments", "extraction de structures", "alignement endogène" ]
[ "P", "M", "U", "U", "R", "R" ]
[ "", "For many reasons, the multilingual corporas have interested various communities. Among these corporas, the parallel texts are used as well in terminology, lexicography or as a source of informations for example-based translations. The European Union, which involved the production of legislative documents, generates these parrallel texts in more than twenty languages. Also, with the Web as a vector of diffusion, we can wonder if these parallel texts can be treated as documents. This article describes a alignment system taking account a great number of languages (> 2) and the structural characteristics of the analyzed documents.", "multilingual alignment, parallel corpora, multitexts, multidocuments, extraction of structures, endogenous alignment" ]
recital-2007-poster-005
Évaluation transparente de systèmes de questions-réponses : application au focus
Les campagnes d’évaluation ne tiennent compte que des résultats finaux obtenus par les systèmes de recherche d’informations (RI). Nous nous situons dans une perspective d’évaluation transparente d’un système de questions-réponses, où le traitement d’une question se fait grâce à plusieurs composants séquentiels. Dans cet article, nous nous intéressons à l’étude de l’élément de la question qui porte l’information qui se trouvera dans la phrase réponse à proximité de la réponse elle-même : le focus. Nous définissons ce concept, l’appliquons au système de questions-réponses QALC, et démontrons l’utilité d’évaluations des composants afin d’augmenter la performance globale du système.
[ "évaluation", "système de questions-réponses", "focus", "recherche d’information" ]
[ "P", "P", "P", "P" ]
[ "", "Evaluation campaigns take into account only the final results obtained by information retrieval systems. Our perspective is that of the glass box evaluation of a question-answering system. The processing of a question is accomplished by a series of components. The purpose of this article is to study the element in the sentence which holds the key information. This element is to be found again in the sentence containing the answer next to the answer itself, and is called the focus. We will begin by defining this concept. We will then applied it to the QALC question answering system. Finally we will demonstrate the pertinence of using glass box evaluations to enhance the global performance such systems.", "question answering system, information retrieval, evaluation, focus" ]
recital-2007-poster-006
La segmentation thématique TextTiling comme indice pour le repérage de segments d'information évolutive dans un corpus de textes encyclopédiques
Nous faisons l'hypothèse que les bornes délimitées par la méthode statistique TextTiling peuvent servir d'indices qui, cumulées à des indices de nature linguistique, permettront de repérer automatiquement des segments d'informations évolutives. Ce travail est développé dans le cadre d'un projet industriel plus général dont le but est le repérage automatique de zones textuelles contenant de l'information potentiellement évolutive.
[ "segmentation", "segments d'information évolutive", "algorithme TextTiling" ]
[ "P", "P", "M" ]
[ "", "Our hypothesis is that the TextTiling's boundaries can be considered as clues we can use with other linguistic features to automatically detect evolving information segments. This work is developed as part of an industrial project aiming to automatically detect textual zones containing potentially evolving information.", "evolving information, segmentation, TextTiling algorithm" ]
recital-2007-poster-007
Annotation des disfluences dans les corpus oraux
Les disfluences (répétitions, amorces, autocorrections, constructions inachevées, etc.) inhérentes à toute production orale spontanée constituent une réelle difficulté en termes d’annotation. En effet, l’annotation de ces phénomènes se révèle difficilement automatisable dans la mesure où leur étude réclame un jugement éminemment interprétatif. Dans cet article, nous présentons une méthodologie applicable à l’annotation des disfluences (ou « phénomènes de production ») que l’on rencontre fréquemment dans les corpus oraux. Le fait de constituer un tel corpus de données annotées, permet non seulement de représenter certains aspects pertinents de l’oral (de manière à servir de base aux observations et aux comparaisons avec d’autres données) mais aussi d’améliorer in fine le traitement automatique de l’oral (notamment l’analyse syntaxique automatique).
[ "annotation", "disfluences", "corpus oraux", "prosodie", "XML" ]
[ "P", "P", "P", "U", "U" ]
[ "", "Disfluencies (repeats, word-fragments, self-repairs, aborted constructs, etc.) inherent in any spontaneous speech production constitute a real difficulty in terms of annotation. Indeed, the annotation of these phenomena seems not easily automatizable, because their study needs an interpretative judgement. In this paper, we present a methodology for the annotation of disfluencies (also named “production phenomena”) which frequently occur in speech corpora. Constituting such data allows not only to represent some relevant aspects of speech productions (so as to be a basis for observations and comparisons with other data), but also to improve automatic speech processing (particularly for parsing).", "speech corpora, annotation, disfluencies, prosody, XML" ]
recital-2007-poster-008
Architecture modulaire portable pour la génération du langage naturel en dialogue homme-machine
La génération du langage naturel pour le dialogue oral homme-machine pose des contraintes spécifiques, telles que la spontanéité et le caractère fragmenté des énoncés, les types des locuteurs ou les contraintes de temps de réponse de la part du système. Dans ce contexte, le problème d’une architecture rigoureusement spécifiée se pose, autant au niveau des étapes de traitement et des modules impliqués, qu’au niveau des interfaces entre ces modules. Afin de permettre une liberté quasi-totale à l’égard des démarches théoriques, une telle architecture doit être à la fois modulaire (c’est-à-dire, permettre l’indépendance des niveaux de traitement les uns des autres) et portable (c’est-à-dire, permettre l’interopérabilité avec des modules conçus selon des architectures standard en génération du langage naturel, telles que le modèle RAGS - « Reference Architecture for Generation Systems »). Ainsi, dans cet article on présente de manière concise l’architecture proposée, la comparant ensuite au modèle RAGS, pour argumenter les choix opérés en conception. Dans un second temps, la portabilité de l’architecture sera décrite à travers un exemple étendu, dont la généralité réside dans l’obtention d’un ensemble de règles permettant de plonger automatiquement les représentations des informations de notre architecture vers le format du modèle RAGS et inversement. Finalement, un ensemble de conclusions et perspectives clôturera l’article.
[ "architecture modulaire", "portabilité", "génération", "dialogue", "XML" ]
[ "P", "P", "P", "P", "U" ]
[ "", "Natural language generation for human-computer dialogue imposes specific constraints, such as the spontaneous and fragmented character of the utterances, speaker types or constraints related to the system’s time of response. In this context, the issue of a thouroughly specified architecture stems naturally, with respect to the processing stages in the modules involved and to the interfaces between these modules as well. In order to allow for a quasi-total freedom concerning the theoretical principles driving the processing stages, such an architecture must be modular (i.e., allowing the independence of the modules of each other) and portable (i.e., allowing a certain interoperability between modules designed following this architecture and existing modules, designed following standard, reference architectures, such as the RAGS model). Thus, in this paper firstly the proposed architecture will be presented in a concise manner, comparing it then to the RAGS model and arguing for the design choices being made. Afterwards, the portability of the architecture will be described, via an extended example whose general character resides in the fact that a set of rules are obtained, that allow automatic translations between representation formats in our architecture and in the RAGS model, in both ways. Finally, a set of conclusions and pointers to further work end up the paper.", "generation, dialogue, modular architecture, portability, XML" ]
recital-2007-poster-009
Résolution anaphorique intégrée à une analyse automatique de discours d’un corpus oral retranscrit
Nous présentons une résolution anaphorique intégrée à une analyse automatique de discours. Cette étude traite des anaphores pronominales et des anaphores zéro. Notre analyse est basée sur trois approches : une analyse basée sur les contraintes, une analyse fonctionnelle et une analyse dynamique. Pour évaluer la faisabilité et la fiabilité de notre approche, nous l’avons expérimentée sur un corpus de 97 histoires produites à l’oral par des enfants. Nous présentons le résultat de cette évaluation.
[ "résolution anaphorique", "anaphore pronominales", "anaphores zéro", "analyse dynamique", "analyse de discours", "grammaires de propriétés", "grammaire fonctionnelle", "discours oral" ]
[ "P", "P", "P", "P", "R", "M", "M", "R" ]
[ "", "We present an anaphora resolution integrated in a discourse analysis. This study deals with pronoun anaphora and zero anaphora. Our analysis is based on three approaches. A constraint based rule analysis, a functional approach and a dynamic analysis. In order to evaluate the feasibility of our approach and its reliability we have experimented with a corpus of 97 speech stories produced by children. We present here the results of our evaluation experiment.", "discourse analysis, anaphora resolution, pronoun anaphora, zero anaphora, property grammars, functional grammar, dynamic analysis, speech discourse" ]
recital-2009-long-001
Apprentissage automatique et Co-training
Dans le domaine de la classification supervisée et semi-supervisée, cet article présente un contexte favorable à l’application de méthodes statistiques de classification. Il montre l’application d’une stratégie alternative dans le cas où les données d’apprentissage sont insuffisantes, mais où de nombreuses données non étiquetées sont à notre disposition : le cotraining multi-classifieurs. Les deux vues indépendantes habituelles du co-training sont remplacées par deux classifieurs basés sur des techniques de classification différentes : icsiboost sur le boosting et LIBLINEAR sur de la régression logistique.
[ "Apprentissage automatique", "co-training", "classification" ]
[ "P", "P", "P" ]
[ "", "In the domain of supervised and semi-supervised classification, this paper describes an experimental context suitable with statistical classification. It shows an alternative method usable when learning data is unsufficient but when many unlabeled data is avaliable : the multi-classifier co-training. Two classifiers based on different classification methods replace the two independent views of the original co-training algorithm : icsiboost based on boosting and LIBLINEAR which is a logistic regression classifier.", "Machine learning, classification, co-training" ]
recital-2009-long-003
Détection de la cohésion lexicale par voisinage distributionnel : application à la segmentation thématique
Cette étude s’insère dans le projet VOILADIS (VOIsinage Lexical pour l’Analyse du DIScours), qui a pour objectif d’exploiter des marques de cohésion lexicale pour mettre au jour des phénomènes discursifs. Notre propos est de montrer la pertinence d’une ressource, construite par l’analyse distributionnelle automatique d’un corpus, pour repérer les liens lexicaux dans les textes. Nous désignons par voisins les mots rapprochés par l’analyse distributionnelle sur la base des contextes syntaxiques qu’ils partagent au sein du corpus. Pour évaluer la pertinence de la ressource ainsi créée, nous abordons le problème du repérage des liens lexicaux à travers une application de TAL, la segmentation thématique. Nous discutons l’importance, pour cette tâche, de la ressource lexicale mobilixsée ; puis nous présentons la base de voisins distributionnels que nous utilisons ; enfin, nous montrons qu’elle permet, dans un système de segmentation thématique inspiré de (Hearst, 1997), des performances supérieures à celles obtenues avec une ressource traditionnelle.
[ "Cohésion lexicale", "segmentation thématique", "analyse distributionnelle", "ressources lexicales" ]
[ "P", "P", "P", "P" ]
[ "", "The present work takes place within the Voiladis project (Lexical neighborhood for discourse analysis), whose purpose is to exploit lexical cohesion markers in the study of various discursive phenomena. We want to show the relevance of a distribution-based lexical resource to locate interesting relations between lexical items in a text.We call neighbors lexical items that share a significant number of syntactic contexts in a given corpus. In order to evaluate the usefulness of such a resource, we address the task of topical segmentation of text, which generally makes use of some kind of lexical relations. We discuss here the importance of the particular resource used for the task of text segmentation. Using a system inspired by (Hearst, 1997), we show that lexical neighbors provide better results than a classical resource.", "Lexical cohesion, lexical resources, distributional analysis, text segmentation" ]
recital-2009-long-004
Extraction de lexique dans un corpus spécialisé en chinois contemporain
La constitution de ressources lexicales est une tâche cruciale pour l’amélioration des performances des systèmes de recherche d’information. Cet article présente une méthode d’extraction d’unités lexicales en chinois contemporain dans un corpus spécialisé non-annoté et non-segmenté. Cette méthode se base sur une construction incrémentale de l’unité lexicale orientée par une mesure d’association. Elle se distingue des travaux précédents par une approche linguistique non-supervisée assistée par les statistiques. Les résultats de l’extraction, évalués sur un échantillon aléatoire du corpus de travail, sont honorables avec des scores de précision et de rappel respectivement de 52,6 % et 53,7 %.
[ "extraction de lexique", "corpus spécialisé", "chinois", "unité lexicale", "lexie" ]
[ "P", "P", "P", "P", "U" ]
[ "", "Building lexical resources is a vital task in improving the efficiency of information retrieval systems. This article introduces a Chinese lexical unit extraction method for untagged specialized corpora. This method is based on an incremental process driven by an association score. This work features an unsupervised statistically aided linguistic approach. The extraction results — evaluated on a random sample of the working corpus — show decent precision and recall which amount respectively to 52.6% and 53.7%.", "specialized corpus, lexical unit, lexicon extraction, Chinese" ]
recital-2009-long-005
Induction de sens de mots à partir de multiples espaces sémantiques
Les mots sont souvent porteurs de plusieurs sens. Pour traiter l’information correctement, un ordinateur doit être capable de décider quel sens d’un mot est employé à chacune de ses occurrences. Ce problème non parfaitement résolu a généré beaucoup de travaux sur la désambiguïsation du sens des mots (Word Sense Disambiguation) et dans la génération d’espaces sémantiques dont un des buts est de distinguer ces différents sens. Nous nous inspirons ici de deux méthodes existantes de détection automatique des différents usages et/ou sens des mots, pour les appliquer à des espaces sémantiques issus d’une analyse syntaxique effectuée sur un très grand nombre de pages web. Les adaptations et résultats présentés dans cet article se distinguent par le fait d’utiliser non plus une seule représentation mais une combinaison de multiples espaces de forte dimensionnalité. Ces multiples représentations étant en compétition entre elles, elles participent chacune par vote à l’induction des sens lors de la phase de clustering.
[ "induction de sens", "espace sémantique", "réduction de dimensions", "Locality Sensitive Hashing", "clustering de mots", "objets multi-représentés" ]
[ "P", "P", "M", "U", "R", "U" ]
[ "", "Words can have many senses. In order to process information correctly, a computer should be able to decide which sense of a word is used in a given context. This unsolved problem has generated much research in word sense disambiguation and in the generation of semantic spaces in order to separate possible meanings. Here, we adapt two existing methods to automatically distinguish words uses and senses.We apply them to multiple semantic spaces produced by a syntactic analysis of a very large number of web pages. These adaptations and the results presented in this article differ from the original methods in that they use a combination of several high dimensional spaces instead of one single representation. Each of these competing semantic spaces takes part in a clustering phase in which they vote on sense induction.", "semantic space, dimensionality reduction, Locality Sensitive Hashing, Word Sense Induction, words clustering, multi-represented data" ]
recital-2009-long-006
Méta-moteur de traduction automatique : proposition d’une métrique pour le classement de traductions
Compte tenu de l’essor du Web et du développement des documents multilingues, le besoin de traductions "à la volée" est devenu une évidence. Cet article présente un système qui propose, pour une phrase donnée, non pas une unique traduction, mais une liste de N hypothèses de traductions en faisant appel à plusieurs moteurs de traduction pré-existants. Neufs moteurs de traduction automatique gratuits et disponibles sur leWeb ont été sélectionnés pour soumettre un texte à traduire et réceptionner sa traduction. Les traductions obtenues sont classées selon une métrique reposant sur l’utilisation d’un modèle de langage. Les expériences conduites ont montré que ce méta-moteur de traduction se révèle plus pertinent que l’utilisation d’un seul système de traduction.
[ "méta-moteur de traduction", "traduction automatique", "web", "modèle de langage" ]
[ "P", "P", "P", "P" ]
[ "", "Considering the Web and multilingual documents development expansion, the need of fast translation has become an evidence. This paper presents a system that proposes, for a given sentence, a list of N translation hypotheses instead of a single translation, using several machine translation systems already existing. Nine free and available (on the Internet) automatic translation engines have been chosen to submit a text to be translated and to receive its translation. The translations obtained are evaluated individually with a language model adapted and a metric elaborated by us, and in this way classified by relevance order. The experiment have pointed out that this meta-translation engine is more useful than the use of one system for translation.", "automatic translation, web, language model, meta-translator" ]
recital-2009-long-007
Modèles statistiques pour l’estimation automatique de la difficulté de textes de FLE
La lecture constitue l’une des tâches essentielles dans l’apprentissage d’une langue étrangère. Toutefois, la découverte d’un texte portant sur un sujet précis et qui soit adapté au niveau de chaque apprenant est consommatrice de temps et pourrait être automatisée. Des expériences montrent que, pour l’anglais, l’utilisation de classifieurs statistiques permet d’estimer automatiquement la difficulté d’un texte. Dans cet article, nous proposons une méthodologie originale comparant, pour le français langue étrangère (FLE), diverses techniques de classification (la régression logistique, le bagging et le boosting) sur deux corpus d’entraînement. Il ressort de cette analyse comparative une légère supériorité de la régression logistique multinomiale.
[ "régression logistique", "bagging", "boosting", "lisibilité", "modèle de langue" ]
[ "P", "P", "P", "U", "R" ]
[ "", "Reading is known to be an essential task in language learning, but finding the appropriate text for every learner is far from easy. In this context, automatic procedures can support the teacher’s work. Some works on English reveal that it is possible to assess the readability of texts using statistical classifiers. In this paper, we present an original approach comparing various classification techniques, namely logistic regression, bagging and boosting on two training corpora. The results show a slight superiority for multinomial logistic regression over bagging or boosting.", "readability, logistic regression, bagging, boosting, language model" ]
recital-2009-long-009
Normalisation des entités nommées : pour une approche mixte et orientée utilisateurs
La normalisation intervient dans de nombreux champs du traitement de l'information. Elle permet d'optimiser les performances des applications, telles que la recherche ou l'extraction d'information, et de rendre plus fiable la constitution de ressources langagières. La normalisation consiste à ramener toutes les variantes d'un même terme ou d'une entité nommée à une forme standard, et permet de limiter l'impact de la variation linguistique. Notre travail porte sur la normalisation des entités nommées, pour laquelle nous avons mis en place un système complexe mêlant plusieurs approches. Nous en présentons ici une des composantes : une méthode endogène de délimitation et de validation de l’entité nommée normée, adaptée à des données multilingues. De plus, nous plaçons l'utilisateur au centre du processus de normalisation, dans l'objectif d'obtenir des données parfaitement fiables et adaptées à ses besoins.
[ "normalisation", "entités nommées", "traitement de l'information", "système complexe", "méthodes endogènes", "analyse de corpus" ]
[ "P", "P", "P", "P", "P", "M" ]
[ "", "Normalization is involved in many fields of information processing. It improves performances for several applications, such as information retrieval or information extraction, and makes linguistic resources constitution more reliable. Normalization consists in standardizing each variant of a term or named entity into a unique form, and this way restricts the impact of term variation. Our work applies to named entity normalization, for which we implemented a complex system that mixes several approaches. We present here one of its components: an endogenous method to mark out and validate the normalized named entities. Moreover, we place the user in the center of our normalization process, in order to obtain fully reliable data that fit his needs.", "normalization, named entities, information processing, corpus analysis, endogenous methods, complex system" ]
recital-2009-long-010
Combinaison de contenus encyclopédiques multilingues pour une reconnaissance d’entités nommées en contexte
Dans cet article, nous présentons une méthode de transformation de Wikipédia en ressource d’information externe pour détecter et désambiguïser des entités nommées, en milieu ouvert et sans apprentissage spécifique. Nous expliquons comment nous construisons notre système, puis nous utilisons cinq éditions linguistiques de Wikipédia afin d’enrichir son lexique. Pour finir nous réalisons une évaluation et comparons les performances du système avec et sans compléments lexicaux issus des informations inter-linguistiques, sur une tâche d’extraction d’entités nommées appliquée à un corpus d’articles journalistiques.
[ "Etiquetage d’entités nommées", "ressources sémantiques" ]
[ "M", "M" ]
[ "", "In this paper, we present a way to use of Wikipedia as an external resource to disambiguate and detect named entities, without learning step. We explain how we build our system and why we used five linguistic editions of the Wikipedia corpus to increase the volume of potentially matching candidates. We finally experiment our system on a news corpus.", "Named entity labeling, semantic resources" ]
recital-2009-long-011
La distance intertextuelle pour la classification de textes en langue arabe
Nos travaux de recherche s’intéressent à l’application de la théorie de la distance intertextuelle sur la langue arabe en tant qu’outil pour la classification de textes. Cette théorie traite de la classification de textes selon des critères de statistique lexicale, se basant sur la notion de connexion lexicale. Notre objectif est d’intégrer cette théorie en tant qu’outil de classification de textes en langue arabe. Ceci nécessite l’intégration d’une métrique pour la classification de textes au niveau d’une base de corpus lemmatisés étiquetés et identifiés comme étant des références d’époques, de genre, de thèmes littéraires et d’auteurs et ceci afin de permettre la classification de textes anonymes.
[ "Distance intertextuelle", "classification", "arabe", "statistique lexicale", "corpus", "lemmatisation" ]
[ "P", "P", "P", "P", "P", "P" ]
[ "", "Our researche works are interested in the application of the intertextual distance theory on the Arabic language as a tool for the classification of texts. This theory handles the classification of texts according to criteria of lexical statistics, and it is based on the lexical connection approach. Our objective is to integrate this theory as a tool of classification of texts in Arabic language. It requires the integration of a metrics for the classification of texts using a database of lemmatized and identified corpus which can be considered as a literature reference for times, genres, literary themes and authors and this in order to permit the classification of anonymous texts.", "Intertextual distance, Arabic, classification, lemmatization, corpus, lexical statistics" ]
recital-2009-long-012
Techniques argumentatives pour aider à générer des descriptions orientées d’un événement
Les moyens et les formes stratégiques permettant la génération de descriptions textuelles argumentées d’une même réalité effective sont nombreux. La plupart des définitions proposées de l’argumentation partagent l’idée qu’argumenter c’est fournir les éléments en faveur d’une conclusion donnée. Or dans notre tâche qui consiste à générer des descriptions argumentées pour des accidents de la route, nous ne disposons pas uniquement d’éléments en faveur de la conclusion souhaitée mais aussi d’éléments qui vont à l’encontre de cette dernière et dont la présence est parfois obligatoire pour la compréhension de ces descriptions. Afin de remédier à ce problème, nous proposons des techniques de génération de descriptions argumentées qui présentent au mieux les éléments indésirables à l’aide de stratégies argumentatives.
[ "Argumentation", "Insinuation", "Norme coutumières", "Justification" ]
[ "P", "U", "U", "U" ]
[ "", "Strategic means and forms for the generation of textual descriptions of a same reality are numerous. Most definitions of the argumentation given in the literature share the idea that to argument we must provide elements in favor of a given conclusion. Unfortunately, in our task consisting in generating biased descriptions of a road crash, we do not have only elements in favor of the desired conclusion, but also elements that are against it and must nevertheless be present in the description unless we cannot be able to understand how the accident happened. To remedy this problem, we proposed a module in our system for generating biased descriptions that handles the task of presenting better the undesirable elements using argumentative techniques.", "Argumentation, Insinuation, Customary norms, Justification" ]
recital-2008-long-001
Méthode de réordonnancement de réponses par transformation d’arbres : présentation et analyse des résultats
Dans cet article nous présentons une évaluation et une analyse des résultats d’une méthode de réordonnancement de réponses pour un système de questions-réponses. Cette méthode propose une sélection des réponses candidates à une question en calculant un coût par transformation d’arbres. Nous présentons une analyse des résultats obtenus sur le corpus Clef 2004-2005 et nos conclusions sur les voies d’amélioration possibles pour notre système.
[ "systèmes de questions-réponses", "Recherche d’information", "Traitement Automatique des Langues" ]
[ "P", "M", "M" ]
[ "", "This paper describes an evaluation and an analysis of the results of an answers reranking method for a question-answering system. Candidate answers to a question are reordered by computing a tree transform cost. We discuss the results of our evaluation on the Clef 2004-2005 corpus and describe possible improvements to the system.", "Information Retrieval, Natural Language Processing, Question-Answering systems" ]
recital-2008-long-002
Annotation des informations temporelles dans des textes en français
Le traitement des informations temporelles est crucial pour la compréhension de textes en langue naturelle. Le langage de spécification TimeML a été conçu afin de permettre le repérage et la normalisation des expressions temporelles et des événements dans des textes écrits en anglais. L’objectif des divers projets TimeML a été de formuler un schéma d’annotation pouvant s’appliquer à du texte libre, comme ce que l’on trouve sur le Web, par exemple. Des efforts ont été faits pour l’application de TimeML à d’autres langues que l’anglais, notamment le chinois, le coréen, l’italien, l’espagnol et l’allemand. Pour le français, il y a eu des efforts allant dans ce sens, mais ils sont encore un peu éparpillés. Dans cet article, nous détaillons nos travaux actuels qui visent à élaborer des ressources complètes pour l’annotation de textes en français selon TimeML - notamment un guide d’annotation, un corpus de référence (Gold Standard) et des modules d’annotation automatique.
[ "TimeML", "Annotation temporelle", "repérage des événements" ]
[ "P", "R", "R" ]
[ "", "The processing of temporal information is crucial for the understanding of natural language texts. The specification language TimeML was developed to facilitate the identification and normalization of temporal expressions and events in texts written in English. The aim of the various TimeML projects was to formulate an annotation scheme able to be applied to free text, such as that which is found on the Web, for example. Recently, efforts have been made to apply TimeML to languages other than English, namely Chinese, Korean, Italian, Spanish and German. Some efforts have been made in this direction with respect to French, but they remain somewhat scattered. In this paper, we detail our ongoing work, which aims to establish comprehensive resources for the annotation of French texts according to TimeML - an annotation guide, a Gold Standard corpus and modules for automatic annotation.", "Temporal annotation, event recognition, TimeML" ]
recital-2008-long-003
Morphosyntaxe de l'interrogation pour le système de question-réponse RITEL
Nous proposons d'étudier le cas de l'interrogation en Dialogue Homme-Machine au sein d'un système de Question-Réponse à travers le prisme de la Grammaire Interactive. Celle-ci établit un rapport direct entre question et réponse et présuppose que la morphosyntaxe d'une interrogation dépend d'une « réponse escomptée »; l'interlocuteur humain ou machine ayant la possibilité de produire une réponse effective divergente. Nous proposons d’observer la présence des différentes formes de questions dans un corpus issu de l’utilisation du système RITEL. Et nous présentons une expérience menée sur des locuteurs natifs qui nous a permis de mettre en valeur la différence entre réponses effectives produites par nos sujets et réponses présupposées par le contenu intentionnel des questions. Les formalismes ainsi dégagés ont pour but de donner aux systèmes de DHM des fonctionnalités nouvelles comme la capacité à interpréter et à générer de la variabilité dans les énoncés produits.
[ "morphosyntaxe", "système de question-réponse", "dialogue homme-machine", "Grammaire Interactive", "modèles dynamiques", "expérimentation utilisateur", "formulation de réponse" ]
[ "P", "P", "P", "P", "U", "M", "M" ]
[ "", "In this paper we study the interrogation in Human-Computer Dialogue in order to integrate interpretative and dynamic functionnalities in a Question-Answering system using Interactive Grammar. It constitues a direct link between question and answer and assumes that the morphosyntax of interrogation depends on an anticipated answer. We propose an observation of question-answering corpora coming from the RITEL system showing the distribution of different morphosyntatic kinds of questions. Then we present an experimentation based on this observation in which French native speakers answer to those different kinds of questions. Our objective is to observe the difference between the anticipated answer and the effective one.", "Interactive Grammar, dynamic models, human-computer dialogue, question-answering system, morphosyntax, user experimentation, answer formulation" ]
recital-2008-long-004
Un système d'annotation des entités nommées du type personne pour la résolution de la référence
Dans cet article nous présentons notre démarche pour l’annotation des expressions référentielles désignant les personnes et son utilisation pour la résolution partielle de la référence. Les choix effectués dans notre implémentation s'inspirent des travaux récents dans le domaine de l'extraction d'information et plus particulièrement de la reconnaissance des entités nommées. Nous utilisons les grammaires locales dans le but d'annoter les entités nommées du type Personne et pour construire, à partir des annotations produites, une base de connaissances extra-linguistiques. Les informations acquises par ce procédé sont ensuite utilisées pour implémenter une méthode de la résolution de la référence pour les syntagmes nominaux coréférentiels.
[ "annotation", "entités nommées", "grammaires locales", "base de connaissances", "Nooj" ]
[ "P", "P", "P", "P", "U" ]
[ "", "The aim of this paper is to describe our approach for annotating of the referential mentions that refer to the entities which are the instances of Person. Our method is inspired by the recent work in information extraction and particularly the named entities recognition and classification task. Local grammars are used to identify this category of named entities and to generate an extra-linguistic knowledge base which is further used for the process of reference resolution.", "named entities, entity recongnition, local grammars, Nooj, knowledge base" ]
recital-2008-long-005
Description de la structure de la phrase japonaise en vue d'une analyse syntaxique
Nous décrivons la façon dont est formée la phrase japonaise, avec son contenu minimal, la structure des composants d'une phrase simple et l'ordre des mots dans ses composants, les différentes phrases complexes et les possibilités de changements modaux. Le but de cette description est de permettre l'analyse de la phrase japonaise selon des principes universels tout en restant fidèles aux particularités de la langue. L'analyseur syntaxique multilingue FIPS est en cours d'adaptation pour le japonais selon les règles de grammaire qui ont été définies. Bien qu'il fonctionnait alors uniquement pour des langues occidentales, les premiers résultats sont très positifs pour l'analyse des phrases simples, ce qui montre la capacité de Fips à s'adapter à des langues très différentes.
[ "Japonais", "Analyse Syntaxique", "Grammaire" ]
[ "P", "P", "P" ]
[ "", "We describe here the way the Japanese sentence is structured, with its minimal content, the structure of its components, the different kinds of complex sentences and the possible modal effects. The aim of this description is to analyse the Japanese sentence in a universal way while respecting the language properties. The syntactic parser FIPS is now being developed to analyse Japanese sentences following grammar rules coming from this syntactic description. Even though the parser used to be used for Western languages only, the first results of simple Japanese sentence analysis are very positive. This shows how FIPS can adapt easily to very different languages.", "Syntactic Parser, Japanese language, Grammar" ]
recital-2008-long-006
Adaptation d’un système de compréhension pour un robot compagnon
Le projet EmotiRob, financé par l’ANR, a pour but de réaliser un robot compagnon pour des enfants fragilisés. Le projet se décompose en deux sous parties que sont le module de compréhension pour comprendre ce que dit l’enfant et un module d’interaction émotionnelle pour apporter une réponse en simulant des émotions par les mouvements du corps, les traits du visage et par l'émission de petits sons simples. Le module de compréhension dont il est question ici réutilise les travaux du système Logus. La principale difficulté est de faire évoluer le système existant d’un dialogue homme-machine finalisé vers un domaine plus large et de détecter l’état émotionnel de l’enfant. Dans un premier temps, nous présentons le projet EmotiRob et ses spécificités. Ensuite, le système de compréhension de la parole Logus, sur lequel se base ce travail, est présenté en détail. Enfin, nous présentons les adaptations du système à la nouvelle tâche EmotiRob.
[ "Compréhension du langage", "langue parlée spontanée" ]
[ "M", "U" ]
[ "", "The EmotiRob project, financed by ANR, aims at realizing a robot companion for weakened children. The project decomposes into two under parts that which are the module of understanding to include what says the child and a module of emotional interaction to bring an answer by feigning feelings by the movements of the body, lines of the face and by emission of small simple sounds. The module of understanding reuses the works of the system Logus. The main difficulty is to develop the existing system of a human-machine dialogue finalized towards a wider domain and to detect the emotional state of the child. At first, we present the EmotiRob project and its specificities. Then, the system of understanding Logus, on which bases itself this work is presented. Finally, we present the adaptations of the system to his new task EmotiRob.", "spoken language understanding, spontaneous language" ]
recital-2008-long-007
Identification automatique de marques d'opinion dans des textes
Nous présentons un modèle conceptuel pour la représentation d'opinions, en analysant les éléments qui les composent et quelques propriétés. Ce modèle conceptuel est implémenté et nous en décrivons le jeu d’annotations. Le processus automatique d’annotation de textes en espagnol est effectué par application de règles contextuelles. Un premier sous-ensemble de règles a été écrit pour l'identification de quelques éléments du modèle. Nous analysons les premiers résultats de leur application.
[ "Identification d'opinions", "Fouille de textes", "Traitement automatique du langage naturel" ]
[ "R", "M", "M" ]
[ "", "We present a model for the representation of opinions, by analyzing the elements which compose them and some properties. The model has an operating counterpart, implemented in the form of a set of tags. For the automatic application of these tags on Spanish texts, we work on the writing of contextual rules. A primary subset of rules was written for the identification of some elements of the model. We analyze the first results of their application.", "Opinions Identification, Text Mining, Natural Language Processing" ]
recital-2008-long-008
Transducteurs à fenêtre glissante pour l’induction lexicale
Nous appliquons différents modèles de similarité graphique à la tâche de l’induction de lexiques bilingues entre un dialecte de Suisse allemande et l’allemand standard. Nous comparons des transducteurs stochastiques utilisant des fenêtres glissantes de 1 à 3 caractères, entraînés à l’aide de l’algorithme de maximisation de l’espérance avec des corpus d’entraînement de tailles différentes. Si les transducteurs à unigrammes donnent des résultats satisfaisants avec des corpus très petits, nous montrons que les transducteurs à bigrammes les dépassent à partir de 750 paires de mots d’entraînement. En général, les modèles entraînés nous ont permis d’améliorer la F-mesure de 7% à 15% par rapport à la distance de Levenshtein.
[ "Induction lexicale", "transducteurs stochastiques", "langues apparentées" ]
[ "P", "P", "U" ]
[ "", "We apply different models of graphemic similarity to the task of bilingual lexicon induction between a Swiss German dialect and Standard German. We compare stochastic transducers using sliding windows from 1 to 3 letters, trained with the Expectation-Maximisation algorithm on training corpora of different sizes. While the unigram transducers provide good results with very small corpora, we show that bigram transducers outperform them with corpora of 750 word pairs or more. Overall, the trained models show between 7% and 15% F-measure improvement over Levenshtein distance.", "Lexicon induction, stochastic transducers, cognate languages" ]
recital-2008-long-009
Génération intégrée localisée pour la production de documents
Dans cet article, nous proposons une approche intégrée localisée pour la génération. Dans cette approche, le traitement intégré des décisions linguistiques est limité à la production des propositions dont les décisions qui concernent leurs générations sont dépendantes. La génération se fait par groupes de propositions de tailles limitées avec traitement intégré des décisions linguistiques qui concernent la production des propositions qui appartiennent au même groupe. Notre approche apporte une solution pour le problème de complexité computationnelle de la génération intégrée classique. Elle fournit ainsi une alternative à la génération séparée (séquentielle ou interactive) qui présente plusieurs défauts mais qui est implémentée de manière répandue dans les systèmes de générations existants.
[ "génération intégrée localisée", "architectures de génération", "SDRT", "segmentation du discours" ]
[ "P", "M", "U", "U" ]
[ "", "In this paper, we propose a localized integrated approach for generation. In this approach, the integrated handling of linguistic decisions is limited to the production of propositions whose decisions concerning their generation are dependant. The generation is performed by groups of propositions of limited size with an integrated handling of linguistic decisions that concern the production of the propositions that belong to the same group. Our approach provides a solution for the computational complexity problem of classical integrated generation. Therefore, it provides an alternative to separated generation (sequential and interactive) that has many drawbacks but is widely implemented in today’s generation systems.", "localized integrated generation, generation architectures, SDRT, discourse segmentation" ]
recital-2008-long-010
Un système de génération et étiquetage automatique de dictionnaires linguistiques de l'arabe
L'objectif de cet article est la présentation d'un système de génération automatique de dictionnaires électroniques de la langue arabe classique, développé au sein de laboratoire UTIC (unité de Monastir). Dans cet article, nous présenterons, les différentes étapes de réalisation, et notamment la génération automatique de ces dictionnaires se basant sur une théorie originale : les Conditions de Structures Morphomatiques (CSM), et les matrices lexicales. Ce système rentre dans le cadre des deux projets MIRTO et OREILLODULE réalisés dans les deux laboratoires LIDILEM de Grenoble et UTIC Monastir de Tunisie
[ "dictionnaire", "génération automatique", "conditions de structure morphématique" ]
[ "P", "P", "M" ]
[ "", "The objective of this article is the presentation of an automatic system of generation of dictionaries electronics of Arabic basing itself on the conditions of morphemic structure and the matrices lexical. This work returns within the framework of two projects MIRTO and OREILLODULE under development to laboratories LIDILEM of Grenoble and UTIC of Tunisia.", "automatic system of generation, conditions of morphemic structure, matrices lexical" ]
recital-2008-long-011
Analyse quantitative et qualitative de citations extraites d’un corpus journalistique
Dans le contexte de la détection de plagiats, le repérage de citations et de ses constituants est primordial puisqu’il peut aider à évaluer le caractère licite ou illicite d’une reprise (source citée ou non). Nous proposons ici une étude quantitative et qualitative des citations extraites d’un corpus que nous avons auparavant construit. Cette étude a pour but de tracer des axes de recherche vers une méthode de repérage automatique des citations.
[ "citations", "contruction et étude de corpus", "genre journalistique" ]
[ "P", "M", "M" ]
[ "", "In the plagiarism detection context, finding citations and their components is essential as it may help estimating legal value of a copy (with or without original source specified). We propose here a quantitative and qualitative study of citations we extracted from a corpus we previously built. This study aims at orienting our research towards an efficient automatic citations extraction method.", "citations, corpus creation and analysis, journalistic genre" ]
recital-2008-long-012
Une structure pour les questions enchainées
Nous présentons des travaux réalisés dans le domaine des systèmes de questions réponses (SQR) utilisant des questions enchainées. La recherche des documents dans un SQR est perturbée par l’absence d’informations sur la valeur à accorder aux éléments de texte éventuellement utiles à la recherche d’informations qui figurent dans les questions liées. Les récentes campagnes d’évaluation montrent que ce problème est sous-estimé, et n’a pas fait l’oeuvre de technique dédiée. Afin d’améliorer la recherche des documents dans un SQR nous étudions une nouvelle méthode pour organiser les informations liées aux interactions entre questions. Celle-ci se base sur l’exploitation d’une structure de données adaptée à la transmission des informations des questions liées jusqu’au moteur d’interrogation.
[ "Question réponse enchainée" ]
[ "R" ]
[ "", "We present works realized in the field of questions answering systems(SQR) using chained questions. The search for documents in a SQR is disrupted by the absence of information on the value to be granted to the possibly useful elements of text in search of information which appear in bound questions. The recent campaigns of evaluation show that this problem is under estimated, and did not make the work of dedicated technique. To improve the search for documents in a SQR we study a new method to organize the information bound to the interactions between questions. This one is based on the operation of a structure of data adapted to the transmission of the information of bound questions up to the search engine.", "chained question answering" ]
recital-2008-long-013
Vers une nouvelle approche de la correction grammaticale automatique
La correction grammaticale automatique du français est une fonctionnalité qui fait cruellement défaut à la communauté des utilisateurs de logiciels libres. Dans le but de combler cette lacune, nous avons travaillé à l’adaptation au français d’un outil initialement développé pour une langue étrangère. Ce travail nous a permis de montrer que les approches classiques du traitement automatique des langues utilisées dans le domaine ne sont pas appropriées. Pour y remédier, nous proposons de faire évoluer les formalismes des correcteurs en intégrant les principes linguistiques de la segmentation en chunks et de l’unification. Bien qu’efficace, cette évolution n’est pas suffisante pour obtenir un bon correcteur grammatical du français. Nous envisageons alors une nouvelle approche de la problématique.
[ "correction grammaticale", "unification", "syntagme" ]
[ "P", "P", "U" ]
[ "", "Free software users community is sorely lacking French grammar checking. With the aim of filling this gap, we have worked on the adaptation to French of a tool originally developped for a foreign language. Thanks to this work, we could show that classic natural language processing approaches used in grammar checking are not suitable. To remedy it, we suggest an evolution of grammar checkers that includes linguistic principles such as chunking and unification. Despite its efficiency, this evolution is not sufficient to get a good French grammr checker. We are then thinking of a new approach of the problem.", "grammar checking, chunk, unification" ]
recital-2008-long-014
Informations spatio-temporelles et objets touristiques dans des pages Web : repérage et annotation
Cet article présente un projet de repérage, d'extraction et d'annotation d'informations temporelles, d'informations spatiales et d'objets touristiques dans des pages Web afin d'alimenter la base de connaissance d'un portail touristique. Nous portons une attention particulière aux différences qui distinguent le repérage d'information dans des pages Web du repérage d’informations dans des documents structurés. Après avoir introduit et classifié les différentes informations à extraire, nous nous intéressons à la façon de lier ces informations entre elles (par exemple apparier une information d’ouverture et un restaurant) et de les annoter. Nous présentons également le logiciel que nous avons réalisé afin d'effectuer cette opération d'annotation ainsi que les premiers résultats obtenus. Enfin, nous nous intéressons aux autres types de marques que l'on trouve dans les pages Web, les marques sémiotiques en particulier, dont l'analyse peut être utile à l’interprétation des pages.
[ "informations spatio-temporelles", "pages Web", "annotation", "extraction d'information", "tourisme" ]
[ "P", "P", "P", "R", "U" ]
[ "", "This paper presents a project for the detection, extraction and annotation of temporal and spatial information and of tourism objects in order to fill the knowledge base of a tourism Web portal. We focus on the differences that exist between extraction from structured documents and extraction from Web pages. First, the different types of information to extract are presented. We then discuss methods for linking these pieces of information together – for example relating the name of a restaurant to its opening hours – and how to annotate the extracted data. The program we have developed to perform the extraction and annotation, as well as an evaluation of this program, are presented here. Finally, we focus on the semiotic marks which appear on the Web and show they also prove useful in interpreting Web pages.", "information extraction, annotation, spatial & temporal information, tourism, Web pages" ]
recital-2001-long-001
LoX : outil polyvalent pour l'exploration de corpus annotés
Cet article présente une application permettant d'écrire des requêtes complexes sur des corpus étiquetés et de formater librement les résultats de ces requêtes. Le formalisme des requêtes est basé sur le principe des expressions régulières bien connu de la plupart des linguistes travaillant sur des corpus écrits. Contrairement à certains logiciels, qui ne permettent que l’extraction de concordances au format relativement figé, le formatage libre du résultat des requêtes permet leur réutilisation par des programmes ultérieurs et autorise une grande diversité d'applications, s'écartant largement du cadre des simples concordanciers.
[ "Corpus", "Expression régulière", "Concordancier", "TAL", "Parser" ]
[ "P", "P", "P", "U", "U" ]
[ "", "This paper describes a tool that enables complex queries on tagged corpora, and free formatting of the results. The formalism used is based on regular expressions, which are wellknown from most corpus linguists. As opposed to other software, the free formatting of the results enables re-use of the query results by additional tools, and proves useful for a wide range of applications well beyond that of simple concordance programs.", "Corpora, Concordancer, NLP, Parser, Regular expression" ]
recital-2001-long-002
Filtrage d'information par analyse partielle Grammaires locales, dictionnaires électroniques et lexique- grammaire pour la recherche d'information
Nous présentons une approche de filtrage d'information par analyse partielle, reprenant les résultats de recherches issues aussi bien de la recherche documentaire que du traitement automatique des langues. Nous précisons les contraintes liées au domaine du filtrage d'information qui militent, à nos yeux, pour une approche linguistique permettant d'obtenir des performances importantes, ainsi qu'une transparence de fonctionnement. Nous présentons quelques résultats concrets pour illustrer le potentiel de l'approche décrite.
[ "filtrage d'information", "analyse partielle", "grammaires locales", "TALN", "lexique-grammaire" ]
[ "P", "P", "P", "U", "U" ]
[ "", "We present a partial analysis approach to the problem of information filtering, based on the results of different areas of research, ranging from information retrieval to natural language processing. We lay the emphasis on the particular constraints of the information filtering activity compatible with a linguistic and user-friendly treatment (partial analysis). We also present some results measured on an actual corpus in order to illustrate the potential of the described approach.", "information filtering, NLP, partial analysis, local grammars, lexicon-grammar" ]
recital-2001-long-003
Bibliothèques d’automates finis et grammaires context-free : de nouveaux traitements informatiques
La quantité de documents disponibles via Internet explose. Cette situation nous incite à rechercher de nouveaux outils de localisation d’information dans des documents et, en particulier, à nous pencher sur l’algorithmique des grammaires context-free appliquée à des familles de graphes d’automates finis (strictement finis ou à cycles). Nous envisageons une nouvelle représentation et de nouveaux traitements informatiques sur ces grammaires, afin d’assurer un accès rapide aux données et un stockage peu coûteux en mémoire.
[ "Automates finis", "grammaires context-free", "graphes", "forme normale de Greibach" ]
[ "P", "P", "P", "M" ]
[ "", "The amount of documents available over the Internet is exploding. This phenomenon requires the development of new electronic representations and tools to search information into these documents. This article deals with context-free algorithms applied to finite state graphs (strictly finite or with cycles). It shows new methods and representations to combine efficiently complexities in terms of memory space and processing time.", "Context-Free Grammars, Finite State Automata, Graphs, Greibach Normal Form" ]