id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
recital-2001-long-004
Identification et catégorisation automatiques des anthroponymes du Français
Cet article préente un système de reconnaissance des noms propres pour le Français. Les spécifications de ce système ont été réalisées à la suite d’une étude en corpus et s’appuient sur des critères graphiques et référentiels. Les critères graphiques permettent de concevoir les traitements à mettre en place pour la délimitation des noms propres et la catégorisation repose sur les critères référentiels. Le système se base sur des règles de grammaire, exploite des lexiques spécialisés et comporte un module d’apprentissage. Les performances atteintes par le système, sur les anthroponymes, sont de 89,4% pour le rappel et 94,6% pour la précision.
[ "Entités nommées", "reconnaissance automatique", "procédure incrémentielle" ]
[ "U", "R", "U" ]
[ "", "This paper presents a French proper name recognizer. The specifications of this system have been elaborated through corpus investigation upon graphical and semantic criteria. The graphical criteria allow to presuppose some processes to identify proper names boundaries and the semantic classification is used to categorize them. The system is grammar-rule based, uses specialized lexicons, and includes a learning processing. The system performance evaluated on the categories composing anthroponym class achieves 94.6% of precision and 89.4% of recall.", "Name entities, automatic recognition, incremental process" ]
recital-2001-long-005
Pour un autre traitement de la temporalité narrative
Tous les médias continus (parole, texte, musique, cinéma) ont, par définition, une structure linéaire, à partir de laquelle un processus cognitif est capable de reconstituer une organisation temporelle différente. Mais jusqu'à quel point faut-il comprendre un texte pour le segmenter en situations et les articuler entre elles ? Autrement dit : jusqu'à quel point faut-il connaître la musique pour différencier couplet et refrain ? Dans un grand nombre de cas, il est possible d'effectuer une telle segmentation automatiquement, et cela uniquement à partir d'indices morpho-syntaxiques. Notre prototype de programme identifie des situations référentielles et analyse la façon dont elles sont articulées pour reconstruire la structure temporelle d'un récit. L'objectif de cette communication n'est pas la description de ce programme, mais plutôt le point de vue du linguiste : comment détecter les discontinuités, c'est-à-dire comment décider s'il y a complétion ou rupture.
[ "temporalité", "narration", "sémantique", "représentation du discours" ]
[ "P", "P", "U", "M" ]
[ "", "Continuous media – stories, movies, songs – all have a basic linear structure from which cognitive processes are able to retrieve some temporal organization. How much semantic computation is necessarily involved for a proper framing of events and their transition to one another ? Can this computation be approximated with the help of simple formal clues from a shallow parsing of the story stream, and how far can it go ? Our experiments with a prototype application implement a method for segmenting written stories and splicing together \"referential situations\" that should belong to the same time-frame. This paper does not aim to describe the implementation but rather discusses the linguistic approach to detecting discontinuity in narrative texts, based on the principles of closure and rupture in temporal consistency.", "semantics, discourse representation, temporality, narratives" ]
recital-2001-long-006
Analyse sémantique dans un système de question-réponse
Dans cet article, nous présentons le système QALC (Question Answering Langage Cognition) qui a participé à la tâche Question Réponse de la conférence d’évaluation TREC. Ce système a pour but d’extraire la réponse à une question d’une grande masse de documents. Afin d’améliorer les résultats de notre système, nous avons réfléchi à la nécessité de développer, dans le module d’analyse, le typage des questions mais aussi d’introduire des connaissances syntaxico-sémantiques pour une meilleure recherche de la réponse.
[ "Analyse syntaxico-sémantique", "système question–réponse" ]
[ "R", "M" ]
[ "", "In this paper, we present the QALC system that participated to the Question Answering track of the TREC evaluation conference. This system extracts the answer to the question from a large amount of documents. In order to improve the result of our system, it is necessary to develop, in the question analysis module, the search of question type and to introduce a semantic knowledge.", "Semantic analysis, question–answering system" ]
recital-2001-long-007
La recherche documentaire : une activité langagière
Un nombre important de requêtes soumises aux moteurs de recherche du W3 ne satisfont pas pleinement les attentes des utilisateurs. La liste de documents proposée en retour est souvent trop longue : son exploration représente un travail exagérément laborieux pour l’auteur de la requête. Nous proposons d’apporter une valeur ajoutée aux systèmes de recherche documentaire (RD) existants en y ajoutant un filtrage n’utilisant que des données fournies par l’utilisateur. L’objectif de notre étude est de confronter un modèle dynamique de la mémoire sémantique des individus (ou des agents) développé par notre équipe à une tâche nécessitant une compétence interprétative de la part des machines. Nous souhaitons dépasser la sémantique lexicale couramment utilisée dans ce champ d’application pour aboutir à l’utilisation d’une sémantique des textes et accroître par ce biais, à la fois la qualité des résultats et la qualité de leur présentation aux usagers.
[ "recherche documentaire", "système anthropocentré", "filtrage documentaire", "sémantique différentielle et componentielle", "isotopie" ]
[ "P", "M", "R", "M", "U" ]
[ "", "Lot of the searches submitted to the main search engines on the www do not bring about satisfactory results for users. The list of documents proposed in return is often too long: its handling constitutes an exceedingly strenuous task for the user. We propose to improve existing document retrieval systems by adding a filter made from criteria determined by the user. The objective of our study is to contrast a dynamic model of individual’s (or agent’s) semantic memory created by our team with a task requiring an interpretative competence from the machines. By this means, we hope to go beyond the lexical semantics commonly used in this field of application and achieve the use of textual semantics.", "document retrieval, anthropocentred system, document filtering, differential and decomponential semantics, isotopy" ]
recital-2001-long-008
Dictionnaires distributionnels et étiquetage lexical de corpus
Ce papier présente la première partie d’un travail de thèse qui vise à construire un « dictionnaire distributionnel » à partir d’un corpus de référence. Le dictionnaire proposé est basé sur un ensemble de critères différentiels stricts qui constituent des indices exploitables par des machines pour discriminer le sens des mots en contexte. Pour l’instant, le travail a porté sur 50 000 occurrences qui ont été étiquetées de façon manuelle. Ce sous-corpus pourra servir de corpus d’amorçage pour la constitution d'un corpus étiqueté plus grand, qui pourrait servir à différents tests et travaux sur la désambiguïsation automatique.
[ "dictionnaire", "étiquetage lexical", "Corpus", "information distributionnelle" ]
[ "P", "P", "P", "M" ]
[ "", "This paper presents the first part of a Ph. D. aimed at the construction of a “distributional dictionary” from a reference corpus. The dictionary proposed is based on a set of strict differential criteria that can be used as clues for the discrimination of word senses in context. So far, we have worked on 50,000 occurrences that have been manually tagged. This subcorpus can be used as a bootstrap corpus for the construction of a larger tagged corpus that could be used in various tests and studies on automatic disambiguation.", "Corpora, dictionaries, lexical tagging, distributional information" ]
recital-2001-poster-001
Du texte vers le sens en analyse par contraintes
Les progrès réalisés ces dernières années dans le domaine du traitement automatique des langues naturelles (TALN) ouvrent la voie à des traitements encore plus sophistiqués dans lesquels la sémantique devrait tenir une place centrale. Notre objectif, à long terme, est de réaliser un analyseur texte vers sens s'appuyant sur la théorie Sens-Texte d'Igor Mel'cuk. Cette analyse viserait une compréhension plus approfondie du texte, permettant donc d'atteindre une représentation de niveau sémantique, et une grande robustesse face à des entrées plus ou moins bien formées telles que celles issues de dialogues oraux. Mais renverser la théorie Sens-Texte passe par la définition et la mise en oeuvre de structures de données et d'algorithmes spécifiques pour la représentation et la manipulation automatique des informations linguistiques, notamment des entrées lexicales. Pour cela, nous proposons l'utilisation du paradigme de programmation par contraintes qui offre un moyen efficace d'atteindre nos objectifs.
[ "Analyse par contraintes", "théorie Sens-Texte" ]
[ "P", "P" ]
[ "", "Recent advances in the field of natural language processing allow more sophisticated treatments in which semantics should play a key role. Our long-term goal is to produce a text towards meaning analyzer base on Igor Mel'cuk's Meaning-Text Theory (MTT). Such an analyzer should aim at a deep understanding of the input, producing a semantic representation. It should, also, be able to handled ill-formed inputs such as the ones produced by a speech recognizer. To reverse the Meaning-Text Theory we have to define and use specific data structures and algorithms to represent and handle the linguistic information, in particular the lexical entries. We investigate the use of the constraint-programming paradigm, which provides an efficient mean to reach our goals.", "constraint parsing, Meaning-Text theory" ]
recital-2001-poster-002
Outils d’assistance à la construction de Webs personnels : Utilisation des traitements des langues naturelles dans l’aide à la reformulation de requêtes
Nous présentons dans cet article le projet au sein duquel nous développons un logiciel permettant d’assister l’utilisateur lors de la formulation de sa requête de recherche sur le Web et de personnaliser des sous-ensembles du Web selon ses besoins informationnels. L’architecture du logiciel est basée sur l’intégration de plusieurs outils numériques et linguistiques de traitements des langues naturelles (TALN). Le logiciel utilise une stratégie semi-automatique où la contribution de l’utilisateur assure la concordance entre ses attentes et les résultats obtenus. Ces résultats sont stockés dans diverses bases de données permettant de conserver différents types d’informations (classes de sites/pages Web similaires, profils de l’usager, lexiques, etc.) constituant une projection locale et personnalisée du Web.
[ "Reformulation des requêtes", "personnalisation", "recherche et extraction d'information" ]
[ "P", "P", "M" ]
[ "", "We here present a new research project in which we are developing a software that can help the user to formulate his web search query and customize (a subsets of) the WWW to her individual and subjective information needs. The software’s architecture is based on several natural language processing tools, some of them numeric and some others linguistic. The software involves a semi-automatic processing strategy in which the user’s contribution ensures that the results are useful and meaningful to her. These results are saved in various databases that capture several types of information (e.g. classes of related Web sites/pages, user profile, lexicons, etc.) that will constitute a local and personalized subset of the Web and support the user’ s information retrieval tasks.", "Web customization, query reformulation, information retrieval, information extraction" ]
recital-2001-poster-003
Extraction d’information de documents textuels associés à des contenus audiovisuels
L’indexation audiovisuelle, indispensable pour l’archivage et l’exploitation des documents, se révèle être un processus délicat, notamment à cause de la multiplicité de significations qui peuvent être attachées aux images. Nous proposons dans cette communication une méthode d’instanciation de ”patrons d’indexation” à partir d’un corpus d’articles de journaux écrits. Cette méthode repose sur un processus ”d’amorçage hiérachisé”, qui permet de trouver de nouveaux termes à partir de termes connus dans leur voisinage et de leurs relations taxinomiques sous forme d’ontologie.
[ "Extraction d’information", "Patron d’indexation", "Ontologie", "Amorce" ]
[ "P", "P", "P", "U" ]
[ "", "Audiovisual indexation, essential for filing and using documents, is a difficult process notably because of the multiplicity of meanings which can be associated to the pictures. We propose a method of instanciation of ”indexation patterns” from a corpus of articles from newspapers. This method is based on a ”hierarchical bootstrapping” which can find new terms from known terms in their neighbourhood and from an ontology.", "Bootstrapping, Indexation patterns, Information extraction, Ontology" ]
recital-2006-long-001
Acquisition semi-automatique de collocations à partir de corpus monolingues et multilingues comparables
Cet article présente une méthode d’acquisition semi-automatique de collocations. Notre extraction monolingue estime pour chaque co-occurrence sa capacité à être une collocation, d’après une mesure statistique modélisant une caractéristique essentielle (le fait qu’une collocation se produit plus souvent que par hasard), effectue ensuite un filtrage automatique (en utilisant les vecteurs conceptuels) pour ne retenir que des collocations d’un certain type sémantique, puis effectue enfin un nouveau filtrage à partir de données entrées manuellement. Notre extraction bilingue est effectuée à partir de corpus comparables, et a pour but d’extraire des collocations qui ne soient pas forcément traductions mot à mot l’une de l’autre. Notre évaluation démontre l’intérêt de mêler extraction automatique et intervention manuelle pour acquérir des collocations et ainsi permettre de compléter les bases lexicales multilingues.
[ "acquisition semi-automatique", "collocations", "corpus comparables" ]
[ "P", "P", "P" ]
[ "", "This paper presents a method for the semi-automatic acquisition of collocations. Our monolingual extraction estimates the ability of each co-occurrence to be a collocation, using a statitical measure which represents an essential property (the fact that a collocation occurs more often than would be expected by chance), then makes an automatic filtering (using conceptual vectors) to keep only one semantic type of collocation, and finally makes a new filtering, using manually entered data. Our bilingual extraction uses comparable corpora, and is aiming to extract collocations which are not necessarily word-to-word translations. Our evaluation shows the interest of mixing automatic extraction and manual intervention to obtain collocations and, in this manner, to complete multilingual lexical databases.", "collocations, semi-automatic acquisition, comparable corpora" ]
recital-2006-long-002
Constance et variabilité de l’incomplétude lexicale
Cet article propose, au travers des résultats de différentes expériences sur la couverture des lexiques informatisés, de montrer que l’incomplétude lexicale est un phénomène constant dans tous les lexiques de TAL, mais que les mots inconnus eux-mêmes varient grandement selon les outils. Nous montrons également que la constance de cette incomplétude est étroitement liée à la créativité lexicale de la langue.
[ "incomplétude lexicale", "lexique informatisé", "mots inconnus", "typologie" ]
[ "P", "P", "P", "U" ]
[ "", "Through various experiments on computational lexica, we show that lexical incompleteness is a regular phenomenon across NLP lexica, but that the unknown words themselves vary strongly according to the individual lexicon. We also demonstrate that the regularity of incompleteness is closely related to lexical creativity within individual language.", "computational lexicon, lexical incompleteness, unknown words, typology" ]
recital-2006-long-003
Problèmes de représentation de la Langue des Signes Française en vue du traitement automatique
Nous proposons dans cet article une description de la Langue des Signes Française dans le but de traduire des énoncés courts du français et de les faire signer par un personnage de synthèse. Cette description pose en préalable la question de la transcription des éléments d’une langue dont le signal n’est pas linéaire. Il s’agit ensuite de repérer les différentes couches linguistiques et la forme de leurs unités constitutives en vue de la répartition des tâches informatiques : la synthèse de gestes nécessite un traitement des éléments constitutifs du geste et la génération syntaxique doit pouvoir manipuler des morphèmes.
[ "langue des Signes Française", "morphème", "descritpion du geste", "kinème", "phonème", "chérème" ]
[ "P", "P", "M", "U", "U", "U" ]
[ "", "In this article, we propose a description of the French Sign Language. The aim is to translate short sentences from French and to realize them with a virtual agent. The first question is how to transcribe the elements of a language which the signal is not linear. We propose to observe the different linguistic levels and the shape of their units in order to distinguish the processing levels : gesture synthesis needs to manipulate the constitutive elements of gestures and morpheme units are required in syntactic generation.", "french Sign Language, description of gesture, morpheme, kineme, phoneme, chereme" ]
recital-2006-long-004
L’information biographique : modélisation, extraction et organisation en base de connaissances
L’extraction et la valorisation de données biographiques contenues dans les dépêches de presse est un processus complexe. Pour l’appréhender correctement, une définition complète, précise et fonctionnelle de cette information est nécessaire. Or, la difficulté que l’on rencontre lors de l’analyse préalable de la tâche d’extraction réside dans l’absence d’une telle définition. Nous proposons ici des conventions dans le but d’en développer une. Le principal concept utilisé pour son expression est la structuration de l’information sous forme de triplets {sujet, relation, objet}. Le début de définition ainsi construit est exploité lors de l’étape d’extraction d’informations par transducteurs à états finis. Il permet également de suggérer une solution d’implémentation pour l’organisation des données extraites en base de connaissances.
[ "information biographique", "modélisation", "base de connaissances", "relation", "extraction d’information", "transducteur à états finis", "entité nommée" ]
[ "P", "P", "P", "P", "P", "P", "U" ]
[ "", "Extraction and valorization of biographical information from news wires is a complex task. In order to handle it correctly, it is necessary to have a complete, accurate and functional definition. The preliminary analysis of the extraction task reveals the lack of such a definition. This article proposes some conventions to develop it. Information modelling as triples {subject, relation, object} is the main concept used at this level. This incomplete definition can be used during the information extraction step. It also allows to suggest some implementation solutions for data organisation as a knowledge base.", "biographical information, modelling, information extraction, finite state transducers, named entities, relation, knowledge base" ]
recital-2006-long-005
Repérage de segments d’information évolutive dans des documents de type encyclopédique
Dans cet article, nous cherchons à caractériser linguistiquement des segments textuels définis pragmatiquement, relativement à des besoins de réédition de documents et au sein desquels l’information est susceptible d’évoluer dans le temps. Sur la base d’un corpus de textes encyclopédiques en français, nous analysons la distribution de marqueurs textuels et discursifs et leur pertinence en nous focalisant principalement sur un traitement sémantique particulier de la temporalité.
[ "corpus de textes encyclopédiques", "marqueurs textuels et discursifs", "repérage automatique d’informations évolutives", "TAL" ]
[ "P", "P", "M", "U" ]
[ "", "In this paper, we present a method for the automatic identification of text segments carrying information likely to evolve in the course of time. In a corpus of extracts from French encyclopediae, we analyse relevant text and discourse markers focussing on a specific approach to temporal semantics.", "automatic identification of evolving information, NLP, corpus of encyclopaedic texts, textual and discourse markers" ]
recital-2006-long-006
Acquisition automatique de traductions de termes complexes par comparaison de « mondes lexicaux » sur le Web
Nous présentons une méthode de traduction automatique de termes complexes pour la construction de ressources bilingues français/anglais, basée principalement sur une comparaison entre « mondes lexicaux » (ensemble de co-occurrents), à partir du Web. Nous construisons les mondes lexicaux des termes français sur le Web. Puis, nous générons leurs traductions candidates via un dictionnaire bilingue électronique et constituons les mondes lexicaux de toutes les traductions candidates. Nous comparons enfin les mondes lexicaux français et anglais afin de valider la traduction adéquate par filtres statistiques. Notre évaluation sur 10 mots français très polysémiques montre que l’exploitation des mondes lexicaux des termes complexes sur le Web permet une acquisition automatique de traductions avec une excellente précision.
[ "termes complexes", "mondes lexicaux", "traduction automatique", "World Wide Web" ]
[ "P", "P", "P", "M" ]
[ "", "We present a method for automatic translation (French/English) of complex terms using a comparison between French and English “lexical worlds” (i.e. the set of cooccurring words) on the Web. We first generate the French lexical worlds. We then generate their potential translations by means of an electronic dictionary and extract the lexical worlds corresponding for English. Finally we compare the French and English lexical worlds in order to select the adequate translation. Our evaluation on 10 highly polysemous French words shows that a very high precision can be achieved using this technique.", "complex terms, machine translation, lexical worlds, World Wide Web" ]
recital-2006-long-008
Une première approche de l’utilisation des chaînes coréférentielles pour la détection des variantes anaphoriques de termes
Cet article traite de l’utilité à détecter une chaîne coréférentielle de termes complexes afin d’améliorer la détection de variations de ce même terme complexe. Nous implémentons pour cela un programme permettant de détecter le nombre de variantes anaphoriques d’un terme complexe ainsi que le nombre de variantes anaphoriques de termes dans un texte scientifique. Ces deux fonctionnalités sont développées avec une ancrage dans une chaîne coréférentielle et en dehors de toute chaîne coréférentielle, afin de pouvoir évaluer l’efficacité de cette méthode.
[ "chaîne coréférentielle", "détection automatique", "variante de terme", "anaphore nominale" ]
[ "P", "M", "R", "M" ]
[ "", "This article discusses the usefulness to detect a coreferential chain of complex terms in order to improve detection of variations of this same complex term. We implement a program for this purpose, allowing the detection of the number of anaphoric variants of a complex term, as well as the number of anaphoric variants of terms in scientific texts. These two functions are developed either with ou without the anchoring in a coreferential chain.", "coreferential chain, automatical detection, term variation, nominal anaphora" ]
recital-2006-poster-001
Construction automatique d’une interface syntaxe / sémantique utilisant des ressources de large couverture en langue anglaise
Nous décrivons ici une approche pour passer d’une représentation syntaxique (issue d’une analyse grammaticale) à une représentation sémantique (sous forme de prédicats). Nous montrons ensuite que la construction de cette interface est automatisable. Nous nous appuyons sur l’interopérabilité de plusieurs ressources couvrant des aspects d’ordre syntaxique (Link Grammar Parser), lexical (WordNet) et syntaxico-sémantique (VerbNet) de la langue anglaise. L’utilisation conjointe de ces ressources de large couverture permet d’obtenir une désambiguïsation syntaxique et lexicale au moins partielle.
[ "Link Grammar Parser", "WordNet", "VerbNet", "désambiguïsation", "compréhension de texte", "analyse syntaxique", "interface syntaxe-sémantique", "reconnaissance de schémas", "logique des prédicats", "unification", "rôles thématiques", "contraintes de sélections" ]
[ "P", "P", "P", "P", "M", "R", "M", "M", "M", "U", "U", "M" ]
[ "", "We describe a way to transform a syntactic structure (generated by a syntactic parser for English) into a semantic form (in the form of predicates). We then show that the construction of such an interface can be automated. Our approach is based on the interoperability between several resources, covering syntactical (Link Grammar Parser), lexical (WordNet) and semantic (VerbNet) aspects of English. The joint use of these broad-coverage resources leads to a lexical and syntactical disambiguation (at least partially).", "text understanding, parsing, disambiguation, syntax/semantic interface, pattern recognition, predicate calculus, unification, thematic roles, selectional restrictions, VerbNet, WordNet, Link Grammar Parser" ]
recital-2006-poster-002
Une approche géometrique pour la modélisation des lexiques en langues signées
Le contexte est celui d’une plateforme de génération automatique d’énoncés en langue signée, réalisés par un avatar 3D. Il existe quelques uns de ces systèmes aujourd’hui, par exemple le projet VisiCast (Hanke, 2002). Nous revenons ici sur les systèmes de description utilisés pour les unités gestuelles impliquées dans les énoncés, fondés sur un langage peu flexible et guère adaptatif. Nous proposons ensuite une nouvelle approche, constructiviste et géométrique, avec l’objectif de rendre la description des signes des lexiques signés plus adéquate, et par là améliorer leur intégration dans les discours générés.
[ "lexique", "langue des signes", "représentation", "paramètres", "géométrie spatiale" ]
[ "P", "R", "U", "U", "M" ]
[ "", "In the prospect of a system for automatic sign language generation by virtual characters, we first look at the present systems (e.g. the VisiCast project), focusing on the way they describe the gestural units involved in discourse building. We show the lack of flexibility in these models, and introduce a new constructivist approach, based on space geometry, so as to make lexeme description more appropriate and context-sensitive.", "sign language, representation, lexicon, parameters, space geometry" ]
recital-2006-poster-003
Une proposition de représentation normalisée des lexiques HPSG
L’interopérabilité entre les lexiques des grammaires d’unification passe par l’adoption d’une représentation normalisée de ces ressources. Dans ce papier, nous proposons l’utilisation de LMF pour établir la standardisation des ressources lexicales en HPSG. Nous présentons LMF d’une manière sommaire et nous détaillons son utilisation pour coder les entrées lexicales d’un lexique HPSG.
[ "HPSG", "lexique syntaxique", "Lexical Markup Framework", "projection lexicale" ]
[ "P", "M", "M", "M" ]
[ "", "The interoperability between unification grammar lexica can be established by adopting a normalized representation for those resources. In this paper, we propose the use of the Lexical Markup Framework to establish the standardization of HPSG lexical resources. We present an overview of LMF and we detail its use to code the lexical entries of an HPSG lexicon.", "syntactic lexicon, HPSG, Lexical Markup Framework, Lexical mapping" ]
recital-2006-poster-004
Analyse lexicale et morphologique de l’arabe standard utilisant la plateforme linguistique NooJ
Cet article décrit un système de construction du lexique et d’analyse morphologique pour l’arabe standard. Ce système profite des apports des modèles à états finis au sein de l’environnement linguistique de développement NooJ pour traiter aussi bien les textes voyellés que les textes partiellement ou non voyellés. Il se base sur une analyse morphologique faisant appel à des règles grammaticales à large couverture.
[ "analyse lexicale", "NooJ", "analyse morphologique", "voyellation", "TALN", "langue arabe", "grammaire morphologique", "agglutination" ]
[ "P", "P", "P", "P", "U", "M", "M", "U" ]
[ "", "This article describes the construction of a lexicon and a morphological description for standard Arabic. This system uses finite state technology, within the linguistic developmental environment NooJ, to parse vowelled texts, as well as partially vowelled and unvowelled ones. It is based on large-coverage morphological grammars covering all grammatical rules.", "NLP, NooJ, arabic language, lexical analysis, morphological analysis, morphological grammar, agglutination, vocalisation" ]
recital-2006-poster-005
Contrôle dynamique multicritère des résultats d’une chaîne de TAL
Le traitement linguistique d’un énoncé écrit conduit le plus souvent à la prise en compte d’interprétations concurrentes, ainsi qu’à la création d’ambiguïtés artificielles. Le contrôle de ces points d’embarras est indispensable pour garantir une efficacité et une précision convenable du processus d’analyse. L’approche décrite dans ce document exploite le paradigme de l’aide multicritère à la décision dans un contexte de TALN. Elle consiste à optimiser l’apport des méthodes spécifiques de contrôle dans une chaîne de traitement.
[ "aide multicritère à la décision", "hypothèses concurrentes", "architecture de contrôle" ]
[ "P", "M", "M" ]
[ "", "The linguistic processing of textual utterances often leads to several concurrent interpretations that can raise artificial ambiguities. Controlling these awkward points is essential in order to obtain acceptable efficiency and precision of analysis processes. The approach described in this document makes use of the multicriteria decision aid paradigm in a context of NLP. It relies on the optimisation of the use of specific control methods in a processing chain.", "concurrent hypothesis, control architecture, multicriteria decision aid" ]
recital-2006-poster-006
Résoudre la coréférence à l’aide d’un classifieur bayésien naïf
Nous présentons ici les bases d’une méthode de résolution de la coréférence entre les expressions nominales désignant des entités nommées. Nous comptons appliquer cet algorithme sur un corpus de textes journalistiques ; certains aspects de ce que l’on pourrait nommer les « facteurs de coréférence » dans ces textes nous amènent à favoriser l’utilisation de méthodes statistiques pour accomplir cette tâche. Nous décrivons l’algorithme de résolution de la coréférence mis en oeuvre, constitué d’un classifieur bayésien naïf.
[ "coréférence", "classifieur bayésien naïf", "entités nommées" ]
[ "P", "P", "P" ]
[ "", "In this paper we describe a coreference resolution algorithm for nominal expressions denoting named entities. The corpus used consists of French newspaper texts. In these texts, some properties of what we call “coreference factors” lead us to prefer a statistical approach for the task. We describe a coreference resolution algorithm consisting in the implementation of a naive Bayes classifier.", "naive Bayes classifier, coreference, named entities" ]
recital-2006-poster-008
Calcul du sens des mots arabes ambigus
Nous présentons dans cet article un analyseur sémantique pour la langue arabe. Cet analyseur contribue à la sélection du sens adéquat parmi l’ensemble des sens possibles que peut recevoir un mot hors contexte. Pour atteindre cet objectif, nous proposons un modèle vectoriel qui permet de lever les ambiguïtés locales au niveau de la phrase et celles relevant du domaine. Ce modèle est inspiré des modèles vectoriels très utilisés dans le domaine de la recherche documentaire.
[ "modèle vectoriel", "désambiguïsation sémantique", "traitement de la parole arabe", "influence sémantique" ]
[ "P", "M", "M", "M" ]
[ "", "This article describes a semantic analyzer for the Arabic language. This analyzer contributes to the selection of the adequate meaning among the set of possible meanings for a given word. To achieve this goal, we propose a vectorial model that allows lifting local ambiguities on the level of the sentence and those concerning semantic domains. This model is inspired from vector models commonly used in information retrieval.", "semantic disambiguation, vector models, processing of Arabic speech, pertinent context, semantic influence" ]
taln-2000-long-001
Coréférence événementielle et relations de discours
La coréférence événementielle est un phénomène largement ignoré tant dans les travaux sur la coréférence que dans ceux sur l'ordre temporel dans le discours. Pourtant, la coréférence événementielle est la clef de voûte sur laquelle reposent au moins quatre types de discours. Les descriptions et analyses linguistiques de ces discours permettront de mettre en avant des phénomènes linguistiques inhabituels (e.g. coréférence entre éléments quantifiés existentiellement). Les relations de discours qui sont en jeu seront ensuite examinées. Cette étude nous amènera à introduire et définir de nouvelles relations de discours qui seront discutées dans le cadre de la SDRT.
[ "coréférence événementielle", "relation de discours", "relation de coréférence" ]
[ "P", "P", "R" ]
[ "", "", "" ]
taln-2000-long-006
La grammaire sémantique d'unification d'arbres: un formalisme pour l'analyse des dialogues oraux spontanés
Cet article porte sur la grammaire sémantique d'unification d'arbres (STUO). 11 s'agit d'un formalisme que nous proposons comme une alternative aux approches simplificatrices menées dans le contexte du traitement automatique de la parole ainsi qu'aux approches à base de grammaires classiques qui sont généralement non adaptées au traitement de l'oral. La motivation essentielle de ce formalisme est la combinaison de la robustesse et la simplicité des grammaires sémantiques à la profondeur des grammaires classiques. Les propriétés essentielles de ce formalisme sont : une interaction directe entre la syntaxe et la sémantique, un système de traits économique et une simplicité tant de la mise en oeuvre de la grammaire que pour sa modification. La STUG a été implémentée au sein du système OASIS qui est un système d'analyse partielle de la parole spontanée. Les résultats de l'évaluation ont montré la bonne couverture de notre grammaire tant au niveau des arbres analysés qu'au niveau lexical ainsi que l'efficacité de cette grammaire pour la desambiguïsation et pour l'évitement des erreurs dans l'entrée.
[ "grammaire", "grammaire sémantique", "unification d'arbres", "parole", "parole spontanée", "ambiguïté contextuelle" ]
[ "P", "P", "P", "P", "P", "U" ]
[ "", "", "" ]
taln-2000-long-009
Vers un apprentissage en TALN dépendant du type de Texte
Dans cet article, nous présentons la problématique de l’hétérogénéité des données textuelles et la possibilité d’utiliser cette dernière pour améliorer les traitements automatiques du langage naturel. Cette hypothèse a été abordée dans (Biber, 1993) et a donné lieu à une première vérification empirique dans (Sekine, 1998). Cette vérification a pour limite de ne s’adapter qu’à des textes dont le type est explicitement marqué. Dans le cadre de textes tout venant, nous proposons une méthode pour induire des types de textes, apprendre des traitements spécifiques à ces types puis, de façon itérative, en améliorer les performances.
[ "apprentissage", "type de texte", "annotation morpho-syntaxique", "linguistique de corpus", "classification" ]
[ "P", "P", "U", "M", "U" ]
[ "", "", "" ]
taln-2000-long-010
Complémentarité des approches supervisées et non supervisées pour l'acquisition de relations entre termes
Cet article a pour objectif de préciser la complémentarité des approches supervisées et non supervisées utilisées en structuration terminologique pour extraire des relations entre termes. Cette étude est réalisée sur un exemple concret où nous cherchons à faire ressortir les avantages et les inconvénients de chaque approche. Au terme de cette analyse, nous proposons un cadre pour les employer de façon synergique.
[ "terminologie", "analyse distributionnelle", "relation conceptuelle entre termes", "extraction", "extraction de couple" ]
[ "P", "M", "M", "U", "M" ]
[ "", "", "" ]
taln-2000-long-011
De l'acquisition de classes lexicales à l'induction semi-automatique de grammaires locales
Cette étude vise à automatiser partiellement l'acquisition de ressources pour un système d'extraction fondé sur la boîte à outils INTEX. Les processus d'apprentissage mis en oeuvre sont symboliques, supervisés et fortement interactifs afin de n'apprendre que ce qui est utile pour la tâche. Nous examinons d'abord la notion d'automate patron, permettant l'acquisition d'éléments apparaissant dans des contextes similaires, nous proposons ensuite plusieurs mécanismes de généralisation avant d'envisager l'induction semi-automatique de grammaires locales.
[ "acquisition de classes", "classes lexicales", "automate", "grammaire", "grammaire locale", "automate patron", "corpus", "induction de grammaire" ]
[ "P", "P", "P", "P", "P", "P", "U", "R" ]
[ "", "", "" ]
taln-2000-long-014
Propagation de traits conceptuels au moyen des métastructures Prolog
Après avoir effectué une description des métastructures Prolog, nous montrons leur utilité dans le domaine du Traitement Automatique du Langage Naturel, et plus précisément dans la propagation de traits conceptuels complexes comme l'appartenance des individus à des domaines pouvant faire intervenir des unions de produits cartésiens d'ensembles.
[ "métastructure Prolog", "langage", "langage naturel", "produit cartésien", "programmation", "programmation par contrainte" ]
[ "P", "P", "P", "P", "U", "U" ]
[ "", "", "" ]
taln-2000-long-015
Recherche d'informations dans un environnement distribué
Le Web ou les bibliothèques numériques offrent la possibilité d'interroger de nombreux serveurs d'information (collections ou moteurs de recherche) soulevant l'épineux problème de la sélection des meilleures sources de documents et de la fusion des résultats provenant de différents serveurs interrogés. Dans cet article, nous présentons un nouvelle approche pour la sélection des collections basée sur les arbres de décision. De plus, nous avons évalué différentes stratégies de fusion et de sélection permettant une meilleure vue d'ensemble des différentes solutions.
[ "recherche d'information", "moteur de recherche", "arbre", "arbre de décision", "modèle vectoriel", "indexation" ]
[ "P", "P", "P", "P", "U", "U" ]
[ "", "The Web and digital libraries offer the possibility to send natural language queries to various information servers (corpora or search engines) raising the difficult problem of selecting the best document sources and merging the results provided by different servers. In this paper, a new approach for collections selection based on decision trees is described. Moreover, different merging and selection procedures have been evaluated leading to an overview of the suggested approaches.", "" ]
taln-2000-long-016
Outils génériques et transfert hybride pour la traduction automatique sur Internet
Dans cet article, nous décrivons un système de traduction automatique pour l’allemand, le français, l’italien et l’anglais. Nous utilisons la technique classique analyse-transfert-génération. Les phrases d’entrée sont analysées par un analyseur générique multilingue basé sur la théorie ((Principes & Paramètres)) de la grammaire générative chomskienne. Le mécanisme de transfert agit sur des représentations hybrides qui combinent des éléments lexicaux avec de l’information sémantique abstraite. Enfin, un générateur inspiré de la même théorie linguistique engendre des phrases de sortie correctes. Nous décrivons également brièvement les différentes interfaces envisagées sur Internet.
[ "traduction", "traduction automatique", "éléments lexicaux", "sémantique", "transfert lexico-structural" ]
[ "P", "P", "P", "P", "M" ]
[ "", "", "" ]
taln-2000-long-018
Le paradigme monodimensionnel dans l'expression de l'espace et du déplacement
La sémantique de certains verbes (doubler, distancer, suivre) et de certaines prépositions ou adverbes (devant, derrière) peut poser problème dès lors qu'elle est considérée comme purement spatiale, c'est-à-dire en des termes " classiques " comme la topologie, le repérage ou la distance. Nous proposons dans cet article une description plus générale de ces items lexicaux basée sur la notion d'axe abstrait, rendant compte de leur sens dans différents domaines, ainsi que les différents mécanismes permettant de les plonger dans le domaine qui concerne notre recherche, le spatio-temporel. Ces mécanismes sont intégrés dans un modèle informatique de génération automatique de prédicats verbaux afin d'éprouver leur pertinence.
[ "paradigme monodimensionnel", "sémantique", "prédicat", "prédicat verbal", "prédication monodimensionnelle" ]
[ "P", "P", "P", "P", "M" ]
[ "", "", "" ]
taln-2000-long-019
Le rôle des contraintes dans les théories linguistiques et leur intérêt pour l'analyse automatique
Tous les formalismes linguistiques font usage de la notion de contrainte qui, dans son sens le plus large, indique une propriété devant être satisfaite. Les contraintes sont extrêmement utiles à la fois pour représenter l’information linguistique, mais également pour en contrôler le processus d’analyse. Cependant, l’usage qui est fait des contraintes peut être très différent d’une approche à l’autre : dans certains cas, il s’agit simplement d’un mécanisme d’appoint, dans d’autres, les contraintes sont au coeur de la théorie. Il existe cependant un certain nombre de restrictions à leur utilisation, en particulier pour ce qui concerne leur implantation. Plus précisément, s’il semble naturel (au moins dans certains paradigmes) de considérer l’analyse syntaxique comme un problème de satisfaction de contraintes, on constate cependant qu’il est extrêmement difficile de réaliser concrètement une telle implantation. Ce constat est en fait révélateur d’un problème dépassant le simple cadre de l’implémentation : nous montrons dans cet article qu’une approche totalement basée sur les contraintes (permettant donc de concevoir l’analyse comme un problème de satisfaction) est incompatible avec une interprétation générative classique accordant un statut particulier à la relation de dominance. Nous proposons ici un cadre permettant à la fois de tirer parti des avantages des grammaires syntagmatiques tout en s’affranchissant des problèmes liés aux approches génératives pour ce qui concerne l’usage des contraintes en tant qu’unique composant grammatical. Nous présentons ici cette approche, les Grammaires de Propriétés, ainsi que leur implémentation.
[ "grammaire", "grammaire de propriétés", "contrainte contextuelle", "relation de dépendance", "grammaire de dépendance" ]
[ "P", "P", "M", "M", "M" ]
[ "", "", "" ]
taln-2000-long-020
Analyse Syntaxique Monotone par Décisions Différées
Dans cet article nous présentons une approche à l'analyse syntaxique automatique où la levée d'ambiguïtés est différée jusqu'à l'apparition d'éléments de la chaîne d'entrée permettant de procéder à une analyse correcte, la désambiguisation étant alors effectuée en cascade. L'analyseur a pour caractéristiques une croissance monotone de l'information syntaxique au fil de l'analyse, la garantie de ne pas échouer sur des phrases grammaticales telles les phrases-labyrinthe, et une faible complexité computationnelle. Le système présenté cumule ainsi les avantages d'une approche déterministe (efficacité et optimisation des calculs) et ceux d'une approche non-déterministe (adéquation empirique).
[ "analyse syntaxique", "analyse syntaxique monotone", "désambiguïsation", "désambiguïsation syntaxique", "levée d'ambiguïté structurelle" ]
[ "P", "P", "U", "M", "M" ]
[ "", "", "" ]
taln-2000-long-021
Des grammaires pour définir une correspondance: un point de vue mathématique et épistémologique
Dans cet article nous introduisons la notion de grammaire transductive, c'est-à-dire une grammaire formelle définissant une correspondance entre deux familles de structures. L'accent sera mis sur le module syntaxique de la théorie Sens-Texte et sur une famille élémentaire de grammaires de dépendance transductives. Nous nous intéresserons à la comparaison avec les grammaires génératives, ce qui nous amènera à discuter de l'interprétation des modèles génératifs actuels.
[ "grammaire", "grammaire transductive", "grammaire formelle", "grammaire de dépendance", "grammaire générative", "lexie" ]
[ "P", "P", "P", "P", "P", "U" ]
[ "", "", "" ]
taln-2000-long-022
Une étude comparative de méthodes de catégorisation sémantique de termes techniques
L'acquisition et la mise à jour de ressources terminologiques sont des tâches difficiles, en particulier lorsque ces ressources contiennent des informations d'ordre sémantique. Cette article traite de la catégorisation sémantique de termes techniques. Le but de ce processus est d'assigner des domaines sémantiques à de nouveaux termes. Nous proposons deux approches qui reposent sur des sources d'informations différentes. L'approche exogène exploite des informations contextuelles extraites de corpus. L'approche endogène repose sur une analyse lexicale de termes déjà catégorisés. Nous décrivons les deux approches mises en oeuvre ainsi que les expérimentations menées sur des jeux de test significatifs. Les résultats obtenus montrent que la catégorisation de termes peut constituer une aide conséquente dans les processus d'acquisition de ressources terminologiques.
[ "terminologie", "corpus", "analyse lexicale", "acquisition de termes techniques" ]
[ "P", "P", "P", "R" ]
[ "", "", "" ]
taln-2000-long-023
SVETLAN' ou Comment Classer les Mots en fonction de leur Contexte
L’utilisation de connaissances sémantiques dans les applications de TAL améliore leurs performances. Cependant, bien que des lexiques étendus aient été développés, il y a peu de ressources non dédiées à des domaines spécialisés et contenant des informations sémantiques pour les mots. Dans le but de construire une telle base, nous avons conçu le système SVETLAN’, capable d’apprendre des catégories de noms à partir de textes, quel que soit leur domaine. Dans le but d’éviter de créer des classes générales regroupant tous les sens des mots, les classes sont apprises en fonction de l’usage des mots en contexte.
[ "sémantique", "langue", "langue générale", "segment textuel", "module d'apprentissage" ]
[ "P", "U", "M", "U", "U" ]
[ "", "", "" ]
taln-2000-long-024
MULTITAG, une ressource linguistique produit du paradigme d'évaluation
Dans cet article, nous montrons comment le paradigme d'évaluation peut servir pour produire de façon plus économique des ressources linguistiques validées de grande qualité. Tous d'abord nous présentons le paradigme d'évaluation et rappelons les points essentiels de son histoire pour le traitement automatique des langues, depuis les premières applications dans le cadre des campagnes d'évaluation américaines organisées par le NIST et le DARPA jusqu'aux derniers efforts européens en la matière. Nous présentons ensuite le principe qui permet de produire à coût réduit des ressources linguistiques validées et de grande qualité à partir des données qui sont produites lorsque l'on applique le paradigme d'évaluation. Ce principe trouve ses origines dans les expériences (Recognizer Output Voting Error Recognition) qui ont été effectuées pendant les campagnes d'évaluation américaine pour la reconnaissance automatique de la parole. Il consiste à combiner les données produites par les systèmes à l'aide d'une simple stratégie de vote pour diminuer le nombre d'erreurs. Nous faisons alors un lien avec les stratégies d'apprentissages automatiques fondées sur la combinaison de systèmes de même nature. Notre propos est illustré par la description de la production du corpus MULTITAG (projet du programme Ingénierie des Langues des département SPI et SHS du CNRS) à partir des données qui avaient été annotées lors de la campagne d'évaluation GRACE, correspondant à un corpus d'environ 1 million de mots annotés avec un jeu d'étiquettes morpho-syntaxiques de grain très fin dérivé de celui qui a été défini dans les projets EAGLES et MULTEXT. Nous présentons le corpus MULTITAG et la procédure qui a été suivie pour sa production et sa validation. Nous concluons en présentant le gain obtenu par rapport à une méthode classique de validation de marquage morho-syntaxique.
[ "paradigme d'évaluation", "campagne d'évaluation", "corpus", "système d'annotation" ]
[ "P", "P", "P", "R" ]
[ "", "", "" ]
taln-2000-long-025
Vers un système d'analyse syntaxique robuste pour l'Arabe
Le degré de profondeur et de finesse de l'analyse syntaxique d'un texte écrit dépend énormément de l'objectif de l'analyse (analyse globale, analyse partielle, analyse détaillée, etc.) ainsi que du type d'application nécessitant cette analyse. Dans cet article, nous présentons une approche originale d'analyse syntaxique robuste appliquée à l'arabe et basée sur l'architecture multiagent. Comme première application de notre approche, notre système sera couplé avec un système de reconnaissance de l'écriture arabe dans le but d'effectuer, d'une part, la validation linguistique des mots reconnus par l'OCR (Optical Character Recognition) et d'autre part la détection et la correction des erreurs d'ordre lexicales, morphologiques, syntaxiques (cas des erreurs d'accord) et qui sont dues à la non ou au mal reconnaissance de certains mots par l'OCR. Le couplage de notre système avec le système de reconnaissance de l'écriture arabe entre dans le cadre d'un projet de coopération avec l'équipe Perception, Système et Information (PSI) de l'université de Rouen.
[ "analyse syntaxique", "analyse syntaxique robuste", "système de reconnaissance", "système de reconnaissance de l'écriture arabe", "langue", "langue arabe", "corpus" ]
[ "P", "P", "P", "P", "U", "M", "U" ]
[ "", "", "" ]
taln-2000-long-026
Enrichissement automatique de lexique de noms propres à partir de corpus
Cet article présente une méthode d’étiquetage sémantique de noms propres fondé sur la technique des arbres de décision. Ces derniers permettent de modéliser les éléments saillants dans les contextes d’occurrence de noms propres d’une classe donnée. Les arbres de décision sont construits automatiquement sur un corpus d’apprentissage étiqueté, ils sont ensuite utilisés pour étiqueter des noms propres apparaissant dans un corpus de test. Les résultats de l’étiquetage du corpus de test est utilisé pour enrichir un lexique de noms propres. Ce dernier peut être utilisé à son tour pour réestimer les paramètres d’un étiqueteur stochastique. Nous nous intéressons en particulier au cas où le corpus de test a été glané sur le Web.
[ "corpus", "étiquetage", "arbre", "arbre de décision", "corpus de test", "expression régulière", "entrée lexicale" ]
[ "P", "P", "P", "P", "P", "U", "U" ]
[ "", "", "" ]
taln-2000-long-028
Extraction automatique de correspondances lexicales: évaluation d'indices et d'algorithmes
Les bi-textes sont des corpus bilingues parallèles, généralement segmentés et alignés au niveau des phrases. Une des applications les plus directes de ces corpus consiste à en extraire automatiquement des correspondances lexicales, fournissant une information utile aux traducteurs, aux lexicographes comme aux terminologues. Comme pour l’alignement, des méthodes statistiques ont donné de bons résultats dans ce domaine. Nous pensons qu’une exploitation judicieuse d’indices statistiques adaptés et d’algorithmes de conception simple permet d’obtenir des correspondances fiables. Après avoir présenté les indices classiques, auxquels nous essayons d’apporter des améliorations, nous proposons dans cette article une étude empirique destinée à en montrer les potentialités.
[ "extraction", "extraction automatique de correspondances lexicales", "alignement", "lexicographie", "alignement lexical", "relation de traduction" ]
[ "P", "P", "P", "P", "R", "M" ]
[ "", "", "" ]
taln-2000-long-030
Fouille du Web pour la collecte d'Entités Nommées
Cette étude porte sur l’acquisition des Entités Nommées (EN) à partir du Web. L’application présentée se compose d’un moissonneur de pages et de trois analyseurs surfaciques dédiés à des structures spécifiques. Deux évaluations sont proposées : une évaluation de la productivité des moteurs en fonction des types d’EN et une mesure de la précision.
[ "entité nommée", "expression régulière", "acquisition lexicale", "marqueur", "marqueur discursif", "moteur de recherche" ]
[ "P", "U", "M", "U", "U", "M" ]
[ "", "", "" ]
taln-2000-long-033
Une approche intégrée pour la normalisation des extragrammaticalités de la parole spontanée
Dans cet article, nous présentons une nouvelle approche pour la normalisation des extragrammaticalités de la parole. La particularité de cène approche est l'intégration de différentes sources de connaissances de haut niveau, en particulier le lexique, la syntaxe et la sémantique. Ainsi, le traitement des extragrammaticalités se déroule suivant deux étapes : dans la première, le système normalise les Extragrammaticalités Lexicales (Eis) (hésitations, amalgames, etc.) et dans la deuxième, le système détecte et corrige les Extragrammaticalités Supra Lexicales (ESLs). Ce traitement est base sur des modèles de ESLs (règles et pattems) qui considèrent à la fois les informations syntaxiques et les informations structurales dans la détection et la correction des extragrammaticalités. De même, le système a été doté de patterns de contrôle ainsi que de grammaires sémantiques afin de réduire au maximum la surgénérativité. Les résultats de l'évaluation ont montré l'efficacité de notre approche à détecter et à corriger les extragrammaticalités tout en évitant les cas de surgénérativité.
[ "parole", "parole spontanée", "extragrammaticalité lexicale", "information", "information structurale", "corpus", "corpus d'apprentissage" ]
[ "P", "P", "P", "P", "P", "U", "U" ]
[ "", "", "" ]
taln-2000-long-036
Une analyse thématique fondée sur un principe d'amorçage
L'analyse thématique est une étape importante pour de nombreuses applications en traitement automatique des langues, telles que le résumé ou l'extraction d'information par exemple. Elle ne peut être réalisée avec une bonne précision qu'en exploitant une source de connaissances structurées sur les thèmes, laquelle est difficile à constituer à une large échelle. Dans cet article, nous proposons de résoudre ce problème par un principe d'amorçage : une première analyse thématique, fondée sur l'utilisation d'une source de connaissances faiblement structurée mais relativement aisée à construire, un réseau de collocations, permet d'apprendre des représentations explicites de thèmes, appelées signatures thématiques. Ces dernières sont ensuite utilisées pour mettre en oeuvre une seconde analyse thématique, plus précise et plus fiable.
[ "analyse thématique", "réseau de collocations", "cohésion lexicale", "focalisation" ]
[ "P", "P", "U", "U" ]
[ "", "", "" ]
taln-2007-long-002
Énergie textuelle de mémoires associatives
Dans cet article, nous présentons une approche de réseaux de neurones inspirée de la physique statistique de systèmes magnétiques pour étudier des problèmes fondamentaux du Traitement Automatique de la Langue Naturelle. L’algorithme modélise un document comme un système de neurones où l’on déduit l’énergie textuelle. Nous avons appliqué cette approche aux problèmes de résumé automatique et de détection de frontières thématiques. Les résultats sont très encourageants.
[ "réseaux de neurones", "résumé", "frontière thématiques", "réseaux de Hopfield" ]
[ "P", "P", "P", "M" ]
[ "", "In this paper we present a neural networks approach, inspired by statistical physics of magnetic systems, to study fundamental problems in Natural Language Processing. The algorithm models documents as neural network whose textual energy is studied. We obtained good results on the application of this method to automatic summarization and thematic borders detection.", "neural networks, Hopfield network, summarization, thematic boundary" ]
taln-2007-long-003
Une expérience d’extraction de relations sémantiques à partir de textes dans le domaine médical
Dans cet article, nous présentons une méthode permettant d’extraire à partir de textes des relations sémantiques dans le domaine médical en utilisant des patrons linguistiques. La première partie de cette méthode consiste à identifier les entités entre lesquelles les relations visées interviennent, en l’occurrence les maladies, les examens, les médicaments et les symptômes. La présence d’une des relations sémantiques visées dans les phrases contenant un couple de ces entités est ensuite validée par l’application de patrons linguistiques préalablement appris de manière automatique à partir d’un corpus annoté. Nous rendons compte de l’évaluation de cette méthode sur un corpus en Français pour quatre relations.
[ "extraction de relations sémantiques", "domaine médical", "patrons lexico-syntaxiques" ]
[ "P", "P", "M" ]
[ "", "In this article, we present a method to extract semantic relations automatically in the medical domain using linguistic patterns. This method consists first in identifying the entities that are part of the relations to extract, that is to say diseases, exams, treatments, drugs and symptoms. Thereafter, sentences that contain these entities are extracted and the presence of a semantic relation is validated by applying linguistic patterns that were automatically learnt from an annotated corpus. We report the results of an evaluation of our extraction method on a French corpus for four relations.", "extraction of semantic relations, lexico-syntactic patterns, medical domain" ]
taln-2007-long-004
Identifier les pronoms anaphoriques et trouver leurs antécédents : l’intérêt de la classification bayésienne
On oppose souvent en TAL les systèmes à base de connaissances linguistiques et ceux qui reposent sur des indices de surface. Chaque approche a ses limites et ses avantages. Nous proposons dans cet article une nouvelle approche qui repose sur les réseaux bayésiens et qui permet de combiner au sein d’une même représentation ces deux types d’informations hétérogènes et complémentaires. Nous justifions l’intérêt de notre approche en comparant les performances du réseau bayésien à celles des systèmes de l’état de l’art, sur un problème difficile du TAL, celui de la résolution d’anaphore.
[ "connaissance linguistique", "indice de surface", "réseaux bayésiens", "résolution des anaphores" ]
[ "P", "P", "P", "R" ]
[ "", "In NLP, a traditional distinction opposes linguistically-based systems and knowledge-poor ones, which mainly rely on surface clues. Each approach has its drawbacks and its advantages. In this paper, we propose a new approach based on Bayes Networks that allows to combine both types of information. As a case study, we focus on the anaphora resolution which is known as a difficult NLP problem. We show that our bayesain system performs better than a state-of-the art one for this task.", "bayesian network, anaphora resolution, linguistic knowledge, surface clue" ]
taln-2007-long-005
Régler les règles d’analyse morphologique
Dans cet article, nous présentons différentes contraintes mécaniques et linguistiques applicables à des règles d’analyse des mots inconnus afin d’améliorer la performance d’un analyseur morphologique de l’italien. Pour mesurer l’impact de ces contraintes, nous présentons les résultats d’une évaluation de chaque contrainte qui prend en compte les gains et les pertes qu’elle engendre. Nous discutons ainsi de la nécessaire évaluation de chaque réglage apporté aux règles afin d’en déterminer la pertinence.
[ "analyse morphologique", "mots inconnus", "évaluation", "morphologie constructionnelle" ]
[ "P", "P", "P", "M" ]
[ "", "In this article, we present various constraints, mechanical and linguistic, that can be applied to analysing rules for unknown words in order to improve the performance of a morphological analyser for Italian. To measure the impact of these constraints, we present an evaluation for each constraint, taking into account the gains and losses which they generate. We then discuss the need to evaluate any fine-tuning of these kinds of rules in order to decide whether they are appropriate or not.", "evaluation, morphological analysis, unknown words, constructional morphology" ]
taln-2007-long-006
Structures de traits typées et morphologie à partitions
Les structures de traits typées sont une façon abstraite et agréable de représenter une information partielle. Dans cet article, nous montrons comment la combinaison de deux techniques relativement classiques permet de définir une variante de morphologie à deux niveaux intégrant harmonieusement des structures de traits et se compilant en une machine finie. La première de ces techniques est la compilation de structure de traits en expressions régulières, la seconde est la morphologie à partition. Nous illustrons au moyen de deux exemples l’expressivité d’un formalisme qui rapproche les grammaires à deux niveaux des grammaires d’unification.
[ "structure de traits", "morphologie à deux niveaux", "transducteurs finis à états" ]
[ "P", "P", "M" ]
[ "", "Feature Structures are an abstract and convenient way of representing partial information. In this paper, we show that the combination of two relatively classical techniques makes possible the definition of a variant of two-level morphology which integrates harmoniously feature structures and compiles into finite-state machines. The first technique is the compilation of feature structures into regular expressions, the second one is partition-based morphology. Two examples are given, which show that our formalism is close to unification grammars.", "two-level morphology, finite-state transducers, feature structures" ]
taln-2007-long-007
Analyse morphosémantique des composés savants : transposition du français à l’anglais
La plupart des vocabulaires spécialisés comprennent une part importante de lexèmes morphologiquement complexes, construits à partir de racines grecques et latines, qu’on appelle « composés savants ». Une analyse morphosémantique permet de décomposer et de donner des définitions à ces lexèmes, et semble pouvoir être appliquée de façon similaire aux composés de plusieurs langues. Cet article présente l’adaptation d’un analyseur morphosémantique, initialement dédié au français (DériF), à l’analyse de composés savants médicaux anglais, illustrant ainsi la similarité de structure de ces composés dans des langues européennes proches. Nous exposons les principes de cette transposition et ses performances. L’analyseur a été testé sur un ensemble de 1299 lexèmes extraits de la terminologie médicale WHO-ART : 859 ont pu être décomposés et définis, dont 675 avec succès. Outre une simple transposition d’une langue à l’autre, la méthode montre la potentialité d’un système multilingue.
[ "analyse morphosémantique", "terminologie médicale", "composition savante" ]
[ "P", "P", "M" ]
[ "", "Medical language, as many technical languages, is rich with morphologically complex words, many of which take their roots in Greek and Latin – in which case they are called neoclassical compounds. Morphosemantic analysis can help generate decompositions and definitions of such words, and is likely to be similarly applicable to compounds from different languages. This paper reports work on the adaptation of a morphosemantic analyzer dedicated to French (DériF) to analyze English medical neoclassical compounds, and shows the similarity in structure of compounds from related European languages. It presents the principles of this transposition and its current performance. The analyzer was tested on a set of 1,299 compounds extracted from theWHO-ART terminology: 859 could be decomposed and defined, 675 of which successfully. Aside from simple transposition from one language to another, the method also emphasizes the potentiality for a multilingual system.", "morphosemantic analysis, neo-classical compounding,medical terminology" ]
taln-2007-long-009
Enrichissement d’un lexique bilingue par analogie
La présence de mots inconnus dans les applications langagières représente un défi de taille bien connu auquel n’échappe pas la traduction automatique. Les systèmes professionnels de traduction offrent à cet effet à leurs utilisateurs la possibilité d’enrichir un lexique de base avec de nouvelles entrées. Récemment, Stroppa et Yvon (2005) démontraient l’intérêt du raisonnement par analogie pour l’analyse morphologique d’une langue. Dans cette étude, nous montrons que le raisonnement par analogie offre également une réponse adaptée au problème de la traduction d’entrées lexicales inconnues.
[ "traduction automatique", "analogie formelle", "enrichissement de lexiques bilingues" ]
[ "P", "M", "R" ]
[ "", "Unknown words are a well-known hindrance to natural language applications. In particular, they drastically impact machine translation quality. An easy way out commercial translation systems usually offer their users is the possibility to add unknown words and their translations into a dedicated lexicon. Recently, Stroppa et Yvon (2005) shown how analogical learning alone deals nicely with morphology in different languages. In this study we show that analogical learning offers as well an elegant and efficient solution to the problem of identifying potential translations of unknown words.", "formal analogy, bilingual lexicon projection, machine translation" ]
taln-2007-long-010
Inférence de règles de réécriture pour la traduction de termes biomédicaux
Dans le domaine biomédical, le caractère multilingue de l’accès à l’information est un problème d’importance. Dans cet article nous présentons une technique originale permettant de traduire des termes simples du domaine biomédical de et vers de nombreuses langues. Cette technique entièrement automatique repose sur l’apprentissage de règles de réécriture à partir d’exemples et l’utilisation de modèles de langues. Les évaluations présentées sont menées sur différentes paires de langues (français-anglais, espagnol-portugais, tchèque-anglais, russe-anglais...). Elles montrent que cette approche est très efficace et offre des performances variables selon les langues mais très bonnes dans l’ensemble et nettement supérieures à celles disponibles dans l’état de l’art. Les taux de précision de traductions s’étagent ainsi de 57.5% pour la paire russe-anglais jusqu’à 85% pour la paire espagnol-portugais et la paire françaisanglais.
[ "modèles de langue", "traduction artificielle", "terminologie biomédicale", "apprentissage artificiel" ]
[ "P", "M", "M", "M" ]
[ "", "In the biomedical domain, offering a multilingual access to specialized information is a major issue. In this paper, we present an original approach to translate simple biomedical terms between several languages. This fully automatic approach is based on a machine learning technique inferring rewriting rules and on language models. The experiments that are presented are done onn several language pairs (French-English, Spanish-Portuguese, Czech-English, Russian-English...). They demonstrate the efficiency of our approach by yielding translation performances that vary according to the languages but are always very good and better than those of state-of-art techniques. Indeed, the translation precision rates go from 57.5% for translation from Russian to English up to 85% for Spanish-Portuguese and French-English language pairs.", "machine translation, biomedical terminology, machine learning, language models" ]
taln-2007-long-011
TiLT correcteur de SMS : évaluation et bilan qualitatif
Nous présentons le logiciel TiLT pour la correction des SMS et évaluons ses performances sur le corpus de SMS du DELIC. L'évaluation utilise la distance de Jaccard et la mesure BLEU. La présentation des résultats est suivie d'une analyse qualitative du système et de ses limites.
[ "TiLT", "SMS", "SMS corpus", "correction orthographique", "evaluation" ]
[ "P", "P", "R", "M", "U" ]
[ "", "This paper presents TiLT system which allows us to correct spelling errors in SMS messages to standard French. We perform Jaccard and Bleu metrics for its evaluation using the DELIC SMS corpus as a reference. We discuss qualitative analyses of system and its limits.", "SMS, SMS corpus, spelling correction, TiLT, evaluation" ]
taln-2007-long-012
Vers un méta-EDL complet, puis un EDL universel pour la TAO
Un “méta-EDL” (méta-Environnement de Développement Linguiciel) pour la TAO permet de piloter à distance un ou plusieurs EDL pour construire des systèmes de TAO hétérogènes. Partant de CASH, un méta-EDL dédié à Ariane-G5, et de WICALE 1.0, un premier méta-EDL générique mais aux fonctionnalités minimales, nous dégageons les problèmes liés à l’ajout de fonctionnalités riches comme l’édition et la navigation en local, et donnons une solution implémentée dans WICALE 2.0. Nous y intégrons maintenant une base lexicale pour les systèmes à « pivot lexical », comme UNL/U++. Un but à plus long terme est de passer d’un tel méta-EDL générique multifonctionnel à un EDL « universel », ce qui suppose la réingénierie des compilateurs et des moteurs des langages spécialisés pour la programmation linguistique (LSPL) supportés par les divers EDL.
[ "EDL", "TAO", "langages spécialisés pour la programmation linguistique", "LSPL", "génie linguiciel", "environnement de développement", "systèmes distribués hétérogènes" ]
[ "P", "P", "P", "P", "M", "M", "M" ]
[ "", "A “meta-EDL” (meta-Environment for Developing Lingware) for MT allows to pilot one or more distant EDL in order to build heterogeneous MT systems. Starting from CASH, a meta-EDL dedicated to Ariane-G5, and from WICALE 1.0, a first meta-EDL, generic but offering minimal functionalities, we study the problems arising when adding rich functionalities such as local editing and navigation, and give a solution implemented in WICALE 2.0. We are now integrating to it a lexical database for MT systems relying on a “lexical pivot”, such as UNL/U++. A longer-term goal is to evolve from such a multifunctional generic meta-EDL to a “universal” EDL, which would imply the reengineering of the compilers and engines of the specialized languages (SLLPs) supported by the various EDLs.", "lingware engineering, specialized languages for linguistic programming, development environment, EDL, MT, heterogeneous distributed MT systems" ]
taln-2007-long-013
Aides à la navigation dans un corpus de transcriptions d’oral
Dans cet article, nous évaluons les performances de fonctionnalités d’aide à la navigation dans un contexte de recherche dans un corpus audio. Nous montrons que les particularités de la transcription et, en particulier les erreurs, conduisent à une dégradation parfois importante des performances des outils d’analyse. Si la navigation par concepts reste dans des niveaux d’erreur acceptables, la reconnaissance des entités nommées, utilisée pour l’aide à la lecture, voit ses performances fortement baisser. Notre remise en doute de la portabilité de ces fonctions à un corpus oral est néanmoins atténuée par la nature même du corpus qui incite à considérer que toute méthodes permettant de réduire le temps d’accès à l’information est pertinente, même si les outils utilisés sont imparfaits.
[ "corpus oral", "évaluation", "moteur de recherche" ]
[ "P", "U", "M" ]
[ "", "In this paper we evaluate the performances of navigation facilities within the context of information retrieval performed on an audio corpus. We show that the issues about transcription, especially the errors, lead to a sometimes important deterioration of the performances of the analysing tools. While the navigation by concepts remains within an acceptable error rate, the recognition of named entities used in fast reading undergo a performance drop. Our caution to the portability of these functions to a speech corpus is attenuated by the nature of the corpus: access time to a speech corpus can be very long, and therefore all methods that reduce access time are good to take.", "evaluation, search engine, speech corpus" ]
taln-2007-long-014
Une grammaire du français pour une théorie descriptive et formelle de la langue
Dans cet article, nous présentons une grammaire du français qui fait l’objet d’un modèle basé sur des descriptions linguistiques de corpus (provenant notamment des travaux de l’Approche Pronominale) et représentée selon le formalisme des Grammaires de Propriétés. Elle constitue une proposition nouvelle parmi les grammaires formelles du français, participant à la mise en convergence de la variété des travaux de description linguistique, et de la diversité des possibilités de représentation formelle. Cette grammaire est mise à disposition publique sur le Centre de Ressources pour la Description de l’Oral en tant que ressource pour la représentation et l’analyse.
[ "grammaire du français", "développement de grammaire", "ressource pour le TAL", "syntaxe", "linguistique formelle", "linguistique descriptive", "grammaires de propriétés (GP)" ]
[ "P", "M", "M", "U", "R", "R", "M" ]
[ "", "In this paper I present a grammar for French, which is the implementation of a linguistic model based on corpus descriptions (notably coming from Approche Pronominale) and represented into the Property Grammars formalism. It accounts for a new proposition among formal grammars, taking part into the works that aim to promote convergence between the various researchs of descriptive linguistics and the diversity of formal representation possibilities. It is freely available on the Spoken Data Resource Center (CRDO), as a representation and analysis resource.", "grammar development, resource for NLP, French grammar, syntax, formal linguistics, descriptive linguistics, property grammars (PG)" ]
taln-2007-long-015
Architecture compositionnelle pour les dépendances croisées
L’article présente les principes généraux sous-jacent aux grammaires catégorielles de dépendances : une classe de grammaires de types récemment proposée pour une description compositionnelle et uniforme des dépendances continues et discontinues. Ces grammaires très expressives et analysées en temps polynomial, adoptent naturellement l’architecture multimodale et expriment les dépendances croisées illimitées.
[ "grammaires catégorielles de dépendances", "grammaires multimodales", "analyseur syntaxique" ]
[ "P", "R", "U" ]
[ "", "This article presents the general principles underlying the categorial dependency grammars : a class of type logical grammars recently introduced as a compositional and uniform definition of continuous and discontinuous dependences. These grammars are very expressive, are parsed in a reasonable polynomial time, naturally adopt the multimodal architecture and explain unlimited cross-serial dependencies.", "categorial dependency grammars, multimodal grammars, syntactic parser" ]
taln-2007-long-016
SemTAG, une architecture pour le développement et l’utilisation de grammaires d’arbres adjoints à portée sémantique
Dans cet article, nous présentons une architecture logicielle libre et ouverte pour le développement de grammaires d’arbres adjoints à portée sémantique. Cette architecture utilise un compilateur de métagrammaires afin de faciliter l’extension et la maintenance de la grammaire, et intègre un module de construction sémantique permettant de vérifier la couverture aussi bien syntaxique que sémantique de la grammaire. Ce module utilise un analyseur syntaxique tabulaire généré automatiquement à partir de la grammaire par le système DyALog. Nous présentons également les résultats de l’évaluation d’une grammaire du français développée au moyen de cette architecture.
[ "grammaires d’arbres adjoints", "architecture logicielle", "construction sémantique", "analyseur syntaxique" ]
[ "P", "P", "P", "P" ]
[ "", "In this paper, we introduce a free and open software architecture for the development of Tree Adjoining Grammars equipped with semantic information. This architecture uses a metagrammar compiler to facilitate the grammar extension and maintnance, and includes a semantic construction module allowing to check both the syntactic and semantic coverage of the grammar. This module uses a tabular syntactic parser generated automatically from this grammar using the DyALog system. We also give the results of the evaluation of a real-size TAG for French developed using this architecture.", "syntactic parser, tree adjoining grammars, semantic construction, software architecture" ]
taln-2007-long-017
Utiliser des classes de sélection distributionnelle pour désambiguïser les adjectifs
La désambiguïsation lexicale présente un intérêt considérable pour un nombre important d’applications, en traitement automatique des langues comme en recherche d'information. Nous proposons un modèle d’un genre nouveau, fondé sur la théorie de la construction dynamique du sens (Victorri et Fuchs, 1996). Ce modèle donne une place centrale à la polysémie et propose une représentation géométrique du sens. Nous présentons ici une application de ce modèle à la désambiguïsation automatique des adjectifs. La méthode utilisée s'appuie sur une pré-désambiguïsation du nom régissant l'adjectif, par le biais de classes de sélection distributionnelle. Elle permet aussi de prendre en compte les positions relatives du nom et de l'adjectif (postpostion ou antéposition) dans le calcul du sens.
[ "désambiguïsation", "traitement automatique des langues", "construction dynamique du sens", "sémantique", "polysémie adjectivale", "synonymie", "classes distributionnelles", "corpus", "espace sémantique", "espace distributionnel" ]
[ "P", "P", "P", "U", "M", "U", "R", "U", "U", "M" ]
[ "", "Automatic word sense disambiguation represents an important issue for many applications, in Natural Language Processing as in Information Retrieval. We propose a new kind of model, within the framework of Dynamical Construction of Meaning (Victorri and Fuchs, 1996). This model gives a central place to polysemy and proposes a geometric representation of meaning. We present here an application of this model to adjective sense disambiguation. The method we used relies on a pre-disambiguation of the noun used with the adjective under study, using distributionnal classes. It can also take into account the changes in the meaning of the adjective, whether it is placed before or after the noun.", "natural language processing, word sense disambiguation, semantics, adjectival polysemy, dynamical construction of meaning, synonymy, distributionnal classes, corpus, semantic space, distributional space" ]
taln-2007-long-019
Repérage de sens et désambiguïsation dans un contexte bilingue
Les besoins de désambiguïsation varient dans les différentes applications du Traitement Automatique des Langues (TAL). Dans cet article, nous proposons une méthode de désambiguïsation lexicale opératoire dans un contexte bilingue et, par conséquent, adéquate pour la désambiguïsation au sein d’applications relatives à la traduction. Il s’agit d’une méthode contextuelle, qui combine des informations de cooccurrence avec des informations traductionnelles venant d’un bitexte. L’objectif est l’établissement de correspondances de traduction au niveau sémantique entre les mots de deux langues. Cette méthode étend les conséquences de l’hypothèse contextuelle du sens dans un contexte bilingue, tout en admettant l’existence d’une relation de similarité sémantique entre les mots de deux langues en relation de traduction. La modélisation de ces correspondances de granularité fine permet la désambiguïsation lexicale de nouvelles occurrences des mots polysémiques de la langue source ainsi que la prédiction de la traduction la plus adéquate pour ces occurrences.
[ "traduction", "similarité sémantique", "désambiguïsation contextuelle", "substituabilité" ]
[ "P", "P", "R", "U" ]
[ "", "Word Sense Disambiguation (WSD) needs vary greatly in different Natural Language Processing (NLP) applications. In this article, we propose a WSD method which operates in a bilingual context and is, thus, adequate for disambiguation in applications relative to translation. It is a contextual method which combines cooccurrence information with translation information found in a bitext. The goal is the establishment of translation correspondences at the sense level between the lexical items of two languages. This method extends the consequences of the contextual hypothesis in a bilingual framework assuming, at the same time, the existence of a semantic similarity relation between words of two languages being in a translation relation. The modelling of fine-grained correspondences allows for the disambiguation of new occurrences of the polysemous source language lexical items as well as for the prediction of the most adequate translation for those occurrences.", "contextual disambiguation, semantic similarity, substitutability, translation" ]
taln-2007-long-020
PrepLex : un lexique des prépositions du français pour l’analyse syntaxique
PrepLex est un lexique des prépositions du français. Il contient les informations utiles à des systèmes d’analyse syntaxique. Il a été construit en comparant puis fusionnant différentes sources d’informations lexicales disponibles. Ce lexique met également en évidence les prépositions ou classes de prépositions qui apparaissent dans la définition des cadres de sous-catégorisation des ressources lexicales qui décrivent la valence des verbes.
[ "lexique", "prépositions", "analyse syntaxique" ]
[ "P", "P", "P" ]
[ "", "PrepLex is a lexicon of French prepositions which provides all the information needed for parsing. It was built by comparing and merging several authoritative lexical sources. This lexicon also shows the prepositions or classes of prepositions that appear in verbs subcategorization frames.", "prepositions, lexicon, parsing" ]
taln-2007-long-021
Comparaison du Lexique-Grammaire des verbes pleins et de DICOVALENCE : vers une intégration dans le Lefff
Cet article compare le Lexique-Grammaire des verbes pleins et DICOVALENCE, deux ressources lexicales syntaxiques pour le français développées par des linguistes depuis de nombreuses années. Nous étudions en particulier les divergences et les empiètements des modèles lexicaux sous-jacents. Puis nous présentons le Lefff , lexique syntaxique à grande échelle pour le TAL, et son propre modèle lexical. Nous montrons que ce modèle est à même d’intégrer les informations lexicales présentes dans le Lexique-Grammaire et dans DICOVALENCE. Nous présentons les résultats des premiers travaux effectués en ce sens, avec pour objectif à terme la constitution d’un lexique syntaxique de référence pour le TAL.
[ "Lexique-Grammaire", "DICOVALENCE", "Lefff", "lexique syntaxique" ]
[ "P", "P", "P", "P" ]
[ "", "This paper compares the Lexicon-Grammar of full verbs and DICOVALENCE, two syntactic lexical resources for French developed by linguists for numerous years. We focus on differences and overlaps between both underlying lexical models. Then we introduce the Lefff , large-coverage syntactic lexicon for NLP, and its own lexical model. We show that this model is able to integrate lexical information present in the Lexicon-Grammar and in DICOVALENCE. We describe the results of the first work done in this direction, the long term goal being the consitution of a high-quality syntactic lexicon for NLP.", "syntactic lexicon, Lexicon-Grammar, DICOVALENCE, Lefff" ]
taln-2007-long-022
Dictionnaires électroniques et étiquetage syntactico-sémantique
Nous présentons dans cet article le prototype d’un système d’étiquetage syntactico-sémantique des mots qui utilise comme principales ressources linguistiques différents dictionnaires du laboratoire Lexiques, Dictionnaires, Informatique (LDI). Dans un premier temps, nous mentionnons des travaux sur le même sujet. Dans un deuxième temps, nous faisons la présentation générale du système. Dans un troisième temps, nous exposons les principales caractéristiques des dictionnaires syntactico-sémantiques utilisés. Dans un quatrième temps, nous détaillons un exemple de traitement.
[ "dictionnaire", "étiqueteur sémantique", "LMF", "XML", "XPATH" ]
[ "P", "U", "U", "U", "U" ]
[ "", "We present in this paper a syntactico-semantics tagger prototype which uses as first linguistic resources various dictionaries elaborated at LDI. First, we mention several related works. Second, we present the overall sketch of the system. Third, we expose the main characteristics of the syntactico-semantic dictionaries implied in the processes. Last, using an example, we explicit the main stages of the analysis.", "word sense disambiguation (WSD), dictionnary, LMF, XML, XPATH" ]
taln-2007-long-023
Un analyseur hybride pour la détection et la correction des erreurs cachées sémantiques en langue arabe
Cet article s’intéresse au problème de la détection et de la correction des erreurs cachées sémantiques dans les textes arabes. Ce sont des erreurs orthographiques produisant des mots lexicalement valides mais invalides sémantiquement. Nous commençons par décrire le type d’erreur sémantique auquel nous nous intéressons. Nous exposons par la suite l’approche adoptée qui se base sur la combinaison de plusieurs méthodes, tout en décrivant chacune de ces méthodes. Puis, nous évoquons le contexte du travail qui nous a mené au choix de l’architecture multi-agent pour l’implémentation de notre système. Nous présentons et commentons vers la fin les résultats de l’évaluation dudit système.
[ "détection", "correction", "erreur cachée", "langue arabe", "erreur sémantique", "système multi-agent" ]
[ "P", "P", "P", "P", "P", "R" ]
[ "", "In this paper, we address the problem of detecting and correcting hidden semantic spelling errors in Arabic texts. Hidden semantic spelling errors are morphologically valid words causing invalid semantic irregularities. After the description of this type of errors, we propose and argue the combined method that we adopted in this work to realize a hybrid spell checker for detecting and correcting hidden spelling errors. Afterward, we present the context of this work and show the multi-agent architecture of our system. Finally, we expose and comment the obtained results.", "hidden error, semantic error, detection, correction, multi-agent system, Arabic language" ]
taln-2007-long-024
Résolution de la référence dans des dialogues homme-machine : évaluation sur corpus de deux approches symbolique et probabiliste
Cet article décrit deux approches, l’une numérique, l’autre symbolique, traitant le problème de la résolution de la référence dans un cadre de dialogue homme-machine. L’analyse des résultats obtenus sur le corpus MEDIA montre la complémentarité des deux systèmes développés : robustesse aux erreurs et hypothèses multiples pour l’approche numérique ; modélisation de phénomènes complexes et interprétation complète pour l’approche symbolique.
[ "résolution de la référence", "dialogue homme-machine", "évaluation", "compréhension dans le dialogue" ]
[ "P", "P", "P", "M" ]
[ "", "This paper presents two approaches, one symbolic, the other one probabilistic, for processing reference resolution in the framework of human-machine spoken dialogues. The results obtained by both systems on the French MEDIA corpus points out the complementarity of the two approaches : robustness and multiple hypotheses generation for the probabilistic one ; global interpretation and modeling of complex phenomenon for the symbolic one.", "human-machine dialogue, reference resolution, dialogue understanding, evaluation" ]
taln-2007-long-025
Annotation précise du français en sémantique de rôles par projection cross-linguistique
Dans le paradigme FrameNet, cet article aborde le problème de l’annotation précise et automatique de rôles sémantiques dans une langue sans lexique FrameNet existant. Nous évaluons la méthode proposée par Padó et Lapata (2005, 2006), fondée sur la projection de rôles et appliquée initialement à la paire anglais-allemand. Nous testons sa généralisabilité du point de vue (a) des langues, en l'appliquant à la paire (anglais-français) et (b) de la qualité de la source, en utilisant une annotation automatique du côté anglais. Les expériences montrent des résultats à la hauteur de ceux obtenus pour l'allemand, nous permettant de conclure que cette approche présente un grand potentiel pour réduire la quantité de travail nécessaire à la création de telles ressources dans de nombreuses langues.
[ "FrameNet", "rôles sémantiques", "multilingue", "annotation sémantique automatique", "sémantique lexicale", "projection d’annotation de rôles" ]
[ "P", "P", "U", "R", "M", "M" ]
[ "", "This paper considers the task of the automatic induction of role-semantic annotations for new languages with high precision. To this end we test the generalisability of the language-independent, projection-based annotation framework introduced by Padó and Lapata (2005, 2006) by (a) applying it to a new, more distant, language pair (English-French), and (b), using automatic, and thus noisy, input annotation. We show that even under these conditions, high-quality role annotations for French can be obtained that rival existing results for German. We conclude that the framework has considerable potential in reducing the manual effort involved in creating role-semantic resources for a wider range of languages.", "multilingual, FrameNet, automatic semantic annotation, lexical semantics, annotation projection, semantic roles" ]
taln-2007-long-026
Élaboration automatique d’un dictionnaire de cooccurrences grand public
Antidote RX, un logiciel d’aide à la rédaction grand public, comporte un nouveau dictionnaire de 800 000 cooccurrences, élaboré essentiellement automatiquement. Nous l’avons créé par l’analyse syntaxique détaillée d’un vaste corpus et par la sélection automatique des cooccurrences les plus pertinentes à l’aide d’un test statistique, le rapport de vraisemblance. Chaque cooccurrence est illustrée par des exemples de phrases également tirés du corpus automatiquement. Les cooccurrences et les exemples extraits ont été révisés par des linguistes. Nous examinons les choix d’interface que nous avons faits pour présenter ces données complexes à un public non spécialisé. Enfin, nous montrons comment nous avons intégré les cooccurrences au correcteur d’Antidote pour améliorer ses performances.
[ "cooccurrences", "antidote", "corpus", "correcteur", "collocations", "analyseur" ]
[ "P", "P", "P", "P", "U", "U" ]
[ "", "Antidote is a complete set of software reference tools for writing French that includes an advanced grammar checker. Antidote RX boasts a new dictionary of 800,000 cooccurrences created mostly automatically. The approach we chose is based on the syntactic parsing of a large corpus and the automatic selection of the most relevant co-occurrences using a statistical test, the log-likelihood ratio. Example sentences illustrating each cooccurrence in context are also automatically selected. The extracted co-occurrences and examples were revised by linguists. We examine the various choices that were made to present this complex data to a non-specialized public. We then show how we use the cooccurrence data to improve the performance of Antidote’s grammar checker.", "antidote, co-occurrences, collocations, corpus, parser, grammar checker" ]
taln-2007-long-027
Les vecteurs conceptuels, un outil complémentaire aux réseaux lexicaux
Fréquemment utilisés dans le Traitement Automatique des Langues Naturelles, les réseaux lexicaux font aujourd’hui l’objet de nombreuses recherches. La plupart d’entre eux, et en particulier le plus célèbre WordNet, souffrent du manque d’informations syntagmatiques mais aussi d’informations thématiques (« problème du tennis »). Cet article présente les vecteurs conceptuels qui permettent de représenter les idées contenues dans un segment textuel quelconque et permettent d’obtenir une vision continue des thématiques utilisées grâce aux distances calculables entre eux. Nous montrons leurs caractéristiques et en quoi ils sont complémentaires des réseaux lexico-sémantiques. Nous illustrons ce propos par l’enrichissement des données de WordNet par des vecteurs conceptuels construits par émergence.
[ "vecteurs conceptuels", "WordNet", "informations thématiques", "informations lexicales" ]
[ "P", "P", "P", "R" ]
[ "", "There is currently much research in natural language processing focusing on lexical networks. Most of them, in particular the most famous, WordNet, lack syntagmatic information and but also thematic information (« Tennis Problem »). This article describes conceptual vectors that allows the representation of ideas in any textual segment and offers a continuous vision of related thematics, based on the distances between these thematics. We show the characteristics of conceptual vectors and explain how they complement lexico-semantic networks. We illustrate this purpose by adding conceptual vectors to WordNet by emergence.", "WordNet, conceptual vectors, lexical information, thematic information" ]
taln-2007-long-028
Alignements monolingues avec déplacements
Ce travail présente une application d’alignement monolingue qui répond à une problématique posée par la critique génétique textuelle, une école d’études littéraires qui s’intéresse à la genèse textuelle en comparant les différentes versions d’une oeuvre. Ceci nécessite l’identification des déplacements, cependant, le problème devient ainsi NP-complet. Notre algorithme heuristique est basé sur la reconnaissance des homologies entre séquences de caractères. Nous présentons une validation expérimentale et montrons que notre logiciel obtient de bons résultats ; il permet notamment l’alignement de livres entiers.
[ "alignement monolingue", "critique génétique textuelle", "distance d’édition avec déplacements" ]
[ "P", "P", "M" ]
[ "", "This paper presents a monolingual alignment application that addresses a problem which occurs in textual genetic criticism, a humanities discipline of literary studies which compares texts’ versions to understand texts’ genesis. It requires the move detection, but this characteristic makes the problem NP-complete. Our heuristic algorithm is based on pattern matching in character sequences. We present an experimental validation where we show that our application obtains good results ; in particular it enables whole book alignment.", "monolingual alignment, edit distance with moves, textual genetic criticism" ]
taln-2007-long-029
Confondre le coupable : corrections d’un lexique suggérées par une grammaire
Le succès de l’analyse syntaxique d’une phrase dépend de la qualité de la grammaire sous-jacente mais aussi de celle du lexique utilisé. Une première étape dans l’amélioration des lexiques consiste à identifier les entrées lexicales potentiellement erronées, par exemple en utilisant des techniques de fouilles d’erreurs sur corpus (Sagot & Villemonte de La Clergerie, 2006). Nous explorons ici l’étape suivante : la suggestion de corrections pour les entrées identifiées. Cet objectif est atteint au travers de réanalyses des phrases rejetées à l’étape précédente, après modification des informations portées par les entrées suspectées. Un calcul statistique sur les nouveaux résultats permet ensuite de mettre en valeur les corrections les plus pertinentes.
[ "correction", "lexique", "analyse syntaxique", "apprentissage" ]
[ "P", "P", "P", "U" ]
[ "", "Successful parsing depends on the quality of the underlying grammar but also on the quality of the lexicon. A first step towards the improvement of lexica consists in identifying potentially erroneous lexical entries, for instance by using error mining techniques on corpora (Sagot & Villemonte de La Clergerie, 2006). we explores the next step, namely the suggestion of corrections for those entries. This is achieved by parsing the sentences rejected at the previous step anew, after modifying the information carried by the suspected entries. Afterwards, a statistical computation on the parsing results exhibits the most relevant corrections.", "parsing, lexicon, machine learning, correction" ]
taln-2007-long-030
Ambiguïté de portée et approche fonctionnelle des grammaires d’arbres adjoints
En s’appuyant sur la notion d’arbre de dérivation des Grammaires d’Arbres Adjoints (TAG), cet article propose deux objectifs : d’une part rendre l’interface entre syntaxe et sémantique indépendante du langage de représentation sémantique utilisé, et d’autre part offrir un noyau qui permette le traitement sémantique des ambiguïtés de portée de quantificateurs sans utiliser de langage de représentation sous-spécifiée.
[ "grammaires d’arbres adjoints", "interface syntaxe et sémantique", "sémantique formelle", "grammaires catégorielles" ]
[ "P", "R", "M", "M" ]
[ "", "Relying on the derivation tree of the Tree Adjoining Grammars (TAG), this paper has to goals : on the one hand, to make the syntax/semantics interface independant from the semantic representation language, and on the other hand to propose an architecture that enables the modeling of scope ambguities without using underspecified representation formalisms.", "syntax/semantics interface, formal semantics, tree adjoining grammars, categorial grammars" ]
taln-2007-long-031
Évaluer SYNLEX
SYNLEX est un lexique syntaxique extrait semi-automatiquement des tables du LADL. Comme les autres lexiques syntaxiques du français disponibles et utilisables pour le TAL (LEFFF, DICOVALENCE), il est incomplet et n’a pas fait l’objet d’une évaluation permettant de déterminer son rappel et sa précision par rapport à un lexique de référence. Nous présentons une approche qui permet de combler au moins partiellement ces lacunes. L’approche s’appuie sur les méthodes mises au point en acquisition automatique de lexique. Un lexique syntaxique distinct de SYNLEX est acquis à partir d’un corpus de 82 millions de mots puis utilisé pour valider et compléter SYNLEX. Le rappel et la précision de cette version améliorée de SYNLEX sont ensuite calculés par rapport à un lexique de référence extrait de DICOVALENCE.
[ "évaluation", "lexique syntaxique" ]
[ "P", "P" ]
[ "", "SYNLEX is a syntactic lexicon extracted semi-automatically from the LADL tables. Like the other syntactic lexicons for French which are both available and usable for NLP (LEFFF, DICOVALENCE), it is incomplete and its recall and precision wrt a gold standard are unknown. We present an approach which goes some way towards adressing these shortcomings. The approach draws on methods used for the automatic acquisition of syntactic lexicons. First, a new syntactic lexicon is acquired from an 82 million words corpus. This lexicon is then used to validate and extend SYNLEX. Finally, the recall and precision of the extended version of SYNLEX is computed based on a gold standard extracted from DICOVALENCE.", "syntactic lexicon, evaluation" ]
taln-2007-long-032
Analyse automatique vs analyse interactive : un cercle vertueux pour la voyellation, l’étiquetage et la lemmatisation de l’arabe
Comment produire de façon massive des textes annotés dans des conditions d’efficacité, de reproductibilité et de coût optimales ? Plutôt que de corriger les sorties d’analyse automatique moyennant des outils d’éditions éventuellement dédiés, ainsi qu’il estcommunément préconisé, nous proposons de recourir à des outils d’analyse interactive où la correction manuelle est au fur et à mesure prise en compte par l’analyse automatique. Posant le problème de l’évaluation de ces outils interactifs et du rendement de leur ergonomie linguistique, et proposant pour cela une métrique fondée sur le calcul du coût qu’exigent ces corrections exprimé en nombre de manipulations (frappe au clavier, clic de souris, etc.), nous montrons, au travers d’un protocole expérimental simple orienté vers la voyellation, l’étiquetage et la lemmatisation de l’arabe, que paradoxalement, les meilleures performances interactives d’un système ne sont pas toujours corrélées à ses meilleures performances automatiques. Autrement dit, que le comportement linguistique automatique le plus performant n’est pas toujours celui qui assure, dès lors qu’il y a contributions manuelles, le meilleur rendement interactif.
[ "voyellation", "lemmatisation", "analyse automatique vs interactive", "annotation séquentielle", "parallèle", "étiquetage de l’arabe", "métrique pour l’évaluation de l’analyse interactive" ]
[ "P", "P", "R", "M", "U", "R", "R" ]
[ "", "How can we massively produce annotated texts, with optimal efficiency, reproducibility and cost? Rather than correcting the output of automatic analysis by means of possibly dedicated tools, as is currently suggested, we find it more advisable to use interactive tools for analysis, where manual editing is fed in real time into automatic analysis. We address the issue of evaluating these tools, along with their performance in terms of linguistic ergonomy, and propose a metric for calculating the cost of editing as a number of keystrokes and mouse clicks. We show, by way of a simple protocol addressing Arabic vowellation, tagging and lemmatization, that, surprisingly, the best interactive performance of a system is not always correlated to its best automatic performance. In other words, the most performing automatic linguistic behavior of a system is not always yielding the best interactive behavior, when manual editing is involved.", "automatic versus interactive analysis of Arabic, proposal of metrics for evaluating the interactive analysis, design and implementation of software for interactive vowellation, lemmatisation and POS-tagging of Arabic, evaluation" ]
taln-2007-long-033
Évaluation des stades de développement en français langue étrangère
Cet article décrit un système pour définir et évaluer les stades de développement en français langue étrangère. L’évaluation de tels stades correspond à l’identification de la fréquence de certains phénomènes lexicaux et grammaticaux dans la production des apprenants et comment ces fréquences changent en fonction du temps. Les problèmes à résoudre dans cette démarche sont triples : identifier les attributs les plus révélateurs, décider des points de séparation entre les stades et évaluer le degré d’efficacité des attributs et de la classification dans son ensemble. Le système traite ces trois problèmes. Il se compose d’un analyseur morphosyntaxique, appelé Direkt Profil, auquel nous avons relié un module d’apprentissage automatique. Dans cet article, nous décrivons les idées qui ont conduit au développement du système et son intérêt. Nous présentons ensuite le corpus que nous avons utilisé pour développer notre analyseur morphosyntaxique. Enfin, nous présentons les résultats sensiblement améliorés des classificateurs comparé aux travaux précédents (Granfeldt et al., 2006). Nous présentons également une méthode de sélection de paramètres afin d’identifier les attributs grammaticaux les plus appropriés.
[ "analyseur morphosyntaxique", "apprentissage automatique", "acquisition des langues" ]
[ "P", "P", "M" ]
[ "", "This paper describes a system to define and evaluate stages of development in second language French. The task of identifying such stages can be formulated as identifying the frequency of some lexical and grammatical features in the learners’ production and how they vary over time. The problems in this procedure are threefold : identify the relevant features, decide on cutoff points for the stages, and evaluate the degree of efficiency of the attributes and of the overall classification. The system addresses these three problems. It consists of a morphosyntactic analyzer called Direkt Profil and a machine-learning module connected to it. We first describe the usefulness and rationale behind the development of the system. We then present the corpus we used to develop our morphosyntactic analyzer called Direkt Profil. Finally, we present new and substantially improved results on training machine-learning classifiers compared to previous experiments (Granfeldt et al., 2006). We also introduce a method of attribute selection in order to identify the most relevant grammatical features.", "morphosyntactic parser, machine learning, language acquisition" ]
taln-2007-long-034
Apprentissage non supervisé de familles morphologiques par classification ascendante hiérarchique
Cet article présente un système d’acquisition de familles morphologiques qui procède par apprentissage non supervisé à partir de listes de mots extraites de corpus de textes. L’approche consiste à former des familles par groupements successifs, similairement aux méthodes de classification ascendante hiérarchique. Les critères de regroupement reposent sur la similarité graphique des mots ainsi que sur des listes de préfixes et de paires de suffixes acquises automatiquement à partir des corpus traités. Les résultats obtenus pour des corpus de textes de spécialité en français et en anglais sont évalués à l’aide de la base CELEX et de listes de référence construites manuellement. L’évaluation démontre les bonnes performances du système, indépendamment de la langue, et ce malgré la technicité et la complexité morphologique du vocabulaire traité.
[ "apprentissage non supervisé", "familles morphologiques", "classification" ]
[ "P", "P", "P" ]
[ "", "This article describes a method for the unsupervised acquisition of morphological families using lists of words extracted from text corpora. It proceeds by incrementally grouping words in families, similarly to agglomerative hierarchical clustering methods. Clustering criteria rely on graphical similarity as well as lists of prefixes and suffix pairs which are automatically acquired from the target corpus. Results obtained for specialised text corpora in French and English are evaluated using the CELEX database and manually built reference lists. The evaluation shows that the system perfoms well for both languages, despite the morphological complexity of the technical vocabulary used for the evaluation.", "morphological families, clustering, unsupervised learning" ]
taln-2007-long-035
Enchaînements verbaux – étude sur le temps et l'aspect utilisant des techniques d’apprentissage non supervisé
L’apprentissage non supervisé permet la découverte de catégories initialement inconnues. Les techniques actuelles permettent d'explorer des séquences de phénomènes alors qu'on a tendance à se focaliser sur l'analyse de phénomènes isolés ou sur la relation entre deux phénomènes. Elles offrent ainsi de précieux outils pour l'analyse de données organisées en séquences, et en particulier, pour la découverte de structures textuelles. Nous présentons ici les résultats d’une première tentative de les utiliser pour inspecter les suites de verbes provenant de phrases de récits d’accident de la route. Les verbes étaient encodés comme paires (cat, temps), où cat représente la catégorie aspectuelle d’un verbe, et temps son temps grammatical. L’analyse, basée sur une approche originale, a fourni une classification des enchaînements de deux verbes successifs en quatre groupes permettant de segmenter les textes. Nous donnons ici une interprétation de ces groupes à partir de statistiques sur des annotations sémantiques indépendantes.
[ "temps", "aspect", "apprentissage non supervisé", "sémantique", "fouille de données" ]
[ "P", "P", "P", "P", "M" ]
[ "", "Unsupervised learning allows the discovery of initially unknown categories. Current techniques make it possible to explore sequences of phenomena whereas one tends to focus on the analysis of isolated phenomena or on the relation between two phenomena. They offer thus invaluable tools for the analysis of sequential data, and in particular, for the discovery of textual structures. We report here the results of a first attempt at using them for inspecting sequences of verbs coming from sentences of French accounts of road accidents. Verbs were encoded as pairs (cat, tense) – where cat is the aspectual category of a verb, and tense its grammatical tense. The analysis, based on an original approach, provided a classification of the links between two successive verbs into four distinct groups (clusters) allowing texts segmentation. We give here an interpretation of these clusters by using statistics on semantic annotations independent of the training process.", "time, tense, aspect, semantics, unsupervised learning, data mining" ]
taln-2007-long-036
D-STAG : un formalisme pour le discours basé sur les TAG synchrones
Nous proposons D-STAG, un formalisme pour le discours qui utilise les TAG synchrones. Les analyses sémantiques produites par D-STAG sont des structures de discours hiérarchiques annotées de relations de discours coordonnantes ou subordonnantes. Elles sont compatibles avec les structures de discours produites tant en RST qu’en SDRT. Les relations de discours coordonnantes et subordonnantes sont modélisées respectivement par les opérations de substitution et d’adjonction introduites en TAG.
[ "discours", "grammaires d’arbres adjoints (synchrones)", "interface syntaxe/sémantique" ]
[ "P", "M", "M" ]
[ "", "We propose D-STAG, a framework which uses Synchronous TAG for discourse. D-STAG semantic analyses are hierarchical discourse structures richly annotated with coordinating and subordinating discourse relations. They are compatible both with RST and SDRT discourse structures. Coordinating and subordinating relations are respectively modeled with the TAG substitution and adjunction operations.", "discourse, (synchronous) tree adjoining grammars, syntax/semantic interface" ]
taln-2007-long-037
Collocation translation based on sentence alignment and parsing
Bien que de nombreux efforts aient été déployés pour extraire des collocations à partir de corpus de textes, seule une minorité de travaux se préoccupent aussi de rendre le résultat de l’extraction prêt à être utilisé dans les applications TAL qui pourraient en bénéficier, telles que la traduction automatique. Cet article décrit une méthode précise d’identification de la traduction des collocations dans un corpus parallèle, qui présente les avantages suivants : elle peut traiter des collocation flexibles (et pas seulement figées) ; elle a besoin de ressources limitées et d’un pouvoir de calcul raisonnable (pas d’alignement complet, pas d’entraînement) ; elle peut être appliquée à plusieurs paires des langues et fonctionne même en l’absence de dictionnaires bilingues. La méthode est basée sur l’information syntaxique provenant du parseur multilingue Fips. L’évaluation effectuée sur 4000 collocations de type verbe-objet correspondant à plusieurs paires de langues a montré une précision moyenne de 89.8% et une couverture satisfaisante (70.9%). Ces résultats sont supérieurs à ceux enregistrés dans l’évaluation d’autres méthodes de traduction de collocations.
[ "parsing", "traduction de collocations", "extraction de collocations", "alignement de textes" ]
[ "P", "P", "R", "R" ]
[ "", "To date, substantial efforts have been devoted to the extraction of collocations from text corpora. However, only a few works deal with the subsequent processing of results in order for these to be successfully integrated into the NLP applications that could benefit from them (e.g., machine translation). This paper presents an accurate method for identifying translation equivalents of collocations in parallel text, whose main strengths are that : it can handle flexible (not only rigid) collocations ; it only requires limited resources and computation (no full alignment, no training needed) ; it deals with several language pairs, and it can even work when no bilingual dictionary is available. The method relies heavily on syntactic information provided by the Fips multilingual parser. Evaluation performed on 4000 verb-object collocations for different language pairs showed an average accuracy of 89.8% and a reasonable coverage (70.9%). These figures are higher that those reported in the evaluation of related work in collocation translation.", "collocation translation, collocation extraction, parsing, text alignment" ]
taln-2007-long-038
Utilisation d’une approche basée sur la recherche cross-lingue d’information pour l’alignement de phrases à partir de textes bilingues Arabe-Français
L’alignement de phrases à partir de textes bilingues consiste à reconnaître les phrases qui sont traductions les unes des autres. Cet article présente une nouvelle approche pour aligner les phrases d’un corpus parallèle. Cette approche est basée sur la recherche crosslingue d’information et consiste à construire une base de données des phrases du texte cible et considérer chaque phrase du texte source comme une requête à cette base. La recherche crosslingue utilise un analyseur linguistique et un moteur de recherche. L’analyseur linguistique traite aussi bien les documents à indexer que les requêtes et produit un ensemble de lemmes normalisés, un ensemble d’entités nommées et un ensemble de mots composés avec leurs étiquettes morpho-syntaxiques. Le moteur de recherche construit les fichiers inversés des documents en se basant sur leur analyse linguistique et retrouve les documents pertinents à partir de leur indexes. L’aligneur de phrases a été évalué sur un corpus parallèle Arabe-Français et les résultats obtenus montrent que 97% des phrases ont été correctement alignées.
[ "recherche cross-lingue d’information", "alignement de phrases", "corpus parallèle" ]
[ "P", "P", "P" ]
[ "", "Sentence alignment consists in identifying correspondences between sentences in one language and sentences in the other language. This paper describes a new approach to aligning sentences from a parallel corpora. This approach is based on cross-language information retrieval and consists in building a database of sentences of the target text and considering each sentence of the source text as a query to that database. Cross-language information retrieval uses a linguistic analyzer and a search engine. The linguistic analyzer processes both documents to be indexed and queries to produce a set of normalized lemmas, a set of named entities and a set of nominal compounds with their morpho-syntactic tags. The search engine builds the inverted files of the documents on the basis of their linguistic analysis and retrieves the relevant documents from the indexes. An evaluation of the sentence aligner was performed based on a Arabic to French parallel corpus and results show that 97% of sentences were correctly aligned.", "sentence alignment, parallel corpora, cross-lingual information retrieval" ]
taln-2007-poster-001
Désambiguïsation lexicale automatique : sélection automatique d’indices
Nous exposons dans cet article une expérience de sélection automatique des indices du contexte pour la désambiguïsation lexicale automatique. Notre point de vue est qu’il est plus judicieux de privilégier la pertinence des indices du contexte plutôt que la sophistication des algorithmes de désambiguïsation utilisés. La sélection automatique des indices par le biais d’un algorithme génétique améliore significativement les résultats obtenus dans nos expériences précédentes tout en confortant des observations que nous avions faites sur la nature et la répartition des indices les plus pertinents.
[ "désambiguïsation lexicale automatique", "algorithmes génétiques", "corpus sémantiquement étiqueté", "cooccurrences", "sélection d’indices" ]
[ "P", "P", "U", "U", "R" ]
[ "", "This article describes an experiment on automatic features selection for word sense disambiguation. Our point of view is that word sense disambiguation success is more dependent on the features used to represent the context in which an ambiguous word occurs than on the sophistication of the learning techniques used. Automatic features selection using a genetic algorithm improves significantly our last experiment bests results and is consistent with the observations we have made on the nature and space distribution of the most reliable features.", "word sense disambiguation, sense tagged corpora, cooccurrences, features selection, genetic algorithms" ]
taln-2007-poster-002
Représenter la dynamique énonciative et modale de textes
Nous proposons d’exposer ici une méthodologie d’analyse et de représentation d’une des composantes de la structuration des textes, celle liée à la notion de prise en charge énonciative. Nous mettons l’accent sur la structure hiérarchisée des segments textuels qui en résulte ; nous la représentons d’une part sous forme d’arbre et d’autre part sous forme de graphe. Ce dernier permet d’appréhender la dynamique énonciative et modale de textes comme un cheminement qui s’opère entre différents niveaux de discours dans un texte au fur et à mesure de sa lecture syntagmatique.
[ "énonciation", "linguistique textuelle", "représentation sémantique" ]
[ "P", "M", "M" ]
[ "", "We propose a methodological framework for analyzing and representing the concept of commitment, which is one of the features characterizing textual structure. We emphasize the hierarchical structure of textual segments commitment conveys to. We represent it first as a tree and then as a graph. The latter enables us to access the modal and enunciative textual dynamics, as it shows the path followed through different discursive levels during the syntagmatic reading of a text.", "textual linguistics, enunciation, semantical representation" ]
taln-2007-poster-003
Segmentation en super-chunks
Depuis l’analyseur développé par Harris à la fin des années 50, les unités polylexicales ont peu à peu été intégrées aux analyseurs syntaxiques. Cependant, pour la plupart, elles sont encore restreintes aux mots composés qui sont plus stables et moins nombreux. Toutefois, la langue est remplie d’expressions semi-figées qui forment également des unités sémantiques : les expressions adverbiales et les collocations. De même que pour les mots composés traditionnels, l’identification de ces structures limite la complexité combinatoire induite par l’ambiguïté lexicale. Dans cet article, nous détaillons une expérience qui intègre ces notions dans un processus de segmentation en super-chunks, préalable à l’analyse syntaxique. Nous montrons que notre chunker, développé pour le français, atteint une précision et un rappel de 92,9 % et 98,7 %, respectivement. Par ailleurs, les unités polylexicales réalisent 36,6 % des attachements internes aux constituants nominaux et prépositionnels.
[ "super-chunks", "chunker", "analyse syntaxique", "patrons lexico-syntaxiques" ]
[ "P", "P", "P", "U" ]
[ "", "Since Harris’ parser in the late 50’s, multiword units have been progressively integrated in parsers. Nevertheless, in the most part, they are still restricted to compound words, that are more stable and less numerous. Actually, language is full of semi-frozen expressions that also form basic semantic units : semi-frozen adverbial expressions (e.g. time), collocations. Like compounds, the identification of these structures limits the combinatorial complexity induced by lexical ambiguity. In this paper, we detail an experiment that largely integrates these notions in a procedure of segmentation into super-chunks, preliminary to a parser. We show that the chunker, developped for French, reaches 92.9% precision and 98.7% recall. Moreover, multiword units realize 36.6% of the attachments within nominal and prepositional phrases.", "chunker, super-chunks, syntactic analysis, lexico-syntactic patterns" ]
taln-2007-poster-004
Détection et prédiction de la satisfaction des usagers dans les dialogues Personne-Machine
Nous étudions le rôle des entités nommées et marques discursives de rétroaction pour la tâche de classification et prédiction de la satisfaction usager à partir de dialogues. Les expériences menées sur 1027 dialogues Personne-Machine dans le domaine des agences de voyage montrent que les entités nommées et les marques discursives n’améliorent pas de manière significative le taux de classification des dialogues. Par contre, elles permettent une meilleure prédiction de la satisfaction usager à partir des premiers tours de parole usager.
[ "prédiction de la satisfaction usager", "classification des dialogues Personne-Machine" ]
[ "P", "R" ]
[ "", "We study the usefulness of named entities and acknowldgment words for user satisfaction classification and prediction from Human-Computer dialogs. We show that named entities and acknowledgment words do not enhance baseline classification performance. However, they allow a better prediction of user satisfaction in the beginning of the dialogue.", "prediction of user satisfaction, Human-Computer dialog classification" ]
taln-2007-poster-005
Les ellipses dans un système de traduction automatique de la parole
Dans tout dialogue, les phrases elliptiques sont très nombreuses. Dans cet article, nous évaluons leur impact sur la reconnaissance et la traduction dans le système de traduction automatique de la parole MedSLT. La résolution des ellipses y est effectuée par une méthode robuste et portable, empruntée aux systèmes de dialogue homme-machine. Cette dernière exploite une représentation sémantique plate et combine des techniques linguistiques (pour construire la représentation) et basées sur les exemples (pour apprendre sur la base d’un corpus ce qu’est une ellipse bien formée dans un sous-domaine donné et comment la résoudre).
[ "ellipses", "traduction automatique de la parole", "reconnaissance de la parole", "évaluation", "traitement du dialogue", "modèle du language fondé sur les grammaire" ]
[ "P", "P", "R", "U", "M", "M" ]
[ "", "Elliptical phrases are frequent in all genres of dialogue. In this paper, we describe an evaluation of the speech understanding component of the MedSLT medical speech translation system, which focusses on the contrast between system performance on elliptical phrases and full utterances. Ellipsis resolution in the system is handled by a robust and portable method, adapted from similar methods commonly used in spoken dialogue systems, which exploits the flat representation structures used. The resolution module combines linguistic methods, used to construct the representations, with an example-based approach to defining the space of well-formed ellipsis resolutions in a subdomain.", "speech recognition, speech translation, ellipsis, dialogue processing, grammar-based language modelling, evaluation" ]
taln-2007-poster-006
Analyse automatique de sondages téléphoniques d’opinion
Cette étude présente la problématique de l’analyse automatique de sondages téléphoniques d’opinion. Cette analyse se fait en deux étapes : tout d’abord extraire des messages oraux les expressions subjectives relatives aux opinions de utilisateurs sur une dimension particulière (efficacité, accueil, etc.) ; puis sélectionner les messages fiables, selon un ensemble de mesures de confiance, et estimer la distribution des diverses opinions sur le corpus de test. Le but est d’estimer une distribution aussi proche que possible de la distribution de référence. Cette étude est menée sur un corpus de messages provenant de vrais utilisateurs fournis par France Télécom R&D.
[ "détection d’opinions", "classification automatique", "reconnaissance automatique de la parole", "champs conditionnels aléatoires" ]
[ "M", "M", "M", "U" ]
[ "", "This paper introduces the context of the automatic analysis of opinion telephone surveys. This analysis is done by means of two stages : firstly the subjective expressions, related to the expression of an opinion on a particular dimension (efficiency, courtesy, . . . ), are extracted from the audio messages ; secondly the reliable messages, according to a set of confidence measures, are selected and the distribution of the positive and negative opinions in these messages is estimated. The goal is to obtain a distribution as close as possible to the reference one. This study is carried on a telephone survey corpus, provided by France Télécom R&D, obtained in real field conditions.", "opinion extraction, automatic classification, automatic speech recognition, conditional random fields" ]
taln-2007-poster-007
Une réalisateur de surface basé sur une grammaire réversible
En génération, un réalisateur de surface a pour fonction de produire, à partir d’une représentation conceptuelle donnée, une phrase grammaticale. Les réalisateur existants soit utilisent une grammaire réversible et des méthodes statistiques pour déterminer parmi l’ensemble des sorties produites la plus plausible ; soit utilisent des grammaires spécialisées pour la génération et des méthodes symboliques pour déterminer la paraphrase la plus appropriée à un contexte de génération donné. Dans cet article, nous présentons GENI, un réalisateur de surface basé sur une grammaire d’arbres adjoints pour le français qui réconcilie les deux approches en combinant une grammaire réversible avec une sélection symbolique des paraphrases.
[ "réalisation de surface", "grammaire d’arbres adjoints", "réversibilité" ]
[ "P", "P", "U" ]
[ "", "In generation, a surface realiser takes as input a conceptual representation and outputs a grammatical sentence. Existing realisers fall into two camps. Either they are based on a reversible grammar and use statistical filtering to determine among the several outputs the most plausible one. Or they combine a grammar tailored for generation and a symbolic means of choosing the paraphrase most appropriate to a given generation context. In this paper, we present GENI, a surface realiser based on a Tree Adjoining Grammar for French which reconciles both approaches in that (i) the grammar used is réversible and (ii) paraphrase selection is based on symbolic means.", "surface realisation, tree adjoining grammar, reversibility" ]
taln-2007-poster-008
Analyse des échecs d’une approche pour traiter les questions définitoires soumises à un système de questions/réponses
Cet article revient sur le type particulier des questions définitoires étudiées dans le cadre des campagnes d’évaluation des systèmes de Questions/Réponses. Nous présentons l’approche développée suite à notre participation à la campagne EQueR et son évaluation lors de QA@CLEF 2006. La réponse proposée est la plus représentative des expressions présentes en apposition avec l’objet à définir, sa sélection est faite depuis des indices dérivés de ces appositions. Environ 80% de bonnes réponses sont trouvées sur les questions définitoires des volets francophones de CLEF. Les cas d’erreurs rencontrés sont analysés et discutés en détail.
[ "questions définitoires", "système de questions/réponses" ]
[ "P", "P" ]
[ "", "This paper proposes an approach to deal with definitional question answering. Our system extracts answers to these questions from appositives appearing closed to the subject to define. Results are presented for CLEF campaigns. Next, failures are discussed.", "question answering, definitional question answering" ]
taln-2007-poster-009
Caractérisation des discours scientifiques et vulgarisés en français, japonais et russe
L’objectif principal de notre travail consiste à étudier la notion de comparabilité des corpus, et nous abordons cette question dans un contexte monolingue en cherchant à distinguer les documents scientifiques et vulgarisés. Nous travaillons séparément sur des corpus composés de documents du domaine médical dans trois langues à forte distance linguistique (le français, le japonais et le russe). Dans notre approche, les documents sont caractérisés dans chaque langue selon leur thématique et une typologie discursive qui se situe à trois niveaux de l’analyse des documents : structurel, modal et lexical. Le typage des documents est implémenté avec deux algorithmes d’apprentissage (SVMlight et C4.5). L’évaluation des résultats montre que la typologie discursive proposée est portable d’une langue à l’autre car elle permet en effet de distinguer les deux discours. Nous constatons néanmoins des performances très variées selon les langues, les algorithmes et les types de caractéristiques discursives.
[ "algorithmes d’apprentissage", "linguistique des corpus", "corpus comparable", "analyse stylistique", "degré de comparabilité" ]
[ "P", "R", "R", "M", "M" ]
[ "", "The main objective of our study consists to characterise the comparability of corpora, and we address this issue in the monolingual context through the disctinction of expert and non expert documents. We work separately with corpora composed of medical area documents in three languages, which show an important linguistic distance between them (French, Japanese and Russian). In our approach, documents are characterised in each language through their thematic topic and through a discursive typology positioned at three levels of document analysis : structural, modal and lexical. The document typology is implemented with two learning algorithms (SVMlight and C4.5). Evaluation of results shows that the proposed discursive typology can be transposed from one language to another, as it indeed allows to distinguish the two aimed discourses. However, we observe that performances vary a lot according to languages, algorithms and types of discursive characteristics.", "corpus linguistics, comparable corpora, learning algorithms, stylistic analysis, degree of comparability" ]
taln-2007-poster-010
OGMIOS : une plate-forme d’annotation linguistique de collection de documents issus du Web
L’un des objectifs du projet ALVIS est d’intégrer des informations linguistiques dans des moteurs de recherche spécialisés. Dans ce contexte, nous avons conçu une plate-forme d’enrichissement linguistique de documents issus du Web, OGMIOS, exploitant des outils de TAL existants. Les documents peuvent être en français ou en anglais. Cette architecture est distribuée, afin de répondre aux contraintes liées aux traitements de gros volumes de textes, et adaptable, pour permettre l’analyse de sous-langages. La plate-forme est développée en Perl et disponible sous forme de modules CPAN. C’est une structure modulaire dans lequel il est possible d’intégrer de nouvelles ressources ou de nouveaux outils de TAL. On peut ainsi définir des configuration différentes pour différents domaines et types de collections. Cette plateforme robuste permet d’analyser en masse des données issus du web qui sont par essence très hétérogènes. Nous avons évalué les performances de la plateforme sur plusieurs collections de documents. En distribuant les traitements sur vingt machines, une collection de 55 329 documents du domaine de la biologie (106 millions de mots) a été annotée en 35 heures tandis qu’une collection de 48 422 dépêches relatives aux moteurs de recherche (14 millions de mots) a été annotée en 3 heures et 15 minutes.
[ "plateforme d’annotation linguistique", "passage à l’échelle", "robustesse" ]
[ "R", "M", "U" ]
[ "", "In the context of the ALVIS project, which aims at integrating linguistic information in topic-specific search engines, we developed an NLP architecture, OGMIOS, to linguistically annotate large collections of web documents with existing NLP tools. Documents can be written in French or English. The distributed architecture allows us to take into account constraints related to the scalability problem of Natural Language Processing and the domain specific tuning of the linguistic analysis. The platform is developed in Perl and is available as CPAN modules. It is a modularized framework where new resources or NLP tools can be integrated. Then, various configurations are easy to define for various domains and collections. This platform is robust to massively analyse web document collections which are heterogeneous in essence. We carried out experiments on two different collections of web documents on 20 computers. A 55,329 web documents collection dealing with biology (106 millions of words) has been annotated in 35 hours, whereas a 48,422 search engine news collection (14 millions of word) has been annotated in 3 hours and 15 minutes.", "linguistic annotation, NLP platform, process scability, robustess" ]
taln-2007-poster-011
Les Lexiques-Miroirs. Du dictionnaire bilingue au graphe multilingue
On observe dans les dictionnaires bilingues une forte asymétrie entre les deux parties d’un même dictionnaire et l’existence de traductions et d’informations « cachées », i.e. pas directement visibles à l’entrée du mot à traduire. Nous proposons une méthodologie de récupération des données cachées ainsi que la « symétrisation » du dictionnaire grâce à un traitement automatique. L’étude d’un certain nombre de verbes et de leurs traductions en plusieurs langues a conduit à l’intégration de toutes les données, visibles ou cachées, au sein d’une base de données unique et multilingue. L’exploitation de la base de données a été rendue possible par l’écriture d’un algorithme de création de graphe synonymique qui lie dans un même espace les mots de langues différentes. Le programme qui en découle permettra de générer des dictionnaires paramétrables directement à partir du graphe.
[ "dictionnaires bilingues", "graphe multilingue", "algorithme", "traduction automatique", "polysémie verbale", "dissymétrie lexicographique" ]
[ "P", "P", "P", "R", "U", "U" ]
[ "", "Lexical asymmetry and hidden data, i.e. not directly visible into one lexical entry, are phenomena peculiar to most of the bilingual dictionaries. Our purpose is to establish a methodology to highlight both phenomena by extracting hidden data from the dictionary and by re-establishing symmetry between its two parts. So we studied a large number of verbs and integrated them into a unique multilingual database. At last, our database is turned into a “multilexical” graph thanks to an algorithm, which is binding together words from different languages into the same semantic space. This will allow us to generate automatically dictionaries straight from the graph.", "bilingual dictionaries, machine translation, multilingual graph, algorithm, verbal polysemy, lexicographical asymmetry" ]
taln-2007-poster-012
Traduction, restructurations syntaxiques et grammaires de correspondance
Cet article présente une nouvelle formalisation du modèle de traduction par transfert de la Théorie Sens-Texte. Notre modélisation utilise les grammaires de correspondance polarisées et fait une stricte séparation entre les modèles monolingues, un lexique bilingue minimal et des règles de restructuration universelles, directement associées aux fonctions lexicales syntaxiques.
[ "restructuration syntaxique", "grammaire de correspondance", "lexique bilingue", "fonction lexicale", "traduction automatique", "paraphrase", "TST (Théorie Sens-Texte)", "grammaire de dépendance", "GUP (Grammaire d’Unification Polarisée)", "grammaires synchrones" ]
[ "P", "P", "P", "P", "M", "U", "M", "M", "M", "M" ]
[ "", "This paper presents a new formalisation of transfer-based translation model of the Meaning-Text Theory. Our modelling is based on polarized correspondence grammars and observes a strict separation between monolingual models, the bilingual lexicon and universal restructuring rules, directly associated with syntactic lexical functions.", "machine translation, paraphrase, syntactic restructuring, MTT (Meaning-Text Theory), dependency grammar, lexical function, bilingual lexicon, PUG (Polarized Unification Grammar), correspondence grammar, synchronous grammars" ]
taln-2007-poster-013
Modélisation des paradigmes de flexion des verbes arabes selon la norme LMF - ISO 24613
Dans cet article, nous spécifions les paradigmes de flexion des verbes arabes en respectant la version 9 de LMF (Lexical Markup Framework), future norme ISO 24613 qui traite de la standardisation des bases lexicales. La spécification de ces paradigmes se fonde sur une combinaison des racines et des schèmes. En particulier, nous mettons en relief les terminaisons de racines sensibles aux ajouts de suffixes et ce, afin de couvrir les situations non considérées dans les travaux existants. L’élaboration des paradigmes de flexion verbale que nous proposons est une description en intension d'ArabicLDB (Arabic Lexical DataBase) qui est une base lexicale normalisée pour la langue arabe. Nos travaux sont illustrés par la réalisation d’un conjugueur des verbes arabes à partir d'ArabicLDB.
[ "LMF", "lexical markup framework", "norme ISO 24613", "base lexicale", "paradigmes de flexion verbale", "langue arabe", "conjugueur des verbes arabes" ]
[ "P", "P", "P", "P", "P", "P", "P" ]
[ "", "In this paper, we specify the inflected paradigms of Arabic verbs with respect to the version 9 of LMF (Lexical Markup Framework) which is the expected ISO 24613 standard dealing with the standardisation of lexical databases. The specification of these paradigms is based on a combination of schemes and roots. In particular, we highlight the role of root endings that is not considered in other researches and that may generate erroneous forms while concatenating suffixes. The development of verbal inflected paradigms that we propose is an intentional component of ArabicLDB (Arabic Lexical DataBase) which is a normalized Arabic lexical database that we developed according to LMF. Our works are illustrated by the realization of a conjugation tool for Arabic verbs using ArabicLDB.", "Arabic, inflected paradigms of verb, lexical database, norm ISO 24613, LMF, lexical markup framework, conjugation of arabic verbs" ]
taln-2007-poster-014
Du bruit, du silence et des ambiguïtés : que faire du TAL pour l'apprentissage des langues ?
Nous proposons une nouvelle approche pour l’intégration du TAL dans les systèmes d’apprentissage des langues assisté par ordinateur (ALAO), la stratégie « moinsdisante ». Cette approche tire profit des technologies élémentaires mais fiables du TAL et insiste sur la nécessité de traitements modulaires et déclaratifs afin de faciliter la portabilité et la prise en main didactique des systèmes. Basé sur cette approche, ExoGen est un premier prototype pour la génération automatique d’activités lacunaires ou de lecture d’exemples. Il intègre un module de repérage et de description des réponses des apprenants fondé sur la comparaison entre réponse attendue et réponse donnée. L’analyse des différences graphiques, orthographiques et morphosyntaxiques permet un diagnostic des erreurs de type fautes d’orthographe, confusions, problèmes d’accord, de conjugaison, etc. La première évaluation d’ExoGen sur un extrait du corpus d’apprenants FRIDA produit des résultats prometteurs pour le développement de cette approche « moins-disante », et permet d'envisager un modèle d'analyse performant et généralisable à une grande variété d'activités.
[ "apprentissage des langues", "ALAO", "diagnostic d'erreur", "feed-back d'erreur" ]
[ "P", "P", "R", "M" ]
[ "", "This paper presents the so-called \"moins-disante\" strategy, a new approach for NLP integrating in Computer Assisted Language Learning (CALL) systems. It is based on the implementation of basic but reliable NLP techniques, and put emphasis on declarative and modular processing, for the sake of portability and didactic implementation. Based on this approach, ExoGen is a prototype for generating activities such as gap filling exercises. It integrates a module for error detection and description, which checks learners' answers against expected ones. Through the analysis of graphic, orthographic and morphosyntactic differences, it is able to diagnose problems like spelling errors, lexical mix-up, error prone agreement, bad conjugations, etc. The first evaluation of ExoGen outputs, based on the FRIDA learner corpus, has yielded very promising results, paving the way for the development of an efficient and general model tailored to a wide variety of activities.", "CALL, language learning, error diagnosis, error feedback" ]
taln-2007-poster-015
Extraction automatique de cadres de sous-catégorisation verbale pour le français à partir d’un corpus arboré
Nous présentons une expérience d’extraction automatique des cadres de souscatégorisation pour 1362 verbes français. Nous exploitons un corpus journalistique richement annoté de 15 000 phrases dont nous extrayons 12 510 occurrences verbales. Nous évaluons dans un premier temps l’extraction des cadres basée sur la fonction des arguments, ce qui nous fournit 39 cadres différents avec une moyenne de 1.54 cadres par lemme. Ensuite, nous adoptons une approche mixte (fonction et catégorie syntaxique) qui nous fournit dans un premier temps 925 cadres différents, avec une moyenne de 3.44 cadres par lemme. Plusieurs méthodes de factorisation, neutralisant en particulier les variantes de réalisation avec le passif ou les pronoms clitiques, sont ensuite appliquées et nous permettent d’aboutir à 235 cadres différents avec une moyenne de 1.94 cadres par verbe. Nous comparons brièvement nos résultats avec les travaux existants pour le français et pour l’anglais.
[ "sous-catégorisation verbale", "français", "corpus arboré", "lexique-grammaire" ]
[ "P", "P", "P", "U" ]
[ "", "We present our work on automatic extraction of subcategorisation frames for 1362 French verbs. We use a treebank of 15000 sentences from which we extract 12510 verb occurrences. We evaluate the results based on a functional representation of frames and we acquire 39 different frames, 1.54 per lemma on average. Then, we adopt a mixed representation (functions and categories), which leads to 925 different frames, 3.44 frames on average. We investigate several methods to reduce the ambiguity (e.g., neutralisation of passive forms or clitic arguments), which allows us to arrive at 235 frames, with 1.94 frames per lemma on average. We present a brief comparison with the existing work on French and English.", "French, treebank, verbal subcategorization, lexicon grammar" ]
taln-2007-poster-016
Vers une formalisation des décompositions sémantiques dans la Grammaire d’Unification Sens-Texte
Nous proposons une formalisation de la décomposition du sens dans le cadre de la Grammaire d’Unification Sens-Texte. Cette formalisation vise une meilleure intégration des décompositions sémantiques dans un modèle global de la langue. Elle repose sur un jeu de saturation de polarités qui permet de contrôler la construction des représentations décomposées ainsi que leur mise en correspondance avec des arbres syntaxiques qui les expriment. Le formalisme proposé est illustré ici dans une perspective de synthèse, mais il s’applique également en analyse.
[ "sémantique", "Grammaire d’Unification Sens-Texte", "Théorie Sens-Texte", "représentation du sens", "paraphrasage" ]
[ "P", "P", "M", "R", "U" ]
[ "", "We propose a formal representation of meaning decomposition in the framework of the Meaning-Text Unification Grammar. The proposed technique aims at offering a better integration of such semantic decompositions into a global model of the language. It relies on the saturation of polarities to control the construction of decomposed respresentations as well as their mapping to the syntactic trees that express them. The proposed formalism is discussed from the viewpoint of generation, but it applies to analysis as well.", "Meaning-Text Unification Grammar, Meaning-Text Theory, semantics, representation of meaning, paraphrasing" ]
taln-2007-poster-017
Systèmes de questions-réponses : vers la validation automatique des réponses
Les systèmes de questions-réponses (SQR) ont pour but de trouver une information précise extraite d’une grande collection de documents comme le Web. Afin de pouvoir comparer les différentes stratégies possibles pour trouver une telle information, il est important d’évaluer ces systèmes. L’objectif d’une tâche de validation de réponses est d’estimer si une réponse donnée par un SQR est correcte ou non, en fonction du passage de texte donné comme justification. En 2006, nous avons participé à une tâche de validation de réponses, et dans cet article nous présentons la stratégie que nous avons utilisée. Celle-ci est fondée sur notre propre système de questions-réponses. Le principe est de comparer nos réponses avec les réponses à valider. Nous présentons les résultats obtenus et montrons les extensions possibles. À partir de quelques exemples, nous soulignons les difficultés que pose cette tâche.
[ "systèmes de questions-réponses", "validation de réponses" ]
[ "P", "P" ]
[ "", "Question answering aims at retrieving precise information from a large collection of documents, typically theWeb. Different techniques can be used to find relevant information, and to compare these techniques, it is important to evaluate question answering systems. The objective of an Answer Validation task is to estimate the correctness of an answer returned by a QA system for a question, according to the text snippet given to support it.We participated in such a task in 2006. In this article, we present our strategy for deciding if the snippets justify the answers. We used a strategy based on our own question answering system, and compared the answers it returned with the answer to judge. We discuss our results, and show the possible extensions of our strategy. Then we point out the difficulties of this task, by examining different examples.", "question answering, answer validation" ]
taln-2007-poster-018
Ressources lexicales chinoises pour le TALN
Nous voulons traiter des textes chinois automatiquement ; pour ce faire, nous formalisons le vocabulaire chinois, en utilisant principalement des dictionnaires et des grammaires morphologiques et syntaxiques formalisés avec le logiciel NooJ. Nous présentons ici les critères linguistiques qui nous ont permis de construire dictionnaires et grammaires, sachant que l’application envisagée (linguistique de corpus) nous impose certaines contraintes dans la formalisation des unités de la langue, en particulier des composés.
[ "linguistique de corpus", "ressources linguistiques pour le chinois", "NooJ" ]
[ "P", "R", "U" ]
[ "", "In order to parse Chinese texts automatically, we need to formalize the Chinese vocabulary by using electronic dictionaries and morphological and syntactic grammars. We have used the NooJ software to enter the formalization. We present here the set of linguistic criteria used to construct these dictionaries and grammars, so that they can be used by corpus-linguistic applications. We focus our discussion on the characterization of Chinese linguistic units, specifically compounds.", "linguistic resources for chinese, corpus linguistics, NooJ" ]
taln-2007-poster-019
Étiquetage morpho-syntaxique de textes kabyles
Cet article présente la construction d’un étiqueteur morpho-syntaxique développé pour annoter un corpus de textes kabyles (1 million de mots). Au sein de notre projet, un étiqueteur morpho-syntaxique a été développé et implémenté. Ceci inclut un analyseur morphologique ainsi que l’ensemble de règles de désambiguïsation qui se basent sur l’approche supervisée à base de règles. Pour effectuer le marquage, un jeu d’étiquettes morpho-syntaxiques pour le kabyle est proposé. Les résultats préliminaires sont très encourageants. Nous obtenons un taux d’étiquetage réussi autour de 97 % des textes en prose.
[ "Étiquetage morpho-syntaxique", "corpus de textes", "langue kabyle", "berbère" ]
[ "P", "P", "M", "U" ]
[ "", "This paper describes the construction of a morpho-syntactic tagger developed to annotate our Kabyle text corpus (1 million words).Within our project, a part-of-speech tagger has been developed and implemented. That includes a morphological analyser and a set of disambiguation rules based on supervised rule-based tagging. To realise the annotation, a POS tagset for Kabyle is proposed. The first results of tests are very encouraging. At present stage, our tagger reaches 97 % of success.", "Part of speech tagging, text corpus, kabyle language, berber" ]
taln-2007-poster-020
Analyse syntaxique et traitement automatique du syntagme nominal grec moderne
Cet article décrit le traitement automatique du syntagme nominal en grec moderne par le modèle d’analyse syntaxique multilingue Fips. L’analyse syntaxique linguistique est focalisée sur les points principaux du DP grec : l’accord entre les constituants fléchis, l’ordre flexible des constituants, la cliticisation sur les noms et le phénomène de la polydéfinitude. Il est montré comment ces phénomènes sont traités et implémentés dans le cadre de l’analyseur syntaxique FipsGreek, qui met en oeuvre un formalisme inspiré de la grammaire générative chomskyenne.
[ "syntagme nominal", "grec moderne", "analyseur grec", "analyse morphosyntaxique" ]
[ "P", "P", "R", "M" ]
[ "", "This article describes an automatic treatment to the Modern Greek noun phrase in terms of the Fips multilingual syntactic parser. The syntactic analysis focuses on the main issues related to the Greek DP: the agreement among the inflected constituents, the relatively free constituent order, noun cliticisation, and the polydefiniteness phenomenon. The paper discusses how these processes are treated and implemented within the FipsGreek parser, which puts forth a formalism relying on Chomsky’s generative grammar.", "Greek parser, morphosyntactic analysis, determiner phrase, modern Greek" ]
taln-2007-poster-021
Apprentissage symbolique de grammaires et traitement automatique des langues
Le modèle de Gold formalise le processus d’apprentissage d’un langage. Nous présentons dans cet article les avantages et inconvénients de ce cadre théorique contraignant, dans la perspective d’applications en TAL. Nous décrivons brièvement les récentes avancées dans ce domaine, qui soulèvent selon nous certaines questions importantes.
[ "apprentissage symbolique", "modèle de Gold", "grammaires catégorielles" ]
[ "P", "P", "M" ]
[ "", "Gold’s model formalizes the learning process of a language. In this paper we present the advantages and drawbacks of this restrictive theoretical framework, in the viewpoint of applications to NLP.We briefly describe recent advances in the domain which, in our opinion, raise some important questions.", "symbolic learning, Gold’s model, categorial grammars" ]
taln-2007-poster-022
Méthodes d’alignement des propositions : un défi aux traductions croisées
Le présent article décrit deux méthodes d’alignement des propositions : l’une basée sur les méthodes d’appariement des graphes et une autre inspirée de la classification ascendante hiérarchique (CAH). Les deux méthodes sont caractérisées par leur capacité d’alignement des traductions croisées, ce qui était impossible pour beaucoup de méthodes classiques d’alignement des phrases. Contrairement aux résultats obtenus avec l’approche spectrale qui nous paraissent non satisfaisants, l’alignement basé sur la méthode de classification ascendante hiérarchique est prometteur dans la mesure où cette technique supporte bien les traductions croisées.
[ "appariement de graphes", "classification ascendante hiérarchique", "alignement des corpus parallèles", "proposition syntaxique", "mémoire de traduction", "linguistique contrastive" ]
[ "P", "P", "M", "M", "M", "U" ]
[ "", "The present paper describes two methods for clauses alignment. The first one uses a graph matching approach, while the second one relies on agglomerative hirerarchical clustering (AHC). Both methods are characterized by the fact they can align cross translations, which was impossible for previous classic sentence alignment methods. Though the results given by the spectral method are unsatisfactory, the method based on AHC is very promising. It handles correctly cross translations.", "parallel corpora alignment, graph matching, agglomerative hierarchical clustering, syntactic clause, translation memory, contrastive linguistics" ]