lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2009
Towards a Discourse Corpus of Czech
K výstavbě korpusu textových vztahů v češtině
The paper reports on a developing project concerning manual annotation of discourse relations for Czech. The aim of the project is to design a language corpus capturing Czech language material from the perspective of text structure and coherence, i.e. focusing on the description of inter-sententional relations. The outcome of the project will be a new annotation layer above the existing layers of annotation (morphology, surface syntax and underlying syntax) in the Prague Dependency Treebank. This discourse annotation should function as a unique source for linguistic research in the field of the discourse analysis and for computational experiments in text processing and summarization as well as machine translation.
Článek referuje o projektu anotace textových vztahů v Pražském závislostním korpusu.
[ "Lucie Mladová", "Šárka Zikánová", "Zuzanna Bedřichová", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/c6b936b3b96651b8f01f061c0ba6ece47165e0fa/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Pitfalls of the Transitivity Hypothesis: Transitivity in Conversation and Written Language in Czech
Úskalí hypotézy tranzitivity: tranzitivita v mluvené a psané češtině
The aim of the article is to test empirically predictions formulated in the Transitivity Hypothesis framework. Methodological problems of the original approach are discussed and some solutions are offered. For the testing of the hypotheses two corpora of Czech were used (Prague Spoken Corpus and Prague Dependency Treebank). The results question both the predicted impact of the language form on transitivity and, more importantly, the concept of the Transitivity Hypothesis in general.
Cílem tohoto článku je empiricky testovat předpovědi formulované v rámci Hypotézy Tranzitivity. Jsou zde diskutovány metodologické problémy předchozích přístupů a nabídnuta některá řešení. Pro testování hypotéz byly použity dva korpusy (Pražský mluvený korpus a Pražský závislostní korpus). Výsledky zpochybňují jednak předpokládaný vliv jazykové formy na tranzitivitu a, co je důležitější, pojem Hypotézy tranzitivity obecně.
[ "Radek Čech", "Petr Pajas" ]
https://www.semanticscholar.org/paper/f1db797878c222d7aa366dd927476cae1d82e066/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
AJAX-CAT: Demo of a web editor with machine translation
AJAX-CAT: Ukázka webového editoru se strojovým překladem
AJAX-CAT demonstrates an integration of machine translation system into a simple web text editor. For a given input sentence, AJAX-CAT presents a table of translation options of source phrases and also provides a suggestion box with output continuations when the user starts typing the translation.
AJAX-CAT je ukázka integrace strojového překladu do webového editoru. Pro danou vstupní větu AJAX-CAT ukazuje návrhy překladů jednotlivých frází a též několik variant dokončení překladu celé věty.
[ "Ondřej Odcházel", "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Computer Aided Translation Backed by Machine Translation
Podpora překladu pomocí strojového překladu
A number of tools to support translators (computer-aided translation, CAT) exist, as there are many systems of machine translation (MT). So far, the integration of the two system types was little or none. The aim of this paper is to examine a tighter coupling of MT and CAT. We introduce our web-based CAT tool implemented using the modern AJAX technology that communicates with Moses MT system on the server side to provide the translator with suggested translations of individual phrases of the source sentence as well as several options of the complete continuation of the output sentence. The suggested continuation is based on what has been already translated and what the user has already written as the output. Hopefully, the proposed user interface and the MT system at the back end will accelerate and simplify the process of translation.
Představujeme nástroj pro podporu lidského překladu. Ve webovém rozhraní uživatelům systém nabízí nejen překlady jednotlivých úseků vstupní věty, ale též několik variant, jak v načaté věte pokračovat.
[ "Ondřej Odcházel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/1fb21523b53898044e03a2b79cad312cbdc3e60b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Statistical Machine Translation between Related and Unrelated Languages
Statistický strojový překlad mezi příbuznými a nepříbuznými jazyky
In this paper we describe an attempt to compare how relatedness of languages can influence the performance of statistical machine translation (SMT). We apply the Moses toolkit on the Czech-English-Russian corpus UMC 0.1 in order to train two translation systems: Russian-Czech and English-Czech. The quality of the translation is evaluated on an independent test set of 1000 sentences parallel in all three languages using an automatic metric (BLEU score) as well as manual judgments. We examine whether the quality of Russian-Czech is better thanks to the relatedness of the languages and similar characteristics of word order and morphological richness. Additionally, we present and discuss the most frequent translation errors for both language pairs.
Příspěvek studuje vliv příbuznosti jazyků na kvalitu frázového strojového překladu. Kontrastní dvojice jazyků jsou angličtina-ruština a čeština-ruština.
[ "David Kolovratník", "Natalia Klyueva", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/6ecd276150907a9ad31092eadff66ee295c6dd85/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
UMC003: Czech-English-Russian Tri-parallel Test Set for MT
UMC003: Česko-anglicko-ruský trojparalelní korpus pro evaluaci strojového překladu
UMC003 is a cleaned tokenized development and test set to accompany the training data in UMC 0.1 aimed at Czech-English-Russian machine translation. For more information about the test set, see the README file in the UMC003 package.
UMC003 je vyčištěná sada tokenizovaných vět určená pro evaluaci strojového překladu mezi češtinou, ruštinou a angličtinou. Tato testovací sada je vhodným doplňkem k trénovací sadě UMC 0.1.
[ "David Kolovratník", "Natalia Klyueva", "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
ru
2009
Coreference annotation applied to the syntactically annotated corus of Czech
Anotace koreference na syntakticky anotovaném korpusu českých textů
This paper describes the scheme of annotation of coreference in PDT. We represent the structure of annotation stages, which consist of grammatical coreference annotation (the antecedent can be calculated from the grammatical rules of the language), textual pronominal coreference and the extended scheme of textual coreference, which includes noun anaphoric relations and bridging anaphora. We suggest and discuss coreference relations in the extended coreference scheme, examine some complications, which occur by annotation and present our first results.
Prezentace probihajiciho projektu anotace jmenne koreference a asociacni anafory na PDT se zvlastnim zretelem k lingvistickym problemum vznikajicim pri anotaci.
[ "Анна Юрьевна Недолужко" ]
null
null
null
Разметка кореференции на синтаксически аннотированном корпусе чешских текстов
В докладе представлена схема разметки кореференции на синтаксически аннотированном корпусе чешских текстов PTD. Рассматриваются три этапа разметки — разметка грамматической кореференции, где антецедент высчитывается на основе грамматических правил данного языка, разметка прономинальной текстовой кореференции и расширенная схема разметки именной текстовой кореференции и ассоциативной анафоры. Разметка грамматической и прономинальной кореференции была проделана на всем корпусе PTD, разметкой именной кореференции и ассоциативной анафоры занимается автор данного доклада в настоящее время. В докладе рассматриваются некоторые трудности классификации примеров, приводятся первые результаты.
null
null
null
null
null
null
null
null
ru
2009
Coreference annotation applied to the syntactically annotated corus of Czech
Anotace koreference na syntakticky anotovaném korpusu českých textů
The article describes the annotation of coreference and bridging anaphora on the tectogammatical level of PDT, with special reference to liguistic problems, which occur during the annotation.
Prehled anotace koreference a asociacni anafory na tektogramaticke rovine se zvlastnim zretelem k lingvistickym problemum vznikajicim pri anotaci.
[ "Anna Nedoluzhko" ]
null
null
null
Razmetka koreferencii na sintaksičeski annotirovannom korpuse češskix tekstov
В докладе представлена схема разметки кореференции на синтаксически аннотированном корпусе чешских текстов PTD. Рассматриваются три этапа разметки — разметка грамматической кореференции, где антецедент высчитывается на основе грамматических правил данного языка, разметка прономинальной текстовой кореференции и расширенная схема разметки именной текстовой кореференции и ассоциативной анафоры. Разметка грамматической и прономинальной кореференции была проделана на всем корпусе PTD, разметкой именной кореференции и ассоциативной анафоры занимается автор данного доклада в настоящее время. В докладе рассматриваются некоторые трудности классификации примеров, приводятся первые результаты.
null
null
null
null
null
null
null
null
en
2009
The Coding Scheme for Annotating Extended Nominal Coreference and Bridging Anaphora in the Prague Dependency Treebank
Schéma pro anotaci rozšířené textové koreference a bridging anafory v Pražském závislostním korpusu
The present paper outlines an ongoing project of annotation of the extended nominal coreference and the bridging anaphora in the Prague Dependency Treebank. We describe the annotation scheme with respect to the linguistic classification of coreferential and bridging relations and focus also on details of the annotation process from the technical point of view. We present methods of helping the annotators – by a pre-annotation and by several useful features implemented in the annotation tool. Our method of the inter-annotator agreement is focused on the improvement of the annotation guidelines; we present results of three subsequent measurements of the agreement.
Představujeme probíhající projekt anotace rozšířené jmenné koreference a bridging anafory v Pražském závislostním korpusu. Popisujeme anotační schéma s přihlédnutím k jazykové klasifikaci koreferenčních a bridging vztahů a zaměřujeme se rovněž na podrobnosti průběhu anotace z technického hlediska. Představujeme metody usnadnění anotace - pomocí předanotace a několika praktických pomůcek implementovaných v anotačním nástroji. Naše metoda měření mezianotátorské shody je zaměřena na zdokonalení anotačních instrukcí; uvádíme výsledky tří měření této shody.
[ "Anna Nedoluzhko", "Jiří Mírovský", "Petr Pajas" ]
https://www.semanticscholar.org/paper/204cc73e1868596694d1e313e93067b9b1b2c7be/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Extended Coreferential Relations and Bridging Anaphora in the Prague Dependency Treebank
Vztahy rozšířené koreference a bridging anafory v Pražském závislostním korpusu
The present paper outlines the coding scheme for annotating extended nominal coreference and bridging relations in the Prague Dependency Treebank. We compare our annotation scheme to the existing ones with respect to the language to which the scheme is applied. We identify the annotation principles and demonstrate their application to the large-scale annotation of Czech texts. We further present our classification of coreferential relations and bridging relations types and discuss some problematic aspects in this area. An automatic pre-annotation and some helpful features of the annotation tool, such as maintaining coreferential chain, underlining candidates for antecedents, etc. are presented and discussed. Statistical evaluation is performed on the already annotated part of the Prague Dependency Treebank. We also present the first results of the inter-annotator agreement measurement and explain the most frequent cases of disagreement.
Článek popisuje anotační schéma rozšířené jmenné koreference a bridging anafory v Pražském závislostním korpusu. Porovnáváme náš přístup s již existujícími přístupy ve vztahu k jazyku, pro který je to které schéma použito. Jmenujeme anotační principy a ukazujeme jejich aplikaci na rozsáhlou anotaci českých textů. Dále uvádíme vlastní rozdělení typů koreferenčních a bridging vztahů a věnujeme se některým problematickým otázkám této oblasti. Popisujeme rovněž automatickou předanotaci a několik pomocných vlastností anotačního nástroje, jako je zachovávání koreferenčních řetězců, zvýrazňování kandidátů pro antecedenty apod. Uvádíme řadu statistických údajů získaných na doposud anotované části Pražského závislostního korpusu. Rovněž přinášíme první výsledky měření mezianotátorské shody a objasňujeme nejčastější případy neshody.
[ "Anna Nedoluzhko", "Jiří Mírovský", "Radek Ocelák", "Jiří Pergler" ]
https://www.semanticscholar.org/paper/a782a7fd35be26327aaf6370975172a21bf3d3b3/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Syntax in methods for information retrieval
Využití syntaxe v metodách pro vyhledávání informací
In the last years, application of language modeling in infor- mation retrieval has been studied quite extensively. Although language models of any type can be used with this approach, only traditional n-gram models based on surface word order have been employed and described in published experiments (often only unigram language models). The goal of this thesis is to design, implement, and evaluate (on Czech data) a method which would extend a language model with syntactic information, automatically obtained from documents and queries. We attempt to incorporate syntactic information into language models and experimentally compare this approach with uni- gram and bigram model based on surface word order. We also empirically compare methods for smoothing, stemming and lemmatization, effectiveness of using stopwords and pseudo relevance feedback. We perform a detailed ana- lysis of these retrieval methods and describe their performance in detail.
V posledních letech výzkumu v oblasti vyhledávání informací je věnována značná pozornost metodám založeným na jazykovém modelování. I přesto, že tento přístup dovoluje použití libovolného jazykového modelu, většina publikovaných experimentů byla prováděna s klasickým n-gramovým modelem (mnohdy pouze s unigramovým modelem). Cílem diplomové práce je navrhnout, implementovat a vyhodnotit (na českých datech) metodu, která by pravděpodobnostní model obohatila o použití syntaktické informace získané automaticky (strojově) z dokumentů i dotazů. V předkládané práci se pokusíme vhodným způsobem zavést syntaktickou informaci do jazykových modelů a ex- perimentálně srovnáme navržený přístup s výsledky unigramového a bigramo- vého povrchového modelu. Kromě využití syntaktické informace se zaměříme také na vliv vyhlazování, stemmingu, lemmatizace, použití stopwords a me- tody rozšiřování dotazů – pseudo relevance feedback. Provedeme také detailní analýzu použitých systémů vyhledávání informace a podrobně popíšeme jejich vlastnosti.
[ "Jana Kravalová" ]
https://www.semanticscholar.org/paper/21363c1ac138d8df80b20af4848b5113bd3bf6f8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Czech Named Entity Corpus and SVM-based Recognizer
Český korpus pojmenovaných entit a jejich rozpoznávač
This paper deals with recognition of named entities in Czech texts. We present a recently released corpus of Czech sentences with manually annotated named entities, in which a rich two-level classification scheme was used. There are around 6000 sentences in the corpus with roughly 33000 marked named entity instances. We use the data for training and evaluating a named entity recognizer based on Support Vector Machine classification technique. The presented recognizer outperforms the results previously reported for NE recognition in Czech.
Tento článek se zabývá rozpoznáváním pojmenovaných entit v českých textech. Popisuje nový korpus s ručně značkovanými entitami ve dvouúrovňovém anotačním schématu. Data byla použita pro trénování rozpoznávače pojmenovaných entit, který je založen na klasifikátoru SVM.
[ "Jana Kravalová", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/cca7be920e0d32d1931489dd5ab5a7a38aa6795a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Czech Named Entity Corpus 1.0
Czech Named Entity Corpus 1.0
The Czech Named Entity Corpus 1.0 is the first publicly available corpus providing a large body of manually annotated named entities in Czech sentences, including a fine-grained classification.
Czech Named Entity Corpus 1.0 je první veřejně přístupný korpus českých vět, v nichž byly ručně vyznačeny a klasifikovány pojmenované entity (nejčastěji se jedná o vlastní jména).
[ "Jana Kravalová", "Magda Ševčíková", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/3d8401b052a507a785d7dd53b0ef8c57d303c919/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Bad News, NLP Hacking and Feature Fishing
Špatné zprávy, triky NLP a hledání rysů
Bad news about the utility of deep syntax in MT so far, ideas on adding more features to shallow MT systems.
Špatné zprávy o dosavadní užitečnosti hloubkového rozboru pro MT, nápady rysů, jimiž by se dal obohatit mělký překlad.
[ "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Exploiting Linguistic Data in Machine Translation
Využití lingvistických dat ve strojovém překladu
This study explores the mutual relationship between linguistic theories, data and applications. We focus on one particular theory, Functional Generative Description (FGD), one particular type of linguistic data, namely valency dictionaries and one particular application: machine translation (MT) from English to Czech. First, we examine methods for automatic extraction of verb valency dictionaries based on corpus data. We propose an automatic metric for estimating how much lexicographers' labour was saved and evaluate various frame extraction techniques using this metric. Second, we design and implement an MT system with transfer at various layers of language description, as defined in the framework of FGD. We primarily focus on the tectogrammatical (deep syntactic) layer. Third, we leave the framework of FGD and experiment with a rather direct, phrase-based MT system. Comparing various setups of the system and specifically treating target-side morphological coherence, we are able to significantly improve MT quality and out-perform a commercial MT system within a pre-defined text domain. The concluding chapter provides a broader perspective on the utility of lexicons in various applications, highlighting the successful features.
Studie se zabývá vzájemným vztahem mezi lingvistickými teoriemi, daty a aplikacemi. Soustředuje se přitom na jednu konkrétní teorii, teorii Funkčního generativního popisu, jeden konkrétní typ dat, totiž slovesné valenční rámce, a jednu konkrétní aplikaci: strojový překlad z angličtiny do češtiny.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/41dd604164a4b47d4e950cfe592a1779c6ffed25/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
How MT is Done
Jak se dělá strojový překlad
A quick introduction to problems of machine translation for the participants of Pralinka corespondence series.
Popularizační seminář pro korespondenční seminář Pralinka na téma strojového překladu.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a844af5bbba094a75b0ddd37a093678420412001/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Manually Flagged Errors in WMT09 Test Set
Ručně vyznačené chyby v testovacích větách WMT09
A collection of outputs of 4 machine translation systems. Errors in the output are manually flagged and classified.
Korpus výstupů čtyř systémů strojového překladu s ručně vyznačenými chybami a klasifikací chyb.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/9b265a600d3bbdc5c35d46d5615e9b4a418f4194/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
QuickJudge
QuickJudge
QuickJudge is a tiny tool to simplify the process of manual judging of string segments (e.g. sentences in machine translation output) of one or more competing systems.
QuickJudge je minimalistický nástroj pro rychlé a pohodlné ruční hodnocení libovolných řádkově-orientovaných výstupů. Primárně byl vyvinut pro účely hodnocení kvality srovnáním či počítáním chyb ve výstupech jednoho či více systémů strojového překladu.
[ "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Machine Translation at UFAL
Strojový překlad na ÚFALu
A talk for students of the subject Nástroje pro strojový překlad on fully automatic machine translation systems.
Přednáška pro studenty předmětu Nástroje pro strojový překlad o problematice systémů plně automatického překladu.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/d97768ee1213357697d398827b0582d273051434/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
TectoMT for Plaintext Freaks
TectoMT pro vyznavače prostého textu
A quick introduction to the automatic rich annotation workflow using TectoMT -- while avoiding rich formats whenever possible.
Stručný úvod k automatické bohaté anotaci pomocí TectoMT s cílem vyhýbat se bohatým datovým formátům, jak je to jen možné.
[ "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Trainable Tokenizer
Trénovatelný tokenizér
Trainable Tokenizer is able to tokenize and segment most languages based on supplied configuration and sample data. The tokenizer is not aimed e.g. for Chinese with no explicit delimitation of words.
Trénovatelný tokenizér je schopen tokenizovat a segmentovat většinu jazyků na základě dodané konfigurace a ukázkových dat. Není určen pro jazyky bez jasně odlišených slov, jako je např. čínština.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/875263b7ae4749a017b8a008d261096e6458c556/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
English-Czech MT in 2008
Anglicko-český překlad
We describe two systems for English-to-Czech machine translation that took part in the WMT09 translation task. One of the systems is a tuned phrase-based system and the other one is based on a linguistically motivated analysis-transfer-synthesis approach.
Popisujeme dva systémy strojového překladu z angličtiny do češtiny užité při soutěži WMT09.
[ "Ondřej Bojar", "David Mareček", "Václav Novák", "Martin Popel", "Jan Ptáček", "Jan Rouš", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/eb223d60c27f6d580029090090ce69ed98b174ff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Evaluation of Tree Transfer System
Vyhodnocení systému pro převod stromů
Final technical report on deep syntactic transfer for the EuroMatrix Project.
Závěrečná zpráva o hloubkově-syntaktickém transferu pro projekt EuroMatrix.
[ "Ondřej Bojar", "Miroslav Týnovský" ]
https://www.semanticscholar.org/paper/15fffe40605a35bf28a9e19b5d6405bf24ee64b1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
The Prague Bulletin of Mathematical Linguistics: Special Issue on Open Source Machine Translation Tools
The Prague Bulletin of Mathematical Linguistics: Special Issue on Open Source Machine Translation Tools
A special issue of the PBML journal focussed on open-source tools for machine translation, as presented during MT Marathon 2009.
Zvláštní vydání časopisu PBML zaměřené na volně šiřitelné nástroje pro strojový překlad. Vydání bylo sestaveno u příležitosti týdenního kurzu MT Marathon 2009.
[ "Ondřej Bojar", "Jan Hajič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
CzEng 0.9, Building a Large Czech-English Automatic Parallel Treebank
CzEng 0.9, česko-anglický paralelní syntakticky anotovaný korpus
We describe our ongoing efforts in collecting a Czech-English parallel corpus CzEng. The paper provides full details on the current version~0.9 and focuses on its new features: (1) data from new sources were added, most importantly a few hundred electronically available books, technical documentation and also some parallel web pages, (2) the full corpus has been automatically annotated up to the tectogrammatical layer (surface and deep syntactic analysis), (3) sentence segmentation has been refined, and (4) several heuristic filters to improve corpus quality were implemented. In total, we provide a sentence-aligned automatic parallel treebank of 8.0 million sentences, 93 English and 82 Czech words. CzEng~0.9 is freely available for non-commercial research purposes.
Popisujeme práce na paralelním česko-anglickém korpusu CzEng pro jeho třetí vydání (verze 0.9). V aktuální verzi korpus obsahuje 8.0 mil. paralelních vět (93 mil. anglických slov a 82 mil. českých slov).
[ "Ondřej Bojar", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/080df76bd981b743aca3b8d0b6c88ed05ba7609e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
CzEng 0.9
CzEng 0.9
CzEng 0.9 is the third release of a sentence-parallel Czech-English corpus compiled at the Institute of Formal and Applied Linguistics (ÚFAL) freely available for non-commercial and research purposes. CzEng 0.9 contains 8.0 million parallel sentences (93 million English and 82 million Czech tokens) from seven different types of sources automatically annotated at surface and deep (a- and t-) layers of syntactic representation.
CzEng 0.9 je třetí vydání paralelního česko-anglického korpusu. V aktuální verzi korpus obsahuje 8.0 mil. paralelních vět (93 mil. anglických slov a 82 mil. českých slov).
[ "Ondřej Bojar", "Zdeněk Žabokrtský", "Miroslav Janíček", "Václav Klimeš", "Jana Kravalová", "David Mareček", "Václav Novák", "Martin Popel", "Jan Ptáček" ]
https://www.semanticscholar.org/paper/dd7fdaa997a074dbbc4849d0330a42985e7b3c3a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
English-Hindi Translation – Obtaining Mediocre Results with Bad Data and Fancy Models
Překlad z angličtiny do hindštiny – získávání průměrných výsledků s mizernými daty a propracovanými modely
We describe our attempt to improve on previous English to Hindi machine translation results, using two open-source phrase-based MT systems: Moses and Joshua. We use several approaches to morphological tagging: from automatic word classes, through stem-suffix segmentation, to a POS tagger. We also experiment with factored language models. We evaluate various combinations of training data sets and other existing English-Hindi resources. To our knowledge, the BLEU score we obtained is currently the best published result for the IIIT-TIDES dataset.
Popisujeme naši snahu zlepšit dřívější výsledky strojového překladu z angličtiny do hindštiny. Využíváme dva frázové open-source systémy: Moses a Joshua. Testujeme několik přístupů k morfologickému značkování: od automatických slovních tříd přes segmentaci na kmen a sufix až k POS taggeru. Experimentujeme také s faktorizovanými jazykovými modely. Vyhodnocujeme různé kombinace trénovacích dat a dalších existujících anglicko-hindských jazykových zdrojů. Pokud je nám známo, BLEU skóre, kterého jsme dosáhli, je v současnosti nejlepší publikovaný výsledek na testovacích datech IIIT-TIDES.
[ "Ondřej Bojar", "Pavel Straňák", "Daniel Zeman", "Gaurav Jain", "Michal Hrušecký", "Michal Richter", "Jan Hajič" ]
https://www.semanticscholar.org/paper/e0cef812eb7c05815fbe8462204edcd0a3b6cb2c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Czech-English Manual Word Alignments
Česko-anglické ruční zarovnání po slovech
Czech-English 515 parallel sentences, manually aligned at the word level, as used by Bojar and Prokopová in paper at LREC 2006. We release the data in 2009.
Česko-anglických 515 vět, jak byly ručně zarovnány po slovech a použity v publikaci Bojar, Prokopová. LREC 2006. Data zveřejňujeme až v roce 2009.
[ "Ondřej Bojar", "Magdalena Prokopová" ]
https://www.semanticscholar.org/paper/b734805fff4fe8c6fe3fe60ab33e5aef743accfd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
The CoNLL-2009 Shared Task: Syntactic and Semantic Dependencies in Multiple Languages
Společná úloha CoNLL-2009: Syntaktické a sémantické závislosti v různých jazycích
For the 11th straight year, the Conference on Computational Natural Language Learn- ing has been accompanied by a shared task whose purpose is to promote natural language processing applications and evaluate them in a standard setting. In 2009, the shared task was dedicated to the joint parsing of syntac- tic and semantic dependencies in multiple lan- guages. This shared task combines the shared tasks of the previous five years under a unique dependency-based formalism similar to the 2008 task. In this paper, we define the shared task, describe how the data sets were created and show their quantitative properties, report the results and summarize the approaches of the participating systems.
Jedenáctý rok v řadě je konference CoNLL doprovázena společnou úlohou, jejímž úkolem je podpořit aplikace na zpracování přirozeného jazyka a ohodnotit je za standardních podmínek. V roce 2009 byla úloha zasvěcena spojenému parsingu syntaktických a sémantických závislostí v několika jazycích. Úloha kombinuje zadání z předchozích pěti let v jedinečném závislostním formalizmu podobném úloze z roku 2008. V tomto článku definujeme společnou úlohu, popisujeme, jak byly vytvářeny sady dat a jaké jsou jejich kvantitativní vlastnosti, oznamujeme výsledky a shrnujeme přístupy soutěžících systémů.
[ "Jan Hajič", "Massimiliano Ciaramita", "Richard Johansson", "Daisuke Kawahara", "Maria Antònia Martí", "Lluís Màrquez", "Adam Meyers", "Joakim Nivre", "Sebastian Padó", "Jan Štěpánek", "Pavel Straňák", "Mihai Surdeanu", "Nianwen Xue", "Yi Zhang" ]
https://www.semanticscholar.org/paper/c7d3f610b528226f1c862c4f9cd6b37623f7390f/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
CoNNL 2009 Shared Task Czech Development Set
CoNLL 2009 Shared Task Czech Development Set
Czech testing (development and evaluation) data for CoNLL 2009 Shared Task. The data are generated from PDT 2.0. LDC2009E35B
Česká testovací (dev i eval) data pro CoNLL 2009 Shared Task. Data jsou vygenerována z PDT 2.0. LDC2009E35B
[ "Jan Hajič", "Pavel Straňák", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/67886c1b84453c03cc3415cd6665afdbf9f6c1f3/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
CoNNL 2009 Shared Task Czech Training Set
CoNLL 2009 Shared Task Czech Training Set
Czech training data for CoNLL Shared Task. The data are generated from PDT 2.0. LDC catalog number: LDC2009E34B
Česká trénovací data pro CoNLL 2009 Shared Task. Data jsou vygenerována z PDT 2.0. LDC2009E34B
[ "Jan Hajič", "Pavel Straňák", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/67886c1b84453c03cc3415cd6665afdbf9f6c1f3/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
CoNNL 2009 Shared Task Czech Trial Set
CoNLL 2009 Shared Task Czech Trial Set
Czech sample data for CoNLL 2009 Shared Task. The data are generated from PDT 2.0. LDC2009E32B
Česká ukázková data pro CoNLL 2009 Shared Task. Data jsou vygenerována z PDT 2.0. LDC2009E32B
[ "Jan Hajič", "Pavel Straňák", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/67886c1b84453c03cc3415cd6665afdbf9f6c1f3/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Prague Dependency Treebank of Spoken Language - Czech
PDTSL - Prague Dependency Treebank of Spoken Language - Czech
The project of speech reconstruction of Czech and English has been started at UFAL together with the PIRE project in 2005, and has gradually grown from ideas to (first) annotation specification, annotation software and actual annotation. It is part of the Prague Dependency Treebank family of annotated corpus resources and tools, to which it adds the spoken language layer(s).
Projekt rekonstrukce mluvené řeči (pro češtinu a angličtinu) začal na pracovišti UFAL současně s projektem PIRE v roce 2005 a postupně se rozvinul z prvních návrhů k vytvoření software, anotačních manuálů a samotné anotaci dat. PDTSL je součástí korpusů a zdrojů kolem Pražského závislostního korpusu, ke kterému přidává úroveň mluveného jazyka.
[ "Jan Hajič", "Marie Mikulová", "Martina Otradovcová", "Petr Pajas", "Nino Peterek", "Pavel Češka", "Miroslav Spousta" ]
https://www.semanticscholar.org/paper/612a794c8d57cbdfed39f64af3ef972044ae1fb0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Prague Dependency Treebank of Spoken Language - English
Pražský závislostní korpus mluveného jazyka - angličtina
This release contains the manual speech reconstruction annotation of about 260k tokens of the NAP corpus. The NAP corpus is a corpus of dialogs over personal photograph collections, recorded for the Companions project.
Jedná se o data z anglického dialogového korpusu NAP, který vznikl v rámci projektu Companions. Jsou to rozhovory nad fotografiemi. Na tomto korpusu byla prováděna ruční anotace tzv. speech reconstruction, rekonstrukce mluvené řeči.
[ "Jan Hajič", "Silvie Cinková", "Petra Mičková", "Petr Pajas", "Nino Peterek", "Miroslav Spousta" ]
https://www.semanticscholar.org/paper/612a794c8d57cbdfed39f64af3ef972044ae1fb0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Prague English Dependency Treebank 1.0
Pražský anglický závislostní korpus
This CD presents part of the Prague English Dependency Treebank (PEDT). PEDT is the manual tectogrammatical (syntactico-semantic) annotation of texts from the Wall Street Journal - Penn Treebank III. The present CD (PEDT 1.0) comprises approx. 10,000 annotated and checked trees, which is about 20% of the original WSJ-PTB. The following components are included: * manually annotated data, integrated valency lexicon Engvallex * the valency lexicon Engvallex in printable form (latest revision: January 2009) * the ready-to-install package of the tree editor/viewer TREd * documentation * specification of the annotation format (Prague Markup Language)
Na CD se nachází 10 000 manuálně tektogramaticky anotovaných vět z Penn Treebanku, editor a dokumentace.
[ "Jan Hajič", "Silvie Cinková", "Kristýna Čermáková", "Lucie Mladová", "Anja Nedolužko", "Petr Pajas", "Jiří Semecký", "Jana Šindlerová", "Josef Toman", "Kristýna Tomšů", "Matěj Korvas", "Magdaléna Rysová", "Kateřina Veselovská", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/311f279be8102364a6e511adde3f251beab329bd/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
On Honorification in Czech (The Czech polite forms - theory and corpus data)
Honorifika v češtině (České vykání - teorie a korpusová data)
The author claims that the Czech polite forms (so-called „vykání“) for addressing the 2nd person should be undestood as a legitimate part of the Czech conjugation paradigm. If we address a single person in a polite way, some Czech analytical verb forms exhibit „hybrid“ agreement (auxiliaries are in plural, while participle form is in singular). However, the paradigm for singular and plural polite forms is not symmetrical. The question, whether 2nd person plural polite forms are ambiguous (between the polite meaning and 2nd plural non-polite), or whether the semantic distinction „polite – non-polite“ is neutralized in plural, is open for further discussion.
V článku je navrženo zařazení české 2. osoby zdvořilé (vykání) jako paradigmatické kategorie českého slovesa, protože v některých tvarech vykazuje zvláštní shodu. Klade se otázka, zda v plurálu, kde se formální rozdíl neprojevuje, jde o homonymii nebo o neutralizaci. Na korpusových datech se zkoumají ukazatelé zdvořilostní formy.
[ "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/c48eeec53724708f1032994306b4fb2d41ea0505/
null
null
null
null
null
null
null
null
null
null
null
null
ru
2009
On the Syntax and Semantics of Czech Infinitival Constructions (Infinitive Subject)
K vlastnostem českého infinitivu: Subjektový infinitiv
The Czech infinitive in the position of subject is analyzed as a type of controlled construction. In three types of constructions (verbs of evaluation of the state, verbonominal predicates with nouns and adjectives)the form and distribution of their respective controller is described.
Český subjektový infinitiv se probírá jako typ kontrolované struktury. Analyzují se formy a distribuce kontroloru v řídící predikaci jako žto antecedentu (nevyjádřeného) subjektového infinitivu. V češtině jsou předmětem analýzy tři typy konstrukcí (kromě sloves typu baví ho, zajímá ho jsou to věty s verbonominálním přísudkem substantivníma a djektivním).
[ "Jarmila Panevová" ]
null
null
null
K vlastnostem českých infinitivních konstrukcí (subjektový infinitiv)
null
null
null
null
null
null
null
null
en
2009
Syntactic annotation of spoken utterances: A case study on the Czech Academic Corpus
Syntaktická anotace mluvených projevů: Studie Českého akademického korpusu
Corpus annotation plays an important role in linguistic analysis and computa-tional processing of both written and spoken language. Syntactic annotation of spoken texts becomes clearly a topic of considerable interest nowadays, driven by the desire to improve auto-matic speech recognition systems by incorporating syntax in the language models, or to build language under-standing applications. Syntactic anno-tation of both written and spoken texts in the Czech Academic Corpus was created thirty years ago when no other (even annotated) corpus of spoken texts has existed. We will discuss how much relevant and inspiring this annotation is to the current frameworks of spoken text annotation.
Korpusová anotace je důležitou součástí lingvistické analýzy a počítačového zpracování jazyka. Tento článek se zabývá problémy spojenými se syntaktickou anotací mluvených textů na pozadí syntaktické anotace ČAKu.
[ "Barbora Vidová Hladká", "Zdeňka Urešová" ]
https://www.semanticscholar.org/paper/4352bbd2cb56e659e3fcc148d998976a5e933f35/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
TectoMT 1.0: Modular Software Framework for NLP Experiments
TectoMT: modulární softwarový systém pro experimenty v NLP
TectoMT is a highly modular NLP (Natural Language Processing) software system implemented in Perl programming language under Linux. It is primarily aimed at Machine Translation, making use of the ideas and technology created during the Prague Dependency Treebank project. At the same time, it significantly facilitates and accelerates development of software solutions of many other NLP tasks, especially due to re-usability of the numerous integrated processing modules (called blocks), which are equipped with uniform object-oriented interfaces.
TectoMT je široce modulární nástroj pro zpracování přirozeného jazyka (NLP, natural language processing tool).
[ "Zdeněk Žabokrtský", "Ondřej Bojar", "Jan Ptáček", "Martin Popel", "David Mareček", "Václav Novák", "Jana Kravalová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Tred Extension for Tectogrammatical Analysis of Czech Text
Tektogramatický analýzátor českého textu pro editor Tred
Tred extension that provides a simple TectoMT-based Czech analyzer producing tectogrammatical, analytical and morphological layers for a given Czech sentence.
Rozšiřující modul pro TrEd, který umožní zanalyzovat zadanou českou větu na morfologické, analytické a tektogramatické rovině.
[ "Zdeněk Žabokrtský", "Václav Klimeš", "Petr Pajas" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Hidden Markov Tree Model in Dependency-based Machine Translation
Stromové skryté markovovské modely v zavislostním překladu
We would like to draw attention to Hidden Markov Tree Models (HMTM), which are to our knowledge still unexploited in the field of Computational Linguistics, in spite of highly successful Hidden Markov (Chain) Models. In dependency trees, the independence assumptions made by HMTM correspond to the intuition of linguistic dependency. Therefore we suggest to use HMTM and tree-modified Viterbi algorithm for tasks interpretable as labeling nodes of dependency trees. In particular, we show that the transfer phase in a Machine Translation system based on tectogrammatical dependency trees can be seen as a task suitable for HMTM. When using the HMTM approach for the English-Czech translation, we reach a moderate improvement over the baseline.
Článek pojednává o možnosti využití skrytých stromových markovovských modelu ve fázi transferu ve strojovém překladu využívajícím tektogramatickou rovinu.
[ "Zdeněk Žabokrtský", "Martin Popel" ]
https://www.semanticscholar.org/paper/d5711b315b1aa0927dc9609af8ad78e78410326a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Prague school
Pražská škola
A brief characterization of the Prague School is presented on the background of the present day development of lingustic theories.
Stručně se připomínají zásady Pražské školy a ukazuje se jejich důležitost pro současné lingvistické bádání.
[ "Petr Sgall" ]
https://www.semanticscholar.org/paper/0b5377fe975b72829fd41bc67fd911442027f036/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Interview
Rozhovor
Most different aspects of the author`s linguistic carreer are discussed.
Probírají se nejrůznější aspekty autorovy vědecké dráhy v lingvistice.
[ "Petr Sgall" ]
https://www.semanticscholar.org/paper/e531b9821e39c1e1aa2df1641774ba31af736913/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Where to Look for the Fundamentals of Language
Kde hledat základy jazyka
The distinction between the core of language, patterned in a relatively simple way, and its complex periphery can be expressed in terms of the notion of markedness. If the properties of the language core are to be explained as attributable to general principles, then the core of language may be seen as based on information structure, and syntactic dependency, or valency, might be taken to be a later development.
Vztah mezi jádrem jazyka, relativně jednoduše strukturovaným, a jeho složitou periferií lze chápat na základě pojmu příznakovosti. Jádro můžeme vidět v aktuálním členění a v později vyvinuté syntaktické závislosti (valenci).
[ "Petr Sgall" ]
https://www.semanticscholar.org/paper/6872e80425b50c95143fc48eadac19dc12f21051/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Zdeněk Kirschner died
Zemřel Zdeněk Kirschner
The scientific contribution of one of the pioneers in the field of machine translation is summarized at the occasion of the scientists' death.
Ve stati je shrnut a vysoko hodnocen vědecký přínos jednoho z pionýrů strojového překladu nejen v České republice, Zdeňka Kirschnera, u příležitosti jeho úmrtí.
[ "Petr Sgall" ]
https://www.semanticscholar.org/paper/7f7818cc39fefd797bae91d8bfefb54f0742feaf/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
How to continue with the annotation of language corpuses?
Jak dál v anotacích textových korpusů?
Some issues to be solved in the future development of annotation scenaria for text corpora.
Několik námětů, které je třeba řešit v budoucím vývoji anotačních schémat pro korpusy textů.
[ "Petr Sgall", "Jan Hajič", "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
From Prague Structuralism to Treebank Annotation
Od Pražského strukturalismu k anotaci korpusů.
Prague School of Linguistics is one of the main schools of linguistic thought distinguished first of all by its structural and functional approach to language system. In the paper these two viewpoints are discussed in their contribution to a formal description of language and to different levels of annotation of linguistic resources.
Pražská lingvistická škola je jedním ze základních směru evropského strukturalismu, který se vyznačuje vedle strukturního pohledu na jazykový systém také zohledněním komunikativní funkce jazyka. Tyto dva principy jsou ve stati uplatněny na oblast formálního popisu jazyka a na anotování jazykových korpusů na různých rovinách popisu.
[ "Eva Hajičová" ]
https://www.semanticscholar.org/paper/c2e9552a6d3f683469e547cfba0841ff465c0c50/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Information structure from the point of view of the relation of function and form
Aktuální členění z pohledu vztahu funkce a formy
One of the main tenets of the Prague School of Linguistics was a clear distinction to be made between form and function. The paper first refers to the classical statements about this distinction and then discusses this opposition from the viewpoint of topic-focus articulation of the sentence.
Jedním ze základních principů přístupu Pražského lingvistického kroužku bylo důsledné rozlišování jazykové formy a funkce. Ve stati se nejprve shrnují klasické pohledy na tuto distinkci a poté se uplatňuje tento pohled na rozbor aktuálního členění větného.
[ "Eva Hajičová" ]
https://www.semanticscholar.org/paper/2805b648a9708df305c13a3e9c3d60591010558e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
The fundamental significance of information structure
Základní význam aktuálního členění věty
Information structure has to be reflected as a fundamental aspect of the underlying structure of the setence, i.e. of its literal meaning. Its primary means of expression may be seen in the word order and sentence intonantion.
Aktuální členění věty je třeba zachycovat jako jeden ze základních aspektů hloubkové stavby věty, tj. jejího jazykového významu. Jeho primární výrazové prostředky jaou slovosled a větná intonace.
[ "Eva Hajičová", "Petr Sgall" ]
https://www.semanticscholar.org/paper/8c3569507d1dcff17be03f1d1ce8cfc8ae0eeadf/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
CoNLL-2009 TrEd Extension
Rozšíření anotačního nástroje TrEd pro Conll2009
This software package provides visualization of CoNLL-2009-ST data in TrEd, scripts (for Linux and similar systems) for converting from the CoNLL-2009-ST format to the PML format and a TrEd annotation mode for predicate-argument annotation.
Tento softwarový balíček poskytuje vizualizaci pro data z CoNLL-2009-ST v TrEdu, konverzní skripty z CoNLL-2009-ST formátu do formátu PML a rozsšíření pro TrEd, umožňující anotaci predikátů a argumentů.
[ "Petr Pajas", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/8efc5e34871c774c144fd8c28ff8a792fba5e946/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
PML Toolkit
Sada nástrojů pro práci s PML formátem
A set of tools for working with the PML data format used for capturing linguistic annotations. The toolkit consists of validators, conversion scripts for several other formats, data management tools, schema processing tools, Perl API, and various other tools.
Sada nástrojů pro práci s datovým formátem PML pro reprezentaci lingvistické anotace jazykových dat. Sada zahrnuje validátor, sadu konverzních skriptů z jiných formátů, programy pro management dat, úpravy schématu, knihovny pro Perl, a další nástroje.
[ "Petr Pajas", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/f1947d7b10acd6cf68d51496610d10201a93b51a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
PML Tree Query 1.0
Strukturované vyhledávání v syntakticky anotovaných korpusech v PML formátu
PML-TQ is a search system for linguistic TreeBanks in PML format. The system defines a powerfull query language, uses a client server architecture (with SQL database backend on the server side) and provides a command-line and a simple web-based search client. The system also includes a graphical client for PML-TQ and client-side PML-TQ search engine, allowing the users to use PML-TQ queries on their local data. The GUI and client-side search engine are distributed separately as extensions to the tree editor TrEd.
PML-TQ je systém pro vyhledávání nad lingvisticky anotovanými korpusy závislostních či složkových stromů ve formátu PML. Systém definuje velmi silný dotazovací jazyk. Je implementován pomocí client-server architektury, s použitím SQL databáze na straně serveru a zahrnuje webové a CLI rozhraní a grafické rozhraní zabudované do editoru TrEd. Jako rozsíření TrEdu je dále dostupný čistě klientský vyhledávací systém nad stejným dotazovacím jazykem, umožňující prohledávat lokální soubory.
[ "Petr Pajas", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/28b0e0b0e17e797a44dde25c37bf0996e8dd7597/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
System for Querying Syntactically Annotated Corpora
Systém pro dotazování nad syntakticky anotovanými korpusy
This paper presents a system for querying treebanks. The system consists of a powerful query language with natural support for cross-layer queries, a client interface with a graphical query builder and visualizer of the results, a command-line client interface, and two substitutable query engines: a very efficient engine using a relational database (suitable for large static data), and a slower, but paralel-computing enabled, engine operating on treebank files (suitable for “live” data).
Článek představuje systém pro dotazování nad treebanky. Systém se skládá ze silného dotazovacího jazyka s přímou podporou dotazů napříč anotačními rovinami, z klientského rozhraní s grafickým editorem dotazů a vizualizací výsledků, a ze dvou zaměnitelných dotazovacích nástrojů: velmi výkonného nástroje nad relační databází (vhodného pro statická data) a pomalejšího, ale paralelizovatelného nástroje, který pracuje přímo nad souboru treebanku (vhodného pro "živá" data).
[ "Petr Pajas", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/2786ed1d17797dd28cca4a3ca0faf0b776e9e1e8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Lexical Association Measures: Collocation Extraction
Lexikální asociační míry: extrakce kolokací
This publication is devoted to an empirical study of lexical association measures and their application to collocation extraction. It presents a comprehensive inventory of lexical association measures and their evaluation on four reference data sets of collocation candidates: Czech dependency bigrams from the Prague Dependency Treebank, surface bigrams from the same source, instances of the latter from the Czech National Corpus, and Swedish distance verb-noun combinations obtained from the PAROLE corpus. The collocation candidates in the reference data sets were manually annotated and labeled as collocations or non-collocations by expert linguists. The evaluation scheme applied in this work is based on measuring the quality of ranking collocation candidates according to their chance to form collocations. The methods are compared by precision-recall curves, mean average precision scores, and appropriate tests of statistical significance. Further, the study focuses on the possibility of combining lexical association measures and discusses empirical results of several combination methods that significantly improve state of the art in collocation extraction. The work is concluded by a description of a model reduction algorithm that significantly reduces the number of combined measures without any statistically significant difference in performance.
Tato kniha je věnovaná empirické studii lexikálních asociačních měr a jejich aplikaci v úloze automatické extrakce kolokací. Práce obsahuje vyčerpávající seznam 82 lexikálních asociačních měr ajejich evaluaci na celkem čtyřech referenčních datových množinách: závislostních bigramech z ručně anotovaného Pražského závislostního korpusu, povrchové bigramy ze stejného korpusu, instance prvků předchozí množiny z Českého národního korpusu opatřeného automatickou lemmatizací a morfologickým značkováním a vzdálenostními verbnominálními bigramy z automaticky značko­vaného švédského korpusu Parole. Kolokační kandidáti v referenčních množinách byli manuálně anotováni jako kolokace nebo nekolokace. Použité evaluační schéma je založeno na měření kvality seřazení kolokačních kandidátů dle jejich pravděpodobnosti tvořit kolokaci. Metody jsou porovnány pomocí precision-recall křivek a hodnot mean average precision, které jsou převzaty z oboru vyhle­dávání informací. Provedeny byly i testy signifikance výsledků. Dále je zkoumána možnost kombi­nování lexikálních asociačních měr a presentovány výsledky několika kombinačních metod, jejichž použití vedlo k výraznému zlepšení úspěšnosti řešení této úlohy. Dále je v práci navržen algoritmus významně redukující složitost použitých kombinačních modelů bez statisticky významného snížení jejich úspěšnosti.
[ "Pavel Pecina" ]
https://www.semanticscholar.org/paper/38dd401877f3f69fd6e2ad6e0ad11e7132626011/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Diatheses in the Czech Valency Lexicon PDT-Vallex
Diateze v českém valenčním slovníku PDT-VAllex
As an important part of the Prague Dependency Treebank project a valency lexicon is being distributed. In this lexicon, more than 5300 verb entries are fully formally represented, with more than 8200 valency frames for verb senses included. Moreover, the valency frames are interlinked with the Prague Dependency Treebank corpus, effectively providing a verb sense distinction and annotation for every occurrence of a verb in the corpus. More than 100,000 verb occurrences are annotated in this way. The valency frame representation is fully formalized. In this contribution, we will concentrate on the formal description of the form of the verb
Důležitou součástí Pražského závislostního korpusu je valenční slovník. Slovník obsahuje 5300 sloves s 8200 valenčními rámci, které jsou propojeny s korpusem. Reprezentace valenčního rámce je plně formalizována. Tento příspěvek je orientován na formální popis forem, kterých nabývají argumenty sloves v různých sekundárních diatezích, jako je například pasivizace (pasivum opisné a zvratné), rezultativ (sloveso mít, dostat), dispoziční modalita. Článek detailně popisuje fungování jednotlivých transformačních pravidel pro příslušné změny forem.
[ "Zdeňka Urešová", "Petr Pajas" ]
https://www.semanticscholar.org/paper/6fd7ceb1c835d01d2d4054887023d32f6efb15f0/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Dialogy.Org 0.3
Dialogy.Org 0.3
A software tool allowing editing and searching in the transcripts of audio-visual recordings of dialogues. The dynamic web application provides access for registered users to the digitised archive. Playing and exploring of selected parts is possible in the web browser.
Softwarový nástroj zprostředkující formou webového rozhraní editaci a vyhledávání v přepisech audio-visuálních nahrávek dialogů. Vyhledané úseky textu je možné přehrávat a analyzovat pomocí webového prohlížeče.
[ "Nino Peterek" ]
https://www.semanticscholar.org/paper/1203e305b89877928429c149667e6c00a687081c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Searching in the Prague Dependency Treebank
Vyhledávání v Pražském závislostním korpusu
In the book, we study the annotation of the Prague Dependency Treebank 2.0 and assemble a list of requirements on a query language that would allow searching for and studying all linguistic phenomena annotated in the treebank. We propose an extension to the query language of the existing search tool Netgraph 1.0 and show that the extended query language satisfies the list of requirements. We also show how all principal linguistic phenomena annotated in the treebank can be searched for with the query language. The proposed query language has also been implemented – we present the search tool as well and talk about the data format for the tool. The query language is compared to several other query languages. We also show to what extent the features of the query language are put to use by the users and what the users really do search for. Much additional information can be found in Appendixes.
V knize studujeme anotaci Pražského závislostního korpusu 2.0 a vytváříme seznam požadavků kladených na dotazovací jazyk, který by umožnil vyhledávání a studium všech lingvistických jevů anotovaných v tomto korpusu. Navrhujeme rozšíření dotazovacího jazyka existujícího nástroje Netgraph 1.0 a ukazujeme, že takto rozšířený dotazovací jazyk splňuje definovaný seznam požadavků. Ukazujeme rovněž, jak je pomocí tohoto jazyka možno vyhledávat všechny zásadní lingvistické jevy v korpusu anotované. Navržený dotazovací jazyk byl rovněž implementován – představujeme vyhledávací nástroj a pojednáváme o jeho datovém formátu. Dotazovací jazyk je porovnán s několika dalšími dotazovacími jazyky. Ukazujeme rovněž, do jaké míry jsou vlastnosti tohoto jazyka využívány skutečnými uživateli a co tito uživatelé vyhledávají. Řada dalších informací je k dispozici v přílohách.
[ "Jiří Mírovský" ]
https://www.semanticscholar.org/paper/9a361764a73351370f5cca4b7714742a35d53afb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
ElixirFM 2009 (version 1.1.882-1.1.914)
ElixirFM 2009 (verze 1.1.882-1.1.914)
An implementation of the original linguistic model of the Functional Arabic Morphology includes both the declarative definition of the system in Haskell, and an extensive Arabic morphologic dictionary. Published under the GNU GPL license. - first version of the online interface - basic text interface and API - basic analysis of word sequences
Implementace originálního lingvistického modelu Funkční arabské morfologie, která zahrnuje jak deklarativní definici systému v jazyce Haskell, tak i rozsáhlý arabský morfologický slovník. Publikováno pod licencí GNU GPL. - první verze online interface - základní textové a API rozhraní - základní analýza sekvencí slov
[ "Otakar Smrž", "Viktor Bielický" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
A Simple Generative Pipeline Approach to Dependency Parsing and Semantic Role Labeling
Jednoduchý sekvenční generativní přístup k závislostní syntaktické analýze a značkování sémantických rolí
We describe our CoNLL 2009 Shared Task system in the present paper. The system includes three cascaded components: a generative dependency parser, a classifier for syntactic dependency labels and a semantic classifier. The experimental results show that the labeled macro F1 scores of our system on the joint task range from 43.50% (Chinese) to 57.95% (Czech), with an average of 51.07%.
V článku popisujeme náš systém, se kterým jsme se zúčastnili CoNLL 2009 Shared Task. Systém zahrnuje tři sřetězené komponenty: generativní závislostní syntaktický analyzátor (parser), klasifikátor syntaktických závislostí a sémantický klasifikátor. Výsledky pokusů ukazují, že náš systém dosahuje tzv. labeled macro F1 score (skóre makro-F1 se zohledněním značek) mezi 43,50 % (čínština) a 57,95 % (čeština), s průměrnou hodnotou 51,07 %.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/86e73a9089624afb3d432c764a8c34d7564e7337/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
DZ Interset 1.1
DZ Interset 1.1
DZ Interset is a means of converting among various tag sets in natural language processing. The core idea is similar to interlingua-based machine translation. DZ Interset defines a set of features that are encoded by the various tag sets. The set of features should be as universal as possible. It does not need to encode everything that is encoded by any tag set but it should encode all information that people may want to access and/or port from one tag set to another.
DZ Interset je prostředek pro konverzi mezi různými sadami značek pro počítačové zpracování přirozených jazyků. Základní myšlenka je podobná strojovému překladu přes interlingvu. V DZ Intersetu je definována sada rysů, které lze zakódovat pomocí jednotlivých sad značek. Sada rysů je co možná nejuniverzálnější. Nemusí zakódovat vše, co je obsaženo v libovolných sadách značek, ale měla by kódovat veškerou informaci, ke které uživatelé mohou chtít přistupovat a/nebo je přenášet z jedné sady značek do druhé.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/737397920b0b4aa83bb89157529605ec836fe8ff/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
DZ Interset: would-be universal conversion of morphological tags among various tagsets and languages
DZ Interset aneb rádoby univerzální převod morfologických značek mezi různými sadami a jazyky
Part-of-speech or morphological tags are important means of annotation in a vast number of corpora. However, different sets of tags are used in different corpora, even for the same language. Tagset conversion is difficult, and solutions tend to be tailored to a particular pair of tagsets. We propose a universal approach that makes the conversion tools reusable. We also provide an indirect evaluation in the context of a parsing task.
Morfologické značky jsou důležitou součástí anotace většiny korpusů. Bohužel se však v různých korpusech používají různé sady značek, a to i pokud jde o tentýž jazyk. Převody značek z jedné sady do druhé jsou obtížné a jejich implementace je obvykle ušitá na míru konkrétní dvojici sad značek. Zde naproti tomu navrhujeme univerzální přístup, který umožňuje jednou investované úsilí využít při pozdějších převodech do jiných formalismů. Prezentujeme také nepřímé vyhodnocení v kontextu syntaktické analýzy.
[ "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
DZ Parser 2.0
DZ Parser 2.0
DZ parser is a program that reads a pre-processed natural language sentence and returns a dependency tree describing the syntax of the input sentence. It assumes its input has been tokenized, morphologically annotated, morphologically disambiguated, and saved in the CSTS format (Prague Dependency Treebank). The output is in the same format. (Note: Tools for conversion from and to the CoNLL shared task format are now included.)
DZ Parser je program, který čte předzpracovanou větu v přirozeném jazyce a vrací závislostní strom, který popisuje syntaxi vstupní věty. Předpokládá, že jeho vstup byl tokenizován, morfologicky označkován a uložen ve formátu CSTS Pražského závislostního korpusu. Výstup je v tomtéž formátu. (Poznámka: Nyní jsou přiloženy i nástroje pro konverzi z a do formátu CoNLL shared task.)
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/e0d047987e7a5e7b791790674497037a01f9feed/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Maximum Spanning Malt: Hiring World's Leading Dependency Parsers to Plant Indian Trees
Maximum Spanning Malt: Nasazení předních světových závislostních parserů na sázení indických stromů
We present our system used for participation in the ICON 2009 NLP Tools Contest: dependency parsing of Hindi, Bangla and Telugu. The system consists of three existing, freely available dependency parsers, two of which (MST and Malt) have been known to produce state-of-the-art structures on data sets for other languages. Various settings of the parsers are explored in order to adjust them for the three Indian languages, and a voting approach is used to combine them into a superparser.
Představujeme náš systém použitý v soutěži ICON 2009 NLP Tools: závislostní syntaktická analýza hindštiny, bengálštiny a telugštiny. Systém se skládá ze tří existujících, volně dostupných závislostních parserů, z nichž o dvou (MST a Malt) je známo, že dokáží generovat špičkové struktury na datech pro jiné jazyky. Zkoumáme různá nastavení jednotlivých parserů, abychom je přizpůsobili zmíněným třem indickým jazykům, a pomocí hlasování z nich vytváříme jeden superparser.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/65825bca0edcd14d039507ac720532c4f2e1fd49/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Morseus 1.1
Morseus 1.1
Morseus implements a simple method of unsupervised morpheme segmentation of words in an unknown language. All that is needed is a raw text corpus (or a list of words) in the given language. The algorithm identifies word parts occurring in many words and interprets them as morpheme candidates (prefixes, stems and suffixes).
Morseus implementuje jednoduchou metodu neřízené morfematické segmentace slov v neznámém jazyce. Není k tomu potřeba nic kromě neanotovaného korpusu (nebo seznamu slov) v daném jazyce. Algoritmus identifikuje části slov, které se opakují v řadě slov, a interpretuje je jako kandidáty na morfémy (předpony, kmeny a přípony).
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/a4a48a580d053aadd6164bc97fccc55353aa5947/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Using Unsupervised Paradigm Acquisition for Prefixes
Neřízené získávání morfologických vzorů použité pro předpony (upravená verze)
We describe a simple method of unsupervised morpheme segmentation of words in an unknown language. All that is needed is a raw text corpus (or a list of words) in the given language. The algorithm identifies word parts occurring in many words and interprets them as morpheme candidates (prefixes, stems and suffixes). New treatment of prefixes is the main innovation in comparison to [1]. After filtering out spurious hypotheses, the list of morphemes is applied to segment input words. Official Morpho Challenge 2008 evaluation is given together with some additional experiments. Processing of prefixes improved the F-score by 5 to 11 points for German, Finnish and Turkish, while it failed to improve English and Arabic. We also analyze and discuss errors with respect to the evaluation method.
Popisujeme jednoduchou metodu neřízené morfematické segmentace slov v neznámém jazyku. Vše, co potřebujeme, je korpus prostého textu (nebo seznam slov) daného jazyka. Algoritmus identifikuje části slov, které se opakují v mnoha slovech, a interpretuje je jako kandidáty na morfémy (předpony, kmeny a přípony). Hlavní inovací ve srovnání s [1] je nové zpracování předpon. Po odfiltrování falešných hypotéz se seznam morfémů aplikuje na segmentaci vstupních slov. Prezentujeme oficiální výsledky Morpho Challenge 2008 spolu s některými doplňkovými pokusy. Zpracování předpon zlepšilo F-skóre o 5 až 11 bodů pro němčinu, finštinu a turečtinu, ale zhoršilo angličtinu a arabštinu. V závěru rozebíráme chyby s ohledem na zvolenou vyhodnocovací metodu.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/5edd81bb9c4548b6db8264222e0f43452cad8530/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Beginner's translation into Hindi
Překlad do hindštiny pro začátečníky
We present experiments with a Moses-based English-to-Hindi translation system. We evaluate the impact of additional out-of-domain training data, both parallel and Hindi-only, and experiment with three methods for improving word order: standard Moses reordering model, rule-based pre-processing and language-independent suffix identification.
Podáme zprávu o experimentech se strojovým překladem z angličtiny do hindštiny pomocí překladače Moses. Vyhodnotíme vliv přídavných trénovacích dat z jiné domény, jak paralelních, tak jednojazyčných hindských, a experimenty se třemi metodami vylepšení slovosledu: standardní slovosledný model Mosese, pravidlové předzpracování a jazykově nezávislou identifikaci přípon.
[ "Daniel Zeman", "Ondřej Bojar", "Pavel Straňák" ]
https://www.semanticscholar.org/paper/ed20a7482f56293c29fa9a3bc7031c784f189d75/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Designing a Language Game for Collecting Coreference Annotation
Návrh jazykové hry pro získávání anotace koreference
PlayCoref is a concept of an on-line language game designed to acquire a substantial amount of text data with the coreference annotation. We describe in detail various aspects of the game design and discuss features that affect the quality of the annotation.
PlayCoref je návrh internetové jazykové hry zaměřené na získávání velkého objemu textu s anotací koreference. Detailně popisujeme rozličné aspekty návrhu hry a vlastnosti, které mají vliv na kvalitu získaných anotací.
[ "Barbora Hladká", "Jiří Mírovský", "Pavel Schlesinger" ]
https://www.semanticscholar.org/paper/6620a7d40c70759a43a170676921f243c8d59c98/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Play the Language: Play Coreference
Hry s jazykem: hra s koreferencí
We propose the PlayCoref game, whose purpose is to obtain substantial amount of text data with the coreference annotation. We provide a description of the game design that covers the strategy, the instructions for the players, the input texts selection and preparation, and the score evaluation.
Předkládáme návrh hry PlayCoref, jejímž cílem je získat velké množství textových dat opatřených anotací koreference. Přinášíme popis návrhu hry, který sestává ze strategie, instrukcí pro hráče, výběru a přípravy vstupních dat a funkce pro výpočet skóre.
[ "Barbora Hladká", "Jiří Mírovský", "Pavel Schlesinger" ]
https://www.semanticscholar.org/paper/567561038e655db01c7da183be2c36512d795e57/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Translation guidelines
Pokyny k překladu určené překladatelům, revizorům a korektorům textů z Wall Street Journal pro projekt PCEDT
PCEDT is planned to be a corpus of syntactically annotated parallel texts (in English and Czech) intended chiefly for machine translation experiments. The texts for PCEDT were taken from Penn Treebank, which means there are mostly economical articles from the Wall Street Journal. 2312 documents were used in PCEDT (approximately 49,000 sentences) that are manually annotated with constituent trees in Penn Treebank. For the Czech part of PCEDT, the English texts have to be translated into Czech. This book contents the guidelines for translators.
Překlady se budou používat výhradně v projektech tzv. automatického neboli strojového překladu mezi češtinou a angličtinou. Budou použity a zveřejněny pouze v elektronické formě, a to navíc způsobem, který umožní tzv. strojové učení. Přeložené texty tedy nebudou sloužit takovým účelům, kdy jde o informační obsah textu, a ani nebudou touto formou (na „papíře“, na internetu v textové podobě atd.) zveřejněny. Metody strojového učení jsou do jisté míry tolerantní k nepřesnému překladu (koneckonců ani originální text není někdy úplně „hezky“ anglicky), avšak systematické chyby jsou již zavádějící a v textech bychom je měli neradi.
[ "Marie Mikulová" ]
https://www.semanticscholar.org/paper/e6a7cef1f2c512335afa2ef85c395ac11ee502eb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Annotation Procedure in Building the Prague Czech-English Dependency Treebank
Anotační proces prři budování Pražského česko-anglického závislostního kopusu
In this paper, we present some organizational aspects of building of a large corpus with rich linguistic annotation, while Prague Czech-English Dependency Treebank (PCEDT) serves as an example. We stress the necessity to divide the annotation process into several well planed phases. We present a system of automatic checking of the correctness of the annotation and describe several ways to measure and evaluate the annotation and annotators (inter-annotator accord, error rate and performance).
Článek popisuje některé organizační aspektu budování rozsáhlého korpusu s bohatou lingvistickou anotací, jako příklad slouží PCEDT. Zdůrazňuje nevyhnutelnost rozdělení anotačního postupu do několika fází a představuje systém automatických kontrol korektnosti anotace. Popisuje také několik způsobů měření a evaluace anotace a anotátorů (mezianotátorská shoda, chybovost a výkon).
[ "Marie Mikulová", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/7ab8685a7ac4ce8f4add24307efa7a8869758e79/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Annotation Quality Checking and Its Implications for Design of Treebank (in Building the Prague Czech-English Dependency Treebank)
Kontrola kvality anotace a důsledky této kontroly pro design celého treebanku (při budování Pražského česko-anglického závislostního korpusu)
The article presents the system for annotation quality checking, proposed and used during the building of the Czech part of the Prague Czech-English Dependency Treebank. At first, the treebank project is introduced, as well as its basic principles and annotation process. The second part of the article pursues in detail one of the important phases of the annotation process, namely how the correctness of the annotated data is automatically and continuously checked during the process. The system of annotation quality checking is demonstrated on several particular checking procedures concerning syntactical phenomena. We try to evaluate the contribution of the system not only to the quality of the data and annotation, but also to the corpus design, impact on annotation rules and the annotation process as a whole.
Článek představuje system for annotation quality checking, jak byl navržen a jak je využíván při budování české části the Prague Czech-English Dependency Treebank. Nejprve je stručně představen projekt of the Prague Czech-English Dependency Treebank, jeho základní principy, a též anotační proces. V druhé části se pak článek podrobně věnuje jedné z důležitých fází anotačního procesu, totiž způsobu, jakým je průběžně již během anotace automaticky kontrolována správnost anotovaných dat. The system for annotation quality checking je názorně popsán na příkladu několika konkrétních automatických kontrol (které se týkají syntaktických jevů v anotaci). Zhodnocen je přínos tohoto systému nejen pro výslednou kvalitu anotovaných dat, ale také pro design celého korpusu, dopad na anotační pravidla a systém anotace jako takový.
[ "Marie Mikulová", "Jan Štěpánek" ]
https://www.semanticscholar.org/paper/0d2a9aa62472f8e75545c1f4c6de4d6769064908/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Towards a Formal Model for Natural Languages
Formální model pro přirozené jazyky založený na restartovacích automatech
Dependency analysis by reduction refers to a basic ability to simplify a sentence. Such ability underlies human understanding of a natural language. It allows us to obtain (in)dependencies by the correct reductions of sentences as well as to describe properly the complex word-order variants of a language with a high degree of ‘free’ word order. Dependency analysis by reduction became an important motivation for a new formal model for Functional Generative Description (FGD), an original framework for dependency-based description of Czech, based on the notion of restarting automata. In this contribution we introduce the fundamental features of FGD and exemplify the application of analysis by reduction to some basic linguistic phenomena, mainly dependencies and (non-)projective word order.
Redukční závislostní analýza odkazuje na základní schopnost člověka zjednodušit větu. Taková schopnost je základem lidského porozumění přirozenému jazyku. Umožňuje nám získat (ne)závislosti na zýkladě správného zjednodušení věty, jakož i náležité zachycení slovosledných variant vět v jazyce s vysokým stupněm volného slovosledu. Redukční závislostní analýza se stala důležitou motivací pro nový formální model pro Funkční generativní popis (FGD), původní rámec pro závislost-na popis české, založený na pojmu restartování automatů. V tomto příspěvku představíme základní rysy FGD a použití závislostní redukční na několika základních jazykových jevech, především na zachycení jazykových závislostí a (ne-)projektivního slovosledu.
[ "Markéta Lopatková" ]
https://www.semanticscholar.org/paper/9c07b867328c6af1842ccaab94018cdd70ea4abb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Segmentation Charts for Czech – Relations among Segments in Complex Sentences
Segmentační schémata pro češtinu; Vztahy mezi segmenty v souvětí
Syntactic analysis of natural languages is the fundamental requirement of many applied tasks. We propose a new module between morphological and syntactic analysis that aims at determining the overall structure of a sentence prior to its complete analysis. We exploit a concept of segments, easily automatically detectable and linguistically motivated units. The output of the module, so-called `segmentation chart', describes the relationship among segments, especially relations of coordination and apposition or relation of subordination. In this text we present a framework that enables us to develop and test rules for automatic identification of segmentation charts. We describe two basic experiments -- an experiment with segmentation patterns obtained from the Prague Dependency Treebank and an experiment with the segmentation rules applied to plain text. Further, we discuss the evaluation measures suitable for our task.
Syntaktická analýza přirozeného jazyka je základním předpokladem mnoha aplikačních úkolů. Navrhujeme nový modul mezi morfologickou a syntaktickou analýzu, jehož cílem je stanovení celkové struktury věty před její kompletní analýzu. Pracujeme s konceptem segmentů, automaticky snadno zjistitelných a lingvisticky motivovaných jednotkek. Výstup modulu, takzvané "segmentační schéma", popisuje vztah mezi segmenty, zejména vztahy koordinace a apozice nebo vztah podřízenosti.
[ "Markéta Lopatková", "Tomáš Holan" ]
https://www.semanticscholar.org/paper/95922533fa2d6f5eddc00a35f75bc871544fc0f5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Annotation of Sentence Structure; Capturing the Relationship among Clauses in Czech Sentences
Anotace větné struktury; Zachycení vztahů mezi klauzemi v souvětí
The goal of the presented project is to assign a structure of clauses to Czech sentences from the Prague Dependency Treebank (PDT) as a new layer of syntactic annotation, a layer of clause structure. The annotation is based on the concept of segments, linguistically motivated and easily automatically detectable units. The task of the annotators is to identify relations among segments, especially relations of super/subordination, coordination, apposition and parenthesis. Then they identify individual clauses forming complex sentences. In the pilot phase of the annotation, 2,699 sentences from PDT were annotated with respect to their sentence structure.
Cílem projektu je představit projekt, ve kterém je přiřazována struktura českým větám z Pražského závislostní ho korpusu (PDT) a tak je vytvářena nová rovina syntaktické anotace, rovina syntaktické struktury věty. Anotace je založena na koncepci segmentů, lingvisticky motivovaných a snadno automaticky zjistitelných jednotek. Úkolem anotátorů je určit vztahy mezi segmenty, zejména vztahy nadřazenosti a podřízenosti, koordinace, apozice a vsuvky. Potom se identifikují jednotlivé klauze, které tvoří souvětí. V pilotní fázi anotace bylo zpracováno 2699 vět z PDT.
[ "Markéta Lopatková", "Natalia Klyueva", "Petr Homola" ]
https://www.semanticscholar.org/paper/be3397737b632ea6acbaf6201e10048bd17ed8ed/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Restarting Automata with Structured Output and Functional Generative Description
Restartovací automaty se strukturovaným výstupem a Funkční generativní popis
This paper deals with restarting automata, which are used as a formal framework for modeling the Functional Generative Description of Czech. The proposed model of restarting automaton works simultaneously with four layers of language description; it is intended to carry out reductive analysis of Czech sentences, thus allowing to derive the dependency relations in the sentence of the possible order of reduction. Standard model of restarting automaton is enriched with structured output, which allows us to build tectogrammatical dependency structure derived from the reduction analysis. Restarting automata with structured output are introduced for the first time.
Tento příspěvek se zabývá restartovacími automaty, které tvoří formální rámec pro Funkční generativní popis češtiny. Restartovací automaty pracující současně se čtyřmi rovinami jazykového popisu jsou určeny k tomu, aby prováděly redukční analýzu českých vět a umožnily tak odvodit závislostní vztahy ve větě z možných pořadí jednotlivých redukcí. Standardní model restartovacích automatů je zde obohacen o strukturovaný výstup, který umožňuje budovat tektogramatickou závislostní strukturu odvozenou z redukční analýzy. Restartovací automaty se strukturovaným výstupem představujeme v tomto příspěvku poprvé.
[ "Martin Plátek", "Markéta Lopatková" ]
https://www.semanticscholar.org/paper/f026f1e84aecae4ed01dbe2bb81c7dd1fdbbf0b4/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Restarting automata, DR-trees and Functional Generative Description of Czech
Restartovací automaty, DR-stromy a Funkční generativní popis češtiny
This paper deals with restarting automata, which we use as a formal framework for modeling the Functional Generative Description of Czech. The proposed model of restarting automaton works simultaneously with four layers of language description; it is intended to carry out reductive analysis of Czech sentences, thus allowing to derive the dependency relations in the sentence of the possible order of reduction. Standard model of restarting automaton is enriched with structured output, which allows to build tectogrammatical dependency structure derived from the reduction analysis.
Tento příspěvek se zabývá restartovacími automaty, které využíváme jako formální rámec pro Funkční generativní popis češtiny. Navrhovaný model restartovacího automatu pracující současně se čtyřmi rovinami jazykového popisu je určeny k tomu, aby prováděl redukční analýzu českých vět a umožnil tak odvodit závislostní vztahy ve větě z možných pořadí jednotlivých redukcí. Standardní model restartovacích automatů je zde obohacen o strukturovaný výstup, který umožňuje budovat tektogramatickou závislostní strukturu odvozenou z redukční analýzy.
[ "Martin Plátek", "Markéta Lopatková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Formalization of the Czech Morphology System with Respect to Automat ic Processing of Czech Texts
Formalizace systému české morfologie s ohledem na automatické zpracování českých textů
Detailed morphological description of word forms represents one of the most important conditions of a successful automatic processing of linguistic data. The system of categories and their values which are used for the description are the subject of the first part of the thesis. The basic principle, so-called Golden rule of morphology, states that every word form has to be described by the system unambiguously. The existence of variants of word forms and whole paradigms, however, complicates the accomplishment of this rule. We introduce so called mutations as an extension of the variants to be able to include other sets of word forms with the same description (for instance multiple word forms of Czech personal pronouns). We divide mutations into two parts - global ones describing all word forms of a paradigm, and inflectional ones for the description on the word form level. This division enables us to express their various combinations. We do not use features of style for the mutation division, for they are subjective. With a consistent use of the categories called Inflectional Mutation and Global Mutation, the Golden rule of morphology will always be valid. The concept of multiple lemma is introduced in a chapter dealing with lemmatization. It describes lemma variants. We give a detailed description of so-called compounds, which incorporate word forms of the type zač, proň, koupilas, koliks. The concept of multiple lemma is also used for their lemmatization. According to the word class of their components we divide the compounds into several types. We also deal with the problem of their searching in language corpora. The second part of the thesis describes a system of patterns for word description. It is divided according to the part of speech. Each pattern has a special set of parameters that allow to grasp a large variability in word formation. We also deal with regular derivations of related words using suffixes.
Přesný morfologický popis slovních tvarů je prvním předpokladem pro úspěšné automatické zpracování jazykových dat. Systém kategorií a jejich hodnot, které se k popisu používají, jsou náplní první části práce. Základním principem je tzv. Zlaté pravidlo morfologie, které říká, že každý slovní tvar by měl být v systému popsán jednoznačně. Existence variant na úrovni slovních tvarů i celých paradigmat však splnění tohoto pravidla komplikuje. Koncept variant rozšiřujeme na tzv. mutace, mezi které řadíme i jiné množiny slovních tvarů se stejným popisem (např. víceré tvary osobních zájmen). Mutace dělíme na globální pro popis na úrovni paradigmat a flektivní pro popis jednotlivých slovních tvarů. Toto rozdělení nám umožňuje postihnout jejich časté kombinace. Upouštíme od dělení variant (mutací) podle stylového příznaku jako neobjektivního kritéria. V kapitole o lemmatizaci zavádíme vícenásobné lemma pro popis variantních lemmat. Podrobně se zabýváme popisem tzv. složenin, tedy slovních tvarů typu zač, proň, koupilas, koliks. Pro jejich lemmatizaci rovněž využíváme konceptu vícenásobného lemmatu. Podle slovních druhů jejich složek je dělíme na několik typů. Zabýváme se též problémem jejich vyhledávání v jazykových korpusech. Druhá část práce popisuje systém vzorů pro popis slovních tvarů jednotlivých slovních druhů. U každého vzoru uvádíme sadu parametrů, které umožní postihnout velkou variabilitu v tvoření konkrétních paradigmat. Věnujeme se i pravidelnému odvozování příbuzných slov pomocí sufixů.
[ "Jaroslava Hlaváčová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Verb Gradation
Stupňování sloves
Many imperfective Czech verbs (but not iterative ones) is possible to concatenate with certain prefixes and the relative particle se or si, and create the whole paradigm of new wordforms with a relatively strict meaning.
Mnoho nedokonavých (avšak ne iterativních) sloves má schopnost spojovat se s některými speciálními předponami a se zvratnou částicí se nebo si, a tím vytváří celé paradigma nových slovních tvarů s poměrně přesně definovaným významem.
[ "Jaroslava Hlaváčová" ]
https://www.semanticscholar.org/paper/73606cbcbe3b0f0411fe11430f5cf1d616693269/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
A Contrastive Lexical description of Basic Verbs. Examples from Swedish and Czech.
Kontrastivní lexikální popis základních sloves. Příklady z češtiny a švédštiny.
This paper aims at a lexical description of frequent, but not enough cognitively salient uses of frequent lexical verbs in Swedish on the background of Czech, with some implications for the lexical description of basic verbs in general. It results in a draft of a production lexicon of Swedish basic verbs for advanced Czech learners of Swedish, with focus on their uses as light verbs.
Tento článek se zabývá lexikálním popisem frekventovaných, nicméně nepříliš kognitivně salientních (zde: sémanticky vyprázdněných) užití významových sloves jako jsou například jít, stát, držet, dát, položit z hlediska srovnání švédštiny s češtinou. Zvláštní pozornost je věnována užití těchto sloves v tzv. verbonominálních nebo analytických predikátech.
[ "Silvie Cinková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Semantic Representation of Non-Sentential Utterances in Dialog
Sémantická anotace nevětných fragmentů v dialogu
Being confronted with spontaneous speech, our current annotation scheme requires alterations that would reflect the abundant use of non-sentential fragments with clausal meaning tightly connected to their context, which do not systematically occur in written texts. The purpose of this paper is to list the common patterns of non-sentential fragments and their con-texts and to find a smooth resolution of their semantic annotation.
Tento článek se zabývá možnostmi tektogramatické anotace větných fragmentů v dialogu.
[ "Silvie Cinková" ]
https://www.semanticscholar.org/paper/e2b99e53f4897b3742d120b93f2141e4cfaeab6e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Words that Matter: Towards a Swedish-Czech Colligational Dictionary of Basic Verbs
Důležitá slova. Podklady ke kolokačnímu švédsko-českému slovníku základních sloves
Basic verbs, i.e. very common verbs that typically denote physical movements, locations, states or actions, undergo various semantic shifts and acquire different secondary uses. In extreme cases, the distribution of secondary uses grows so general that they are regarded as auxiliary verbs (go and to be going to), phase verbs (turn, grow), etc. These uses are usually well-documented by grammars and language textbooks, and so are idiomatic expressions (phraseologisms) in dictionaries. There is, however, a grey area in between, which is extremely difficult to learn for non-native speakers. This consists of secondary uses with limited collocability, in particular light verb constructions, and secondary meanings that only get activated under particular morphosyntactic conditions. The basic-verb secondary uses and constructions are usually semantically transparent, such that they do not pose understanding problems, but they are generally unpredictable and language-specific, such that they easily become an issue in non-native text production. In this thesis, Swedish basic verbs are approached from the contrastive point of view of an advanced Czech learner of Swedish. A selection of Swedish constructions with basic verbs is explored. The observations result in a proposal for the structure of a machine-readable Swedish-Czech lexicon, which focuses on basic verbs and their constructions. The lexicon is anchored in the valency theory of the Functional Generative description, coupled with analysis of collocations according to the semantically motivated principles of Corpus Pattern Analysis, in order to achieve the necessary level of delicacy to make meaning distinctions correctly. The lexicon consists of two parts: SweVallex, which is a lexicon of verb frames, and a Predicate Noun Lexicon, which captures predicate nouns (the nominal components of light verb constructions). These two parts are interlinked. The verb collocates of predicate nouns are sorted according to the Mel’čukian Lexical Functions. Features such as telicity, punctuality, and volitionality are described for each light verb construction, whenever possible. Special attention is paid to the morphosyntactic behavior of the respective predicate nouns (determiner use, and modifier insertion). In order to facilitate the routine of building such a lexicon, the 20-million morphosyntactically annotated Swedish corpus PAROLE was lemmatized and loaded into the corpus GUI Bonito, which includes the Word Sketch Engine, a tool for automatic collocation analysis. Word Sketch Definitions for Swedish were created and loaded into the Word Sketch Engine. In addition to the PAROLE corpus, a two-million parallel Swedish-Czech corpus was used, which has been built within a different project.
Abstrakt Základní slovesa (basic verbs), tj. frekventovaná významová slovesa, jež zpravidla popisují fyzický pohyb, umístění, stav, nebo děj, procházejí řadou sémantických posunů, díky kterým se používají k vyjádření druhotných, přenesených významů. V krajních případech se dané sloveso stává pomocným, způsobovým, nebo fázovým slovesem a přestávají pro ně platit kolokační omezení, jež se vztahují na sloveso užité v jeho primárním (tj. doslovném) významu. Tato užití sloves bývají většinou dobře dokumentována v gramatikách i učebnicích, stejně jako kvalitní slovníky podávají podrobnou informaci o užití těchto sloves v ustálených frazeologických spojeních. Mezi plně gramatikalizovaným užitím na jedné straně a idiomatickým, frazeologickým užitím na druhé straně však existuje celá škála užití základních sloves v přenesených významech, jejíž zvládnutí je pro nerodilého mluvčího značně obtížné: užití v přeneseném významu, jež mají omezenou kolokabilitu. To jsou především verbonominální konstrukce někdy nazývané analytické predikáty (light verb constructions), ale také užití, která za určitých omezených morfosyntaktických podmínek (např. pouze v negaci) aktivují abstraktní sémantické rysy u jiných predikátů, např. zesilují význam, nebo implikují, že daný děj již trvá dlouho, a podobně. Tato druhotná užití významových sloves (ve švédštině) většinou nepůsobí (českým pokročilým studentům švédštiny) potíže při porozumění textu, neboť bývají sémanticky transparentní, avšak tím, že jsou specifická pro konkrétní jazyk a v zásadě neprediktabilní na základě znalosti jiného jazyka, působí problémy při produkci textu. Rodilí mluvčí sami je většinou nevnímají nebo jejich typické kontexty považují za frazeologismy, a proto jim ani při výuce cizích studentů nevěnují dostatečnou pozornost. Předkládaná práce se zaměřuje na švédská základní slovesa z kontrastivního pohledu českého pokročilého studenta švédštiny. Pozorování vybraných slovesných konstrukcí zobecňuje do návrhu struktury elektronického švédsko-českého slovníku zaměřeného na pochopení a osvojení méně zřejmých, ale přesto frekventovaných konstrukcí se základními slovesy. Slovník je zakotven ve valenční teorii Funkčního Generativního Popisu, spojené s kolokační analýzou podle sémanticky motivovaných principů Analýzy Korpusových Vzorců (Corpus Pattern Analysis), jež umožňuje přesnější definici jednotlivých slovesných užití pomocí jejich typických kolokátů. Slovník sestává ze dvou vzájemně propojených částí: slovníku sloves SweVallex (vytvořeného na základě českého Vallexu) a slovníku nominálních částí analytických predikátů (Predicate Noun Lexicon). Slovesné kolokáty jednotlivých nominálních komponent jsou roztříděny podle Mel´čukových Lexikálních Funkcí. Kromě toho je u každého analytického predikátu, pokud je to možné, uvedena informace o jeho telicitě, o tom, zda děj je okamžitý, nebo spíše durativní (punctuality), a o tom, jestli jeho subjekt za normálních okolností jedná vědomě a ze své vůle (volitionality). Zvláštní pozornost je věnována morfosyntaktickému chování nominálních komponent ve spojení s jednotlivými slovesnými kolokáty (užití členů, možnosti rozvití). Studie opouští slovník ve chvíli, kdy je jeho struktura navržena a prověřena na příkladech. Pro umožnění kvalitní rutinní práce byly připraveny lingvistické zdroje. Veřejně dostupný švédský korpus PAROLE byl lemmatizován pomocí zvlášť vyvinutého pravidlového lemmatizátoru a vložen do korpusového rozhraní Bonito, v němž je zabudován nástroj na automatickou kolokační analýzu – Word Sketch Engine. Tento nástroj bylo zapotřebí adaptovat na švédštinu, což bylo také předmětem této dizertační práce. V rámci jiného projektu vzniká paralelní švédsko-český korpus, který má v současné době přibližně 2 miliony tokenů. Ten byl v nejvyšší možné míře využit v kontrastivním pozorování vybraných slovesných konstrukcí. Doplňkově byl využíván také Český národní korpus.
[ "Silvie Cinková" ]
https://www.semanticscholar.org/paper/4d05852703f0bf1405f58bb6f6904ca001164ae4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Tectogrammatical Annotation of the Wall Street Journal
Tektogramatická anotace Wall Street Journalu
This paper gives an overview of the current state of the Prague English Dependency Treebank project. It is an updated version of a draft text that was released along with a CD presenting the first 25\% of the PDT-like version of the Penn Treebank -- WSJ section (PEDT 1.0).
Tento článek popisuje aktuální stav ruční tektogramatické anotace korpusu PEDT.
[ "Silvie Cinková", "Josef Toman", "Jan Hajič", "Kristýna Čermáková", "Václav Klimeš", "Lucie Mladová", "Jana Šindlerová", "Kristýna Tomšů", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/0cefa381b183a3dd612dac2e3bd78d84e0c20886/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Large-scale Semantic Networks: Annotation and Evaluation
Anotace a její evaluace u sémantických sítí
We introduce a large-scale semantic-network annotation effort based on the MutliNet formalism. Annotation is achieved via a process which incorporates several independent tools including a MultiNet graph editing tool, a semantic concept lexicon, a user-editable knowledge-base for semantic concepts, and a MultiNet parser. We present an evaluation metric for these semantic networks, allowing us to determine the quality of annotations in terms of inter-annotator agreement. We use this metric to report the agreement rates for a pilot annotation effort involving three annotators.
Článek pojednává o konstrukci a anotaci velkých sémantických sítí zachycujících obsah jazykových sdělení.
[ "Václav Novák", "Sven Hartrumpf", "Keith Brendan Hall" ]
https://www.semanticscholar.org/paper/0453b3c90d9398803babdaf193d5842cf6772fc3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Unsupervised Detection of Annotation Inconsistencies Using Apriori Algorithm
Detekce inkonzistentních anotací pomocí algoritmu Apriori
We present a new method for automated discovery of inconsistencies in a complex manually annotated corpora. The proposed technique is based on Apriori algorithm for mining association rules from datasets. By setting appropriate parameters to the algorithm, we were able to automatically infer highly reliable rules of annotation and subsequently we searched for records for which the inferred rules were violated. We show that the violations found by this simple technique are often caused by an annotation error. We present an evaluation of this technique on a hand-annotated corpus PDT 2.0, present the error analysis and show that in the first 100 detected nodes 20 of them contained an annotation error.
Článek představuje novou metodu automatické detekce inkonzistentních anotací v korpusu obsahujícím komplexní ruční anotaci. Použitá metoda je založena na algoritmu Apriori. V článku předložíme vyhodnocení této techniky v ručně anotovaném korpusu PDT 2.0, analyzujeme chyby a ukážeme, že 20 z prvních 100 nalezených uzlů obsahovalo anotační chybu.
[ "Václav Novák", "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/25f3279546144ee1e2bef7d632d6552985c09f29/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Automatic Identification of Prepositional and Non-prepositional Cases in Czech
Čeština ve formální gramatice
Automatic rule-based identification of prepositional and non-prepositional cases in contemporary Czech based on large corpora of contemporary Czech
Automatická identifikace předložkových a nepředložkových pádů v současné češtině na základě lingvistických pravidel a rozsáhlých korpusů současné češtiny
[ "Tomáš Jelínek", "Vladimír Petkevič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Detecting and Correcting Errors in an English Tectogrammatical Annotation
Detekce a oprava chyb v anglické tektogramatické anotaci
We present our first experiments with detecting and correcting errors in a manual annotation of English texts, taken from the Penn Treebank, at the dependency-based tectogrammatical layer, as it is defined in the Prague Dependency Treebank. The main idea is that errors in the annotation usually result in an inconsistency, i.e. the state when a phenomenon is annotated in different ways at several places in a corpus. We describe our algorithm for detecting inconsistencies (it got positive feedback from annotators) and we present some statistics on the manually corrected data and results of a tectogrammatical analyzer which uses these data for its operation. The corrections have improved the data just slightly so far, but we outline some ways to more significant improvement.(1)
Předkládáme naše první experimenty s detekcí a automatickými opravami ručních anotací anglických textů převzatých z Penn Treebanku, na závislostní tektogramatické rovině, jak je definovaná v Pražském závislostním korpusu. Hlavní myšlenkou je, že anotační chyby jsou obvykle důsledkem nekonzistence, tj. stavu kdy jeden jev je na různých místech v korpusu anotován různě.
[ "Václav Klimeš" ]
https://www.semanticscholar.org/paper/60eec9214b5fb14af959e9a751e8c1409d94eb6e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Machine Translation Resources for Quechua
Data pro strojový překlad kečujštiny
This project provides a morphological analyzer for Quechua, a morphological synthesizer for English, as well as a bilingual Quechua-Spanish dictionary and a reference implementation of a Quechua-to-English MT system for OS X.
Projekt obsahuje morfologický analyzátor pro quechua, syntetizátor pro angličtinu a slovník quechua-angličtina.
[ "Petr Homola" ]
https://www.semanticscholar.org/paper/e53c2d487d7550d8976579cdf361dd2be629d4e2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Spanish-to-English Mobile MT System
Mobilní systém automatického překladu ze španělštiny do češtiny
This project is an experimental MT system (Spanish-to-English) optimized for smartphones.
Experimentální překladový systém španělština-angličtina pro mobilní telefony.
[ "Petr Homola" ]
https://www.semanticscholar.org/paper/31d6cc08b85e02426c4a9bbadc0fb0469793ccd8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Syntactic Analysis in Machine Translation
Syntaktická analýza pro strojový překlad
This book explores the contribution of syntactic analysis to the machine translation (MT) between related languages and it also attempts to explore the limits of shallow MT methods. We focus on one group of languages, the Balto-Slavic language family, and one MT architecture, namely hybrid systems with prevalently rule-based modules.
Kniha zkoumá roli syntaktické analýzy ve strojovém překladu mezi příbuznými jazyky a snaži se najít limity metod mělkého překladu. Zaměřujeme se na baltoslovanské jazyky a hybridní architekturu MT s převážně pravidlovými moduly.
[ "Petr Homola" ]
https://www.semanticscholar.org/paper/ff316be7cb0e88a003e8466fee836f595c6261cf/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Syntactic Analysis in Machine Translation
Syntaktická analýza pro strojový překlad
This thesis explores the contribution of syntactic analysis to the machine translation (MT) between related languages and it also attempts to explore the limits of shallow MT methods. We focus on one group of languages, the Balto-Slavic language family, and one MT architecture, namely hybrid systems with prevalently rule-based modules.
Práce zkoumá roli syntaktické analýzy ve strojovém překladu mezi příbuznými jazyky a snaži se najít limity metod mělkého překladu. Zaměřujeme se na baltoslovanské jazyky a hybridní architekturu MT s převážně pravidlovými moduly.
[ "Petr Homola" ]
https://www.semanticscholar.org/paper/ff316be7cb0e88a003e8466fee836f595c6261cf/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
A Simple Automatic MT Evaluation Metric
Jednoduchá metrika pro automatické vyhodnocování kvality strojového překladu
This paper describes a simple evaluation metric for MT which attempts to overcome the well-known deficits of the standard BLEU metric from a slightly different angle. It employs Levenshtein’s edit distance for establishing alignment between the MT output and the reference translation in order to reflect the morphological properties of highly inflected languages. It also incorporates a very simple measure expressing the differences in the word order. The paper also includes evaluation on the data from the previous SMT workshop for several language pairs.
Tento článek popisuje jednoduchou evaluační metriku pro strojový překlad, která se snaží vyřešit známé nedostatky standardně používané metriky BLEU.
[ "Petr Homola", "Vladislav Kuboň", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/eb9cbc33a13841023f7051e190c528ae71527c16/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Shallow Transfer Between Slavic Languages
Mělký překlad mezi slovanskými jazyky
This paper describes an architecture of a machine translation system designed primarily for Slavic languages. The architecture is based upon a shallow transfer module and a stochastic ranker. The shallow transfer module helps to resolve the problems, which arise even in the translation of related languages, the stochastic ranker then chooses the best translation out of a set provided by a shallow transfer. The results of the evaluation support the claim that both modules newly introduced into the system result in an improvement of the translation quality.
Článek popisuje architekturu systému strojového překladu pro slovanské jazyky.
[ "Petr Homola", "Vladislav Kuboň", "Jernej Vičič" ]
https://www.semanticscholar.org/paper/60d4e7af86b8234ea9b288a9d1b7f8b58273b2bd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Towards a Rule-Based Machine Translation System Between Czech and Russian
K pravidlovému strojovému překladu mezi češtinou a ruštinou
The present paper is devoted to the ongoing research of the Machine Translation between Czech and Russian implemented in the system Česílko. We will describe the tools and data used in the project, namely the Czech-Russian dictionary and syntactic transfer module. As first results 1000 test sentences were evaluated by automatic metrics BLEU as well as by human evaluation.
V tomto článku popisujeme první etapu budování překladového systému mezi čestinou a ruštinou, implementovaného v rámci Česílka. Představujeme nástroje a data použitá v tomto projektu, jmenovitě česko-ruský slovník a modul syntaktického transferu. První výsledky Česílka, 1000 testovacích vět byly vyhodnoceny na základě automaticke metriky BLEU a zároveň i lidského hodnocení.
[ "Petr Homola", "Natalia Klyueva", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/207437f30eb0c73c3fc9c4a25712dd1a12e28b85/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
On the Role of Restarting Automata in Grammar Checking of Czech
O roli restartovacích automatů při kontrole gramatické správnosti v češtině
The talk provided a brief summary of the history of methods applied in the development of a grammar checker for Czech from initial ideas to the implementation as an indistrial application being used in Microsoft Office. The original idea of directly exploiting restarting automata for the error identification and localization in a language with a high degree of word order freedom (Czech) proposed in 1994 responded to a fact that the standard error checking methods using local error patterns were not applicable to such kind of a natural language. The concept of using a restarting automaton naturally allowed to simplify input sentences step by step by preserving an invariant of its correctness/incorrectness. Although the original automaton has transfgormed to a Robust Free-Order Dependency Grammar, it still retained this basic property.
Vystoupení shrnulo historii metod použitých při budování komerční aplikace kontroly gramatické správnosti českých textů.
[ "Vladislav Kuboň" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
On the Role of Syntactic Analysis of Natural Languages
O roli syntaktické analýzy přirozených jazyků
The article tries to advocate the fact that although the field of rule-based syntactic analysis of natural languages has recently been practically taken over by data-driven (mostly stochastic) methods. it is still important both for the theory of formal description of natural languages as well as for certain types of applications, especially those dealing with an ill-formed input. The arguments are based upon the experience gained in the process of development a pilot implementation of a grammar checker of Czech. Although the methods described in the paper did not lead directly to a commercial application, they definitely increased the level of understanding of certain complicated linguistic phenomena, namely the phenomenon of grammaticality and non-projectivity of Czech sentences.
Článek zdůvodňuje myšlenku, že ačkoli obor automatické analýzy přirozených jazyků byl prakticky ovládnut statistickými metodami, je stále důležité se zabývat syntaktickou analýzou pomocí ručně psaných pravidel. Tato metoda má stále co říci v oblasti teorie formálního popisu přirozených jazyků stejně jako v některých typech aplikací, např. kontrole gramaticky nesprávného vstupu.
[ "Vladislav Kuboň" ]
https://www.semanticscholar.org/paper/2791d825fad3ab3ca8c408df518892f4a6ef5a8f/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Automatic Valency Frames assigning and merging
Automatické přiřazování valenčních rámců a jejich slévání
In this paper we present two valency lexicons (namely VALLEX and PDT-VALLEX). Our aim is to link them together. We can use data annotated by the first lexicon, which helps us to link some entries automatically. Universal format for stand-off storage of this type of data is also mentioned here.
Informace o valenci sloves je podstatná pro mnoho odvětví NLP. Existuje proto již několik valenčních slovníků. V tomto článku představíme dva z nich (VALLEX a PDT-VALLEX), které jsou k disposici v elektronické podobě a které mají společné východisko. Oba mají své přednosti a naším cílem je spojit je v jeden slovník. Máme k disposici data z korpusu PDT, kterým jsou ručně přiřazeny položky prvního ze slovníků. To nám pomůže provázat oba slovníky přes data využívajíce automatické identifikace (následované ruční prací s problémovými případy). Tímto poloautomatickým spojením dvou slovníků vznikne kvalitní lexikografický zdroj, který by jinak vyžadoval mnohem více lidské práce. Průměrná úspěšnost namapování rámce z jednoho slovníku výběrem náhodného rámce z druhého je přibližně 60 %. Článek se také zmiňuje o universálním formátu, ve kterém bude výhodné nová data ukládat odděleně od stávajících.
[ "Eduard Bejček" ]
https://www.semanticscholar.org/paper/61768f7222a0958a8e63565731ec3404f91ae79b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Finalising Multiword Annotations in PDT
Dokončení anotace víceslovných pojmenování v PDT
We describe the annotation of multiword expressions and multiword named entities in the Prague Dependency Treebank. This paper includes some statistics of data and inter-annotator agreement. We also present an easy way to search and view the annotation, even if it is closely connected with deep syntactic treebank.
Článek popisuje anotaci víceslovných výrazů a víceslovných pojmenovaných entit v Pražském závislostním treebanku. Zahrnuje statistiky týkající se dat a mezianotátorskou shodu. Ukážeme také snadný způsob prohledávání a zobrazení anotací, ačkoli jsou úzce spjaty s hloubkově syntaktickým treebankem.
[ "Eduard Bejček", "Pavel Straňák", "Jan Hajič" ]
https://www.semanticscholar.org/paper/239c09fdb3927dafbd8662b10a0a76128379edd5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2009
Using Averaged Perceptron Tagger for Word Sense Disambiguation
Použití "averaged perceptron taggeru" pro desambiguaci významu slov
Well performed Word Sense Disambiguation is an important first step for other NLP tasks, such as machine translation or information retrieval. In our paper we present an Averaged Perceptron approach to WSD for Czech. We used data annotated (and to some extend also corrected) by Czech WordNet synsets. We obtained 100,000 occurences of annotated words in whole sentences. As a baseline we assigned the most frequent synset to each occurence. We tried both the most frequent synset for a given word form and for a lemma, as the morphological analysis was done for input data. For our experiments we used the system Morče, which is based on the Hidden Markov Model and the Averaged Perceptron. We made three experiments and exceeded baselines in all of them. First we took data as it is (i.e. with manual morphological annotation); we achieved 94.2% (with 87.9% baseline). Then we used a bare input data and assigned synsets to word forms. Our result is 90.7%, compared with 61.7% baseline. Last we enriched the input by a morphological tagger and achieved 94.2% (the baseline remained 61.7%).
Dobře provedené rozlišení smyslu slova (Word Sense Disambiguation, WSD) je důležitým prvním krokem pro další úlohy NLP, jako je strojový překlad. V tomto článku prezentujeme přístup k WSD v češtině pomocí Průměrovaného perceptronu. Použili jsme data anotovaná (a do jisté míry opravená) synsety z českého WordNetu. Získali jsme 100 000 výskytů anotovaných slov v celých větách. Jako baseline jsme přiřadili ke každému výskytu jeho nejčastější synset. Zkusili jsme jak nejčastější synset pro dané slovo, tak pro lemma, které bylo výsledkem morfologické analýzy dat. Pro naše experimenty jsme použili systém Morče, For our experiments we used the system Morče, který je založen na skrytých markovovských modelech a průměrovaném perceptronu. Udělali jsme tři experimenty a překonali baseline ve všech z nich. Nejprve jsme vzali data tak, jak jsou (s ruční morfologickou anotací) a dosáhli úspěšnosti 94,2% (s baseline 87,9 %). Poté jsme vzali holá vstupní data a přiřadili synsety slovním formám. Výsledek byl 90,7 %, oproti baseline 61,7 %. Nakonec jsme vstup doplnili morfologickým taggerem a dosáhli 94,2 % (při zachování baseline 61,7 %).
[ "Eduard Bejček", "Jan Raab" ]
https://www.semanticscholar.org/paper/07dfbab945624c3ed9924f64143a853fabe46e30/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Functions of the Conditional Mood from the Viewpoint of the Level of Meaning
Funkce kondicionálu z hlediska významové roviny
The doctoral thesis deals with functions of the conditional mood in contemporary Czech texts. Two theoretical approaches to modality are described in more detail in Chapters 2 and 3, the approach of Grammar of Czech and that of Functional Generative Description (FGD), respectively. After a brief overview of terminology and corpus data used for the analysis of the conditional (cf. Chapter 4), we focus particularly on the primary function of this mood in Chapter 5. The conditional is primarily used to refer to events (also states etc.) which may be generally characterized as hypothetical. Besides this function, the conditional bears also other, secondary meanings in Czech (cf. Chapter 6). In Chapter 7, we propose a formal means for capturing the primary function of the conditional mood within a deep-syntactic annotation of a sentence. The problems connected with representation of the secondary functions of the conditional are also sketched. Conclutions are included in Chapter 8.
Disertační práce se zabývá významy kondicionálu v dnešní češtině s cílem začlenit tyto významy do popisu větné sémantiky, tak jak je postulován ve Funkčním generativním popisu. Z široké oblasti modality, kam významy kondicionálu spadají, Funkční generativní popis ovšem dosud věnoval pozornost především významům modálních sloves, při zkoumání funkcí kondicionálu proto budeme vycházet z koncepce Mluvnice češtiny. Na základě korpusového materiálu analyzujeme primární funkci kondicionálu a některé jeho funkce sekundární. Po této analýze navrhneme formální prostředek, díky kterému je možné primární význam kondicionálu zachytit v rámci sémantické anotace. Nastíníme rovněž problémy spojené s reprezentací sekundárních funkcí kondicionálu.
[ "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2009
Functions of the Conditional Mood from the Viewpoint of the Level of Meaning
Funkce kondicionálu z hlediska významové roviny
The present book deals with meanings of the conditional mood in contemporary Czech texts in order to include these meanings in the description of sentence semantics as proposed in Functional Generative Description (FGD). Since in FGD main attention has been paid to modal verbs, our analysis of meanings of the conditional is grounded on the detailed conception of modality as presented in Grammar of Czech. The primary and some secondary meanings of the conditional mood are analyzed on the basis of language data from two corpora, namely from the Prague Dependency Treebank 2.0, the annotation scenario of which was based on FGD, and from the SYN2005 corpus. We propose formal means for capturing the primary function of the conditional mood within a deep-syntactic annotation of a sentence. The problems connected with representation of the analyzed secondary functions of the conditional are also sketched.
Kniha se zabývá významy kondicionálu v dnešní češtině s cílem začlenit tyto významy do popisu větné sémantiky, tak jak je postulován ve Funkčním generativním popisu (FGP). Z široké oblasti modality, kam významy kondicionálu spadají, FGP ovšem dosud věnoval pozornost především významům modálních sloves, při zkoumání funkcí kondicionálu proto budeme vycházet z koncepce Mluvnice češtiny. Na základě korpusového materiálu analyzujeme primární funkci kondicionálu a některé jeho funkce sekundární. Po této analýze navrhneme formální prostředek, díky kterému je možné primární význam kondicionálu zachytit v rámci sémantické anotace. Přiblížíme rovněž problémy spojené s reprezentací sekundárních funkcí kondicionálu.
[ "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null