lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2016
Dictionary-based Domain Adaptation of MT Systems without Retraining
Doménová adaptace strojových překladačů bez přetrénovávání založená na slovníku
We describe our submission to the IT-domain translation task of WMT 2016. We perform domain adaptation with dictionary data on already trained MT systems with no further retraining. We apply our approach to two conceptually different systems developed within the QTLeap project: TectoMT and Moses, as well as Chimera, their combination. In all settings, our method improves the translation quality. Moreover, the basic variant of our approach is applicable to any MT system, including a black-box one.
Popisuje náš příspěvek do úlohy překladu v doméně IT na WMT16. Provádíme doménovou adaptaci již natrénovaných překladových systémů pomocí slovníkových dat bez dalšího trénování. Náš postup aplikujeme na dva konceptuálně odlišné překladače, vyvíjené v rámci projektu QTLeap -- TectoMT a Moses -- a na jejich kombinaci -- Chiméru. Všechny naše metody zlepšují ve všech experimentech kvalitu překladu. Základní varianta naší metody je navíc použitelná na libovolný překladový systém, včetně takového, který je pro uživatele černou skříňkou.
[ "Rudolf Rosa", "Roman Sudarikov", "Michal Novák", "Martin Popel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/931b255db482745a19e1ddc01124e26b7eacc7c5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Moses & Treex Hybrid MT Systems Bestiary
Bestiář hybridních systémů MT založených na Mosesu a Treexu
Moses is a well-known representative of the phrase-based statistical machine translation systems family, which are known to be extremely poor in explicit linguistic knowledge, operating on flat language representations, consisting only of tokens and phrases. Treex, on the other hand, is a highly linguistically motivated NLP toolkit, operating on several layers of language representation, rich in linguistic annotations. Its main application is TectoMT, a hybrid machine translation system with deep syntax transfer. We review a large number of machine translation systems that have been built over the past years by combining Moses and Treex/TectoMT in various ways.
Moses je dobře známý reprezentant rodiny frázových systémů statistického strojového překladu, který je známý tím, že je extrémně chudý na explicitní lingvistické znalosti, a operuje na plochých reprezentacích jazyka, složených jen z tokenů a frází. Na druhé straně, Treex NLP toolkit, který je vysoce lingvisticky motivovaný, operuje na několika vrstvách reprezentace jazyka, bohatých na lingvistické anotace. Jeho hlavní aplikace je TectoMT, hybridní systém strojového překladu s hloubkovým transfrem syntaxe. Nabízíme přehled velkého počtu systémů strojového překladu, sestavených v minulých letech, které různými způsoby kombinují Mosese a Treex/TectoMT.
[ "Rudolf Rosa", "Martin Popel", "Ondřej Bojar", "David Mareček", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/7b8699c3cf860fdf3c14638d76359bf3ae1070b0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Politician
Politik
We present a question-answering system Politician designed as a chatbot imitating a politician. It answers questions on political issues. The questions are analyzed using natural language processing techniques and no complex knowledge base is involved. The language used for the interviews is Czech.
Prezentujeme dialogový systém Politik. Politik je navržen jako chatovací robot, který imituje politika. Odpovídá na otázky týkající se politických témat. Otázky jsou zpracovány nástroji počítačového zpracování jazyka bez použití externí znalostní báze. Jazykem dialogu je čeština.
[ "David Kuboň", "Barbora Hladká" ]
https://www.semanticscholar.org/paper/85cd2550c6ba8058110343636f968dc25fdb237e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Pronoun Prediction with Linguistic Features and Example Weighing
Predikce zájmen s použitím lingvistických rysů a vážení příkladů
We present a system submitted to the WMT16 shared task in cross-lingual pronoun prediction, in particular, to the English-to-German and German-to-English sub-tasks. The system is based on a linear classifier making use of features both from the target language model and from linguistically analyzed source and target texts. Furthermore, we apply example weighing in classifier learning, which proved to be beneficial for recall in less frequent pronoun classes. Compared to other shared task participants, our best English-to-German system is able to rank just below the top performing submissions.
Představujeme systém na mezijazyčnou predikci zájmen, konkrétně mezi angličtinou a němčinou.
[ "Michal Novák" ]
https://www.semanticscholar.org/paper/9cebff198bb3b7712c0373a995125e2b88afdeb7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Prague Czech-English Dependency Treebank 2.0 - Russian Translation, version 0.5
Ruské překlady Pražského česko-anglického závislostního korpusu, verze 0.5
Prague Czech-English Dependency Treebank - Russian translation (PCEDT-R) is a project of translating a subset of Prague Czech-English Dependency Treebank 2.0 (PCEDT 2.0) to Russian and linguistically annotating the Russian translations with emphasis on coreference and cross-lingual alignment of coreferential expressions. Cross-lingual comparison of coreference means is currently the purpose that drives development of this corpus. In version 0.5, it contains Russian translations of more than 1000 English sentences with automatic morphological analysis and manual cross-lingual alignment of Czech, English and Russian possessive pronouns.
Tento projekt rozšiřuje část PCEDT 2.0 o ruské překlady a anotaci zaměřenou na koreferenci a mezijazyčné zarovnání koreferenčních výrazǔ. Ve verzi 0.5 korpus obsahuje překlad více než 1000 anglických vět s automatickými anotacemi na úrovni morfologie a ručním mezijazyčným zarovnáním českých, anglických a ruských posesivních zájmen.
[ "Michal Novák", "Anna Nedoluzhko", "Anna Schwarz (Khoroshkina)" ]
https://www.semanticscholar.org/paper/f35616418ac6bcc719a798e915f74ebcc1b71eef/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
An interoperable approach to the analysis of discourse
Interoperabilní přístup k analýze diskurzu
In the present paper, we analyse variation of discourse phenomena in two typologically different languages, i.e. in German and Czech. The novelty of our approach lies in the nature of the resources we are using. Advantage is taken of existing resources, which are, however, annotated on the basis of two different frameworks. We use an interoperable scheme unifying discourse phenomena in both frameworks into more abstract categories and considering only those phenomena that have a direct match in German and Czech. The discourse properties we focus on are relations of identity, semantic similarity, ellipsis and discourse relations. Our study shows that the application of interoperable schemes allows an exploitation of discourse-related phenomena analysed in different projects and on the basis of different frameworks. As corpus compilation and annotation is a time-consuming task, positive results of this experiment open up new paths for contrastive linguistics, translation studies and NLP, including machine translation.
Rozšířená a přepracovaná verze Lapshinova et al. (2016). V článku provádíme srovnávací analýzu diskurzních jevů v němčině a češtině na základě dvou korpusových zdrojů pro tyto jazyky. Korpusy jsou anotovány v rámci různých teoretických přístupů: FGP (Sgall et al. 1986) pro češtinu a teorie textové koheze (Halliday & Hasan 1976) pro němčinu. Hledáme společné rysy, automaticky je identifikujeme v textech a tím se dostáváme k srovnatelným korpusům anotovaných stejnými typy vztahů, které dále rozebíráme. (viz hlavně angl. abstrakt a text)
[ "Ekaterina Lapshinova-Koltunski", "Anna Nedoluzhko", "Kerstin Anna Kunz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
From monolingual annotations towards cross-lingual resources: An interoperable approach to the analysis of discourse
Od jednojazyčných zdrojů k mnohojazyčným: interoperabilní přístup k analýze diskurzu
in this paper, we perform a cross-lingual analysis of discourse phenomena in German and Czech, using two corpus resources annotated monolingually within two different frameworks: functional Generative description (Sgall et al. 1986) for Czech, and textual cohesion (Halliday & Hasan 1976) for German. We take advantage of the existing resources reflecting systemic peculiarities and realisational options of the languages under analysis. in our previous work (Lapshinova et al. 2015), we have shown that the annotations of the involved resources are comparable if abstract categories are used and only the phenomena with a direct match in German and Czech are taken into consideration. Our analysis is a first step towards unifying separate analyses of discourse relations in Germanic and Slavic languages. at the same time, it demonstrates that the application of ’theoretically’ different resources is possible in one contrastive analysis. This is especially valuable for nlp, which uses annotated resources to train language models for various tools.
V článku provádíme srovnávací analýzu diskurzních jevů v němčině a češtině na základě dvou korpusových zdrojů pro tyto jazyky. Korpusy jsou anotovány v rámci různých teoretických přístupů: FGP (Sgall et al. 1986) pro češtinu a teorie textové koheze (Halliday & Hasan 1976) pro němčinu. Hledáme společné rysy, automaticky je identifikujeme v textech a tím se dostáváme k srovnatelným korpusům anotovaných stejnými typy vztahů, které dále rozebíráme. (viz hlavně angl. abstrakt a text)
[ "Ekaterina Lapshinova-Koltunski", "Anna Nedoluzhko", "Kerstin Anna Kunz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Using Term Position Similarity and Language Modeling for Bilingual Document Alignment
Využití podobnosti pozic termínů a jazykového modelování pro identifikaci dvojic dokumentů
The WMT Bilingual Document Alignment Task requires systems to assign source pages to their “translations”, in a big space of possible pairs. We present four methods: The first one uses the term position similarity between candidate document pairs. The second method requires automatically translated versions of the target text, and matches them with the candidates. The third and fourth methods try to overcome some of the challenges presented by the nature of the corpus, by considering the string similarity of source URL and candidate URL, and combining the first two approaches.
Článek popisuje metodu hledání dvojic dokumentů, které jsou si překladem, na základě podobného umístění klíčových slov v kandidátech a na základě podobnosti měřené n-gramovým jazykovým modelem.
[ "Le Thanh", "Hoa Vu Throng", "Jonathan Oberländer", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/b7e1c477243944bf99afcabde0c85de200fcdb47/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
MUSCIMarker 1.1
MUSCIMarker 1.1
MUSCIMarker 1.1 is an open-source tool for annotating visual objects and their relationships in images. It was designed with music notation in mind, but it can annotate any user-defined object set. Specialized functionality is provided to speed up annotation of binary images (where the background, defined as an area where no object of interest resides, is known). MUSCIMarker is an offline standalone graphical user interface desktop application implemented in Python and known to run on all major desktop operating systems (Windows, Linux and OS X).
MUSCIMarker 1.1 je open-source nástroj pro anotaci vizuálních objektů a jejich vztahů v obrázkách. Byl navržen pro anotování hudební notace, avšak uživatel může definovat libovolnou sadu objektů. Poskytuje specializované funkce pro zrychlení anotace binárních obrázků (tj. obrázků, kde je jsou jasně vymezené oblasti pozadí, ve kterých se žádný anotovaný objekt nevyskytuje). MUSCIMarker je samostatná aplikace s grafickým rozhraním pro osobní počítače a nevyžaduje připojení na internet; je implementována v jazyce Python a otestována na všech třech hlavních operačních systémech (Windows, Linux a OS X).
[ "Jan Hajič, jr." ]
https://www.semanticscholar.org/paper/c1029b78a53937870c47af8fe262864883982c86/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Further Steps towards a Standard Testbed for Optical Music Recognition
Další kroky ke standardizovanému testování pro rozpoznávání notopisu
Evaluating Optical Music Recognition (OMR) is notoriously difficult and automated end-to-end OMR evaluation metrics are not available to guide development. In “Towards a Standard Testbed for Optical Music Recognition: Definitions, Metrics, and Page Images”, Byrd and Simonsen recently stress that a benchmarking standard is needed in the OMR community, both with regards to data and evaluation metrics. We build on their analysis and definitions and present a prototype of an OMR benchmark. We do not, however, presume to present a complete solution to the complex problem of OMR benchmarking. Our contributions are: (a) an attempt to define a multi- level OMR benchmark dataset and a practical prototype implementation for both printed and handwritten scores, (b) a corpus-based methodology for assessing automated evaluation metrics, and an underlying corpus of over 1000 qualified relative cost-to-correct judgments. We then assess several straightforward automated MusicXML evaluation metrics against this corpus to establish a baseline over which further metrics can improve.
Evaluace rozpoznávání notopisu (Optical Music Recognition, OMR) je notoricky obtížná a automatické metriky pro evaluaci konečného výstupu OMR nejsou k dispozici. V "Towards a Standard Testbed for Optical Music Recognition: Definitions, Metris and Page Images", Byrd a Simonsen nedávno zdůraznili, že benchmarkovací standard je v komunitě OMR nutný: jak evaluační data, tak metriky. Navazujeme na jejich analýzu a předkládáme prototyp benchmarku pro OMR. Náš příspěvek není úplné řešení komplexního problému evaluace OMR; je to (a) snaha definovat víceúrovňový testovací dataset pro OMR a implementace jeho prototypu pro tištěná a rukopisná data, (b) na korpusu založená metodologie pro vyhodnocování automatických evaluačních metrik, a příslušný korpus více než 1000 expertních posouzení relativní obtížnosti opravy různých druhů chyb. Na (b) pak navazujeme vyhodnocením několika přímočarých evaluačních metrik pro MusicXML a nastavujeme tak baseline, kterou další metriky budou zlepšovat.
[ "Jan Hajič, jr.", "Jiří Novotný", "Pavel Pecina", "Jaroslav Pokorný" ]
https://www.semanticscholar.org/paper/93f7fda94b5a7297f0073c34b9f6d09ef173f7a0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Automated implementation process of machine translation system for related languages.
Automatizovaný proces implementace systému strojového překladu pro příbuzné jazyky
The paper presents an attempt to automate all data creation processes of a rule-based shallow-transfer machine translation system. The presented methods were tested on four fully functional translation systems covering language pairs: Slovenian paired with Serbian, Czech, English and Estonian language. An extensive range of evaluation tests was performed to assess the applicability of the methods.
Článek popisuje pokus o automatizaci všech procesů vytváření dat u systému strojového překladu založeného na pravidlovém přístupu s mělkým transferem. Uváděné metody byly vyzkoušeny na čtyřech plně funkčních překladových systémech pokrývajících tyto jazykové páry: slovinštinu do srbštiny, češtiny, angličtiny a estonštiny. Aplikovatelnost použitých metod byla testována rozsáhlou řadou evalučních testů.
[ "Jernej Vičič", "Petr Homola", "Vladislav Kuboň" ]
https://www.semanticscholar.org/paper/41837d1610a4308f6cfead013b9618a5ea3b9718/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Automatic Keyword Extraction from Medical and Healthcare Curriculum
Automatická extrakce klíčových slov z medicínských záznamů
Medical and healthcare study programmes are quite complicated in terms of branched structure and heterogeneous content. In logical sequence a lot of requirements and demands placed on students appear there. This paper focuses on an innovative way how to discover and understand complex curricula using modern information and communication technologies. We introduce an algorithm for curriculum metadata automatic processing -- automatic keyword extraction based on unsupervised approaches, and we demonstrate a real application during a process of innovation and optimization of medical education. The outputs of our pilot analysis represent systematic description of medical curriculum by three different approaches (centrality measures) used for relevant keywords extraction. Further evaluation by senior curriculum designers and guarantors is required to obtain an objective benchmark.
Medical and healthcare study programmes are quite complicated in terms of branched structure and heterogeneous content. In logical sequence a lot of requirements and demands placed on students appear there. This paper focuses on an innovative way how to discover and understand complex curricula using modern information and communication technologies. We introduce an algorithm for curriculum metadata automatic processing - automatic keyword extraction based on unsupervised approaches, and we demonstrate a real application during a process of innovation and optimization of medical education. The outputs of our pilot analysis represent systematic description of medical curriculum by three different approaches (centrality measures) used for relevant keywords extraction. Further evaluation by senior curriculum designers and guarantors is required to obtain an objective benchmark.
[ "Martin Komenda", "Matěj Karolyi", "Andrea Pokorná", "Martin Víta", "Vincent Kríž" ]
https://www.semanticscholar.org/paper/b513196ebcbffb94e430d374aa925f3911047e4e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Improving Dependency Parsing Using Sentence Clause Charts
Zlepšení závislostního parsingu pomocí klauzálních grafů
We propose a method for improving the dependency parsing of complex sentences. This method assumes segmentation of input sentences into clauses and does not require to re-train a parser of one's choice. We represent a sentence clause structure using clause charts that provide a layer of embedding for each clause in the sentence. Then we formulate a parsing strategy as a two-stage process where (i) coordinaed and subordinated clauses of the sentence are parsed separately with respect to the sentence clause chart and (ii) their dependency trees become subtrees of the final tree of the sentence. The object language is Czech and the parser used is a maximum spanning tree parser trained on the Prague Dependency Treebank. We have achieved an average 0.97% improvement in the unlabeled attachment score. Although the method has been designed for the dependency parsing of Czech, it is useful for other parsing techniques and languages.
Navrhujeme metodu, která zlepšuje závislostní parsing složených vět. Metoda předpokládá segmentaci věty do klauzí a nevyžaduje přetrénování parseru. Klauzální strukturu věty reprezentujeme pomocí klauzálních grafů, které poskytují informaci o vnoření každé klauze. Navrhujeme postup, ve kterém parsujeme klauze nezávisle a vzniklé závislostní stromy vkládáme jako podstromy do finálního stromu pro celou větu. Metodu aplikujeme na češtinu a experimentujeme s MST parserem natrénovaným na PDT 2.0. Dosahujeme zvýšení UAS o 0.97%.
[ "Vincent Kríž" ]
https://www.semanticscholar.org/paper/49a34ffb816997c8d8d20225e293004f7d643d81/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
RExtractor: a Robust Information Extractor
RExtractor: robustní informační extraktor
The RExtractor system is an information extractor that processes input documents by natural language processing tools and consequently queries the parsed sentences to extract a knowledge base of entities and their relations. The extraction queries are designed manually using a tool that enables natural graphical representation of queries over dependency trees. A workflow of the system is designed to be language and domain independent. We demonstrate RExtractor on Czech and English legal documents.
RExtractor je systém pro extrakci informací. Vstupní dokumenty jsou zpracovány NLP nástroji. Extrakce následně probíhá pomocí dotazů nad závislostními stromy. Výsledkem je znalostní báze dokumentu, definována jako množina entit a vztahů mezi nima. Dotazy nad stromy jsou definovány manuálně. Architektura systému je navržena doménově a jazykově nezávisle. Systém demonstrujeme na českých a anglických právních dokumentech.
[ "Vincent Kríž" ]
https://www.semanticscholar.org/paper/6c524c3fcdacd156a1cd074700843cd2bf04c712/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Statistical Recognition of References in Czech Court Decisions
Statistiké rozpoznávaní referencí v českých soudních rozhodnutích
The RExtractor system is an information extractor that processes input documents by natural language processing tools and consequently queries the parsed sentences to extract a knowledge base of entities and their relations. The extraction queries are designed manually using a tool that enables natural graphical representation of queries over dependency trees. A workflow of the system is designed to be language and domain independent. We demonstrate RExtractor on Czech and English legal documents.
RExtractor je systém pro extrakci informací. Vstupní dokumenty jsou zpracovány NLP nástroji. Extrakce následně probíhá pomocí dotazů nad závislostními stromy. Výsledkem je znalostní báze dokumentu, definována jako množina entit a vztahů mezi nima. Dotazy nad stromy jsou definovány manuálně. Architektura systému je navržena doménově a jazykově nezávisle. Systém demonstrujeme na českých a anglických právních dokumentech.
[ "Vincent Kríž" ]
https://www.semanticscholar.org/paper/f90bdfa3d40b703886110f68c5842b6caa199d21/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Improving Dependency Parsing Using Sentence Clause Charts
Zlepšení závislostního parsingu pomocí klauzálních grafů
We propose a method for improving the dependency parsing of complex sentences. This method assumes segmentation of input sentences into clauses and does not require to re-train a parser of one's choice. We represent a sentence clause structure using clause charts that provide a layer of embedding for each clause in the sentence. Then we formulate a parsing strategy as a two-stage process where (i) coordinaed and subordinated clauses of the sentence are parsed separately with respect to the sentence clause chart and (ii) their dependency trees become subtrees of the final tree of the sentence. The object language is Czech and the parser used is a maximum spanning tree parser trained on the Prague Dependency Treebank. We have achieved an average 0.97% improvement in the unlabeled attachment score. Although the method has been designed for the dependency parsing of Czech, it is useful for other parsing techniques and languages.
Navrhujeme metodu, která zlepšuje závislostní parsing složených vět. Metoda předpokládá segmentaci věty do klauzí a nevyžaduje přetrénování parseru. Klauzální strukturu věty reprezentujeme pomocí klauzálních grafů, které poskytují informaci o vnoření každé klauze. Navrhujeme postup, ve kterém parsujeme klauze nezávisle a vzniklé závislostní stromy vkládáme jako podstromy do finálního stromu pro celou větu. Metodu aplikujeme na češtinu a experimentujeme s MST parserem natrénovaným na PDT 2.0. Dosahujeme zvýšení UAS o 0.97%.
[ "Vincent Kríž", "Barbora Hladká" ]
https://www.semanticscholar.org/paper/49a34ffb816997c8d8d20225e293004f7d643d81/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Czech Legal Text Treebank 1.0
Český korpus právních textů 1.0
We introduce a new member of the family of Prague dependency treebanks. The Czech Legal Text Treebank 1.0 is a morphologically and syntactically annotated corpus of 1,128 sentences. The treebank contains texts from the legal domain, namely the documents from the Collection of Laws of the Czech Republic. Legal texts differ from other domains in several language phenomena influenced by rather high frequency of very long sentences. A manual annotation of such sentences presents a new challenge. We describe a strategy and tools for this task. The resulting treebank can be explored in various ways. It can be downloaded from the LINDAT/CLARIN repository and viewed locally using the TrEd editor or it can be accessed on-line using the KonText and TreeQuery tools.
Představujeme nového člena rodiny pražských závislostních korpusů. Český korpus právních textů je morfologicky a syntakticky anotovaný korpus 1128 vět, který obsahuje texty z právní domény, konkrétně dokumenty ze Sbírky zákonů České republiky. Právní texty se odlišují od jiných domén v několika jazykových jevech vyplývajících z vysoké četnosti velmi dlouhých vět. Manuální anotace takových vět představuje novou výzvu. Popisujeme strategii a nástroje pro tento úkol. Korpus je dostupný několika způsoby, a sice z repozitáře LINDAT/CLARIN a on-line pomocí aplikací KonText a TreeQuery.
[ "Vincent Kríž", "Barbora Hladká", "Zdeňka Urešová" ]
https://www.semanticscholar.org/paper/a64dcda9b1a7ad699e42dcd186f8e7d8c2113e5a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
VIADAT-REPO
VIADAT-REPO
VIDATA-REPO is a modification to lindat-dspace platform; it's a part of the VIADAT project and as such will be a part of a "virtual assistant" for processing, annotation, enrichment and accessing of audio and video recordings.
VIADAT-REPO je součást projektu VIADAT, tj. část "virtuálního asistenta" pro zpracování, anotaci, obohacení a přístup k audio a video nahrávkám. Základem tohoto softwaru je repozitář lindat-dspace.
[ "Ondřej Košarko", "Jan Hajič" ]
https://www.semanticscholar.org/paper/84ca9614716b465d19621229b4396aa8c2c688cb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
The IR Task at the CLEF eHealth Evaluation Lab 2016: User-centred Health Information Retrieval
Úloha vyhledávání informací v CLEF eHealth Evaluation Lab 2016: vyhledávání zdravotních informací pro uživatele
This paper details the collection, systems and evaluation methods used in the IR Task of the CLEF 2016 eHealth Evaluation Lab. This task investigates the effectiveness of web search engines in providing access to medical information for common people that have no or little medical knowledge. The task aims to foster advances in the development of search technologies for consumer health search by providing resources and evaluation methods to test and validate search systems. The problem considered in this year’s task was to retrieve web pages to support the information needs of health consumers that are faced by a medical condition and that want to seek relevant health information online through a search engine. As part of the evaluation exercise, we gathered 300 queries users posed with respect to 50 search task scenarios. The scenarios were developed from real cases of people seeking health information through posting requests of help on a web forum. The presence of query variations for a single scenario helped us capturing the variable quality at which queries are posed. Queries were created in English and then translated into other languages. A total of 49 runs by 10 different teams were submitted for the English query topics; 2 teams submitted 29 runs for the multilingual topics.
Souhrnný článek o přípravě, průbehu a výsledcích soutěže vyhledávání zdravotních informací CLEF eHealth Evaluation Lab 2016.
[ "Guido Zuccon", "João Palotti", "Lorraine Goeuriot", "Liadh Kelly", "Mihai Lupu", "Pavel Pecina", "Henning Müller", "Julie Budaher", "Anthony Deacon" ]
https://www.semanticscholar.org/paper/e9be6aabce0e19983287aadc61e80d8914e0fe37/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Public License Selector
Selektor veřejných licencí
Customizable tool that will help user select the right public license for his data or software
nástroj, který pomůže uživateli vybrat vhodnou veřejnou licenci jeo jeho data nebo software
[ "Michal Sedlák", "Pavel Straňák", "Paweł Kamocki" ]
https://www.semanticscholar.org/paper/fdbf525d523c4d3181961b7b29e95c7e2c953366/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
CLARIN Concept Registry: The New Semantic Registry
CLARIN Concept Registry: nový sémantický rejstřík
The CLARIN Concept Registry (CCR) is the place in the CLARIN Infrastructure where common and shared semantics are defined. This is important to achieve semantic interoperability, and to overcome to a degree the diversity in data structures, either in metadata or linguistic resources, encountered within the infrastructure. Whereas in the past, CLARIN has been using the ISOcat registry for these purposes, nowadays this new CCR registry is being used, as ISOcat turned out to have some serious drawbacks as far as its use in the CLARIN community is concerned. The main difference between both semantic registries is that the new CCR registry is a concept registry whereas ISOcat is a data category registry. In this paper we describe why this choice has been made. We also describe the most important other characteristics of the new (Open)SKOSbased registry, as well as the management procedures used to prevent a recurrent proliferation of entries, as was the case with ISOcat.
CLARIN Concept Registry (CCR, Rejstřík konceptů CLARIN) je součást Infrastruktury CLARIN a místo, kde se definuje společná a sdílená sémantika. To je důležité pro dosažení sémantické interoperability a pro překonání různosti datových struktur v metadatech a lingvistických zdrojích, se kterou se v rámci infrastruktury setkáváme.
[ "Ineke Schuurman", "Menzo Windhouwer", "Oddrun Ohren", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/8b35185db2b60318579c741f18f19eb1ec0fa448/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2016
Interrogation unit for wooden buildings monitoring
Interogační jednotka pro monitorování dřevostaveb
This thesis presents the original computer program that monitors a stability of structural elements in timber constructions. The program captures and evaluates the data from fiber-optic FBG sensors embedded into the glued wooden beams. Glued timber beams deflect under load, which causes deformation of the optical sensors. This deformation is recorded with a spectrum analyzer that evaluates the spectrum reflected from the optical sensors. The broad-spectrum laser source emits the light through the optical fiber into the FBG sensors. The created computer program called FBG Monitor analyzes the measured data and controls connected devices. It allows you to configure measurement parameters, view and store measured values. The program FBG Monitor can be controlled remotely via a web interface.
Diplomová práce předkládá autorem samostatně vytvořený původní počítačový program, který monitoruje stabilitu nosných prvků v dřevostavbách. Program snímá a vyhodnocuje data z optovláknových FBG senzorů zabudovaných do dřevěných lepených nosníků. Dřevěné lepené nosníky se při zátěži prohýbají, což vyvolává deformaci optických senzorů. Tato deformace je zaznamenána pomocí spektrálního analyzátoru, který vyhodnocuje spektrum odražené od optických senzorů. Do nich je optickým vláknem přivedeno světlo ze širokospektrálního laserového zdroje. Vytvořený počítačový program s názvem FBG Monitor analyzuje naměřená data a ovládá připojená zařízení. Umožňuje konfigurovat parametry měření, prohlížet a ukládat hodnoty. Program FBG Monitor lze ovládat vzdáleně přes webové rozhraní.
[ "Michal Olbrich" ]
https://www.semanticscholar.org/paper/dee20f0656809cb0d102a119a926d4051f798045/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2016
Radio said... or the mapping of location and actor in a bilingual dependency treebank
Hlásili to v rozhlase aneb vzájemné mapování lokace a aktora v dvojjazyčném závislostním korpusu
In the talk, we discuss one particular type of structural difference between Czech and English parallel sentences in a bilingual dependency treebank PCEDT, i.e., the mapping of valency complementation of teh ACT type and the free modification of the LOC type. In the analysis of corpus sentences we comment on the impact of the language specific syntacto-semantic preferences of concrete words in the position of subject and predicate on the differences in valency patterns of verbs.
V příspěvku se zabýváme jedním typem strukturní odlišnosti mezi českými a anglickými paralelními větami v dvojjazyčném korpusu PCEDT, konkrétně vzájemným mapováním valenčních doplnění aktorového typu a (nevalenčních) lokačních doplnění. Analýzou korpusových příkladů ukazujeme, do jaké míry se na rozdílech ve valenci sloves v překladově ekvivalentních větách podílejí jazykově specifické- syntakticko-sémantické preference konkrétních slov na pozicích subjektu a predikátu
[ "Jana Šindlerová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Prague Discourse Treebank 2.0
Pražský diskurzní korpus 2.0
PDiT 2.0 is a new version of the Prague Discourse Treebank. It contains a complex annotation of discourse phenomena enriched by the annotation of secondary connectives.
PDiT 2.0 je novou verzí Pražského diskurzního korpusu. Přináší komplexní anotaci diskurzních jevů, obohacenou o anotaci sekundárních konektorů.
[ "Magdaléna Rysová", "Pavlína Synková", "Jiří Mírovský", "Eva Hajičová", "Anna Nedoluzhko", "Radek Ocelák", "Jiří Pergler", "Lucie Poláková", "Veronika Pavlíková", "Jana Zdeňková", "Šárka Zikánová" ]
https://www.semanticscholar.org/paper/9224f1a99f10cee8eeef6bbd20aa58e370959e1d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Verb Sense Disambiguation in Machine Translation
Rozlišení významu u sloves ve strojovém překladu
We describe experiments in Machine Translation using word sense disambiguation (WSD) information. This work focuses on WSD in verbs, based on two different approaches -- verbal patterns based on corpus pattern analysis and verbal word senses from valency frames. We evaluate several options of using verb senses in the source-language sentences as an additional factor for the Moses statistical machine translation system. Our results show a statistically significant translation quality improvement in terms of the BLEU metric for the valency frames approach, but in manual evaluation, both WSD methods bring improvements.
Popisujeme experimenty s použitím rozlišení významu slov (WSD) ve strojovém překladu. Zaměřujeme se na WSD u sloves a používáme dva různé přístupy -- slovesné vzorce založené na metodě corpus pattern analysis a významy sloves z valenčního slovníku. Vyhodnocujeme několik způsobů, jak použít významy sloves jako dodatečný faktor ve strojovém překladači Moses. Výsledky ukazují statisticky signifikantní zlepšení kvality překladu z pohledu metriky BLEU pro přístup s valenčním slovníkem, ale v ruční evaluaci vycházejí obě metody WSD jako přínos.
[ "Roman Sudarikov", "Ondřej Dušek", "Martin Holub", "Ondřej Bojar", "Vincent Kríž" ]
https://www.semanticscholar.org/paper/374d6574edc694a8b6fb7fc790349010b5015434/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Using MT-ComparEval
Používání nástroje MT-ComparEval
The paper showcases the MT-ComparEval tool for qualitative evaluation of machine translation (MT). MT-ComparEval is an opensource tool that has been designed in order to help MT developers by providing a graphical user interface that allows the comparison and evaluation of different MT engines/experiments and settings.
Tento představuje nástroj MT-ComparEval pro kvalitativní vyhodnocení strojového překladu. MT-ComparEval je opensourcový nástroj, který byl navržen tak, aby pomáhal vývojářům strojových překladačů díky grafickému rozhraní, které umožňuje porovnávat a vyhodnocovat různé překladače či experimenty a nastavení.
[ "Roman Sudarikov", "Martin Popel", "Ondřej Bojar", "Aljoscha Burchardt", "Ondřej Klejch" ]
https://www.semanticscholar.org/paper/04b0094935ed1fb442da49cfa001632801c4ecc2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Tools and Guidelines for Principled Machine Translation Development
Nástroje a doporučení pro důsledný vývoj strojového překladu
This work addresses the need to aid Machine Translation (MT) development cycles with a complete workflow of MT evaluation methods. Our aim is to assess, compare and improve MT system variants. We hereby report on novel tools and practices that support various measures, developed in order to support a principled and informed approach of MT development
Tento článek reaguje na potřebu podpory strojového překladu pomocí vývojových cyklů s integrovanými evaluačními metodami. Naším cílem je zhodnotit, porovnat a vylepšit různé varianty strojových překladačů. Článek pojednává o nových nástrojích a praktikách, které podporují informovaný přístup k vývoji strojových překladačů.
[ "Nora Aranberri", "Eleftherios Avramidis", "Aljoscha Burchardt", "Ondřej Klejch", "Martin Popel", "Maja Popović" ]
https://www.semanticscholar.org/paper/9954c80b373db384f0a6b737997d45bfce739c9c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
UFAL at SemEval-2016 Task 5: Recurrent Neural Networks for Sentence Classification
UFAL v úloze SemEval-2016 Task 5: Klasifikace vět pomocí rekurentních neuronových sítí
This paper describes our system for aspect-based sentiment analysis (ABSA). We participate in Subtask 1 (sentence-level ABSA), focusing specifically on aspect category detection. We train a binary classifier for each category. This year’s addition of multiple languages makes language-independent approaches attractive. We propose to utilize neural networks which should be capable of discovering linguistic patterns in the data automatically, thereby reducing the need for language-specific tools and feature engineering.
Článek popisuje náš systém pro aspektovou analýzu postojů (ABSA). Účastníme se podúkolu 1 (ABSA na úrovni vět), v jeho rámci se pak zaměřujeme na detekci kategorií aspektů. Trénujeme binární klasifikátory pro každou kategorii. Letošní rozšíření o další jazyky motivuje jazykově nezávislé přístupy. Navrhujeme využít neuronové sítě, které by měly automaticky detekovat v datech jazykové konstrukce, a tak omezit nutnost využívat jazykově závislé nástroje a ruční návrh rysů.
[ "Aleš Tamchyna", "Kateřina Veselovská" ]
https://www.semanticscholar.org/paper/f0f69ade2a6f95ca4650c3477d1a316c635cdbde/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Target-Side Context for Discriminative Models in Statistical Machine Translation
Cílový kontext v diskriminativních modelech strojového překladu
Discriminative translation models utilizing source context have been shown to help statistical machine translation performance. We propose a novel extension of this work using target context information. Surprisingly, we show that this model can be efficiently integrated directly in the decoding process. Our approach scales to large training data sizes and results in consistent improvements in translation quality on four language pairs. We also provide an analysis comparing the strengths of the baseline source-context model with our extended source-context and target-context model and we show that our extension allows us to better capture morphological coherence. Our work is freely available as part of Moses.
Diskriminativní překladové modely, které využívají zdrojový kontext, zlepšují kvalitu statistického strojového překladu. V tomto článku navrhujeme nové rozšíření, které navíc využívá i informace z cílového kontextu. Ukazujeme, že i takový model lze efektivně integrovat přímo do procesu dekódování. Náš přístup lze uplatnit i na velká trénovací data a jeho využití konzistentně zlepšuje kvalitu překladu u čtyř jazykových párů. Analyzujeme také zvlášť přínos zdrojového a cílového kontextu a ukazujeme, že toto rozšíření lépe zachycuje morfologickou shodu. Model je volně dostupný v rámci softwaru Moses.
[ "Aleš Tamchyna", "Alexander Fraser", "Ondřej Bojar", "Marcin Junczys-Dowmunt" ]
https://www.semanticscholar.org/paper/ec0c590c87be8550b6637e2c5caf5506aa71b589/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Manual and Automatic Paraphrases for MT Evaluation
Ruční a automatické parafráze pro hodnocení strojového překladu
Paraphrasing of reference translations has been shown to improve the correlation with human judgements in automatic evaluation of machine translation (MT) outputs. In this work, we present a new dataset for evaluating English-Czech translation based on automatic paraphrases. We compare this dataset with an existing set of manually created paraphrases and find that even automatic paraphrases can improve MT evaluation. We have also propose and evaluate several criteria for selecting suitable reference translations from a larger set.
Již v minulosti se ukázalo, že parafrázování referenčních překladů zlepšuje korelaci s lidským hodnocením při automatickém vyhodnocování strojového překladu. V této práci představujeme novou sadu dat k vyhodnocování anglicko-českého překladu založenou na automatických parafrázích. Tuto sadu porovnáváme s existující sadou ručně tvořených parafrází a zjišťujeme, že i automatické parafráze mohou hodnocení překladu zlepšit. Navrhujeme a vyhodnocujeme také několik kritérií pro výběr vhodných referenčních překladů z větší sady.
[ "Aleš Tamchyna", "Petra Barančíková" ]
https://www.semanticscholar.org/paper/92dcacfee2715b2aafb15db6fcf3d1ae4b0902d0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
CUNI-LMU Submissions in WMT2016: Chimera Constrained and Beaten
Systémy CUNI-LMU na WMT2016: Chiméra spoutána a poražena
This paper describes the phrase-based systems jointly submitted by CUNI and LMU to English-Czech and English-Romanian News translation tasks of WMT16. In contrast to previous years, we strictly limited our training data to the constraint datasets, to allow for a reliable comparison with other research systems. We experiment with using several additional models in our system, including a feature-rich discriminative model of phrasal translation.
Tento článek popisuje společnou praci UK a LMU nad anglické-českého a anglický-rumunského systémy frázových překladu pro WMT16. V porovnání s minulými pokusy, jsme přísně omezili trénovací daty na constrained, aby bylo možné spolehlivé porovnat naší systémy s jiné výzkumné systémy. My jsme zkoušeli využiti několika dalších modelů v naších systémech, včetně diskriminačního modelu frázových překladu.
[ "Aleš Tamchyna", "Roman Sudarikov", "Ondřej Bojar", "Alexander Fraser" ]
https://www.semanticscholar.org/paper/f0d14b665d9ac3ea1f396a3afd4dfbaa4ab14897/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
UDPipe
UDPipe
UDPipe is an trainable pipeline for tokenization, tagging, lemmatization and dependency parsing of CoNLL-U files. UDPipe is language-agnostic and can be trained given only annotated data in CoNLL-U format. Trained models are provided for nearly all UD treebanks. UDPipe is available as a binary, as a library for C++, Python, Perl, Java, C#, and as a web service. UDPipe is a free software under Mozilla Public License 2.0 and the linguistic models are free for non-commercial use and distributed under CC BY-NC-SA license, although for some models the original data used to create the model may impose additional licensing conditions.
UDPipe je trénovatelný nástroj pro tokenizaci, tagging, lemmatizaci a závislostní parsing CoNLL-U souborů. UDPipe je jazykově nezávislý a pro natrénování jazykového modelu stačí označkovaná data v CoNLL-U formátu. Předtrénované jazykové modely jsou k dispozici pro téměř všechny UD korpusy. UDPipe je k dispozici jako spustitelný soubor, jako knihovna pro C++, Python, Perl, Java, C#, a také jako webová služba. UDPipe je svobodný software licencovaný pod Mozilla Public License 2.0 a jazykové modely jsou k dispozici pro nekomerční použití pod licencí CC BY-NC-SA, nicméně původní data použitá k vytvoření modelů mohou v některých případech ukládat další licenční omezení.
[ "Milan Straka", "Jana Straková" ]
https://www.semanticscholar.org/paper/ea40fba2dc52bde32dedd45b05f83d27dc2ea6c7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Complete Analysis from Unstructured Text to Dependency Tree with UDPipe and NameTag
Úplná analýza nestrukturovaného textu až k závislostnímu stromu pomocí nástrojů UDPipe a NameTag
We present our in-house software tools for NLP: UDPipe, an open-source tool for processing CoNLL-U files which performs tokenization, morphological analysis, POS tagging and dependency parsing for 32 languages; and NameTag, a named entity recognizer for Czech and English. Both tools achieve excellent performance and are distributed with pretrained models, while running with minimal time and memory requirements. UDPipe and NameTag are also trainable with your own data. Both tools are open-source and distributed under Mozilla Public License 2.0 (software) and CC BY-NC-SA (data). The binary, C++ library with Python, Perl, Java and C# bindings along with online web service and demo are available at http://ufal.mff.cuni.cz/udpipe and http://ufal.mff.cuni.cz/nametag.
Představujeme naše softwarové nástroje pro NLP: UDPipe, open-source nástroj pro zpracování CoNLL-U souborů, který provádí tokenizaci, morfologickou analýzu, určování slovních druhů a závislostní parsing pro 32 jazyků; a NameTag, rozpoznávač pojmenovaých entit pro češtinu a angličtinu. Oba nástroje dosahují vynikajících výsledků, jsou dostupné s předtrénovanými modely a mají minimální nároky na čas a paměť počítače. UDPipe a NameTag lze také trénovat s použitím vlastních dat. Oba nástroje jsou open-source a jsou dostupné v licenci Mozilla Public License 2.0 (software) a CC BY-NC-SA (data). Program, C++ knihovna s vazbami na Python, Perl, Java a C# a také online web service a demo jsou dostupné na odkazech http://ufal.mff.cuni.cz/udpipe a http://ufal.mff.cuni.cz/nametag.
[ "Milan Straka", "Jana Straková", "Jan Hajič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
UDPipe: Trainable Pipeline for Processing CoNLL-U Files Performing Tokenization, Morphological Analysis, POS Tagging and Parsing
UDPipe: Trénovatelný nástroj pro zpracování souborů typu CoNLL-U, který provádí tokenizaci, morfologickou analýzu, určování slovních druhů a parsing
Automatic natural language processing of large texts often presents recurring challenges in multiple languages: even for most advanced tasks, the texts are first processed by basic processing steps – from tokenization to parsing. We present an extremely simple-to-use tool consisting of one binary and one model (per language), which performs these tasks for multiple languages without the need for any other external data. UDPipe, a pipeline processing CoNLL-U-formatted files, performs tokenization, morphological analysis, part-of-speech tagging, lemmatization and dependency parsing for nearly all treebanks of Universal Dependencies 1.2 (namely, the whole pipeline is currently available for 32 out of 37 treebanks). In addition, the pipeline is easily trainable with training data in CoNLL-U format (and in some cases also with additional raw corpora) and requires minimal linguistic knowledge on the users’ part. The training code is also released.
Při automatickém zpracování rozsáhlých textů v přirozeném jazyce se často opakují podobné úkoly v několika jazycích: i při zpracování obtížných úloh jsou texty vždy zpracovávány obvyklými základními kroky od tokenizace k parsingu. Představujeme mimořádně jednoduchý a použitelný nástroj pro základní zpracování přirozeného jazyka, který sestává pouze z jednoho programu a jednoho modelu (pro každý jazyk). Tento nástroj provádí tyto úkoly pro mnoho jazyků, aniž by vyžadoval dodatečná data. UDPipe je tedy nástroj, který zpracovává soubory ve formátu CoNLL-U a provádí tokenizaci, morfologickou analýzu, rozpoznávání slovních druhů, lematizaci a závislostní parsing pro téměř všechny jazyky korpusu Universtal Dependencies 1.2 (konkrétně je nástroj dostupný pro 32 jazyků). Navíc je celý nástroj snadno trénovatelný při použití vlastních trénovacích dat v CoNLL-U formátu a vyžaduje minimální znalost lingvistiky. Kód pro trénovaní nástroje je také dostupný.
[ "Milan Straka", "Jan Hajič", "Jana Straková" ]
https://www.semanticscholar.org/paper/c5f5bb3131f5f1082bd82cce8a0ac08dea1e9366/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Linguistic digital repository based on DSpace 5.2
Digitální repozitář pro jazyková data založený na DSpace 5.2
One of the goals of LINDAT/CLARIN Centre for Language Research Infrastructure is to provide technical background to institutions or researchers who wants to share their tools and data used for research in linguistics or related research fields. The digital repository is built on a highly customised DSpace platform.
Jedním z cílů infrastruktury LINDAT/CLARIN je poskytovat technické prostředky pro sdílení nástrojů a dat pro výzkumné účely a v souladu s technickými požadavky CLARIN ERIC. Proto byl vybudován a je rozvíjen tento silně adaptovaný repozitářový systém založený na platformě DSpace.
[ "Jozef Mišutka", "Amir Kamran", "Ondřej Košarko", "Michal Josífko", "Loganathan Ramasamy", "Pavel Straňák", "Jan Hajič" ]
https://www.semanticscholar.org/paper/6a7ba92c62e0413cc750ffa2c6949a03d1ac7983/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
AAI: systematically addressing the attribute release problem
AAI: Systematický přístup k problému uvolňování atributů
CLARIN Service Provider Federation is not the only inter-federation but it is the first one to systematically address the issue when Identity Providers do not release mandatory attributes to a service. For instance, if a data set is licensed under a restrictive license the user must be uniquely identifiable over time. However, if the Identity Provider does not release such information, the service cannot let the user download the data.
CLARIN SPF není jediná inter-federace, ale je první, která se systematicky zabývá problémy, které působí neuvolnění povinných atributů poskytovateli identit. Například, jsou-li data zveřejněná pod restriktivní licencí, musí být uživatel jednoznačně identifikovatelný v průběhu času. Pokud poskytovatel identity nezpřístupní potřebnou informaci, služba nemůže uživateli dovolit, aby data získal.
[ "Jozef Mišutka", "Ondřej Košarko", "Amir Kamran" ]
https://www.semanticscholar.org/paper/156510dd3d38813784f8b9cb6b380be899eec83a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
SHORTREF.ORG Making URLs Easy-to-Cite
SHORTREF.ORG Lehko citovatelné a dohledatelné URL
In this paper, we present a easy-to-cite and persistent infrastructure (shortref.org) for research and data citation in the form a URL shortener service. Reproducibility of results is very important for the extension of research and is directly depends on the availability of the research data. The advancements in the web technologies made redistribution of the data much more easy nowadays, however, due to the dynamic nature of the web, the content is consistently on the move from one destination to another. The URLs researchers use for the citation of their contents do not directly account for these changes and many times when the users try to access the cited URLs, the data is either not available or moved to a newer version. In our proposed solution, the shortened URLs are not simple URLs but use persistent identifiers and provide a reliable mechanism to make the data always accessible that can directly improve the impact of research.
V tomto článku představujeme shortref.org - službu pro snadnou a trvalou citaci dat vzešlých z výzkumu. Tuto službu poskytujeme formou zkracovače URL. Reprodukovatelnost výsledků, důležitá součást vědeckého výzkumu, přímo závisí na dostupnosti dat, nad kterými výzkum probíhal. Rozvoj webových technologií velmi usnadnil sdílení dat. Kvůli dynamické povaze webu se ale obsah často přesouvá z jednoho místa na druhé. Běžné URL, které může výzkumník použít k citaci svých dat, nemá prostředky, kterými by se s tímto přesouváním dalo vyrovnat. Čtenář/uživatel tak často zjistí, že data se na dané URL již nenalézají, nebo dostane k dispozici novější verzi. Námi navrhované řešení, ve kterém je zkrácené URL perzistentním identifikátorem, poskytuje spolehlivý mechanismus pro stálou dostupnost dat a může tak zlepšit dopad výzkumu.
[ "Jozef Mišutka", "Ondřej Košarko", "Amir Kamran" ]
https://www.semanticscholar.org/paper/2805ec9811af604b88c8c9fa8d8b5c176b75801c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
The QT21/HimL Combined Machine Translation System
Společný překladový systém projektů QT21 a HimL
This paper describes the joint submission of the QT21 and HimL projects for the English→Romanian translation task of the ACL 2016 First Conference on Machine Translation (WMT 2016). The submission is a system combination which combines twelve different statistical machine translation systems provided by the different groups (RWTH Aachen University, LMU Munich, Charles University in Prague, University of Edinburgh, University of Sheffield, Karlsruhe Institute of Technology, LIMSI, University of Amsterdam, Tilde). The systems are combined using RWTH’s system combination approach. The final submission shows an improvement of 1.0 BLEU compared to the best single system on newstest2016.
Článek popisuje společný systém projektů QT21 a HimL pro překlad z angličtiny do rumunštiny. Systém je automatickou kombinací 12 základních systémů připravených několika skupinami.
[ "Jan-Thorsten Peter", "Tamer Alkhouli", "Hermann Ney", "Matthias Huck", "Fabienne Braune", "Alexander Fraser", "Aleš Tamchyna", "Ondřej Bojar", "Barry Haddow", "Rico Sennrich", "Frédéric Blain", "Lucia Specia", "Jan Niehues", "Alex Waibel", "Alexandre Allauzen", "Lauriane Aufrant", "Franck Burlot", "Elena Knyazeva", "Thomas Lavergne", "François Yvon", "Stella Frank", "Marcis Pinnis" ]
https://www.semanticscholar.org/paper/feef7ea14013e9e93b9f1219795b3b1a78bb5a8f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Constraint-Based Open Question Answering via Knowledge Graph Search
Otevřený question answering s pomocí znalostního grafu založený na omezeních
We introduce a highly scalable approach for open-domain question answering with no dependence on any logical form to surface form mapping data set or any linguistic analytic tool such as POS tagger or named entity recognizer. We define our approach under the Constrained Conditional Models framework which lets us scale to a full knowledge graph with no limitation on the size. On a standard benchmark, we obtained competitive results to state-of-the-art in open-domain question answering task.
Představujeme vysoce škálovatelný přístup k otevřenému question answeringu, který nezávisí na datasetu mapujícím z logické formy na povrchovou, ani na jakýchkoliv lingvistických nástrojích pro analýzu jako např. POS tagger nebo rozpoznavání pojmenovaných entit. Popisovaný přístup je definován v rámci frameworku Constrained Conditional Models, který umožnuje škálovat znalostní grafy bez jakéhokoliv omezení velikosti. Ve standardním benchmarku jsme dosáhli výsledky srovnatelné se state-of-the-art v otevřeném question answeringu.
[ "Ahmad Aghaebrahimian", "Filip Jurčíček" ]
https://www.semanticscholar.org/paper/64145a8edf9add1156d97c489028539fa4c5c66c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Open-domain Factoid Question Answering via Knowledge Graph Search
Otevřený question answering na faktoidech s pomocí znalostního grafu
We introduce a highly scalable approach for open-domain question answering with no dependence on any data set for surface form to logical form mapping or any linguistic analytic tool such as POS tagger or named entity recognizer. We define our approach under the Constrained Conditional Models framework which lets us scale up to a full knowledge graph with no limitation on the size. On a standard benchmark, we obtained near 4 percent improvement over the state-of-the-art in open-domain question answering task.
Představujeme vysoce škálovatelný přístup k otevřenému question answeringu, který nezávisí na datasetu mapujícím z logické formy na povrchovou, ani na jakýchkoliv lingvistických nástrojích pro analýzu, jako např. POS tagger nebo rozpoznavání pojmenovaných entit. Popisovaný přístup je definován v rámci frameworku Constrained Conditional Models, který umožnuje škálovat znalostní grafy bez omezení velikosti. Ve standardním benchmarku jsme dosáhli 4% zlepšení výsledků oproti state-of-the-art v otevřeném question answeringu.
[ "Ahmad Aghaebrahimian", "Filip Jurčíček" ]
https://www.semanticscholar.org/paper/64145a8edf9add1156d97c489028539fa4c5c66c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
SMT and Hybrid systems of the QTLeap project in the WMT16 IT-task
Statistické a hybridní systémy strojového překladu z projektu QTLeap v úloze IT překladu WMT16
This paper presents the description of 12 systems submitted to the WMT16 IT-task, covering six different languages, namely Basque, Bulgarian, Dutch, Czech, Portuguese and Spanish. All these systems were developed under the scope of the QTLeap project, presenting a common strategy. For each language two different systems were submitted, namely a phrase-based MT system built using Moses, and a system exploiting deep language engineering approaches, that in all the languages but Bulgarian was implemented using TectoMT. For 4 of the 6 languages, the TectoMT-based system performs better than the Moses-based one.
Tento článek představuje 12 systémů zaslaných do úlohy strojového překladu textů z IT domény v rámci WMT16. Systémy překládají z angličtiny do 6 jazyků: baskičtiny, bulharštiny, holandštiny, češtiny, portugalštiny a španělštiny. Všechny systémy byly vyvinuty v rámci projektu QTLeap. Pro každý jazykový pár byly zaslány dva systémy: frázový (Moses) a hloubkově-syntaktický (TectoMT, krom bulharštiny). Pro 4 z 6 jazyků dosáhlo TectoMT lepších výsledků než Moses.
[ "Rosa Gaudio", "Gorka Labaka", "Eneko Agirre", "Petya Osenova", "Kiril Simov", "Martin Popel", "Dieke Oele", "Gertjan van Noord", "Luís Gomes", "João António Rodrigues", "Steven Neale", "João Ricardo Silva", "Andreia Querido", "Nuno Rendeiro", "António Branco" ]
https://www.semanticscholar.org/paper/ea29d03e540218b89aef851a4a69aee1642719ef/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Bilingual Embeddings and Word Alignments for Translation Quality Estimation
Dvojjazyčné embedingy a slovní zarovnání pro odhad kvality strojového překladu
This paper describes our submission UFAL MULTIVEC to the WMT16 Quality Estimation Shared Task, for EnglishGerman sentence-level post-editing effort prediction and ranking. Our approach exploits the power of bilingual distributed representations, word alignments and also manual post-edits to boost the performance of the baseline QuEst++ set of features. Our model outperforms the baseline, as well as the winning system in WMT15, Referential Translation Machines (RTM), in both scoring and ranking sub-tasks.
Příspěvek popisuje náš systém UFAL_MULTIVEC v soutěži WMT16 Quality Estimation. Systém odhaduje kvalitu strojového překladu z angličtiny do němčiny. Náš přínos spočívá v rozšíření zavedené metody o dvojjazyčné vektorové reprezentace slov a o slovní zarovnání.
[ "Amal Abdelsalam", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/6c58fdff64b52aaaaa16c5f5fc08befd65acff3a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Connective Movement - A demonstration on Czech
Posouvání konektoru - příklad češtiny
During annotation of discourse connectives in Czech written texts, externally placed connectives were found (outside both their arguments and non-adjacent to them). These cases occur in vast majority in connection with attribution (reporting). In these structures, a connective expressing contrast between two reported contents moves left in order to stand closer to its left (first in the linear order) argument. We call this phenomenon connective movement.
Příspěvek se zabývá studiem diskurzních konektorů umístěných mimo oba argumenty, které jsou jimi spojeny.
[ "Lucie Poláková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Discourse Annotation Theories and Tools
Anotace disckurzu - teorie a nástroje
Discourse coherence is a complex natural language phenomenon which is achieved by different linguistic means (e.g., anaphoricity, information structure, discourse markers and connectives, rhetorical structure of text, etc.). Many approaches in computational linguistics are used to capture discourse relations and Tind practical applications. This session focuses on discussing theories and approaches applied to the annotation of discourse phenomena in different languages, such as Rhetorical Structure Theory, Penn Discourse Treebank, Segmented Discourse Representation Theory and so on. Participants will have the opportunity to compare these approaches to see which phenomena are central to them and which ones are less prominent. We will also introduce the tools of discourse annotation and demonstrate esp. TrEd, PDTB and MMAX.
V rámci přednásky byly představeny existující teorie anotace diskurních jevů a nástroje, které se pro tento typ anotací používají.
[ "Lucie Poláková" ]
https://www.semanticscholar.org/paper/0ab2c5c3aba6838a5bf34c269d4a99fa8a5aab06/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
« Trust me. I’m a License Selector ». Licensing for Digital Humanities
„Věř mi, já jsem selektor licencí.” Licencování pro digitální humanitní vědy
Presenting a software solution that helps authors choose the best public license for their works.
Prezentace software, který pomáhá autorovi vybrat pro jeho dílo nejvhodnější (nejsvobodnější) veřejnou licenci.
[ "Paweł Kamocki", "Pavel Straňák" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
The Public License Selector: Making Open Licensing Easier
Selektor pro veřejné licence: Usnadnění otevřeného licencování
Researchers in Natural Language Processing rely on availability of data and software, ideally under open licenses, but little is done to actively encourage it. In fact, the current Copyright framework grants exclusive rights to authors to copy their works, make them available to the public and make derivative works (such as annotated language corpora). Moreover, in the EU databases are protected against unauthorized extraction and re-utilization of their contents. Therefore, proper public licensing plays a crucial role in providing access to research data. A public license is a license that grants certain rights not to one particular user, but to the general public (everybody). Our article presents a tool that we developed and whose purpose is to assist the user in the licensing process. As software and data should be licensed under different licenses, the tool is composed of two separate parts: Data and Software. The underlying logic as well as elements of the graphic interface are presented.
Článek prezentuje nový online interaktivní nástroj vydaná pod OpenSource licensí MIT, který usnadňuje uživateli pomocí sekvence otázek a jejich vysvětlení výběr tzv. veřejné licence, pokud je ji možno jeho výsledku (datům nebo software) přiřadit. Cílem nástroje je podpořit nejotevřenější licencování vědeckých výsledků, které je v souladu se zákony možné, a vůbec podpora autorů v tom, aby své výsledky zvěřejňovali a dokázali jim přiřadit vhodnou licenci.
[ "Paweł Kamocki", "Pavel Straňák", "Michal Sedlák" ]
https://www.semanticscholar.org/paper/fdbf525d523c4d3181961b7b29e95c7e2c953366/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Neural Scoring Function for MST Parser
Neuronová ohodnocovací funkce pro MST parser
Continuous word representations appeared to be a useful feature in many natural language processing tasks. Using fixed-dimension pre-trained word embeddings allows avoiding sparse bag-of-words representation and to train models with fewer parameters. In this paper, we use fixed pre-trained word embeddings as additional features for a neural scoring function in the MST parser. With the multi-layer architecture of the scoring function we can avoid handcrafting feature conjunctions. The continuous word representations on the input also allow us to reduce the number of lexical features, make the parser more robust to out-of-vocabulary words, and reduce the total number of parameters of the model. Although its accuracy stays below the state of the art, the model size is substantially smaller than with the standard features set. Moreover, it performs well for languages where only a smaller treebank is available and the results promise to be useful in cross-lingual parsing.
Spojité distribuované slovní reprezentace prokázaly svoji užitečnost v mnoha úlohách zpracování přirozeného jazyka. V tomto článku používáme vektorové reprezentace slov jako další vstupy pro MST parser. Použití distribuovaných reprezentací umožňuje snížit dimenzionalitu lexikálních rysů a neuronovou sítí odpadá nutnost ručního ladění kombinací rysů. Přestože jeho úspěšnost je nižší, než u klasického MST Parseru, výsledný model je výrazně menší než modely využívající klasickou sadu rysů. Navíc funguje velice dobře pro jazyky, pro které je dostupný pouze relativně malý treebank a výsledky vypadají velice slibně i pro delexikalizovaný parsing.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/db0ce2fa366acc67c9f868ddff6613bd761a67d8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
A Dataset and Evaluation Metric for Coherent Text Recognition from Scene Images
Dataset a evaluační metrika pro rozpoznávání souvislého textu z fotografií
In this paper, we deal with extraction of textual information from scene images. So far, the task of Scene Text Recognition (STR) has only been focusing on recognition of isolated words and, for simplicity, it omits words which are too short. Such an approach is not suitable for further processing of the extracted text. We define a new task which aims at extracting coherent blocks of text from scene images with regards to their future use in natural language processing tasks, mainly machine translation. For this task, we enriched the annotation of existing STR benchmarks in English and Czech and propose a string-based evaluation measure that highly correlates with human judgment.
V tomto článku se zabýváme získáváním textových informací z fotografií. Dosud se v této oblasti pracovalo pouze s rozpoznáváním izolovaných slov a krátká slova se pro zjednodušení vynechávala. Tento přístup není vhodný pro další lingvistické zpracování rozpoznaného textu. Proto se pokoušíme a lepší definice úlohy, která zahrnuje i souvislost rozpoznaného textu. Rozšířili jsme anotaci stávajících datastetů a vyvinuli evaluační metriku, které bude sloužit k hodnocení rozpoznávání souvislého textu.
[ "Jindřich Libovický", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/d910c3781ed82631052910d36a4d34bc25b2e492/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
CUNI System for WMT16 Automatic Post-Editing and Multimodal Translation Tasks
Systém Univerzity Karlovy pro úlohy automatické posteditace strojového překlad a multimodálního strojového překladu na WTM16
Neural sequence to sequence learning recently became a very promising paradigm in machine translation, achieving competitive results with statistical phrase-based systems. In this system description paper, we attempt to utilize several recently published methods used for neural sequential learning in order to build systems for WMT 2016 shared tasks of Automatic Post-Editing and Multimodal Machine Translation.
Neuronové sekvenční modely jsou velmi slibným novým paradigmatem ve strojovém překladu, které dosahuje srovnatelných výsledků s frázovým strojovým překladem. Tento článek popisuje systém, se kterým se Univerzita Karlova účastnila soutěže při WMT16 v úkolech automatické post-editace strojového překladu a multimodálního strojového překladu.
[ "Jindřich Libovický", "Jindřich Helcl", "Marek Tlustý", "Pavel Pecina", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/dd02c244d7db7f94b710dc14dcf011cb24348ee2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Exploiting KonText for querying Lindat corpora
Využívání KonTextu pro dotazování jazykových korpusů z datového repozitáře Lindat
I described describe how KonText – a corpus query interface for Czech National Corpus is adopted for handling various corpora from Lindat. The repository contains corpora with different types of annotation – like syntactic, shallow semantic, sentiment and other types. I showed how to search for this information within the KonText environment using CQL (Corpus Query Language) on the example of two corpora. First, I focused on the Universal Dependencies – syntactically annotated treebanks for several languages. Secondly, I demonstrated the queries over the Prague Dependency Treebank that are related both to syntactic (analytical) and deep syntactic (tectogrammatical) layers. I also showed several query examples from other Lindat corpora.
V prezentaci jsem ukázala jak se dá vyhledávat v korpusech z repozitáře Lindat v KonTextu.
[ "Natalia Klyueva" ]
https://www.semanticscholar.org/paper/ea12b18fe8c55c04bebc4d8eed8f86fcb906d430/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
MWEs in a corpus query system
Víceslovné výrazy v KonTextu
In the poster, I demonstrated how multiword expressions can be represented and quired in a corpus query system KonText
V posteru jsem popsala jak víceslovné výrazy se dají reprezentovat a vyhledávít v systému KonText.
[ "Natalia Klyueva" ]
https://www.semanticscholar.org/paper/ea12b18fe8c55c04bebc4d8eed8f86fcb906d430/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Improving Corpus Search via Parsing
Zlepšení vyhledávání v korpusech pomocí parsingu
In this paper, we describe an addition to the corpus query system Kontext that enables to enhance the search using syntactic attributes in addition to the existing features, mainly lemmas and morphological categories. We present the enhancements of the corpus query system itself, the attributes we use to represent syntactic structures in data, and some examples of querying the syntactically annotated corpora, such as treebanks in various languages as well as an automatically parsed large corpus.
V článku popisujeme jak se dá vyhledávat v syntakticky anotovaných korpusech v KonTextu.
[ "Natalia Klyueva", "Pavel Straňák" ]
https://www.semanticscholar.org/paper/f7178a69836067c908cfdf710ca431889cde08d1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
MWEs in Universal Dependencies 1.3
Víceslovné výrazy v Universal Dependencies 1.3
The UD relation mwe is not used consistently in the current release of Universal Dependencies. While part of the issue may be caused by true linguistic differences, we demonstrate on closely related languages that it is not always the case; even literally equivalent expressions do not always receive the same analysis.
Vztah mwe se v současném vydání Universal Dependencies nepoužívá konzistentně. To může být zčásti způsobeno rozdíly mezi jazyky, nicméně v našem příspěvku ukazujeme na blízce příbuzných jazycích, že tomu tak není vždy; i doslovně ekvivalentní výrazy jsou v některých případech anotovány rozdílně.
[ "Natalia Klyueva", "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Incorporation of a valency lexicon into a TectoMT pipeline
Včlenění valenčního slovníku do systému TectoMT
In this paper, we focus on the incorporation of a valency lexicon into TectoMT system for Czech-Russian language pair. We demonstrate valency errors in MT output and describe how the introduction of a lexicon influenced the translation results. Though there was no impact on BLEU score, the manual inspection of concrete cases showed some improvement.
Článek se soustřeďuje na včlenění valenčního slovníku do systému TectoMT pro jazykový pár čeština-ruština. Ukazuje na chyby ve valenci na výstupu ze systému a popisuje, jak začlenění slovníku ovlivnilo výsledky. Ačkoli podle BLEU skóre nebylo zaznamenáno zlepšení, ruční inspekce prokázala zlepšení v některých konkrétních případech.
[ "Natalia Klyueva", "Vladislav Kuboň" ]
https://www.semanticscholar.org/paper/d932f38eea6c3193c69f6d59be456c2be5633c89/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
QTLeap WSD/NED Corpora: Semantic Annotation of Parallel Corpora in Six Languages
Korpusy QTLeap WSD/NED: sémantická anotace paralelních korpusů v šesti jazycích
This work presents parallel corpora automatically annotated with several NLP tools, including lemma and part-of-speech tagging, named-entity recognition and classification, named-entity disambiguation, word-sense disambiguation, and coreference.
Tento článek popisuje paralelní korpusy s automatickou anotací pomocí několika nástrojů pro zpracování přirozeného jazyka, včetně lemmatizace, taggingu, rozpoznání a klasifikace pojmenovaných entit a jejich disambiguace, word-sense disambiguation a koreference.
[ "Arantxa Otegi", "Nora Aranberri", "António Branco", "Jan Hajič", "Steven Neale", "Petya Osenova", "Rita Pereira", "Martin Popel", "João Ricardo Silva", "Kiril Simov", "Eneko Agirre" ]
https://www.semanticscholar.org/paper/2d41f0e86825ee88a2f42fcc0d9face8e31c019e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Data Collection for Interactive Learning through the Dialog
Sběr dat pro interaktivní učení z dialogů
This paper presents a dataset collected from natural dialogs which enables to test the ability of dialog systems to learn new facts from user utterances throughout the dialog. This interactive learning will help with one of the most prevailing problems of open domain dialog system, which is the sparsity of facts a dialog system can reason about. The proposed dataset, consisting of 1900 collected dialogs, allows simulation of an interactive gaining of denotations and questions explanations from users which can be used for the interactive learning.
Tento článek představuje datovou sadu vytvořenou z přirozených dialogů, která umožňuje testovat schopnost dialogových systémů učit se nová fakta od uživatelů v průběhu dialogu. Toto interaktivní učení pomůže s jedním z nejpodstatnějších problémů dialogových systémů v otevřených doménách, kterým je omezenost dat, se kterými je dialogový systém schopen pracovat. Představovaná datová sada, skládající se z 1900 dialogů, umožňuje simulaci interaktivního získávání rad od uživatelů v podobě odpovědí a podrobných vysvětlení otázek, které mohou být použity pro interaktivní učení.
[ "Miroslav Vodolán", "Filip Jurčíček" ]
https://www.semanticscholar.org/paper/768945f1c36302e4473e989aa3e321c163aa4887/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Question Dialogs Dataset
Dataset dialogů o faktických otázkách
Dataset collected from natural dialogs which enable to test the ability of dialog systems to interactively learn new facts from user utterances throughout the dialog. The dataset, consisting of 1900 dialogs, allows simulation of an interactive gaining of denotations and questions explanations from users which can be used for the interactive learning.
Dataset sesbíraný z přirozených dialogů umožňující testovat schopnost dialogových systémů učit se nová fakta z uživatelských výpovědí v průběhu dialogu. Dataset, skládající se z 1900 dialogů umožňuje simulovat interaktivní získávání denotací a vysvětlení k otázkám od uživatelů ve formě, která je vhodná pro interaktivní učení.
[ "Miroslav Vodolán", "Filip Jurčíček" ]
https://www.semanticscholar.org/paper/183b86052a6bdf717612d9099063e389d863d19c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
TectoMT – a deep-­linguistic core of the combined Chimera MT system
TectoMT – hluboce lingvistické jádro kombinovaného překladového systému Chiméra
Chimera is a machine translation system that combines the TectoMT deep-linguistic core with phrase-based MT system Moses. For English–Czech pair it also uses the Depfix post-correction system. All the components run on Unix/Linux platform and are open source (available from Perl repository CPAN and the LINDAT/CLARIN repository). The main website is https://ufal.mff.cuni.cz/tectomt. The development is currently supported by the QTLeap 7th FP project (http://qtleap.eu).
Chimera systém strojovéo překladu, který kombinuje hluboce lingvistické jádro TectoMT s frázovým strojovým překladačem Moses. Pro anglicko-český překlad také používá post-editovací systém Depfix. Všechny komponenty běží na platformě Unix/Linux a jsou open-source (dostupné z Perlového repozitáře CPAN a repozitáře LINDAT/CLARIN). Hlavní webová stránka je https://ufal.mff.cuni.cz/tectomt. Vývoj je momentálně podporován projektem QTLeap ze 7th FP (http://qtleap.eu).
[ "Martin Popel", "Roman Sudarikov", "Ondřej Bojar", "Rudolf Rosa", "Jan Hajič" ]
https://www.semanticscholar.org/paper/d5aa1dc45c749c2511c115a685798c0c22ca1eff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Automatic Error Correction of Machine Translation Output
Automatická korektura chyb ve výstupu strojového překladu
We present MLFix, an automatic statistical post-editing system, which is a spiritual successor to the rulebased system, Depfix. The aim of this thesis was to investigate the possible approaches to automatic identification of the most common morphological errors produced by the state-of-the-art machine translation systems and to train sufficient statistical models built on the acquired knowledge. We performed both automatic and manual evaluation of the system and compared the results with Depfix. The system was mainly developed on the English-toCzech machine translation output, however, the aim was to generalize the post-editing process so it can be applied to other language pairs. We modified the original pipeline to post-edit English-German machine translation output and performed additional evaluation of this modification.
Představujeme MLFix, systém pro automatickou statistickou post-editaci, který je duchovním následníkem pravidlového systému, Depfixu. Cílem této práce bylo prozkoumat možné postupy automatické identifikace nejčastějších morfologických chyb tvořených současnými systémy pro strojový překlad a natrénovat vhodné statistické modely, které by byly postaveny na získaných znalostech. Provedli jsme automatickou i ruční evaluaci našeho systému a výsledky porovnali s Depfixem. Systém byl vyvíjen především na výstupech anglicko-českého strojového překladu, cílem ale bylo zobecnit post-editační proces tak, aby byl aplikovatelný na další jazykové páry. Upravili jsme původní pipeline, aby post-editovala výstupy anglicko-německého strojového překladu, a provedli dodatečnou evaluaci této modifikace.
[ "Dušan Variš" ]
https://www.semanticscholar.org/paper/14a6186df9bb0fe5688229aa26ac720e781f7f98/
null
null
null
null
null
null
null
null
null
null
null
null
en
2016
Particle Swarm Optimization Submission for WMT16 Tuning Task
Příspěvek do optimalizační soutěže WMT16 Tuning Task pomocí metody reje částic
This paper describes our submission to the Tuning Task of WMT16. We replace the grid search implemented as part of standard minimum-error rate training (MERT) in the Moses toolkit with a search based on particle swarm optimization (PSO). An older variant of PSO has been previously successfully applied and we now test it in optimizing the Tuning Task model for English-to-Czech translation. We also adapt the method in some aspects to allow for even easier parallelization of the search.
Článek popisuje náš příspěvek do optimalizační soutěže WMT16 Tuning Task. Grid search ve standardní implementaci MERT nahrazujeme optimalizací pomocí metody reje částic.
[ "Viktor Kocúr", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/954c5067cfdcb8e0df2fb137c69c576b32d8089d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2015
What Was the 41st Year of the Czech Language Olympiad like?
Jaký byl 41. ročník Olympiády v českém jazyce?
The paper analyzes the tasks of the 41st year of the linguistic competition for primary and secondary school pupils.
Článek analyzuje úkoly 41. ročníku lingvistické soutěže pro žáky ZŠ a studenty SŠ.
[ "Kateřina Rysová", "Karel Oliva" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
On an apparent freedom of Czech word order. A case study
Studie ke zdánlivé volnosti slovosledu v češtině
The aim of the present contribution is to document, on the material of the Prague Dependency Treebank, that the assumed freedom of Czech word order is not really a freedom but that it is guided by certain principles, different from the grammatically given principles determining the word order in some other European languages such as English, German or French. On newly annotated data, an implementation of the algorithm for the division of the sentence into topic and focus based on contextual boundness of nodes at the tectogrammatical layer is tested.
Cílem této práce je ukázat na datech Pražského závislostního korpusu, že domnělý volný slovosled v češtině ve skutečnosti volný není, a že je řízen jistými pravidly, odlišnými od pravidel gramatiky, které určují slovosled v jiných evropských jazycích, jako např. v angličtině, němčině nebo francouzštině. Na nově anotovaných datech je rovněž testována implementace algoritmu pro rozdělení věty na základ a ohnisko na základě kontextové zapojenosti uzlů na tektogramatické rovině.
[ "Kateřina Rysová", "Jiří Mírovský", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/c9a3b9fa0dbcaf145f64c96654acf9cac3133679/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Analyzing Text Coherence via Multiple Annotation in the Prague Dependency Treebank
Analýza koherence textu s využitím víceúrovňové anotace v Pražském závislostním korpusu
Corpus-based research demonstrates an existence of a mutual interaction of bridging anaphoric relations in the text and sentence information structure.
Výzkum korpusových dat se zabývá interakcí vztahů asociativní anafory a aktuálního členění větného.
[ "Kateřina Rysová", "Magdaléna Rysová" ]
https://www.semanticscholar.org/paper/2c1669c7ef72dc21d16508effea91285dfd060b0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Topic–Focus Articulation in English Texts on the Basis of Functional Generative Description
Aktuální členění větné v anglických textech na základě funkčního generativního popisu
In the report, we introduce the concept of topic–focus articulation on the basis of Functional Generative Description. Firstly, we present the crucial terms connected with topic–focus articulation – mainly contextual boundness and communicative dynamism and we describe operational criteria how to detect topic and focus: the so-called question test and test by negation. In the next part, we present the annotation principles for annotation of topic–focus articulation in the Prague Czech-English Dependency Treebank.
Ve zprávě přestavujeme koncept aktuálního členění větného na základě funkčního generativního popisu. V první části zprávy prezentujeme základní pojmy spojené s aktuálním členěním větným – zejména kontextovou zapojenost a výpovědní dynamičnost a popisujeme operativní kritéria na rozlišení základu a ohniska: tzv. otázkový test a test s negací. V další části představujeme principy pro anotaci aktuálního členění větného v Pražském česko-anglickém závislostním korpusu.
[ "Kateřina Rysová", "Magdaléna Rysová", "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Resources for Indonesian Sentiment Analysis
Zdroje pro postojovou analýzu v indonéštině
We present subjectivity lexicon of positive and negative words for Indonesian language created by automatically translating English lexicons. We compare the lexicons in the task of predicting sentence polarity.
Výroba a evaluace subjectivity lexikonu pro indonéštinu. Výsledný slovník byl pořízen za využití automatického strojového překladu a jeho spolehlivost byla ověřena v rámci trénování pravděpodobnostního klasifikátoru na ručně označkovaných datech.
[ "Franky ", "Ondřej Bojar", "Kateřina Veselovská" ]
https://www.semanticscholar.org/paper/55b63fea87dc332a913a57f8c2bbe9b40a3a6772/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Morphology as processed by the human brain
Morfologie při zpracování lidským mozkem
The paper presents an overview of recent trends in studying morphology from the neurolinguistic perspective. Neurolinguistic investigations of morphology started by discussing whether morphologically complex words are represented in the brain in a decomposed manner or stored as whole forms. None of these could fully account for available experimental findings, thus a compromise dual-route approach was adopted. While nowadays there is a wide agreement that representations of complex words have at least partial morphological structure, it is still not clear what precisely determines whether such structure emerges for a particular word or not; commonly mentioned factors are transparency, constituent frequency or type of affixation. These factors are discussed in the paper, and an experiment is proposed that can contribute to the current debate about the topic.
Článek představuje přehled moderních trendů ve studiu jazykové morfologie z neurolingvistické perspektivy. Neurologický výzkum morfologie započal diskusí, zda jsou morfologicky komplexní slova reprezentována v mozku rozloženým způsobem, nebo uložena jako celé jednotky. Ani jeden z těchto pohledů neodpovídá zcela exterimentálním zjištěním, proto byl přijat kompromisní dvoucestný přístup. V článku je diskutovány faktory související s reprezentací slova jako transparence, četnost konstituentů nebo typ afixace.
[ "Kristýna Tomšů" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
SemEval-2015 Task 15: A CPA dictionary-entry-building task
SemEval-2015 Úloha 15: generování hesla ve slovníku založeném na CPA
This paper describes the first SemEval task to explore the use of Natural Language Processing systems for building dictionary entries, in the framework of Corpus Pattern Analysis. CPA is a corpus-driven technique which provides tools and resources to identify and represent unambiguously the main semantic patterns in which words are used. Task 15 draws on the Pattern Dictionary of English Verbs (www.pdev.org.uk), for the targeted lexical entries, and on the British National Corpus for the input text. Dictionary entry building is split into three subtasks which all start from the same concordance sample: 1) CPA parsing, where arguments and their syntactic and semantic categories have to be identified, 2) CPA clustering, in which sentences with similar patterns have to be clustered and 3) CPA automatic lexicography where the structure of patterns have to be constructed automatically. Subtask 1 attracted 3 teams, though none could beat the baseline (rule-based system). Subtask 2 attracted 2 teams, one of which beat the baseline (majority-class classifier). Subtask 3 did not attract any participant. The task has produced a major semantic multidataset resource which includes data for 121 verbs and about 17,000 annotated sentences, and which is freely accessible.
Tato studie popisuje první úkol v rámci SemEvalu, který je zaměřen na užití NLP systémů pro automatické generování slovníkových hesel podle metody Corpus Pattern Analysis.
[ "Vít Baisa", "Jane Bradbury", "Silvie Cinková", "Ismail El Maarouf", "Adam Kilgarriff", "Octavian Popescu" ]
https://www.semanticscholar.org/paper/9969c1b55d603654f0f7af0c6c771ba4a1e0396f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
VPS-GradeUp
VPS-GradeUp
VPS-GradeUp is a collection of triple manual annotations of 29 English verbs based on the Pattern Dictionary of English Verbs (PDEV) and comprising the following lemmas: abolish, act, adjust, advance, answer, approve, bid, cancel, conceive, cultivate, cure, distinguish, embrace, execute, hire, last, manage, murder, need, pack, plan, point, praise, prescribe, sail, seal, see, talk, urge . It contains results from two different tasks: Graded decisions Best-fit pattern (WSD) . In both tasks, the annotators were matching verb senses defined by the PDEV patterns with 50 actual uses of each verb (using concordances from the BNC). The verbs were randomly selected from a list of completed PDEV lemmas with at least 3 patterns and at least 100 BNC concordances not previously annotated by PDEV’s own annotators. Also, the selection excluded verbs contained in VPS-30-En, a data set we developed earlier. This data set was built within the project Reviving Zellig S. Harris: more linguistic information for distributional lexical analysis of English and Czech and in connection with SEMEVAL 2015.
VPS-GradeUp je kolekce trojnásobných manuálních anotací na 29 slovesných lemmatech popsaných v Pattern Dictionary of English Verbs (PDEV): abolish, act, adjust, advance, answer, approve, bid, cancel, conceive, cultivate, cure, distinguish, embrace, execute, hire, last, manage, murder, need, pack, plan, point, praise, prescribe, sail, seal, see, talk, urge. Anotace obsahuje dvě úlohy: 1) odstupňované hodnocení vhodnosti každého slovníkového významu (přesněji syntakticko-sémantického vzorce užívání) definovaného PDEV na každé z padesáti vět náhodně vybraných z BNC pro každé zkoumané sloveso 2) klasickou značkovací úlohu, kdy anotátor pro každou větu vybere nejvhodnější slovníkový význam. Tato úloha je obohacena o detaily tzv. exploitations -- čím se slovesné užití v daném kontextu odchyluje od přiřazeného vzorce užití.
[ "Vít Baisa", "Silvie Cinková", "Ema Krejčová", "Anna Vernerová" ]
https://www.semanticscholar.org/paper/916a51b4269359f728584011ca9f7e75654f4fea/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Czech-English Bilingual Valency Lexicon Online
Česko-anglický dvojjazyčný valenční slovník online
We describe CzEngVallex, a bilingual English-Czech valency lexicon which aligns verbal valency frames and their arguments. It is based on a parallel Czech-English corpus, the Prague Czech-English Dependency Treebank, where for each occurrence of a verb, a reference to the underlying Czech and English valency lexicons is recorded. CzEngVallex then pairs the entries (verb senses) of the two lexicons, and allows for detailed studies of verb valency and argument structure in translation. The CzEngVallex lexicon is now accessible online, and the demo will show all the possibilities for browsing and searching the lexicon and their examples from the PCEDT corpus.
V článku je popsán CzEngVallex, dvojjazyčný valenční slovník, který páruje valenční rámce a jejich členy. Je založen na parelelním česko-anglickém korpusu, konkrétně na Pražském česko-anglickém závislostním korpusu. V tomto korpusu je pro každý výskyt slovesa uveden odkaz na rámec v příslušném českém nebo anglickém valenčním slovníku. CzEngVallex pak přidává párování slovesných rámců a argumentů v nich. Umožňuje tak studium valence v kombinaci s překladem mezi češtinou a angličtinou. CzEngVallex je k dispozici veřejně online, a umožňuje prohlížení a základní prohledávání a zobrazení párovaných rámců a zároveň i konrétních příkladů z korpusu.
[ "Eva Fučíková", "Jan Hajič", "Jana Šindlerová", "Zdeňka Urešová" ]
https://www.semanticscholar.org/paper/16fb0d87804219d11923bd7fa3ac36d6f7ad12c7/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2015
Automatic detection of emotions in text
Automatická detekce emocí v textu
The volume of unstructured data is constantly increasing, the rise of Web 2.0 brings lots of texts created by the Internet users. Their comments are usually full of subjective opinions, emotions, evaluation... Why and how to use this data? Is it possible to categorize emotions automatically? A contribution from the area of sentiment analysis introduce methods and outputs of automatic emotion extraction with the emphasis on Czech data and business applications.
Objem nestrukturovaných dat stále roste, rozvoj Webu 2.0 přináší množství textů generovaných samotnými uživateli Internetu. Jejich příspěvky nezřídka obsahují subjektivní názory, emoce, hodnocení… K čemu a jak můžeme tato data použít? Je možné emoce v textu spolehlivě strojově třídit? Příspěvek z oblasti sentiment analysis představí metody a úspěchy automatické extrakce emocí z textu s důrazem na česká data a aplikace pro byznys.
[ "Kateřina Veselovská" ]
https://www.semanticscholar.org/paper/0e8b9d18fac180ddeb9da0d6b46b8dfbd1e56152/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
On the Linguistic Structure of Emotional Meaning in Czech
K lingvistické struktuře emocionálního významu v češtině
This thesis has two main goals. First, we provide an analysis of language means which together form an emotional meaning of written utterances in Czech. Second, we employ the findings concerning emotional language in computational applications. We provide a systematic overview of lexical, morphosyntactic, semantic and pragmatic aspects of emotional meaning in Czech utterances. Also, we propose two formal representations of emotional structures within the framework of the Prague Dependency Treebank and Construction Grammar. Regarding the computational applications, we focus on sentiment analysis, i.e. automatic extraction of emotions from text. We describe a creation of manually annotated emotional data resources in Czech and perform two main sentiment analysis tasks, polarity classification and opinion target identification on Czech data. In both of these tasks, we reach the state-of-the-art results.
Dizertační práce má dva hlavní cíle. Za prvé přináší analýzu jazykových prostředků, které společně formují emocionální význam psaných výpovědí v češtině. Za druhé využívá zjištění týkající se emocionálního jazyka v komputačních aplikacích. Podáváme systematický přehled lexikálních, morfosyntaktických, sémantických a pragmatických aspektů emocionálního významu v českých výpovědích a navrhujeme formální reprezentaci emocionálních struktur v rámci Pražského závislostního korpusu a konstrukční gramatiky. V oblasti komputačních aplikací se zaměřujeme na témata postojové analýzy, tedy automatické extrakce emocí z textu. Popisujeme tvorbu ručně anotovaných emocionálních zdrojů dat a řešíme dvě základní úlohy postojové analýzy, klasifikaci polarity a identifikaci cíle hodnocení. V obou těchto úlohách dosahujeme uspokojivých výsledků.
[ "Kateřina Veselovská" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2015
Expressing emotions in Czech: linguistic analysis and practical applications
Vyjadřování emocí v češtině: lingvistická analýza a praktické aplikace
The talk has two main goals. First, we provide an analysis of language means which together form an emotional meaning of written utterances in Czech. Second, we employ the findings concerning emotional language in computational applications.
Přednáška má dva hlavní cíle. Za prvé předložíme analýzu lexikálních, morfosyntaktických, sémantických a pragmatických jazykových prostředků, které společně formují emocionální význam psaných výpovědí v češtině, a podáme návrh formální reprezentace emocionálních struktur. Za druhé se zaměříme na komputační aplikace, které zjištění týkající se emocionálního jazyka využívají. Budeme se věnovat tématům z oblasti postojové analýzy, tedy automatické extrakce emocí z textu. Popíšeme tvorbu ručně anotovaných emocionálních zdrojů dat a řešení dvou základních úloh postojové analýzy, klasifikace polarity a identifikace cíle hodnocení.
[ "Kateřina Veselovská" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Multilingual Unsupervised Dependency Parsing with Unsupervised POS tags
Mnohojazyčný neřízený závislostní parsing s neřízenýmy POS tagy
In this paper, we present experiments with unsupervised dependency parser without using any part-of-speech tags learned from manually annotated data. We use only unsupervised word-classes and therefore propose fully unsupervised approach of sentence structure induction from a raw text. We show that the results are not much worse than the results with supervised part-of-speech tags.
V tomto článku popisujeme experimenty s neřízeným závislostním parsingem bez použití jakéhokoliv slovnědruhových kategorií naučených z manuálně označkovaných korpusů. Používáme pouze neřízeně naučené slovní třídy a prezentujeme tedy plně neřízenou syntaktickou analýzu věty z prostého textu Ukazuje se, že výsledky nejsou o mnoho horší, než ty, které využívají anotovaná data.
[ "David Mareček" ]
https://www.semanticscholar.org/paper/9d3b9ae6ff609168c03dd5c91751c85d0b550c1b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
LiStr - Linguistic Structure Induction toolkit
LiStr - Sada nástrojů pro odvození lingvistické struktury
LiStr - a toolkit for induction of linguistic structures without annotated corpora. This is the second version of the toolkit, released at December 2015. It comprises the tools and supporting scripts for induction of dependency trees from texts with already assigned part-of-speech tags. In this version, the delexicalized part-of-speech tag guesser is comprised. The UDPC was improved, now it may work with unsupervised word-classes and with universal-dependencies prior probabilities.
LiStr - Sada nástrojů pro odvození lingvistické struktury. Obsahuje nástroje a podpůrné skripty pro indukci závislostních stromů z textu s přiřazenými tagy. V této verzi je navíc automatický odhadovač slovních druhů. Nástroj UDPC byl vylepšen, nyní umí pracovat i s neřízenými slovními třídami a s apriorními pravděpodobnostmi z kolekce korpusů "universal dependencies".
[ "David Mareček", "Milan Straka" ]
https://www.semanticscholar.org/paper/5d2af18bff5f6eda44550501e10f10dfceb7859c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Using Parallel Texts and Lexicons for Verbal Word Sense Disambiguation
Použití paralelních textů a slovníků pro rozlišování významu sloves
We present a system for verbal Word Sense Disambiguation (WSD) that is able to exploit additional information from parallel texts and lexicons. It is an extension of our previous WSD method, which gave promising results but used only monolingual features. In the follow-up work described here, we have explored two additional ideas: using English-Czech bilingual resources (as features only - the task itself remains a monolingual WSD task), and using a 'hybrid' approach, adding features extracted both from a parallel corpus and from manually aligned bilingual valency lexicon entries, which contain subcategorization information. Albeit not all types of features proved useful, both ideas and additions have led to significant improvements for both languages explored.
Článek popisuje systém rozlišování významu sloves na základě paralelního korpusu a paralelního valenčího slovníku, který rovněž obsahuje informaci o párování významu sloves a jejich argumentů. Jedná se o rozšíření předchozí metody publikované v roce 2014. Metoda byla testována na angličtině i češtině a v obou případech dala signifikantně lepší výsledky než metoda předchozí.
[ "Ondřej Dušek", "Eva Fučíková", "Jan Hajič", "Martin Popel", "Jana Šindlerová", "Zdeňka Urešová" ]
https://www.semanticscholar.org/paper/14e531a9ec533e986d6d4ce299863de04f2ab279/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Training a Natural Language Generator From Unaligned Data
Trénování generátoru přirozeného jazyka s nezarovnanými daty
We present a novel syntax-based natural language generation system that is trainable from unaligned pairs of input meaning representations and output sentences. It is divided into sentence planning, which incrementally builds deep-syntactic dependency trees, and surface realization. Sentence planner is based on A* search with a perceptron ranker that uses novel differing subtree updates and a simple future promise estimation; surface realization uses a rule-based pipeline from the Treex NLP toolkit. Our first results show that training from unaligned data is feasible, the outputs of our generator are mostly fluent and relevant.
Představujeme nový systém pro generování přirozeného jazyka založený na sytaxi, který je možné trénovat z nezarovnaných párů vstupních reprezentací významu a výstupních vět. Dělí se na větný plánovač, který inkrementálně staví hloubkově syntaktické závislostní stromy, a povrchový realizátor. Větný plánovač je založen na A* vyhledávání s perceptronovým rankerem, který používá nové updaty na základě odlišných podstromů a jednoduchý odhad budoucího potenciálu stromů; povrchová realizace je zajištěna pravidlovým systémem z prostředí Treex. První výsledky ukazují, že trénování z nezarovnaných dat je možné, výstupy našeho generátoru jsou většinou plynulé a relevantní.
[ "Ondřej Dušek", "Filip Jurčíček" ]
https://www.semanticscholar.org/paper/40052387f2b90315e1b0d85c638180c30f0f7afe/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
New Language Pairs in TectoMT
Nové jazykové páry v TectoMT
The TectoMT tree-to-tree machine translation system has been updated this year to support easier retraining for more translation directions. We use multilingual standards for morphology and syntax annotation and language-independent base rules. We include a simple, non-parametric way of combining TectoMT’s transfer model outputs.
Strojový překladač TectoMT byl během posledního roku vylepšen tak, aby umožňoval snadnější přidávání nových překladových jazykových párů. K tomu se používají multilinguální standardy pro morfologickou a syntaktickou anotaci a také jazykově nezávislé moduly s pravidly.
[ "Ondřej Dušek", "Luís Gomes", "Michal Novák", "Martin Popel", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/3d74985809d32296fa1611da6108cf623d59a2f1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Syntactic Structure of Czech Light Verb Constructions
Syntaktická struktura konstrukcí s českými funkčními slovesy
In this talk, the distribution of verbal and nominal valency complementations in the syntactic structure of light verb constructions is debated. Esp. principles governing the surface form of these constructions are proposed.
V tomto přípsěvku jsme se zabývali distribucí slovesných a jmenných valenčních doplnění v konstrucích s tzv. funkčními slovesy. Dále jsme vymezili principy, podle kterých je utvářena povrchověsyntaktická struktura věty s těmito slovesy.
[ "Václava Kettnerová" ]
https://www.semanticscholar.org/paper/0fc13df85093fbf33a851574ae8053946260060d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
At the Lexicon-Grammar Interface: The Case of Complex Predicates in the Functional Generative Description
Na rozhraní lexikonu a gramatiky: Komplexní predikáty ve Funkčním generativním popisu
Complex predicates with light verbs have proven to be very challenging for syntactic theories, particularly due to the tricky distribution of valency complementations of light verbs and predicative nouns in their syntactic structure. We propose a theoretically adequate and economical representation of complex predicates with Czech light verbs based on a division of their description between the lexicon and the grammar. We demonstrate that a close interplay between these two components makes the analysis of the deep and surface syntactic structures of complex predicates reliable and efficient.
Komplexní predikáty s funkčními slovesy představují z hlediska syntaktického popisu problematický jev. Příspevěk se zabývá především distribucí valenčních doplnění funkčního slovesa a predikativního jména v syntaktické struktuře věty. Na základě syntaktické analýzy pak navrhuje teoreticky adekvátní a přitom ekonomické zachycení komplexních predikátů.
[ "Václava Kettnerová", "Markéta Lopatková" ]
https://www.semanticscholar.org/paper/f505ae45acfc531dc8f6bc55e4fd36e92978d6e8/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2015
Complement agreement in Czech reflexive constructions
Shoda doplňku v reflexivních konstrukcích v češtině
In this paper, we deal with syntactic reflexivity. In this case, the reflexives represent the clitic forms of the reflexive pronoun expressing referential identity of the valency complementation realized in subject (usually of ACTor) and of the valency complementation lexically expressed by the given pronoun. This linguistic phenomenon is studied here especially in relation to the agreement of a surface syntactic complement (with the function of EFF or COMPL). We aim to demonstrate that the case of complement is rather determined by the meaning of the reflexive construction (as in non-reflexive structures) than by the distinction of the clitic vs. long form of the reflexives.
V příspěvku se zabýváme vlastní (syntaktickou) reflexivitou – tedy případy, kdy reflexiva se/si jsou klitickými tvary reflexivního zájmena, vyjadřujícího referenční totožnost aktantu v subjektové pozici (typicky Konatele děje) a aktantu vyjádřeného daným zájmenem. K diskusím o tom, zda reflexivní klitika se/si a po řadě jejich dlouhé tvary sebe/sobě u tzv. vlastních reflexiv plní ve větě stejnou funkci, chceme přispět analýzou jejich vlivu na kongruenci s povrchověsyntaktickým doplňkem uvozeným (zejména) výrazem jako. Předmětem naší argumentace jsou významové distinkce mezi reflexivními konstrukcemi vyplývající z rozdílů ve shodě doplňku a dále ověření, či vyvrácení obvyklého popisu, podle kterého rozdíl klitické a dlouhé formy reflexiva má vliv na udělování pádu doplňku.
[ "Václava Kettnerová", "Markéta Lopatková", "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/aab95e837eb8e32110eea5d93796988629c2e39f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
B2SHARE: An Open eScience Data Sharing Platform
B2SHARE: Otevřená eScience platforma pro sdílení dat
Scientific data sharing is becoming an essential service for data driven science and can significantly improve the scientific process by making reliable, and trustworthy data available. Thereby reducing redundant work, and providing insights on related research and recent advancements. For data sharing services to be useful in the scientific process, they need to fulfill a number of requirements that cover not only discovery, and access to data. But to ensure the integrity, and reliability of published data as well. B2SHARE, developed by the EUDAT project, provides such a data sharing service to scientific communities. For communities that wish to download, install and maintain their own service, it is also available as software. B2SHARE is developed with a focus on user-friendliness, reliability, and trustworthiness, and can be customized for different organizations and use-cases. In this paper we discuss the design, architecture, and implementation of B2SHARE. We show its usefulness in the scientific process with some case studies in the biodiversity field.
Sdílení vědeckých dat se stalo pro data driven science základní službou a může vědecký výzkum zasadně zlepšit tím, že zpřístupní spolehlivá a důvěryhodná data. Aby byly takovéto služby pro sdílení vědeckých dat ve vědeckých procech použitelné a užitečné, musejí splnit řadu požadavků na vyhledatelnost a přístupnost dat. Služba B2SHARE vyvinutá v projektu EUDAT tyto požadavky plní pro řadu vědeckých oborů.
[ "Sarah Berenji Ardestani", "Carl Johan Håkansson", "Erwin Laure", "Ilja Livenson", "Pavel Straňák", "Emanuel Dima", "Dennis Blommesteijn", "Mark van de Sanden" ]
https://www.semanticscholar.org/paper/dd55f56ae4fe6c34fe0ed361aae9dfc7600c7b52/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
SemEval 2015 Task 18: Broad-Coverage Semantic Dependency Parsing
Úloha 18 na SemEval 2015: Sémantická závislostní analýza se širokým pokrytím
Task 18 at SemEval 2015 defines Broad-Coverage Semantic Dependency Parsing (SDP) as the problem of recovering sentence-internal predicate-argument relationships for all content words, i.e. the semantic structure constituting the relational core of sentence meaning. In this task description, we position the problem in comparison to other language analysis sub-tasks, introduce and compare the semantic dependency target representations used, and summarize the task setup, participating systems, and main results.
Úloha 18 na SemEval 2015 definuje sémantickou závislostní analýzu (SDP) se širokým pokrytím jako problém nalezení vztahů mezi predikátem a jeho argumenty ve větě pro všechna plnovýznamová slova, tj. sémantické struktury, která představuje relační jádro významu věty. V tomto článku, který úlohu 18 představuje, zasazujeme tento problém do rámce dalších podúloh analýzy jazyka, představujeme a srovnáváme použité cílové reprezentace sémantických závislostí a shrnujeme zadání úlohy, informace o zúčastněných systémech, jakož i hlavní výsledky.
[ "Stephan Oepen", "Marco Kuhlmann", "Yusuke Miyao", "Daniel Zeman", "Silvie Cinková", "Dan Flickinger", "Jan Hajič", "Zdeňka Urešová" ]
https://www.semanticscholar.org/paper/d8c9cab98a5fe33cb75aae9cc79a9bafdc4b0fa3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
SHAMUS: UFAL Search and Hyperlinking Multimedia System
SHAMUS: ÚFAL Multimediálny vyhľadávací systém
SHAMUS (UFAL Search and Hyperlinking Multimedia System) is a system for an easy search and navigation in multimedia archives. The system consists of a text-based Search, an automatic selection of Anchoring segments and video-based retrieval of Hyperlinks. The segments of the videos in a collection relevant to the user-typed query are provided by the Search component. The Anchoring component determines the most important segments of the videos. The beginnings of the most informative segments are marked in each video and the transcription of the beginning of each Anchoring segment is displayed. The segments topically related to each Anchoring segments (the Hyperlinks) are then retrieved. The list of the segments is generated on the fly for each Anchoring segment. All three system components use Terrier IR Platform.
SHAMUS (ÚFAL Multimediálny vyhľadávací systém) je systém na jednoduché vyhľadávania a navigáciu v multimediálnych archívoch. Systém pozostáva z textového vyhľadávania, automatického výberu dôležitých segmentov a prepájania súvisiacich video segmentov.
[ "Petra Galuščáková", "Shadi Saleh", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/f67cd5de50bf774745bb5ad68273049a4c91f2be/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Audio Information for Hyperlinking of TV Content
Využitie zvukovej informácie pri prepájaní príbuzných segmentov v televíznych programoch
In this paper, we explore the use of audio information in the retrieval of multimedia content. Specifically, we focus on linking similar segments in a collection consisting of 4,000 hours of BBC TV programmes. We provide a description of our system submitted to the Hyperlinking Sub-task of the Search and Hyperlinking Task in the MediaEval 2014 Benchmark, in which it scored best. We explore three automatic transcripts and compare them to available subtitles. We confirm the relationship between retrieval performance and transcript quality. The performance of the retrieval is further improved by extending transcripts by metadata and context, by combining different transcripts, using the highest confident words of the transcripts, and by utilizing acoustic similarity.
V článku skúmame využitie zvukovej informácie pri vyhľadávaní multimediálneho obsahu. Konkrétne sa zaoberáme prepájaním príbuzných segmentov v kolekcii 4000 hodín televíznych programov BBC. V článku popisujeme náš systém použitý v úlohe Search and Hyperlinking v rámci Benchmarku MediaEval 2014, v ktorom dosiahol najlepšie výsledky. V článku ďalej skúmame tri automatické prepisy, porovnávame ich s titulkami a potvrdzujeme vzťah medzi kvalitou prepisov a kvalitou vyhľadávania. Kvalita vyhľadávania je ďalej vylepšená pomocou rozšírenia prepisov o metadáta a kontext, kombináciou rôznych prepisov, využitím najspoľahlivejších slov z prepisov a využitím akustickej podobnosti.
[ "Petra Galuščáková", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/1aba6a1dd2331c90b8be8ea65372dba9b3fbddd9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
CUNI at MediaEval 2015 Search and Anchoring in Video Archives: Anchoring via Information Retrieval
CUNI na MediaEval 2015 Search and Anchoring in Video Archives: Riešenie úlohy Anchoring pomocou metód Information Retrieval
In the paper we deal with automatic detection of anchoring segments in a collection of TV programmes. The anchoring segments are intended to be further used as a basis for subsequent hyperlinking to another related video segments. The anchoring segments are therefore supposed to be fetching for the users of the collection. Using the hyperlinks, the users can easily navigate through the collection and find more information about the topic of their interest. We present two approaches, one based on metadata, the second one based on frequencies of proper names and numbers contained in the segments. Both approaches proved to be helpful for different aspects of anchoring problem: the segments which contain a large number of proper names and numbers are interesting for the users, while the segments most similar to the video description are highly informative.
V článku sa venujeme automatickej detekcii anchoring segmentov v kolekcii televíznych programov. Nájdené anchoring segmenty by mali byť ďalej použité pri následnom vyhľadávaní príbuzných segmentov v kolekcii. Anchoring segmenty by mali byť preto pútavé pre používateľov video kolekcie. S využitím linkov odkazujúcich z anchoring segmentov môžu užívatelia prechádzať kolekciu a nájsť ďalšie informácie, ktoré ich zaujímajú. V článku popisujeme dva prístupy - jeden založený na metadatách, druhý na frekvencii vlastných mien a čísloviek nachádzajúcich sa v segmente.
[ "Petra Galuščáková", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/a875daf726725405aab354220170f25553600483/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Polysemy and Synonymy in Syntactic Dependency Networks
Polysémie a synonymie v závislostních syntaktických sítích
The relationship between two important semantic properties (polysemy and synonymy) of language and one of the most fundamental syntactic network properties (a degree of the node) is observed. Based on the synergetic theory of language, it is hypothesized that a word which occurs in more syntactic contexts, i.e. it has a higher degree, should be more polysemous and have more synonyms than a word which occurs in less syntactic contexts, i.e. it has a lesser degree. Six languages are used for hypotheses testing and, tentatively, the hypotheses are corroborated. The analysis of syntactic dependency networks presented in this study brings a new interpretation of the well-known relationship between frequency and polysemy (or synonymy).
V článku je zkoumán vztah mezi dvěma důležitými semantickými vlastnostmi jazyka (polysémií a synonymií) a jednou ze základních vlastností syntaktických sítí (stupňem uzlu). Na základě synergické teorie jazyka je předpokládáno, že slovo, které se objevuje ve více syntaktických kontextech, tzn. má větší stupeň, by mělo být více polysémní a mít více synonym než slovo, které se objevuje v méně kontextech. Pro testování hypotézy je použito šest jazyků. Analýza syntakticky-závislostních sítí předložená v této studii přináší novou interpretaci známého vztahu mezi frekvencí a polysémii (nebo synonymií).
[ "Radek Čech", "Ján Mačutek", "Zdeněk Žabokrtský", "Aleš Horák" ]
https://www.semanticscholar.org/paper/428a8cfee229dab63ce99b1c46f7e0eab1f0a646/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Building a Dependency Parsing Model for Russian with MaltParser and MyStem Tagset
Vytvoreni Dependency Parsing modelu pro rustinu pomoci systemu MaltParser a MyStem Tagset
The paper describes a series of experiments on building a dependency parsing model using MaltParser, the SynTagRus treebank of Russian, and the morphological tagger Mystem. The experiments have two purposes. The first one is to train a model with a reasonable balance of quality and parsing time. The second one is to produce user-friendly software which would be practical for obtaining quick results without any technical knowledge (programming languages, linguistic tools, etc.).
Článek popisuje sérii experimentů na vybudování závislostního parsovácího modelu s použitím MaltParser, korpusu ruštiny SynTagRus a morfologického Tagger Mystem. Experimenty mají dva účely. První je natrénovat model s rozumnou rovnováhu mezi kvalitou a parsovácího času. Druhý účel je vytvořit uživatelsky přívětivý software, který by byl praktický pro získání rychlych výsledku bez nutnosti technických znalostí (programovácí jazyky, jazykové nástroje, atd.)
[ "Kira Droganova" ]
https://www.semanticscholar.org/paper/f2e088d9f5839dfcda3f31f11f36cdf969e5fd86/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Malach Center for Visual History
Centrum vizuální historie Malach
Malach Center for Visual History (Malach CVH) at the Faculty of Mathematics and Physics of the Charles University in Prague provides local access to the extensive digital archives of the USC Shoah Foundation – the Institute for Visual history and Education, the Refugee Voices archive of the Association of Jewish Refugees, and other archives of oral histories. The Visual History Archive of USC Shoah Foundation contains over 53 000 witness testimonies covering the history of entire 20th century. The Refugee Voices archive complements this collection with additional 150 interviews, conducted in English language by Association of Jewish Refugees in United Kingdom. Generally speaking, oral history interviews are valuable information resource for students and researchers in many disciplines. Secondary analysis of the testimonies is also applicable to many different scientific fields besides historiography and genocide studies. This paper provides a brief overview and description of available data, and it presents some of the more recent research and educational activities facilitated by the existence of Malach CVH in the Czech Republic.
Poster představuje CVH Malach a dostupné archivy orální historie, stejně jako některé výzkumné a vzdělávací aktivity realizované s využitím dostupných dat.
[ "Jakub Mlynář" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Malach Center for Visual History
Centrum vizuální historie Malach
Malach Center for Visual History (Malach CVH) at the Faculty of Mathematics and Physics of the Charles University in Prague provides local access to the extensive digital archives of the USC Shoah Foundation – the Institute for Visual history and Education, the Refugee Voices archive of the Association of Jewish Refugees, and other archives of oral histories. The Visual History Archive of USC Shoah Foundation contains over 53 000 witness testimonies covering the history of entire 20th century. The Refugee Voices archive complements this collection with additional 150 interviews, conducted in English language by Association of Jewish Refugees in United Kingdom. Generally speaking, oral history interviews are valuable information resource for students and researchers in many disciplines. Secondary analysis of the testimonies is also applicable to many different scientific fields besides historiography and genocide studies. This paper provides a brief overview and description of available data, and it presents some of the more recent research and educational activities facilitated by the existence of Malach CVH in the Czech Republic.
Článek představuje digitální orálněhistorické sbírky dostupné uživatelům CVH Malach a příklady badatelského a vzdělávacího využití těchto materiálů.
[ "Jakub Mlynář" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Unique collection of interviews with Armenian genocide witnesses and survivors is available at the Charles University in Prague
Na Univerzitě Karlově je dostupná unikátní kolekce rozhovorů se svědky a přeživšími genocidy Arménů
The article describes the latest addition into USC Shoah Foundation's Visual History Archive, which is the collection of interviews with witnesses and survivors of Armenian genocide. The text deals with the characteristics of the collection as well as its specific features in the context of VHA.
Zpráva popisuje poslední přírůstek v Archivu vizuální historie USC Shoah Foundation, kolekci rozhovorů se svědky a přeživšími genocidy Arménů, která je dostupná od dubna 2015 i v CVH Malach. Pojednáno je o charakteristikách kolekce i o jejích specificích v rámci celého Archivu USC SF.
[ "Jakub Mlynář" ]
https://www.semanticscholar.org/paper/33e5f83003b73dae65f49b520aa0f27e821b0ad7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Implementation of a Search Engine for DeriNet
Implementace vyhledávacího rozhraní pro DeriNet
DeriNet, a new database of lexical derivates, is being developed at the Institute of Formal and Applied Linguistics. Since it is a wordnet containing large amounts of trees, it is hard to visualize, search and extend without specialized tools. This paper describes a program which has been developed to display the trees and enable finding certain types of errors, and its query language. The application is web-based for ease of use and access. The language has been inspired by CQL, the language used for searching the Czech National Corpus, and uses similar key-words and syntax extended to facilitate searching in tree structures.
DeriNet je databáze lexikálních derivátů vyvíjená v Ústavu formální a aplikované lingvistiky. Takovou síť vztahů s velkým počtem derivačních stromů je těžké vizualizovat. V tomto článku popisujeme softwarový nástroj, který byl vyvinut za účelem zobrazování a prohledávání derivačních stromů. Nástroj má formu webové aplikace a využívá nově vyvinutý dotazovací jazyk podobný jazyku CQL, který se používá k prohledávání Českého národního korpusu.
[ "Jonáš Vidra" ]
https://www.semanticscholar.org/paper/83df2c7e4f6d4c151c29c16569a2e70412f0f618/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2015
DeriNet version 1.0
DeriNet verze 1.0
The lexical network DeriNet 1.0 captures core word-formation relations on the set of lemmas stored in the morphological lexicon Morflex.
DeriNet 1.0 je lexikální síť zahrnující informace o lemmatech obsažených v morfologickém slovníku Morflex.
[ "Jonáš Vidra", "Zdeněk Žabokrtský", "Magda Ševčíková", "Milan Straka" ]
https://www.semanticscholar.org/paper/1565c05d7cb26f8207230a718daeb8a13df78bde/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
A survey of multiword expressions in treebanks
Přehled víceslovných výrazů v syntakticky anotovaných korpusech
We present the methodology and results of a survey on the annotation of multiword expressions in treebanks. The survey was conducted using a wiki-like website filled out by people knowledgeable about various treebanks. The survey results were studied with a comparative focus on prepositional MWEs, verb-particle constructions and multiword named entities.
Představujeme metologii a výsledky průzkumu anotace víceslovných výrazů v treebancích. Průzkum probíhal pomocí webu na principu wiki, kam přispívali lidé obeznámení s treebanky. Výsledky průzkumu jsme studovali zejména z hlediska porovnání přístupů k předložkovým víceslovným výrazům, slovesným konstrukcím s předložkou a víceslovným pojmenovaným entitám.
[ "Victoria Rosén", "Gyri Smørdal Losnegaard", "Koenraad De Smedt", "Eduard Bejček", "Agata Savary", "Adam Przepiórkowski", "Petya Osenova", "Verginica Barbu Mititelu" ]
https://www.semanticscholar.org/paper/c42f61aa3957c114206e838e23421118ebd11764/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Annotation of textual phenomena in the Prague Dependency Treebank
Anotace textových jevů v Pražském závislostním korpusu
In the presentation, the general overview of textual phenomena annotated in the Prague Dependency treebank is presented. We discuss coreference, reconstruction of ellises, topic-focus articulation and discourse structure.
Prezentace popisuje textove jevy zachycene v tektogramaticke anotace PDT - koreference, elipsy, aktualni cleneni a diskurz.
[ "Anna Nedoluzhko" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Coreference in Czech and cross-lingually – ideas and perspectives
Koreference v cetine a jinych jzycih - napady a perspektivy
The talk presents manual annotation of coreference relations in more detail: coreference resolution experiments, manual annotation of English (Ontonotes vs. PCEDT, problematic cases (generics, premodifiers, etc.)), (dis)agreements, coreference chains in Czech, English and Russian.
V teto prednasce se zamerime na detailnejsi popis koreference v cestine. predstavim proces anotace, vysledky automatickeho rozreseni koreference a srovname to s vysledky mezianotatorske shody. Zamerime se taky na oreferencni retezce a jejich reprezentace v cestine a jinych jazycich.
[ "Anna Nedoluzhko" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
ru
2015
Annotation principles and details for Coreference and Discourse in PDT
Anotační principy a problémy při zpracování diskurzu a koreference v PDT
The talk presents manual annotation of coreference and discourse relations in PDT in more detail: coreference resolution experiments, manual annotation (generics, premodifiers, etc.)), (dis)agreements, etc.
V přednášce jsme představili anotaci koreference a diskurzu v PDT s přihlednutím ke konkrétním problémům, jako je mezianotátorská shoda a příčiny neshod, koreference generických jmenných frází atd.
[ "Anna Nedoluzhko" ]
null
null
null
Разметка анафорических отношений и дискурса в PDT
В лекции рассматривалась анафорическая разметка и разметка дискурса в синтаксически аннотированном корпусе чешского языка. Особенное внимание уделяется проблемам и интересным моментам разметки (кореферентность родовых именных групп, сравнение разметки разными разметчиками и др.)
null
null
null
null
null
null
null
null
ru
2015
Textual phenomena - approaches and tools
Textové vztahy - přístupy a nástroje
In the presentation, the general overview of textual phenomena annotated is presented. We discuss coreference, reconstruction of ellises, topic-focus articulation and discourse structure.
V prezengtaci představujeme několik přístupu k analýze a anotace textových jevů, např. ke koreference, elipsám, aktualnímu cleneni a diskurzním konektorům a argumentům.
[ "Anna Nedoluzhko" ]
https://www.semanticscholar.org/paper/7f640b4710933321d355a59011197f0c1a18f422/
null
null
Текстовые явления - подходы и инструменты
В презентации мы рассматриваем несколько подходов к анализу и разметке текстовых явлений. Мы описываем кореферентность, дискурс, эллипсы и актуальное членение. Особое внимание уделяем пражскому подходу.
null
null
null
null
null
null
null
null
en
2015
Information Structure and Anaphoric Links – A Case Study and Probe
Aktuální členění a anarofické vztahy - experiment na anotovaných datech
In the presentation, we analyzed contextually bound nominal expressions explicitly expressed in the sentence, that lack an anaphoric (bridging, coreference or segment) link to a previous context. The statistics collected from the PDT annotated data has shown that in almost one third of contextually bound expressions there is no anaphoric link to the previous context. Disregarding different types of more or less technical reasons evoked by the tectogrammatical structure of the PDT sentences and annotation errors, we can claim that there are three groups of reasons why contextually bound nominal groups are not linked by any anaphoric link. These are (i) contextually bound nominal groups semantically or pragmatically related to previous textual or extralinguistic context but not specified as bridging relations within the PDT; (ii) secondary circumstances (temporal, local, etc.) and (iii) nominal groups with low referential potential.
V prezentaci jsme analyzovali výskyty kontextově zapojených výrazů ve větě, které nejsou propojeny žádným z anaforických vztahů (koreference, asociační anafora) anotatovaném v Pražském závislostním korpusu. Ukázalo se, že takových případů je v PDT cca. 30%. Vyčlenili jsme tři základní příčiny této absence: (i) kontextově zapojeny je sémanticky či pragmaticky spojen s s předchozím textem nebo s extralingvisticou situací; (ii) sekundární okolnosti, kulisy a (iii) výrazy s nízkým referenčním potenciálem.
[ "Anna Nedoluzhko", "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Across Languages and Genres: Creating a Universal Annotation Scheme for Textual Relations
Napříč jazyky a žánry: Vytvoření univerzálního anotačního schématu pro textové vztahy
The present paper describes an attempt to create an interoperable scheme using existing annotations of textual phenomena across languages and genres including non-canonical ones. Such a kind of analysis requires annotated multilingual resources which are costly. Therefore, we make use of annotations already available in the resources for English, German and Czech. As the annotations in these corpora are based on different conceptual and methodological backgrounds, we need an interoperable scheme that covers existing categories and at the same time allows a comparison of the resources. In this paper, we describe how this interoperable scheme was created and which problematic cases we had to consider. The resulting scheme is supposed to be applied in the future to explore contrasts between the three languages under analysis, for which we expect the greatest differences in the degree of variation between non-canonical and canonical language.
Daný článek popisuje pokus o vytvoření obecného anotačního schématu pomocí existujících anotací textových vztahů v češtině, němčině a angličtině.
[ "Anna Nedoluzhko", "Ekaterina Lapshinova-Koltunski", "Kerstin Anna Kunz" ]
https://www.semanticscholar.org/paper/ec0b0f5a93f398f38d606d04dd9ca32b97fb57b7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2015
Analysis of DRD-related Contrasts in Spoken Czech, English and German
Srovnavací analýza konektorů v mluvené češtině, angličtině a němčině
The aim of the present paper is to analyse contrasts in Czech, English and German in terms of discourse-relational devices (DRDs). The novelty of our approach lies in the nature of the resources we are using. Advantage is taken of existing resources, which are, however, annotated on the basis of two different frameworks. We use an interoperable scheme unifying DRDs of both frameworks in more abstract categories and considering only those phenomena that have a direct match in German, English and Czech.
Cílem výzkumu je statistické srovnání použití diskurzních konektorů v mluvené češtině, angličtině a němčině. Analýza se opírá na srovnatelné texty ve třech zkoumaných jazycích, na které byla promítnuta automatická anotace diskurzu vytvořena na základě srovnání anotačních schémat pro tyto jazyky, primárně provedena ručně v rámci různých vědeckých paradigmat.
[ "Anna Nedoluzhko", "Ekaterina Lapshinova-Koltunski", "Kerstin Anna Kunz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null