Datasets:
ufal
/

lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2020
European Language Grid: An Overview
Evropský jazykový hub: přehled
With 24 official EU and many additional languages, multilingualism in Europe and an inclusive Digital Single Market can only be enabled through Language Technologies (LTs). European LT business is dominated by hundreds of SMEs and a few large players. Many are world-class, with technologies that outperform the global players. However, European LT business is also fragmented – by nation states, languages, verticals and sectors, significantly holding back its impact. The European Language Grid (ELG) project addresses this fragmentation by establishing the ELG as the primary platform for LT in Europe. The ELG is a scalable cloud platform, providing, in an easy-to-integrate way, access to hundreds of commercial and non-commercial LTs for all European languages, including running tools and services as well as data sets and resources. Once fully operational, it will enable the commercial and non-commercial European LT community to deposit and upload their technologies and data sets into the ELG, to deploy them through the grid, and to connect with other resources. The ELG will boost the Multilingual Digital Single Market towards a thriving European LT community, creating new jobs and opportunities. Furthermore, the ELG project organises two open calls for up to 20 pilot projects. It also sets up 32 national competence centres and the European LT Council for outreach and coordination purposes.
S 24 oficiálními jazyky EU a mnoha dalšími jazyky může být mnohojazyčnost v Evropě a inkluzivní jednotný digitální trh umožněn pouze prostřednictvím jazykových technologií (LT). Evropské LT podnikání ovládají stovky malých a středních podniků a několik velkých hráčů. Mnohé z nich jsou světové, s technologiemi, které předčí globální hráče. Evropské podnikání v LT je však také roztříštěné – v závislosti na národních státech, jazycích, vertikálech a odvětvích, což výrazně brzdí jeho dopad. Projekt evropské jazykové sítě (European Language Grid, ELG) řeší tuto roztříštěnost tím, že stanoví ELG jako primární platformu pro LT v Evropě. Skupina ELG je rozšiřitelná cloudová platforma, která umožňuje snadnou integraci přístupu ke stovkám komerčních i nekomerčních LT pro všechny evropské jazyky, včetně provozních nástrojů a služeb, jakož i datových souborů a zdrojů. Jakmile bude plně funkční, umožní komerční i nekomerční evropské komunitě LT ukládat a nahrávat své technologie a soubory dat do systému ELG, zavádět je do sítě a propojovat s dalšími zdroji. Skupina ELG podpoří vícejazyčný jednotný digitální trh směrem k prosperující evropské LT komunitě a vytvoří nová pracovní místa a příležitosti. Kromě toho projekt ELG organizuje dvě otevřené výzvy až pro 20 pilotních projektů. Zřizuje také 32 národních kompetenčních center a Evropskou radu LT pro osvětové a koordinační účely.
[ "Georg Rehm", "Maria Berger", "Jan Hajič", "Stefanie Hegele", "Florian Kintzel", "Katrin Marheinecke", "Stelios Piperidis", "Miltos Deligiannis", "Dimitris Galanis", "Katerina Gkirtzou", "Penny Labropoulou", "Kalina Boncheva", "Dominic Jones", "Ela Elsholz", "Ian Roberts", "Jana Hamrlová", "Lukáš Kačena", "Khalid Choukri", "Victoria Arranz", "Andrejs Vasiljevs", "Katya Aplonova", "Julija Melnika", "Gerhard Backfried", "Miro Jánošík", "Katja Prinz", "Christoph Prinz", "Andres Garcia-Silva", "Cristian Berrio", "Ulrich Germann", "Steve Renals", "Ondřej Klejch", "José Manuel Gómez-Pérez" ]
https://www.semanticscholar.org/paper/be4b311b7d6add1d1396befe0dbc93001741ed42/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Proceedings of the 1st International Workshop on Language Technology Platforms (IWLTP 2020, co-located with LREC 2020)
Sborník 1. mezinárodního workshopu o jazykových technologiích IWLTP, na LREC2020
With the increasing number of platforms, grids and infrastructures in the wider area of Language Technologies (LT), NLP, NLU, speech, interaction and language-centric AI, there is also a growing need for sharing experiences, approaches and best practices to learn and benefit from the work of others and also, practically, to start a collaboration towards platform interoperability. The 1st InternationalWorkshop for Language Technology Platforms (IWLTP 2020) addresses all smaller and larger language grids, language-related infrastructures, platform initiatives as well as collaborative research projects that touch upon LT platforms, especially platform interoperability and related topics, both in Europe and world-wide. Its objective is to exchange and discuss observations, experiences, solutions, best practices as well as current and future challenges. The workshop also addresses the issue of fragmentation in the Language Technology landscape. Instead of “platform islands” that simply exist side by side, possibly even competing with each other, initiatives should discuss how their platforms can be made interoperable and how they can interact with one another to create synergies towards a productive LT platform ecosystem. The EU project European Language Grid (ELG; 2019-2021) is creating a platform that will provide thousands of data sets and hundreds of LT services. ELG aims to promote technologies tailored to all European languages and cultures, adapted to their social and economic needs. At the same time, there are several established platforms or infrastructure-related initiatives as well as emerging new ones, both on the European but also on the national level as well as on other continents. Some of the initiatives are more language-related and have a strong industry focus, others are mainly research-oriented. Moreover, there are digital public service initiatives, and platforms, in which language is only one aspect of many. With all these established and emerging initiatives, there is a risk of even stronger fragmentation in the Language Technology field, which is already highly fragmented, at least in Europe. Our approach is to bring these initiatives together to discuss ways not only of preventing further fragmentation but, crucially, of reversing it. This will only be possible if interoperability and mutual data exchange is ensured and if metadata formats and technical requirements are compatible, among others. A total of 30 papers were submitted to IWLTP 2020, 17 of which were accepted (acceptance rate: 56.7%). The organisers would like to thank all contributors for their valuable submissions and all members of the Programme Committee for reviewing the submitted papers. Due to the ongoing SARSCoV-2 pandemic, the workshop cannot be held as originally foreseen. Together with the organisers of LREC 2020 we will explore if we can organise the workshop at a later point in time or if we can organise it as a virtual event. G. Rehm, K. Bontcheva, K. Choukri, J. Hajic, S. Piperidis, A. Vasil,jevs May 2020 iii
S rostoucím počtem platforem, sítí a infrastruktur v širší oblasti jazykových technologií (LT), NLP, NLU, řeči, interakce a umělé inteligence zaměřené na jazyk roste také potřeba sdílet zkušenosti, přístupy a osvědčené postupy, učit se a těžit z práce druhých a také prakticky zahájit spolupráci směrem k interoperabilitě platforem. 1. mezinárodní seminář pro platformy jazykových technologií (IWLTP 2020) se zabývá všemi menšími a většími jazykovými sítěmi, infrastrukturami souvisejícími s jazyky, iniciativami platforem i kooperativními výzkumnými projekty, které se dotýkají platforem LT, zejména interoperability platforem a souvisejících témat, a to jak v Evropě, tak na celém světě. Jeho cílem je výměna a diskuse o pozorování, zkušenostech, řešeních, osvědčených postupech i současných a budoucích výzvách. Seminář se také zabývá otázkou roztříštěnosti prostředí jazykových technologií. Namísto „ostrovů platforem“, které prostě existují vedle sebe, případně si dokonce navzájem konkurují, by iniciativy měly diskutovat o tom, jak lze jejich platformy učinit interoperabilními a jak mohou vzájemně spolupracovat, aby vytvořily součinnost směrem k produktivnímu ekosystému platforem LT. Projekt EU European Language Grid (ELG; 2019-2021) vytváří platformu, která poskytne tisíce datových souborů a stovky služeb LT. Cílem ELG je podporovat technologie šité na míru všem evropským jazykům a kulturám, přizpůsobené jejich sociálním a ekonomickým potřebám. Zároveň existuje několik zavedených platforem nebo iniciativ souvisejících s infrastrukturou, jakož i vznikající nové, a to jak na evropské, ale i na národní úrovni, tak i na jiných kontinentech. Některé z iniciativ jsou více spojené s jazyky a mají silné zaměření na průmysl, jiné jsou zaměřeny především na výzkum. Navíc existují iniciativy v oblasti digitálních veřejných služeb a platformy, v nichž je jazyk pouze jedním z mnoha aspektů. U všech těchto zavedených a vznikajících iniciativ hrozí ještě větší roztříštěnost v oblasti jazykových technologií, která je již nyní velmi roztříštěná, alespoň v Evropě. Naším přístupem je spojit tyto iniciativy a diskutovat o způsobech, jak nejen zabránit další roztříštěnosti, ale hlavně jak ji zvrátit. To bude možné pouze tehdy, bude-li zajištěna interoperabilita a vzájemná výměna dat a budou-li formáty metadat a technické požadavky kompatibilní, mimo jiné. Do IWLTP 2020 bylo předloženo celkem 30 příspěvků, z nichž 17 bylo přijato (míra přijetí: 56,7%). Organizátoři by rádi poděkovali všem přispěvatelům za jejich cenné příspěvky a všem členům programového výboru za přezkoumání předložených dokumentů. Vzhledem k probíhající pandemii SARSCoV-2 se workshop nemůže konat tak, jak se původně předpokládalo. Společně s organizátory LREC 2020 budeme zkoumat, zda bychom mohli workshop uspořádat později, nebo zda bychom ho mohli uspořádat jako virtuální akci. G. Rehm, K. Bontcheva, K. Choukri, J. Hajic, S. Piperidis, A. Vasiljevs květen 2020
[ "Georg Rehm", "Kalina Bontcheva", "Khalid Choukri", "Jan Hajič", "Stelios Piperidis", "Andrejs Vasiljevs" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Presenting Simultaneous Translation in Limited Space
Prezentace simultánního překladu v omezeném prostoru
Some methods of automatic simultaneous translation of a long-form speech allow revisions of outputs, trading accuracy for low latency. Deploying these systems for users faces the problem of presenting subtitles in a limited space, such as two lines on a television screen. The subtitles must be shown promptly, incrementally, and with adequate time for reading. We provide an algorithm for subtitling. Furthermore, we propose a way how to estimate the overall usability of the combination of automatic translation and subtitling by measuring the quality, latency, and stability on a test set, and propose an improved measure for translation latency.
Strojový překlad: Některé metody automatického simultánního převodu řeči dlouhé formy umožňují revize výstupů, přesnost obchodování pro nízkou latenci. Zavádění těchto systémů uživatele čeká problém s prezentací titulků v omezeném prostoru, jako jsou dva řádky na televizní obrazovce. The titulky musí být zobrazeny okamžitě, postupně a s dostatečný čas na čtení. Poskytujeme algoritmus pro titulkování. Dále navrhujeme způsob, jak odhadnout celková využitelnost kombinace automatického překladu a titulkování měřením kvality, latence a stabilitu na testovací sadě a navrhnout vylepšené opatření kvůli zpoždění překladu.
[ "Dominik Macháček", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/7f2f8bf6096d7744c2a61296b10cb351aad6efb4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
ELITR Non-Native Speech Translation at IWSLT 2020
Systém projektu ELITR na automatický překlad řeči nerodilých mluvčích na IWSLT 2020
This paper is an ELITR system submission for the non-native speech translation task at IWSLT 2020. We describe systems for offline ASR, real-time ASR, and our cascaded approach to offline SLT and real-time SLT. We select our primary candidates from a pool of pre-existing systems, develop a new end-to-end general ASR system, and a hybrid ASR trained on non-native speech. The provided small validation set prevents us from carrying out a complex validation, but we submit all the unselected candidates for contrastive evaluation on the test set.
Tento abstrakt je pouze v angličtině: This paper is an ELITR system submission for the non-native speech translation task at IWSLT 2020. We describe systems for offline ASR, real-time ASR, and our cascaded approach to offline SLT and real-time SLT. We select our primary candidates from a pool of pre-existing systems, develop a new end-to-end general ASR system, and a hybrid ASR trained on non-native speech. The provided small validation set prevents us from carrying out a complex validation, but we submit all the unselected candidates for contrastive evaluation on the test set.
[ "Dominik Macháček", "Jonáš Kratochvíl", "Sangeet Sagar", "Matúš Žilinec", "Ondřej Bojar", "Thai-Son Nguyen", "Felix Schneider", "Philip Williams", "Yuekun Yao" ]
https://www.semanticscholar.org/paper/08cbc3b3b913cf1f2595f3ffec3d439b32088f2f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Are Multilingual Neural Machine Translation Models Better at Capturing Linguistic Features?
Jsou vícejazyčné modely strojového překladu lepší v zachycování lingvistických rysů?
We investigate the effect of training NMT models on multiple target languages. We hypothesize that the integration of multiple languages and the increase of linguistic diversity will lead to a stronger representation of syntactic and semantic features captured by the model. We test our hypothesis on two different NMT architectures: The widely-used Transformer architecture and the Attention Bridge architecture. We train models on Europarl data and quantify the level of syntactic and semantic information discovered by the models using three different methods: SentEval linguistic probing tasks, an analysis of the attention structures regarding the inherent phrase and dependency information and a structural probe on contextualized word representations. Our results show evidence that with growing number of target languages the Attention Bridge model increasingly picks up certain linguistic properties including some syntactic and semantic aspects of the sentence whereas Transformer models are largely unaffected. The latter also applies to phrase structure and syntactic dependencies that do not seem to be developing in sentence representations when increasing the linguistic diversity in training to translate. This is rather surprising and may hint on the relatively little influence of grammatical structure on language understanding.
Zkoumáme vliv trénování modelů NMT na více cílových jazyků. Předpokládáme, že integrace více jazyků a zvýšení jazykové rozmanitosti povedou k silnějšímu zastoupení syntaktických a sémantických rysů zachycených modelem. Testujeme naši hypotézu na dvou různých architekturách NMT: široce používaná architektura transformátorů a architektura Attention Bridge. Trénujeme modely na datech Europarl a kvantifikujeme úroveň syntaktických a sémantických informací objevených modely pomocí tří různých metod: úkoly lingvistického průzkumu SentEval, analýza struktur pozornosti týkající se inherentních informací o frázích a závislostech a strukturální sonda na kontextových reprezentacích slov . Naše výsledky ukazují, že s rostoucím počtem cílových jazyků model Attention Bridge stále více získává určité jazykové vlastnosti, včetně některých syntaktických a sémantických aspektů věty, zatímco transformátorské modely jsou do značné míry nedotčeny. Posledně uvedené platí také pro frázovou strukturu a syntaktické závislosti, které se při zvyšování jazykové rozmanitosti při výcviku překladu nejeví ve větných vyjádřeních. To je docela překvapivé a může to naznačovat relativně malý vliv gramatické struktury na porozumění jazyku.
[ "David Mareček", "Hande Celikkanat", "Miikka Silfverberg", "Vinit Ravishankar", "Jörg Tiedemann" ]
https://www.semanticscholar.org/paper/68c52619d6a12fcaa3f6207239d5c49f2ac1068e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Hidden in the Layers: Interpretation of Neural Networks for Natural Language Processing
Skryto ve vrstvách: Interpretace neuronových sítí pro zpracování přirozeného jazyka
In recent years, deep neural networks dominated the area of Natural Language Processing (NLP). End-to-end-trained models can do tasks as skillfully as never before and develop their own language representations. However, they act as black boxes that are very hard to interpret. This calls for an inspection to what extent the linguistic conceptualizations are consistent with what the models learn. Do neural networks use morphology and syntax the way people do when they talk about language? Or do they develop their own way? In our talk, we will half-open the neural black-box and analyze the internal representations of input sentences with respect to their morphological, syntactic, and semantic properties. We will focus on word embeddings as well as contextual embeddings and self-attentions of the Transformer models (BERT, NMT). We will show both supervised and unsupervised analysis approaches.
V posledních letech dominovaly hluboké neuronové sítě v oblasti zpracování přirozeného jazyka (NLP). Modely trénované od konce do konce mohou dělat úkoly stejně zručně jako nikdy předtím a rozvíjet vlastní vyjádření jazyka. Působí však jako černé skříňky, které je velmi těžké interpretovat. To vyžaduje kontrolu, do jaké míry jsou jazykové koncepce v souladu s tím, co se modely učí. Používají neuronové sítě morfologii a syntaxi stejně jako lidé, když mluví o jazyce? Nebo si vyvinou vlastní způsob? V naší přednášce pootevřeme neurální černou skříňku a zanalyzujeme vnitřní reprezentace vstupních vět s ohledem na jejich morfologické, syntaktické a sémantické vlastnosti. Zaměříme se na embedinky slov i kontextové embedinky a sebepozornost modelů Transformer (BERT, NMT). Ukážeme jak řízené, tak i neřízené postupy analýzy.
[ "David Mareček", "Jindřich Libovický", "Tomáš Musil", "Rudolf Rosa", "Tomasz Limisiewicz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Hidden in the Layers: Interpretation of Neural Networks for Natural Language Processing
Skryto ve vrstvách: Interpretace neuronových sítí pro zpracování přirozeného jazyka
In this book, we explore neural-network architectures and models that are used for Natural Language Processing (NLP). We analyze their internal representations (word-embeddings, hidden states, attention mechanism, and contextual embeddings) and review what properties these representations have and what kinds of linguistically interpretable features emerge in them. We use our own experimental results, as well as the results published by other research teams to present an overview of models and representations and their linguistic properties. In the beginning, we explain the basic concepts of deep learning and its usage in NLP and discuss details of the most prominent neural architectures and models. Then, we outline the concept of interpretability, different views on it, and introduce basic supervised and unsupervised methods that are used for interpreting trained neural-network models. The next part is devoted to static word embeddings. We show various methods for embeddings space visualization, component analysis and embedding space transformations for interpretation. Pretrained word embbedings contain information about both morphology and lexical semantics. When the embbedings are trained for a specific task, the embeddings tend to be organised by the information that is important for the given task (e.g. emotional polarity for sentiment analysis). We also analyze attention mechanisms, in which we can observe weighted links between representations of individual tokens. We show that the cross-lingual attentions mostly connect mutually corresponding tokens; however, in some cases, they may be very different from the traditional word-alignments. We mainly focus on self-attentions in Transformers. Some heads connect tokens with certain syntactic relations. This motivated researchers to infer syntactic trees from the self-attentions and compare them to the linguistic annotations. We summarize the amount of syntax in the attentions across the layers of several NLP models. We also point out the fact that attentions might sometimes be very misleading and may carry very different information from which we would think based on the attended tokens. In the last part, we look at contextual word embeddings and the linguistic features they capture. They constitute a clear improvement over static word embeddings, especially in terms of capturing morphological and syntactic features. However, some higher linguistic abstractions, such as semantics, seem to be reflected in the current contextual embeddings only very weakly or not at all.
V této knize prozkoumáme architektury a modely neuronových sítí, které se používají pro zpracování přirozeného jazyka (NLP). Analyzujeme jejich interní reprezentace (vkládání slov, skryté stavy, mechanismus pozornosti a kontextové vkládání) a zkoumáme, jaké vlastnosti mají tyto reprezentace a jaké jazykově interpretovatelné rysy se v nich objevují. K prezentaci přehledu modelů a reprezentací a jejich jazykových vlastností používáme vlastní experimentální výsledky i výsledky publikované jinými výzkumnými týmy. Na začátku vysvětlíme základní pojmy hlubokého učení a jeho využití v NLP a probereme podrobnosti nejvýznamnějších neurálních architektur a modelů. Poté nastíníme koncept interpretovatelnosti, různé pohledy na ni a představíme základní supervizované a nekontrolované metody, které se používají pro tlumočení modely neuronových sítí. Další část je věnována statickému vkládání slov. Ukážeme různé metody pro vkládání vizualizace prostoru, analýzu komponent a vkládání transformací prostoru pro interpretaci. Předem připravená vložení slov obsahují informace o morfologii i lexikální sémantice. Když jsou embedings trénovány pro konkrétní úkol, embeddings mají tendenci být organizovány podle informací, které jsou pro daný úkol důležité (např. Emoční polarita pro analýzu sentimentu). Analyzujeme také mechanismy pozornosti, ve kterých můžeme sledovat vážené vazby mezi reprezentacemi jednotlivých tokenů. Ukazujeme, že mezijazykové pozornosti většinou spojují vzájemně odpovídající tokeny; v některých případech se však mohou velmi lišit od tradičních slovních spojení. Hlavně se zaměřujeme na sebepozornost v sítích typu Transformer. Některé hlavy spojují tokeny s určitými syntaktickými vztahy. To motivovalo vědce odvodit syntaktické stromy ze sebepozorování a porovnat je s lingvistickými anotacemi. Shrneme množství syntaxe v pozornost napříč vrstvami několika modelů NLP. Rovněž poukazujeme na skutečnost, že pozornost může být někdy velmi zavádějící a může nést velmi odlišné informace, o kterých bychom si na základě zúčastněných tokenů mysleli. V poslední části se podíváme na kontextové vektorové representace slov a jazykové vlastnosti, které zachycují. Představují jasné vylepšení oproti statickým vektorovým reprezentacím slov, zejména pokud jde o zachycení morfologických a syntaktických znaků. Zdá se však, že některé vyšší jazykové abstrakce, jako je sémantika, se v současných kontextových vloženích odrážejí jen velmi slabě nebo vůbec.
[ "David Mareček", "Jindřich Libovický", "Tomáš Musil", "Rudolf Rosa", "Tomasz Limisiewicz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Pictures from the robot's life
Ze života robotů
"The robots will not live, they can only die," says the builder Alquist, a character in the R.U.R. play. The author of these words, however, this time is not Karel Čapek, but a machine, an artificial intelligence, writing a drama about the relationship of man and robot in honor of the famous work. It is to be shown at the Švanda Theatre on January 25th, when it will be 100 years since the premiere of R.U.R.
„Roboti žít nebudou, mohou jen zemřít,“ říká stavitel Alquist, postava z divadelní hry R.U.R. Autorem těchto slov ovšem tentokrát není Karel Čapek, ale stroj, umělá inteligence, která na počest slavného díla píše drama o vztahu člověka a robota. Má být uvedena ve Švandově divadle 25. ledna, kdy od premiéry R.U.R. uplyne právě 100 let.
[ "Martin Uhlíř", "Rudolf Rosa", "Tomáš Musil", "David Košťák" ]
https://www.semanticscholar.org/paper/4ec99d786ff27cb62206173e97a8e44fe0e3488e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
An Advanced Profile Hidden Markov Model for Malware Detection
Pokročilý HMM model pro detekci malwaru
The rapid growth of malicious software (malware) production in recent decades and the increasing number of threats posed by malware to network environments, such as the Internet and intelligent environments, emphasize the need for more research on the security of computer networks in information security and digital forensics. The method presented in this study identifies “species” of malware families, which are more sophisticated, obfuscated, and structurally diverse. We propose a hybrid technique combining aspects of signature detection with machine learning-based methods to classify malware families. The method is carried out by utilizing Profile Hidden Markov Models (PHMMs) on the behavioral characteristics of malware species. This paper explains the process of modeling and training an advanced PHMM using sequences obtained from the extraction of each malware family’s paramount features, and the canonical sequences created in the process of Multiple Sequence Alignment (MSA) production. Due to the fact that not all parts of a file are malicious, the goal is to distinguish the malicious portions from the benign ones and place more emphasis on them in order to increase the likelihood of malware detection by having the least impact from the benign portions. Based on “consensus sequences”, the experimental results show that our proposed approach outperforms other HMM-based techniques even when limited training data is available. All supplementary materials including the code, datasets, and a complete list of results are available for public access on the Web.
Rychlý růst tvory škodlivého softwaru (malware) v posledním tesetiletí a počet útoků způsobených malwarem na síťová prostředí, jako je Internet, dokládá potřebu výzkumu bezpečnosti počítačových sítí a digitálně zaměřené forenzní vědy. V naší studii překládáme metodu, které identifikuje "druhy" rodin malware, které jsou pokročilé, záměrně matoucí a strukturně pestré. Navrhujeme hybridní techniku, která při klasifikaci malwarových rodin kombinuje detekci signatur s metodami založenými na strojovém učení. Metoda využívá profilové skryté markovské modely (PHMM) k behaviorálnímu popisu malwarových druhů. Tento článek vysvětluje proces modelování a trénování vícečetného zarovnání sekvencí. Vzhledem k tomu, že ne všechny části souboru jsou škodlivé, je cílem rozlišit škodlivé a neškodné části. Zaměřením na škodlivé části roste šance na detekci malwaru. Experimentální výsledky ukazují, že svou úspěšností naše metoda překonává ostatní přístupy založené na skrytých markovských řetězcích. Všechny doprovodné materiály k textu, zejména zdrojové kódy, datové sady a kompletní výsledky, jsou veřejně dostupné na Internetu.
[ "Alireza Abbas Alipour", "Ebrahim Ansari" ]
https://www.semanticscholar.org/paper/de5edc7e6e9576ae841344f25ff82625eab99cb4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Evaluating the state-of-the-art of End-to-End Natural Language Generation: The E2E NLG challenge
Evaluace současných nejlepších end-to-end systémů pro generování přirozeného jazyka: E2E NLG Challenge
This paper provides a comprehensive analysis of the first shared task on End-to-End Natural Language Generation (NLG) and identifies avenues for future research based on the results. This shared task aimed to assess whether recent end-to-end NLG systems can generate more complex output by learning from datasets containing higher lexical richness, syntactic complexity and diverse discourse phenomena. Introducing novel automatic and human metrics, we compare 62 systems submitted by 17 institutions, covering a wide range of approaches, including machine learning architectures – with the majority implementing sequence-to-sequence models (seq2seq) – as well as systems based on grammatical rules and templates. Seq2seq-based systems have demonstrated a great potential for NLG in the challenge. We find that seq2seq systems generally score high in terms of word-overlap metrics and human evaluations of naturalness – with the winning Slug system (Juraska et al., 2018) being seq2seq-based. However, vanilla seq2seq models often fail to correctly express a given meaning representation if they lack a strong semantic control mechanism applied during decoding. Moreover, seq2seq models can be outperformed by hand-engineered systems in terms of overall quality, as well as complexity, length and diversity of outputs. This research has influenced, inspired and motivated a number of recent studies outwith the original competition, which we also summarise as part of this paper.
Tento článek představuje podrobnou analýzu první soutěže v end-to-end generování přirozeného jazyka (NLG) a na základě jejích výsledků naznačuje směr budoucího výzkumu. Cílem této soutěže úkolu bylo posoudit, zda moderní end-to-end systémy NLG mohou generovat komplexnější výstup, jsou-li natrénovány z dat lexikálně bohatších, syntakticky složitějších a zahrnujících různé diskurzní jevy. S použitím nových automatických a lidských metrik porovnáváme 62 systémů zaslaných do soutěže 17 institucemi, které zahrnují širokou škálu přístupů, včetně architektur strojového učení – kde většina implementací jsou modely typu sequence-to-sequence (seq2seq) – i systémů založených na gramatických pravidlech a šablonách. Systémy založené na architektuře seq2seq ukázaly v této souteži velký potenciál pro NLG. Zjistili jsme, že seq2seq systémy mají obecně vysoké skóre, pokud jde o metriky založené na překryvu slov a lidské hodnocení přirozenosti/plynulosti; vítězný systém Slug (Juraska et al., 2018) je založený na seq2seq. Základní modely typu seq2seq však často nedokážou správně vyjádřit vstupný reprezentaci významu, pokud postrádají silný mechanismus sémantické kontroly použitý během dekódování. Modely seq2seq mohou být navíc překonány ručně vytvořenými systémy z hlediska celkové kvality, jakož i složitosti, délky a rozmanitosti výstupů. Tento výzkum ovlivnil, inspiroval a motivoval řadu nedávných studií mimo původní soutěž, které v článku rovněž shrnujeme.
[ "Ondřej Dušek", "Jekaterina Novikova", "Verena Rieser" ]
https://www.semanticscholar.org/paper/fedbcfe03e44f4f9610e2b2164c5673516543f38/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Evaluating Semantic Accuracy of Data-to-Text Generation with Natural Language Inference
Evaluace sémantické přesnosti generování textu z dat pomocí systémů pro automatickou inferenci
A major challenge in evaluating data-to-text (D2T) generation is measuring the semantic accuracy of the generated text, i.e. its faithfulness to the input data. We propose a new metric for evaluating the semantic accuracy of D2T generation based on a neural model pretrained for natural language inference (NLI). We use the NLI model to check textual entailment between the input data and the output text in both directions, allowing us to reveal omissions or hallucinations. Input data are converted to text for NLI using trivial templates. Our experiments on two recent D2T datasets show that our metric can achieve high accuracy in identifying erroneous system outputs.
Velkým problémem v evaluaci systémů pro generování textu z dat (D2T) je jak změřit sémantickou přesnost vygenerovaného textu, tj. jeho věrnost vstupním datům. Navrhujeme novou metriku pro evaluaci sémantické přesnosti D2T generování založené na neuronovém modelu předtrénovaném na úlohu automatické jazykové inference (NLI). Pomocí modelu NLI kontrolujeme, zda generovaný text vyplývá (entailment) z dat a opačně, což nám dovoluje odhalit vynechané části dat nebo halucinované (daty nepodložené) části vygenerovaného textu. Vstupní data pro model NLI převádíme do textu pomocí triviálních šablon. Naše experimenty na dvou běžně užívaných datových sadách pro D2T ukazují, že naše metrika dokáže dosáhnout vysoké přesnosti při identifikaci chybných výstupů generátorů.
[ "Ondřej Dušek", "Zdeněk Kasner" ]
https://www.semanticscholar.org/paper/32e2330d214f27041efa0704bcb90593e7da6327/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Findings of the 2020 Conference on Machine Translation (WMT20)
Závěry konference o strojovém překladu 2020 (WMT20)
This paper presents the results of the news translation task and the similar language translation task, both organised alongside the Conference on Machine Translation (WMT) 2020. In the news task, participants were asked to build machine translation systems for any of 11 language pairs, to be evaluated on test sets consisting mainly of news stories. The task was also opened up to additional test suites to probe specific aspects of translation. In the similar language translation task, participants built machine translation systems for translating between closely related pairs of languages.
Tato práce představuje výsledky překladatelských úloh týkajících se zpravodajských textů a podobného úkolu překladů jazyků, obojí organizováno v rámci Conference on Machine Translation (WMT) 2020. V úkolu týkajícím se zpravodajských textů byli účastníci požádáni o sestavení systémů strojového překladu pro kterýkoli z 11 jazykových párů, které budou hodnoceny na testovacích souborech sestávajících hlavně z reportáží. Úloha byla také otevřena pro další testovací sady, aby se daly zkoumat specifické aspekty překladu. V další úloze účastníci sestavili systémy strojového překladu pro překládání mezi úzce příbuznými páry jazyků.
[ "Loïc Barrault", "Magdalena Biesialska", "Ondřej Bojar", "Marta R. Costa-Jussà", "Christian Federmann", "Yvette Graham", "Roman Grundkiewicz", "Barry Haddow", "Matthias Huck", "Eric Joanis", "Tom Kocmi", "Philipp Koehn", "Chi-kiu Lo", "Nikola Ljubešić", "Christof Monz", "Makoto Morishita", "Masaaki Nagata", "Toshiaki Nakazawa", "Santanu Pal", "Matt Post", "Marcos Zampieri" ]
https://www.semanticscholar.org/paper/e8f297e161f57e461ede2d4e0c26573981cad077/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Can we expect a digital Shakespeare? AI as a playwrite
Dočkáme se digitálního Shakespeara? AI jako autor divadelní hry
Artificial intelligence can do things. She writes stock reports, handles entertaining conversation, orders a table for us at a restaurant ... But this time AI has gone further and gotten a little bit closer to humans -- the THEaiTRE research project is teaching its robot to write a play. We talked with Rudolf Rosa, Daniel Hrbek and Tomáš Studeník, who are involved in the unique feat, about how the process is going, what led the authors to it, and what the challenges of the AI writer are.
Umělá inteligence zvládá leccos. Píše burzovní zprávy, zvládá zábavnou konverzaci, objedná za nás stůl v restauraci… Tentokrát ale AI zašla ještě dál a dostala se zase o kousek blíž člověku – výzkumný projekt THEaiTRE učí svého robota napsat divadelní hru. O tom, jak proces probíhá, co k tomu autory vedlo a jaká jsou úskalí AI scenáristy jsme si povídali s Rudolfem Rosou, Danielem Hrbkem a Tomášem Studeníkem, kteří se na unikátním počinu podílí.
[ "Veronika Dostálová", "Rudolf Rosa", "Daniel Hrbek", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
SpeedySpeech: Efficient Neural Speech Synthesis
SpeedySpeech: efektivní neuronová syntéza řeči
While recent neural sequence-to-sequence models have greatly improved the quality of speech synthesis, there has not been a system capable of fast training, fast inference and high-quality audio synthesis at the same time. We propose a student-teacher network capable of high-quality faster-than-real-time spectrogram synthesis, with low requirements on computational resources and fast training time. We show that self-attention layers are not necessary for generation of high quality audio. We utilize simple convolutional blocks with residual connections in both student and teacher networks and use only a single attention layer in the teacher model. Coupled with a MelGAN vocoder, our model's voice quality was rated significantly higher than Tacotron 2. Our model can be efficiently trained on a single GPU and can run in real time even on a CPU. We provide both our source code and audio samples in our GitHub repository.
Přestože nové neuronové modely typu sequence-to-sequence neurální značně zlepšily kvalitu syntézy řeči, dosud neexistuje systém schopný rychlého trénování, rychlé inference a zároveň vysoce kvalitní syntézy. Navrhujeme dvojici sítí typu učitel-student, která je schopna vysoce kvalitní syntézy spektrogramu rychleji než v reálném čase, s nízkými požadavky na výpočetní zdroje a rychlým trénováním. Ukazujeme, že vrstvy typu self-attention nejsou pro generování vysoce kvalitní řeči nutné. Jak v učitelské, tak ve studentské síti využíváme jednoduché konvoluční bloky s reziduálním propojením; používáme pouze jednu vrstvu attention v učitelském modelu. Ve spojení s hlasovým kodérem MelGAN byla hlasová kvalita našeho modelu hodnocena signifikantně lépe než Tacotron 2. Náš model může být efektivně trénován na jednom GPU a může běžet v reálném čase i na CPU. Zdrojový kód i zvukové ukázky poskytujeme na našem úložišti na GitHubu.
[ "Jan Vainer", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/8195ac1b85f0a496176bf691431cd6c49a894bd6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Derived Lexical Reciprocal Verbs in Czech
Derivovaná lexikální reciroční slovesa v češtině
In Czech (similarly as in other Slavic languages), the clitic reflexives serve – among others – as a derivational means deriving lexical reciprocal verbs, i.e., those verbs that encode mutuality directly in their lexical meaning. Here I draw a line between those lexical reciprocal verbs with which the reflexives introduce mutuality (nenávidět se ‘to hate each other’ ← nenávidět ‘to hate sb’ and slíbit si ‘to promise sth to each other’ ← slíbit ‘to promise sth to sb’) and those with which the reflexives have another function (oddělit se ‘to separate from each other’ ← oddělit ‘to separate sb/sth from sb/sth’). I show that lexical reciprocal verbs of the former type uniformly form the so-called discontinuous constructions with the nominative subject and comitative indirect object (e.g., Petr si slíbil s Marií věrnost. ‘Peter and Mary promised fidelity to each other.’) and that they fall into several semantic classes, which, however, semantically overlap to a great extent with lexical reciprocal verbs of other types.
V češtině – podobně jako v jiných slovanských jazycích – může mít klitické reflexivum funkci slovotvorného formantu, derivujícího lexikální reciproční slovesa, tedy slovesa obsahující rys vzájemnosti již ve svém lexikálním významu. V článku rozlišuji mezi lexikálními recipročními slovesy, u nichž rys vzájemnosti vyjadřuje klitické reflexivum (např. nenávidět se ← nenávidět, slíbit si ← slíbit), a lexikálními recipročními slovesy, u nichž má klitické reflexivum jinou funkci (např. oddělit se ← oddělit). Lexikální reciproka prvního typu vytvářejí konstrukce, u nichž se participanty ve vztahu vzájemnosti vyjadřují typicky v subjektové pozici a v pozici nepřímého objektu, vyjádřeného instrumentálem. Ukazuji však, že tato slovesa tvoří sémantické skupiny, které se do značné míry sémanticky překrývají s dalšími typy lexikálních recipročních sloves.
[ "Václava Kettnerová" ]
https://www.semanticscholar.org/paper/3d6ab458068459b33e155ebb045aa43336759630/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Valency of Czech verbal nouns in nominal constructions and in verbonominal constructions with light verbs
Valence českých verbálních jmen v nominálních konstrukcích a ve verbonominálních predikátech s kategoriálním slovesem
Comparing valency behavior of two selected types of Czech verbal nouns (ending in -ní/-tí), i.e., those denoting actions, e.g., poučení ‘instructing’, and those denoting abstract results of actions, e.g., poučení ‘advice’, we can observe that they differ especially in the surface syntactic expression of their valency complementations. In nominal constructions, the surface expression of valency complementations of verbal nouns denoting actions can be typically derived from valency structure of their base verbs. In contrast, verbal nouns denoting abstract results of actions often express their valency complementations on the surface in a non-systemic way. In verbonominal constructions, the syntactic center of which is a light verb, verbal nouns denoting actions systematically employ their participant Agent (in a broad sense) on the surface as subject provided by the light verb. In contrast, verbal nouns denoting abstract results of actions can often express more semantic participants on the surface as verbal modifications and the choice of light verbs can change the perspective from which situations denoted by these verbal nouns are viewed.
Česká verbální jména (zakončená sufixy -ní/-tí) označující událost (např. poučení jako proces) nebo abstraktní výsledek děje (např. poučení jako předaná informace) se z hlediska valence liší především tím, jak v povrchové struktuře vyjadřují svá valenční doplnění. V nominálních konstrukcích je povrchové vyjádření valenčních doplnění verbálních jmen označujících událost odvoditelné z valenční struktury jejich základových sloves. Oproti tomu verbální substantiva označující abstraktní výsledek děje užívají k povrchovému vyjádření svých valenčních doplnění vedle systémových morfematických forem i formy nesystémové. Ve verbonominálních konstrukcích, v nichž je syntaktickým centrem kategoriální sloveso, verbální jména označující událost systematicky uplatňují na povrchu jako subjekt slovesa participant Agens (v širokém slova smyslu). Oproti tomu verbální jména označující abstraktní výsledek děje mohou často na povrchu jako rozvití slovesa vyjádřit i své další sémantické participanty a výběr různých kategoriálních sloves jim často umožňuje perspektivizovat označovanou situaci pokaždé z hlediska jiného participantu.
[ "Václava Kettnerová", "Veronika Kolářová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
On the expression of mutuality in Czech
Ke způsobům vyjádření vzájemnosti v češtině
In this paper, we introduce an inventory of language means that express the semantic feature of mutuality in Czech verbal constructions. Based on the results of recent typological surveys, we distinguish between lexical and grammatical means. The lexical means include a limited group of inherently reciprocal verbs with the feature of mutuality in their lexical meaning. The grammatical means involved in the syntactic operation of reciprocalization are primarily used by a large group of verbs to which we refer as syntactic reciprocal verbs; these means involve (i) the reflexive personal pronoun se/sebe, si/sobě, sebou, (ii) the expression jeden – druhý ‘each other’, and (iii) adverbials. While the use of the grammatical means is obligatory for expressing mutuality with syntactic reciprocal verbs, it is often only optional for inherently reciprocal verbs. We thoroughly describe various functions that these language means have in encoding mutuality in Czech.
V tomto článku představujeme soupis jazykových prostředků, které vyjadřují sémantický rys vzájemnosti v českých verbálních konstrukcích. Na základě výsledků nedávných typologických průzkumů rozlišujeme prostředky lexikální a prostředky gramatické. Lexikální prostředky pro vyjádření vzájemnosti zahrnují omezenou skupinu inherentně recipročních sloves s rysem vzájemnosti v lexikálním významu. Gramatické prostředky realizující syntaktickou operaci reciprocalizace se primárně uplatňují u velké skupiny sloves, která označujeme jako syntaktická reciproční slovesa; tyto prostředky zahrnují (i) zvratné osobní reflexivum se/sebe, si/sobě, sebou, (ii) výraz jeden - druhý a (iii) příslovce. Zatímco použití gramatických prostředků je pro vyjádření vzájemnosti u syntakticky recipročních sloves nutné, pro inherentně reciproční slovesa je typicky volitelné. V textu podrobně popisujeme různé funkce těchto jazykových prostředků ve vyjadřování vzájemnosti v češtině.
[ "Václava Kettnerová", "Markéta Lopatková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Reciprocity in Czech Light Verb Constructions: The Dependency Perspective
Reciprocita v konstrukcích s kategoriálními slovesy: Závislostní perspektiva
In this paper, we draw attention to reciprocity in Czech light verb constructions – a language phenomenon, which has not been discussed yet. Reciprocity is contributed to light verb constructions by predictive nouns, as they are the nouns that represent the semantic core of these constructions. Here we focus on reciprocal light verb constructions derived by the syntactic operation of reciprocalization. We show that the complex mapping of semantic participants onto valency complementations, characteristic of reciprocalization, is reflected in reciprocal light verb constructions in the same way as in reciprocal nominal constructions. The main difference between reciprocal nominal constructions and reciprocal light verb constructions lies in the morphosyntactic expression of reciprocalized participants. We demonstrate that surface syntactic changes in reciprocal light verb constructions are regular enough to be described on the rule basis: the rule based generation of reciprocal light verb constructions requires a cooperation of two sets of rules – rules for deep and surface syntactic structure formation of light verb constructions and rules for capturing reciprocity.
V tomto příspěvku se věnujeme způsobům vyjadřování vzájemnost v českých konstrukcích s kategoriálními slovesy. Reciprocitu do těchto konstrukcí vnáší prediktivní substantiva, neboť ta představují jejich sémantické jádro. Zaměřujeme se na reciproční konstrukce s kategoriálními slovesy, které vznikají odvozením syntaktickou operací reciprokalizace. Ukazujeme, že komplexní mapování sémantických participantů na valenční doplnění charakteristické pro reciprocitu se zachovává i v recipročních konstrukcích s kategoriálními slovesy. Hlavní rozdíl mezi recipročními nominálními konstrukcemi a recipročními konstrukcemi s kategoriálním slovesem spočívá v morfosyntaktickém vyjádření reciprokalizovaných participantů. Ukazujeme, že povrchové syntaktické změny v recipročních konstrukcích s kategoriálními slovesy jsou natolik pravidelné, že je lze popsat pomocí pravidel, a to pravidel pro hlubokou a povrchovou tvorbu syntaktických struktury s kategoriálním slovesem a pravidel pro tvoření recipročních konatrukcí.
[ "Václava Kettnerová", "Markéta Lopatková" ]
https://www.semanticscholar.org/paper/2eefd1bba15f1b221938e35a5cebb0f3898c7a54/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Towards a Semi-Automatic Detection of Reflexive and Reciprocal Constructions and Their Representation in a Valency Lexicon
K poloautomatické detekci reflexivních a recipročních konstrukcí a jejich reprezentaci ve valenčním slovníku
Valency lexicons usually describe valency behavior of verbs in non-reflexive and non-reciprocal constructions. However, reflexive and reciprocal constructions are common morphosyntactic forms of verbs. Both of these constructions are characterized by regular changes in morphosyntactic properties of verbs, thus they can be described by grammatical rules. On the other hand, the possibility to create reflexive and/or reciprocal constructions cannot be trivially derived from the morphosyntactic structure of verbs as it is conditioned by their semantic properties as well. A large-coverage valency lexicon allowing for rule based generation of all well formed verb constructions should thus integrate the information on reflexivity and reciprocity. In this paper, we propose a semi-automatic procedure, based on grammatical constraints on reflexivity and reciprocity, detecting those verbs that form reflexive and reciprocal constructions in corpus data. However, exploitation of corpus data for this purpose is complicated due to the diverse functions of reflexive markers crossing the domain of reflexivity and reciprocity. The list of verbs identified by the previous procedure is thus further used in an automatic experiment, applying word embeddings for detecting semantically similar verbs. These candidate verbs have been manually verified and annotation of their reflexive and reciprocal constructions has been integrated into the valency lexicon of Czech verbs VALLEX.
Valenční slovníky obvykle popisují valenční chován sloves v jejich nereflexivním a nerecipročním užití, přestože reflexivní a reciproční konstrukce lze považovat za běžné morfosyntaktické formy sloves. Pro oba tyto typy jsou charakteristické pravidelné změny v morfosyntaktické struktuře sloves, které lze popsat gramatickými pravidly; ovšem možnost tyto konstrukce tvořit musí být vyznačena ve slovníku.
[ "Václava Kettnerová", "Markéta Lopatková", "Anna Vernerová", "Petra Barančíková" ]
https://www.semanticscholar.org/paper/9b2abb1587ce996a30ff250856b913ae25880b0b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
MRP 2020: The Second Shared Task on Cross-Framework and Cross-Lingual Meaning Representation Parsing
MRP 2020: Druhá soutěž v analýze významových reprezentací napříč formalismy a jazyky
The 2020 Shared Task at the Conference for Computational Language Learning (CoNLL) was devoted to Meaning Representation Parsing (MRP) across frameworks and languages. Extending a similar setup from the previous year, five distinct approaches to the representation of sentence meaning in the form of directed graphs were represented in the English training and evaluation data for the task, packaged in a uniform graph abstraction and serialization; for four of these representation frameworks, additional training and evaluation data was provided for one additional language per framework. The task received submissions from eight teams, of which two do not participate in the official ranking because they arrived after the closing deadline or made use of additional training data. All technical information regarding the task, including system submissions, official results, and links to supporting resources and software are available from the task web site at: http://mrp.nlpl.eu
Ročník 2020 soutěže (společné úlohy) na Konferenci o počítačovém učení jazyka (CoNLL) byl věnován generování významových reprezentací (Meaning Representation Parsing, MRP) napříč formalismy a jazyky. Podmínky soutěže byly rozšířením podobné soutěže z předcházejícího roku. Pět různých přístupů k reprezentaci větného významu v podobě orientovaných grafů bylo zastoupeno v anglických trénovacích a testovacích datech pro tuto úlohu a uloženo v jednotném formátu pro abstraktní reprezentaci a serializaci grafů. U čtyř z těchto formalismů byla k dispozici další trénovací a testovací data v jednom dalším jazyce. Soutěže se zúčastnilo osm týmů, z nichž dva nejsou zahrnuty v oficiální výsledkové listině, protože jejich řešení bylo doručeno po termínu nebo zahrnovalo přídavná trénovací data. Technické informace o soutěži, včetně zaslaných řešení, oficiálních výsledků, odkazů na podpůrné zdroje a software jsou k dispozici na webu soutěže na: http://mrp.nlpl.eu
[ "Stephan Oepen", "Omri Abend", "Lasha Abzianidze", "Johan Bos", "Jan Hajič", "Daniel Hershcovich", "Bin Li", "Tim O'Gorman", "Nianwen Xue", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/dff49c89b2d15704b7122c309e76bf7c545200b2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
NameTag 2
NameTag 2
NameTag is a tool for named entity recognition (NER). NameTag identifies proper names in text and classifies them into predefined categories, such as names of persons, locations, organizations, etc. NameTag 2 also recognizes nested named entities (nested NER) and as of 2019, it achieves state of the art in Czech, English, Dutch and Spanish and nearly state of the art in German (Straková et al. 2019). NameTag is available as an online demo NameTag Online Demo and web service NameTag Web Service hosted by LINDAT/CLARIN. The linguistic models are free for non-commercial use and distributed under CC BY-NC-SA license, although for some models the original data used to create the model may impose additional licensing conditions.
NameTag je nástroj pro rozpoznávání pojmenovaných entit. NameTag identifikuje vlastní jména v textu a klasifikuje je do definovaných kategorií, jako například jména osob, míst, organizací, apod. NameTag 2 také rozpoznává vnořené pojmenované entity. V roce 2019 dosahuje úrovně poznání (state of the art) v češtině, angličtině, nizozemštině a španělštině; a velmi blízce také v němčině (Straková a kol., 2019). NameTag je dostupný jako NameTag Online Demo a jako webová služba NameTag Web Service na LINDAT/CLARIN. Modely jsou volně použitelné pro nekomerční užití a jsou distrubuovány pod licencí CC BY-NC-SA, ale některé z dat použité pro vytvoření modelů mohou vyžadovat další licenční podmínky.
[ "Jana Straková", "Milan Straka" ]
https://www.semanticscholar.org/paper/4ce5eb16e0d98853d3e521d8c855fb830256f327/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Robot writes a theatre play
Robot píše divadelní hru
In an interview for the Czech radio Český rozhlas, we describe how we generate a theatre play in the THEaiTRE project.
V rozhovoru pro český rozhlas popisujeme, jak probíhá generování divadelní hry v projektu THEaiTRE.
[ "Petr Král", "Alžběta Havlová", "Rudolf Rosa", "Ondřej Dušek", "Daniel Hrbek", "Tomáš Studeník" ]
https://www.semanticscholar.org/paper/a4921203e6b9fd6d1ee5f3b89b8c59408b1cedde/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Efficiently Reusing Old Models Across Languages via Transfer Learning
Efektivní znovuvyužití starých modelů napříč jazyky pomocí transferového učení
Recent progress in neural machine translation is directed towards larger neural networks trained on an increasing amount of hardware resources. As a result, NMT models are costly to train, both financially, due to the electricity and hardware cost, and environmentally, due to the carbon footprint. It is especially true in transfer learning for its additional cost of training the ``parent'' model before transferring knowledge and training the desired ``child'' model. In this paper, we propose a simple method of re-using an already trained model for different language pairs where there is no need for modifications in model architecture. Our approach does not need a separate parent model for each investigated language pair, as it is typical in NMT transfer learning. To show the applicability of our method, we recycle a Transformer model trained by different researchers and use it to seed models for different language pairs. We achieve better translation quality and shorter convergence times than when training from random initialization.
Nedávný pokrok v neuronovém strojovém překladu směřuje k větším sítím trénovaným na stále větším množství hardwarových zdrojů. V důsledku toho jsou modely NMT nákladné na trénování, a to jak finančně, kvůli nákladům na elektřinu a hardware, tak ekologicky, kvůli uhlíkové stopě. Zvláště to platí v transferu znalostí při trénování modelu "rodiče" před přenesením znalostí do požadovaného modelu "dítě". V tomto článku navrhujeme jednoduchou metodu opakovaného použití již natrénovaného modelu pro různé jazykové páry, u nichž není nutné upravovat modelovou architekturu. Náš přístup nepotřebuje samostatný model pro každou zkoumanou dvojici jazyků, jak je to typické v rámci přenosového učení u neuronového strojového překladu. Abychom ukázali použitelnost naší metody, recyklujeme model Transformeru, který natrénovali jiní vyzkumníci a použijeme ho pro různé jazykové páry. Naše metoda dosahuje lepší kvality překladu a kratších časů konvergence, než když trénujeme z náhodné inicializace.
[ "Tom Kocmi", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/36d448c6c9a3e27e9172dacc9bc3823f9edbac8a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Gender Coreference and Bias Evaluation at WMT 2020
Hodnocení genderové koreference a zkreslení na WMT 2020
Gender bias in machine translation can manifest when choosing gender inflections based on spurious gender correlations. For example, always translating doctors as men and nurses as women. This can be particularly harmful as models become more popular and deployed within commercial systems. Our work presents the largest evidence for the phenomenon in more than 19 systems submitted to the WMT over four diverse target languages: Czech, German, Polish, and Russian.To achieve this, we use WinoMT, a recent automatic test suite which examines gender coreference and bias when translating from English to languages with grammatical gender. We ex-tend WinoMT to handle two new languages tested in WMT: Polish and Czech. We find that all systems consistently use spurious correlations in the data rather than meaningful contextual information.
Genderová zaujatost ve strojovém překladu se může projevit při výběru genderových modulací na základě falešných genderových korelací. Například vždy překládat lékaře jako muže a sestry jako ženy. To může být obzvláště škodlivé, protože modely se stávají populárnějšími a jsou zaváděny v rámci komerčních systémů. Naše práce představuje největší důkaz tohoto jevu ve více než 19 systémech předložených WMT ve čtyřech různých cílových jazycích: češtině, němčině, polštině a ruštině.K dosažení tohoto cíle používáme WinoMT, nedávnou automatickou testovací sadu, která zkoumá genderovou korektnost a zkreslení při překladu z angličtiny do jazyků s gramatickým pohlavím. Bývalí pracovníci WinoMT se starají o dva nové jazyky testované ve WMT: polštinu a češtinu. Zjistili jsme, že všechny systémy důsledně používají nepravdivé korelace v datech spíše než smysluplné kontextové informace.
[ "Tom Kocmi", "Tomasz Limisiewicz", "Gabriel Stanovsky" ]
https://www.semanticscholar.org/paper/f85040f8aecee4cdb63137bbad5bbab3ba838c33/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Announcing CzEng 2.0 Parallel Corpus with over 2 Gigawords
Zveřejněn paralelní korpus CzEng 2.0 s 2 miliardami slov
We present a new release of the Czech-English parallel corpus CzEng 2.0 consisting of over 2 billion words (2 “gigawords”) in each language. The corpus contains document-level information and is filtered with several techniques to lower the amount of noise. In addition to the data in the previous version of CzEng, it contains new authentic and also high-quality synthetic parallel data. CzEng is freely available for research and educational purposes.
Představujeme nové vydání česko-anglického paralelního korpusu CzEng 2.0 sestávajícího z více než 2 miliard slov (2 „gigawordy“) v každém jazyce. Korpus obsahuje informace na úrovni dokumentu a je filtrován několika technikami pro snížení množství šumu. Kromě dat v předchozí verzi CzEngu obsahuje nová autentická a také vysoce kvalitní syntetická paralelní data. CzEng je volně dostupný pro výzkumné a vzdělávací účely.
[ "Tom Kocmi", "Martin Popel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/dd7fdaa997a074dbbc4849d0330a42985e7b3c3a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
CLARIN: Distributed Language Resources and Technology in a European Infrastructure
CLARIN: distribuovaná infrastruktura pro jazykové zdroje a technologie v Evropě
CLARIN is a European Research Infrastructure providing access to digital language resources and tools from across Europe and beyond to researchers in the humanities and social sciences. This paper focuses on CLARIN as a platform for the sharing of language resources. It zooms in on the service offer for the aggregation of language repositories and the value proposition for a number of communities that benefit from the enhanced visibility of their data and services as a result of integration in CLARIN. The enhanced findability of language resources is serving the social sciences and humanities (SSH) community at large and supports research communities that aim to collaborate based on virtual collections for a specific domain. The paper also addresses the wider landscape of service platforms based on language technologies which has the potential of becoming a powerful set of interoperable facilities to a variety of communities of use.
CLARIN je evropská výzkumná infrastruktura, která poskytuje přístup k digitálním jazykovým zdrojům a nástrojům z celé Evropy i mimo ni výzkumným pracovníkům v humanitních a sociálních vědách. Tento dokument se zaměřuje na CLARIN jako platformu pro sdílení jazykových zdrojů. Přibližuje nabídku služeb pro agregaci jazykových úložišť a návrh hodnot pro řadu komunit, které těží z větší viditelnosti svých údajů a služeb v důsledku integrace do CLARIN. Zvýšená jemnost jazykových zdrojů slouží celé komunitě společenských a humanitních věd (SSH) a podporuje výzkumné komunity, které usilují o spolupráci založenou na virtuálních sbírkách pro určitou oblast. Dokument se také zabývá širším prostředím platforem služeb založených na jazykových technologiích, které mají potenciál stát se silným souborem interoperabilních zařízení pro nejrůznější využití.
[ "Maria Eskevich", "Franciska de Jong", "Alexander König", "Darja Fišer", "Dieter Van Uytvanck", "Tero Aalto", "Lars Borin", "Olga Gerassimenko", "Jan Hajič", "Henk van den Heuvel", "Neeme Kahusk", "Krista Liin", "Martin Matthiesen", "Stelios Piperidis", "Kadri Vider" ]
https://www.semanticscholar.org/paper/7436d858fd03215a68f694084dfa0d060c2671b8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Eyes on the Parse: Using Gaze Features in Syntactic Parsing
Oči na hranách: užití rysů z eye trackeru pro syntaktický parsing
In this paper, we explore the potential benefits of leveraging eye-tracking information for dependency parsing on the English part of the Dundee corpus. To achieve this, we cast dependency parsing as a sequence labelling task and then augment the neural model for sequence labelling with eye-tracking features. We then experiment with a variety of parser setups ranging from lexicalized parsing to a delexicalized parser. Our experiments show that for a lexicalized parser, although the improvements are positive they are not significant whereas our delexicalized parser significantly outperforms the baseline we established. We also analyze the contribution of various eye-tracking features towards the different parser setups and find that eye-tracking features contain information which is complementary in nature, thus implying that augmenting the parser with various gaze features grouped together provides better performance than any individual gaze feature.
V této studii zkoumáme možné výhody využití informací z eye trackeru pro analýzu závislostní syntaxe na anglické části Dundee corpu. Abychom toho dosáhli, zavedeme parsing jako úlohu značkování sekvencí a pak rozšiřujeme neurální model pro značkování sekvencí o rysy z eye trackeru. Poté experimentujeme s různými nastaveními analyzátorů od lexikalizovaného parsingu po delexikalizovaný parser. Naše experimenty ukazují, že u lexikalizovaného parseru, i když jsou zlepšení pozitivní, nejsou statisticky významná, zatímco náš delexikalizovaný parser statisticky významně překonává baseline, kterou jsme stanovili. Analyzujeme také přínos různých rysů z eye trackeru k různým nastavením analyzátoru a zjišťujeme, že rysy z eye trackeru obsahují informace, které se svou povahou doplňují, což znamená, že rozšíření analyzátoru o různé rysy z eye trackeru seskupené dohromady poskytuje lepší výkon než jakýkoli jednotlivý prvek.
[ "Abhishek Agrawal", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/535ad55aaba78b0eaa676439851bca319a141642/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Predicting Typological Features in WALS using Language Embeddings and Conditional Probabilities: ÚFAL Submission to the SIGTYP 2020 Shared Task
Předpovídání typologických rysů ve WALS za použití vektorových reprezentací jazyků a podmíněných pravděpodobností: řešení ÚFALu pro sdílenou úlohu SIGTYP 2020
We present our submission to the SIGTYP 2020 Shared Task on the prediction of typological features. We submit a constrained system, predicting typological features only based on the WALS database. We investigate two approaches. The simpler of the two is a system based on estimating correlation of feature values within languages by computing conditional probabilities and mutual information. The second approach is to train a neural predictor operating on precomputed language embeddings based on WALS features. Our submitted system combines the two approaches based on their self-estimated confidence scores. We reach the accuracy of 70.7% on the test data.
Představujeme náš příspěvek do společné úlohy SIGTYP 2020 v předpovídání typologických rysů. Náš systém je patří do omezené části soutěže, neboť používá pouze databázi WALS. Zkoumáme dva přístupy. Jednodušší z nich je založen na odhadu korelace mezi hodnotami rysů u stejného jazyka pomocí podmíněných pravděpodobností a vzájemné informace. Druhý přístup je založen na neuronovém prediktoru, který využívá vektorovou reprezentaci jazyků předpočítanou na rysech z WALS. Ve výsledném systému oba přístupy kombinujeme s využitím jejich vlastního odhadu důvěryhodnosti předpovědi. Na testovacích datech dosahujeme úspěšnosti 70,7 %.
[ "Martin Vastl", "Daniel Zeman", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/efcae8cb09a1239478b6c481e1dd0c08f134bc10/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Deep Universal Dependencies 2.6
Deep Universal Dependencies 2.6
Deep Universal Dependencies is a collection of treebanks derived semi-automatically from Universal Dependencies. It contains additional deep-syntactic and semantic annotations. Version of Deep UD corresponds to the version of UD it is based on. Note however that some UD treebanks have been omitted from Deep UD.
Deep Universal Dependencies (hluboké univerzální závislosti) je sbírka treebanků poloautomaticky odvozených z Universal Dependencies. Obsahuje přídavné hloubkově-syntaktické a sémantické anotace. Verze Deep UD odpovídá verzi UD, na které je založena. Mějte však na paměti, že některé treebanky UD nebyly do Deep UD zahrnuty.
[ "Kira Droganova", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/a2d25cf45f034108628a044b5470ed358164fc02/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Understanding Optical Music Recognition
Jak rozumět rozpoznávání notopisu
For over 50 years, researchers have been trying to teach computers to read music notation, referred to as Optical Music Recognition (OMR). However, this field is still difficult to access for new researchers, especially those without a significant musical background: Few introductory materials are available, and, furthermore, the field has struggled with defining itself and building a shared terminology. In this work, we address these shortcomings by (1) providing a robust definition of OMR and its relationship to related fields, (2) analyzing how OMR inverts the music encoding process to recover the musical notation and the musical semantics from documents, and (3) proposing a taxonomy of OMR, with most notably a novel taxonomy of applications. Additionally, we discuss how deep learning affects modern OMR research, as opposed to the traditional pipeline. Based on this work, the reader should be able to attain a basic understanding of OMR: its objectives, its inherent structure, its relationship to other fields, the state of the art, and the research opportunities it affords.
Více než 50 let se výzkumníci pokouší naučit počítače číst hudební notaci, kterýžto obor se nazývá rozpoznávání notopisu (Optical Music Recognition, OMR). Do tohoto oboru je však pro začínající výzkumníky stále obtížné proniknout, obzvlášť pokud nemají nezanedbatelné hudební znalosti: je málo materiálů do problematiky uvádějících, a navíc se sám obor průběžně nedokáže shodnout na tom, jak sebe sama definovat a jak vybudovat sdílenou terminologii. V článku se těmto nedostatkům věnujeme: (1) formulujeme robustní definici OMR a vztahů k příbuzným oborům, (2) analyzujeme, jak OMR invertuje proces zapisování hudby, aby získalo z dokumentu popis hudební notace a hudební sémantiky, a (3) předkládáme taxonomii OMR, především novou taxonomii aplikací. Dále diskutujeme, jak hluboké učení ovlivňuje současný výzkum OMR v kontrastu s předchozími přístupy. Na základě tohoto článku by měl čtenář získat základní porozumění OMR: jeho cílům, jeho vnitřní struktuře, vztahům k ostatním oborům, stavu poznání a výzkumných příležitostí, které OMR poskytuje.
[ "Jorge Calvo-Zaragoza", "Jan Hajič, jr.", "Alexander Pacha" ]
https://www.semanticscholar.org/paper/7b6941d9117630cf1447a6561aa06d054f49d58c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
"The phenomenon of repetition": Re-watching a video clip in classroom work with digital oral history
Opakované sledování videoklipu během práce s digitální orální historií ve výuce
My paper presents an investigation of “the phenomenon of repetition” in case of re-watching a video clip. I noticed this practice in a corpus of video data recorded in a classroom setting. Students worked with an e-learning material in small groups with one computer device to their disposal, filling a paper sheet with questions. First watching (W1) of video clips was mostly sufficient, but a sequence of re-watching (W2) was occasionally inserted to deal with troubles and ambiguities. After W1, the interactional status of video clip is changed: it becomes a structured object. The clip is (re)inspected with transparent vision acquired through W1. W2 as part of the classroom activity is oriented by the question on the paper sheet, and transparent vision emerges as a novel (and temporary) interactional competence. Practices of working with video clips point to the properties of video clip as an object in interaction, and they inform us of the work involved in constituting occasioned practical objectivities.
Příspěvek představil zkoumání „fenoménu opakování“ na příkladu opakovaného sledování videoklipu během práce studentů s digitálním učebním materiálem v malých skupinách, kdy měli k dispozici jeden počítač a vyplňovali papírový list otázkami. První sledování (W1) videoklipů bylo většinou dostačující, ale občas byla vložena sekvence opakovaného sledování (W2), která řešila problémy a nejasnosti. Příspěvek se zabývá detailní analýzou těchto interakčních sekvencí opakovaného sledování.
[ "Jakub Mlynář" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Semi-supervised Induction of Morpheme Boundaries in Czech Using a Word-Formation Network
Částečně řízená detekce hranic mezi morfémy v českých slovech s využitím slovotvorné sítě
This paper deals with automatic morphological segmentation of Czech lemmas contained in the word-formation network DeriNet. Capturing derivational relations between base and derived lemmas, and segmenting lemmas into sequences of morphemes are two closely related formal models of how words come into existence. Thus we propose a novel segmentation method that benefits from the existence of the network; our solution constitutes new state-of-the-art for the Czech language.
Tento článek se zabývá automatickou morfologickou segmentací českých lemmat obsažených v derivační síti DeriNet. Popis derivačních vztahů mezi základními a odvozenými lemmaty, a dělení lemmat na sekvence morfémů, jsou dva blízce propojené formální modely popisující vznik slov. Proto navrhujeme novou segmentační metodu, která využívá existence derivační sítě. Naše řešení překonává dosavadní metody segmentace pro češtinu.
[ "Jan Bodnár", "Zdeněk Žabokrtský", "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/12c433588c04735647bfcc978a5a02361aa9d40b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Next Step in Online Querying and Visualization of Word-Formation Networks
Další krok v online vyhledávání a vizualizacích slovtvorných sítí
In this paper, we introduce a new and improved version of DeriSearch, a search engine and visualizer for word-formation networks. Word-formation networks are datasets that express derivational, compounding and other word-formation relations between words. They are usually expressed as directed graphs, in which nodes correspond to words and edges to the relations between them. Some networks also add other linguistic information, such as morphological segmentation of the words or identification of the processes expressed by the relations. Networks for morphologically rich languages with productive derivation or compounding have large connected components, which are difficult to visualize. For example, in the network for Czech, DeriNet 2.0, connected components over 500 words large contain 1/8 of the vocabulary, including its most common parts. In the network for Latin, Word Formation Latin, over 10 000 words (1/3 of the vocabulary) are in a single connected component. With the recent release of the Universal Derivations collection of word-formation networks for several languages, there is a need for a searching and visualization tool that would allow browsing such complex data.
V tomto článku představujeme novou vyhlepšenou verzi vyhledávače a vizualizátoru slovotvorných sítí DeriSearch. Slovotvorné sítě jsou datové sady zachycující derivační, kompoziční a jiné slovotvorné vztahy mezi slovy. Jsou reprezentovatelné pomocí orientovaných grafů, ve kterých uzly představují slova a orientované hrany mezi nimi vyjadřují slovotvorné vztahy. Některé sítě navíc obsahují další lingvistické anotace, například segmentaci slov na morfémy nebo identifikaci slovotvorných procesů. Sítě pro morfologicky bohaté jazyky s produktivním odvozováním a skládáním mají velké komponenty souvislosti, které se obtížně vizualizují. Například v DeriNetu 2.0, jedné ze sítí pro češtinu, je 1/8 slovníku obsažena v komponentách souvislosti velkých přes 500 slov. V síti Word Formation Latin pro latinu je přes 10 000 slov (1/3 slovníku) v jediné komponentě. S nedávným vydáním souboru slovotvorných sítí pro více jazyků Universal Derivations potřeba nástroje pro vyhledávání a vizualizaci takto komplexních dat dále vzrůstá.
[ "Jonáš Vidra", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/8223aecaa200a666532fb0175c08bae9500fb155/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
The Impact of Copyright and Personal Data Laws on the Creation and Use of Language Models
Dopad autorského práva a ochrany osobních údajů na tvorbu a užití jazykových modelů
The authors address the legal issues relating to the creation and use of language models. The article begins with an explanation of the development of language technologies. The authors analyse the technological process within the framework copyright, related rights and personal data protection law. The authors also cover commercial use of language models. The authors’ main argument is that legal restrictions applicable to language data containing copyrighted material and personal data usually do not apply to language mod-els. Language models are not normally considered derivative works. Due to a wide range of language models, this position is not absolute.
Autoři se zabývají právními otázkami týkajícími se tvorby a používání jazykových modelů. Článek začíná vysvětlením vývoje jazykových technologií. Autoři analyzují technologický postup v rámci autorského práva, práv s ním souvisejících a práva na ochranu osobních údajů. Autoři se věnují také komerčnímu využití jazykových modelů. Hlavním argumentem autorů je, že právní omezení vztahující se na jazykové údaje obsahující materiály a osobní údaje chráněné autorským právem se obvykle nevztahují na jazykové modely. Jazykové modely nejsou obvykle považovány za odvozená díla. Vzhledem k široké škále jazykových modelů není tato pozice absolutní.
[ "Aleksei Kelli", "Arvi Tavast", "Krister Lindén", "Kadri Vider", "Ramūnas Birštonas", "Penny Labropoulou", "Irene Kull", "Gaabriel Tavits", "Age Värv", "Pavel Straňák", "Jan Hajič" ]
https://www.semanticscholar.org/paper/0bac70dc29f59ae76d231202e2d55238bd280239/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Scenario: Robot. In the Švanda theatre, an AI is writing a theatre play for the anniversary of R.U.R.
Scénář: Robot. Ve Švandově divadle píše hru k výročí R.U.R. umělá inteligence
There's a new play coming up at the Švanda Theatre. It will premiere in January. But no one quite knows what it will be about yet. Its script doesn't originate in any human's mind. It's generated by artificial intelligence.
Ve Švandově divadle se chystá nová hra. Premiéru bude mít už v lednu. Ale nikdo ještě úplně neví, o čem přesně bude. Její scénář totiž nevzniká v hlavě žádného člověka. Generuje ho umělá inteligence.
[ "Ondřej Novotný", "Rudolf Rosa", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Large-Scale Colloquial Persian 0.5
Large-Scale Colloquial Persian 0.5
Large Scale Colloquial Persian Dataset" (LSCP) is hierarchically organized in asemantic taxonomy that focuses on multi-task informal Persian language understanding as a comprehensive problem. LSCP includes 120M sentences from 27M casual Persian tweets with its dependency relations in syntactic annotation, Part-of-speech tags, sentiment polarity and automatic translation of original Persian sentences in five different languages (EN, CS, DE, IT, HI).
„Large Scale Colloquial Persian Dataset“ (LSCP) je hierarchicky uspořádán do asemantické taxonomie, která se zaměřuje na víceúčelové neformální porozumění perskému jazyku jako komplexní problém. LSCP zahrnuje 120 milionů vět z 27 milionů příležitostných perských tweetů se svými závislostními vztahy ve syntaktické anotaci, tagy řeči, polaritu sentimentu a automatický překlad původních perských vět do pěti různých jazyků (EN, CS, DE, IT, HI).
[ "Hadi Abdi Khojasteh", "Ebrahim Ansari", "Mahdi Bohlouli" ]
https://www.semanticscholar.org/paper/3c55d2bcadced0a904d56693a8af9908e7b8d14c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
LSCP: Enhanced Large Scale Colloquial Persian Language Understanding
LSCP: Vylepšené hovorové porozumění perskému jazyku ve velkém měřítku
Language recognition has been significantly advanced in recent years by means of modern machine learning methods such as deep learning and benchmarks with rich annotations. However, research is still limited in low-resource formal languages. This consists of a significant gap in describing the colloquial language especially for low-resourced ones such as Persian. In order to target this gap for low resource languages, we propose a “Large Scale Colloquial Persian Dataset” (LSCP). LSCP is hierarchically organized in a semantic taxonomy that focuses on multi-task informal Persian language understanding as a comprehensive problem. This encompasses the recognition of multiple semantic aspects in the human-level sentences, which naturally captures from the real-world sentences. We believe that further investigations and processing, as well as the application of novel algorithms and methods, can strengthen enriching computerized understanding and processing of low resource languages. The proposed corpus consists of 120M sentences resulted from 27M tweets annotated with parsing tree, part-of-speech tags, sentiment polarity and translation in five different languages.
Rozpoznávání jazyků v posledních letech významně pokročilo pomocí moderních metod strojového učení, jako je deep learning a měřítka s bohatými anotacemi. Výzkum je však ve formálních jazycích s nízkými zdroji stále omezený. Skládá se z významná mezera v popisu hovorového jazyka, zejména pro ty s nízkými zdroji, jako je perština. Aby bylo možné tuto mezeru zacílit pro jazyky s nízkými zdroji navrhujeme „Large Scale Colloquial Persian Dataset“ (LSCP). LSCP je hierarchicky uspořádán do a sémantická taxonomie, která se zaměřuje na víceúčelové neformální porozumění perskému jazyku jako komplexní problém. To zahrnuje uznání několika sémantických aspektů ve větách na lidské úrovni, které přirozeně zachycuje z vět z reálného světa. Věříme, že další vyšetřování a zpracování, stejně jako aplikace nových algoritmů a metod, může posílit obohacení počítačového porozumění a zpracování jazyků s nízkými zdroji. Navrhovaný korpus se skládá ze 120 milionů vět vycházejících z 27 milionů tweetů anotovaných stromem analýzy, tagy řeči, polaritou sentimentu a překladem do pěti různých jazyků.
[ "Hadi Abdi Khojasteh", "Ebrahim Ansari", "Mahdi Bohlouli" ]
https://www.semanticscholar.org/paper/1a14b27da6c13e23354e6ee3cc93bfc19b1c3e4f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Morphological Networks for Persian and Turkish: What Can Be Induced from Morpheme Segmentation?
Morfologické sítě pro perštinu a turečtinu
In this work, we propose an algorithm that induces morphological networks for Persian and Turkish. The algorithm uses morpheme-segmented lexicons for the two languages. The resulting networks capture both derivational and inflectional relations. The network induction algorithm can use either manually annotated lists of roots and affixes, or simple heuristics to distinguish roots from affixes. We evaluate both variants empirically. We use our large hand-segmented set of word forms in the experiments with Persian, which is contrasted with employing only a very limited manually segmented lexicon for Turkish that existed previously. The network induction algorithm uses gold segmentation data for initializing the networks, which are subsequently extended with additional corpus attested word forms that were unseen in the segmented data. For this purpose, we use existing morpheme-segmentation tools, namely supervised and unsupervised version of Morfessor, and (unsupervised) MorphSyn. The experimental results show that the accuracy of segmented initial data influences derivational network quality.
V této práci navrhujeme algoritmus pro indukci morfologických sítí pro perštinu a turečtinu. Algoritmus využívá slovníky s morfematickou segmentací. Výsledná síť zachycuje jak derivační, tak flektivní relace. Algoritmus pro indukci sítě vychází buď z automaticky rozlišených afixů a kořenů, nebo z jednoduché klasifikační heuristiky. Obě varianty jsou empiricky vyhodnoceny. Pro perštinu používáme vlastní velký ručně segmentovaný slovník, pro turečtinu menší slovník publikovaný dříve. Ručně anotovaná data jsou algoritmem využita pro inicializaci sítě, která je následně rozšířena o formy pozorované v korpusech. Slovní formy, které nebyly přítomny v ručně anotovaných datech, segmentujeme řízenou i neřízenou verzí segmentačního nástroje Morfessor a nástrojem MorphSyn. Experimentální výsledky ukazují, jak inicializace ručně segmentovanými daty ovlivňuje finální kvalitu vygenerovaných sítí.
[ "Hamid Haghdoost", "Ebrahim Ansari", "Zdeněk Žabokrtský", "Mahshid Nikravesh", "Mohammad Mahmoudi" ]
https://www.semanticscholar.org/paper/88d0e9edf700c5c5827ffe2ec91e1f0b76afa86d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
COSTRA 1.0: A Dataset of Complex Sentence Transformations
COSTRA 1.0: Dataset komplexních transformací vět
We present COSTRA 1.0, a dataset of complex sentence transformations. The dataset is intended for the study of sentence-level embeddings beyond simple word alternations or standard paraphrasing. This first version of the dataset is limited to sentences in Czech but the construction method is universal and we plan to use it also for other languages. The dataset consists of 4,262 unique sentences with an average length of 10 words, illustrating 15 types of modifications, such as simplification, generalization, or formal and informal language variation. The hope is that with this dataset, we should be able to test semantic properties of sentence embeddings and perhaps even to find some topologically interesting ''skeleton'' in the sentence embedding space. A preliminary analysis using LASER, multi-purpose multi-lingual sentence embeddings suggests that the LASER space does not exhibit the desired properties
V tomto článku je představena COSTRA 1.0, dataset komplexních transformací vět. Dataset je určen ke studiu větných embeddingů nad rámec jednoduchých výměn slov nebo standardních parafrází. COSTRA 1.0 obsahuje pouze věty v češtině, ale metoda konstrukce je univerzální a plánujeme ji použít i pro jiné jazyky. Dataset obsahuje 4262 unikátních vět s průměrnou délkou 10 slov, ilustrujících 15 typů úprav, jako je zjednodušení, zobecnění nebo formální a neformální jazykové variace. Doufáme, že s tímto datovým souborem bychom měli být schopni otestovat sémantické vlastnosti větných embeddingů a možná dokonce najít nějaké topologicky zajímavé '' kostry '' v prostoru větných embeddingů. Předběžná analýza s využitím mnohojazyčných větných embeddingů LASER naznačuje, že nevykazuje požadované vlastnosti
[ "Petra Barančíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/153d03e7a8bf64b389ddecff2cc6437f22a084d2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Costra 1.1: An Inquiry into Geometric Properties of Sentence Spaces
Costra 1.1: Zkoumání geometrických vlastností prostorů vět
In this paper, we present a new dataset for testing geometric properties of sentence embeddings spaces. In particular, we concentrate on examining how well sentence embeddings capture complex phenomena such paraphrases, tense or generalization. The dataset is a direct expansion of Costra 1.0, which we extended with more sentences and sentence comparisons. We show that available off-the-shelf embeddings do not possess essential attributes such as having synonymous sentences embedded closer to each other than similar sentences with a significantly different meaning. On the other hand, some embeddings appear to capture the linear order of sentence aspects such as style (formality and simplicity of the language) or time (past to future).
V tomto článku představujeme nový dataset pro testování geometrických vlastností prostorů vět. Zaměřujeme se zejména na to, jak jsou v rámci větných embeddingů interpretovány komplexní jevy, jako jsou parafrázy, časy nebo zobecnění. Dataset je přímým rozšířením Costra 1.0, kterou jsme obohatili o další vět a jejich porovnání. Ukazujeme, že dostupným předtrénovaným větným embeddingům chybí základní předpoklad, aby synonymní věty byly zanořeny blíže k sobě než věty s výrazně odlišným významem. Na druhou stranu se zdá, že některé embeddingy respektují lineární pořadí větných jevů jako je styl (formálnost a jednoduchost jazyka) nebo čas (minulost do budoucnosti).
[ "Petra Barančíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/e576e73f38261e53108d570e29ae9e210f048302/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Document Translation vs. Query Translation for Cross-Lingual Information Retrieval in the Medical Domain
Překlad dokumentů a překlad dotazů jako dva přístupy ve vícejazyčném vyhledávání informací
We present a thorough comparison of two principal approaches to Cross-Lingual Information Retrieval: document translation (DT) and query translation (QT). Our experiments are conducted using the cross-lingual test collection produced within the CLEF eHealth information retrieval tasks in 2013–2015 containing English documents and queries in several European languages. We exploit the Statistical Machine Translation (SMT) and Neural Machine Translation (NMT) paradigms and train several domain-specific and task-specific machine translation systems to translate the non-English queries into English (for the QT approach) and the English documents to all the query languages (for the DT approach). The results show that the quality of QT by SMT is sufficient enough to outperform the retrieval results of the DT approach for all the languages. NMT then further boosts translation quality and retrieval quality for both QT and DT for most languages, but still, QT provides generally better retrieval results than DT.
Porovnáváme dva základní přístupy k vícejazyčnému vyhledávání informací: překlad dokumentů (DT) a překlad dotazů (QT). Naše experimenty jsou prováděny na datech CLEF eHealth 2013–2015, které obsahují anglické dokumenty a dotazy v několika evropských jazycích. S použitím Statistického strojového překladu (SMT) a Neurálního strojového překladu (NMT) a trénujeme několik systémů strojového překladu pro překlad neanglických dotazů do angličtiny (QT) a anglických dokumentů do jazyků dotazů (DT). Výsledky ukazují, že kvalita QT pomocí SMT je dostatečná k překonání výsledků vyhledávání s DT pro všechny jazyky. NMT pak dále zvyšuje kvalitu překladu a kvalitu vyhledávání pro QT i DT pro většinu jazyků, QT ale stále poskytuje obecně lepší výsledky vyhledávání než DT.
[ "Shadi Saleh", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/8df5feda680f24071e2ba56940b447c2f383cb47/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
THEaiTRE: A theatre play written entirely by machines
THEaiTRE: Divadelní hra napsaná výhradně stroji
Researchers at Charles University, Švanda Theater and the Academy of Performing Arts in Prague are currently working on an intriguing research project that merges artificial intelligence and robotics with theater. Their project's main objective is to use artificial intelligence to create an innovative theatrical performance, which is expected to premiere in January 2021.
Výzkumní pracovníci Univerzity Karlovy, Švandova divadla a Akademie múzických umění v Praze v současné době pracují na zajímavém výzkumném projektu, který spojuje umělou inteligenci a robotiku s divadlem. Hlavním cílem jejich projektu je využít umělou inteligenci k vytvoření inovativního divadelního představení, které by mělo mít premiéru v lednu 2021.
[ "Ingrid Fadelli", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/968558972c3da84bf6d341ef2ebcac3be50b0a04/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
One Model, Many Languages: Meta-learning for Multilingual Text-to-Speech
Jeden model, mnoho jazyků: meta-učení pro vícejazyčnou syntézu řeči
We introduce an approach to multilingual speech synthesis which uses the meta-learning concept of contextual parameter generation and produces natural-sounding multilingual speech using more languages and less training data than previous approaches. Our model is based on Tacotron 2 with a fully convolutional input text encoder whose weights are predicted by a separate parameter generator network. To boost voice cloning, the model uses an adversarial speaker classifier with a gradient reversal layer that removes speaker-specific information from the encoder. We arranged two experiments to compare our model with baselines using various levels of cross-lingual parameter sharing, in order to evaluate: (1) stability and performance when training on low amounts of data, (2) pronunciation accuracy and voice quality of code-switching synthesis. For training, we used the CSS10 dataset and our new small dataset based on Common Voice recordings in five languages. Our model is shown to effectively share information across languages and according to a subjective evaluation test, it produces more natural and accurate code-switching speech than the baselines.
Představujeme přístup k vícejazyčné syntéze řeči, který využívá koncepce meta-učení – generování parametrů na základě kontextu – a produkuje přirozeně znějící vícejazyčnou řeč s využitím více jazyků a méně trénovacích dat než předchozí přístupy. Náš model je založen na Tacotronu 2 s plně konvolučním enkodérem vstupního textu, jehož váhy jsou predikovány samostatnou sítí – generátorem parametrů. Pro zlepšení klonování hlasu napříč jazyky náš model používá adversariální klasifikaci mluvčího s vrstvou obracející gradienty, která z enkodéru odstraňuje informace specifické pro daného mluvčího. Provedli jsme dva experimenty, abychom náš model porovnali s baseliny používajícími různé úrovně sdílení parametrů napříč jazyky a přitom vyhodnotili: 1) stabilitu a výkonnost při trénování na malém množství dat, 2) přesnost výslovnosti a kvalitu hlasu při code-switchingu (změně jazyka uprostřed věty). Pro trénování jsme použili dataset CSS10 a náš nový malý dataset založený na nahrávkách Common Voice v pěti jazycích. Ukazujeme, že náš model efektivně sdílí informace napříč jazyky a podle subjektivní evaluace vytváří přirozenější a přesnější vícejazyčnou řeč než baseliny.
[ "Tomáš Nekvinda", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/633871115f1b040210383b21dc58d50962bc23aa/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Proceedings of the 1st Workshop on Evaluating NLG Evaluation
Sborník z 1. workshopu o evaluaci evaluace generování jazyka
The aim of the workshop is to offer a platform for discussions on the status and the future of the evaluation of Natural Language Generation (NLG) systems. The workshop invited archival papers and abstracts on NLG evaluation including best practices of human evaluation, qualitative studies, cognitive bias in human evaluations etc. The workshop received twelve submissions. Ten papers and abstracts were accepted and were presented as posters at the workshop. This proceedings volume contains the five archival papers.
Cílem workshopu je nabídnout platformu pro diskuse o stavu a budoucnosti hodnocení systémů generování přirozeného jazyka (NLG). Workshop vyzýval k pubilkaci jak archivních článků, tak abstraktů, zaměřených na evaluaci NLG včetně osvědčených postupů lidského hodnocení, kvalitativních studií, kognitivního zkreslení při lidském hodnocení atd. Sešlo se 12 přihlášených prezentací, bylo přijato deset článků a abstraktů, které byly na workshopu prezentovány jako postery. Tento sborník obsahuje pět archivních článků.
[ "Shubham Agarwal", "Ondřej Dušek", "Sebastian Gehrmann", "Dimitra Gkatzia", "Ioannis Konstas", "Emiel van Miltenburg", "Sashank Santhanam", "Samira Shaikh" ]
https://www.semanticscholar.org/paper/b977e5128a9f990f413898c15b86deab911223ea/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Multi-Lingual MT Research at ÚFAL, Charles University
Výzkum mnohojazyčného strojového překladu na ÚFALu
In my talk, I will summarize our recent activities in text and speech translation. I will start with the EU project ELITR (https://elitr.eu/) where we are aiming at highly multi-lingual live translation of speech, highlighting the technical challenges (you probably know all of them) but I will also touch upon getting a better input from the end users so that better translation quality is possible (our activity on 'outbound translation' in the EU project Bergamot, https://browser.mt/). Finally, I will ask for collaboration on my overall basic-research quest: to get the meaning right and to model it in a more human-like way.
Ve svém projevu shrnu naše nedávné aktivity v překladu textu a řeči. Začnu projektem EU ELITR (https://elitr.eu/), kde se zaměřujeme na vysoce mnohojazyčný živý překlad řeči, který upozorňuje na technické problémy (pravděpodobně je všechny znáte), ale dotknu se i toho, jak získat lepší vstupy od koncových uživatelů, aby byla možná lepší kvalita překladu (naše aktivita na "odchozím překladu" v projektu EU Bergamot, https://browser.mt/). Na závěr požádám o spolupráci na svém celkovém úkolu základního výzkumu: správně určit význam a modelovat ho lidštějším způsobem.
[ "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
ELITR: European Live Translator
Projekt ELITR: European Live Translator
ELITR (European Live Translator) project aims to create a speech translation system for simultaneous subtitling of conferences and online meetings targetting up to 43 languages. The technology is tested by the Supreme Audit Office of the Czech Republic and by alfaview®, a German online conferencing system. Other project goals are to advance document-level and multilingual machine translation, automatic speech recognition, and meeting summarization.
Strojový překlad: Projekt ELITR (European Live Translator) usiluje o vytvoření systému pro překlad řeči pro současné titulkování konferencí a on-line schůzky až do 43 jazyků. Technologii testuje společnost Nejvyššího kontrolního úřadu ČR a prostřednictvím alfaview®, německého online konferenční systém. Další cíle projektu mají posunout úroveň dokumentů a vícejazyčný strojový překlad, automatický rozpoznávání řeči a shrnutí setkání.
[ "Ondřej Bojar", "Dominik Macháček", "Sangeet Sagar", "Otakar Smrž", "Jonáš Kratochvíl", "Ebrahim Ansari", "Dario Franceschini", "Chiara Canton", "Ivan Simonini", "Thai-Son Nguyen", "Felix Schneider", "Sebastian Stüker", "Alex Waibel", "Barry Haddow", "Rico Sennrich", "Philip Williams" ]
https://www.semanticscholar.org/paper/f377917bef36c94773e40ced0b0e2b1b8c60a97e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
MorfFlex CZ 2.0
MorfFlex CZ 2.0
MorfFlex CZ (the latest version is MorfFlex CZ 2.0) is the Czech morphological dictionary developed originally by Jan Hajič as a spelling checker and lemmatization dictionary. MorfFlex is a flat list of lemma-tag-wordform triples. For each wordform, full inflectional information is coded in a positional tag. Wordforms are organized into entries (paradigm instances or paradigms in short) according to their formal morphological behavior. The paradigm (set of wordforms) is identified by a unique lemma. Apart from traditional morphological categories, the description also contains some semantic, stylistic and derivational information.
MorfFlex CZ 2.0 je český morfologický slovník, který původně vyvinul Jan Hajič jako slovník kontroly pravopisu a lemmatizace. MorfFlex je seznam trojic lemma-značka-slovní forma. Pro každou slovní formu je kompletní morfologická informace kódována poziční značkou. Slovní formy jsou uspořádány do skupin (paradigma instancí nebo paradigmat ve zkratce) podle jejich formálního morfologického chování. Paradigma (množina slovník forem) je identifikováno jedinečným lemmatem. Kromě tradičních morfologických kategorií obsahuje popis také některé sémantické, stylistické a odvozené informace.
[ "Jan Hajič", "Jaroslava Hlaváčová", "Marie Mikulová", "Milan Straka", "Barbora Štěpánková" ]
https://www.semanticscholar.org/paper/09cb5b29a495f03ba1c698aef8575b848924e5ba/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Prague Dependency Treebank - Consolidated 1.0 (PDT-C 1.0)
Pražský závislostní korpus - Konzolidované vydání 1.0 (PDT-C 1.0)
A richly annotated and genre-diversified language resource, The Prague Dependency Treebank – Consolidated 1.0 (PDT-C 1.0, or PDT-C in short in the sequel) is a consolidated release of the existing PDT-corpora of Czech data, uniformly annotated using the standard PDT scheme. PDT-corpora included in PDT-C: Prague Dependency Treebank (the original PDT contents, written newspaper and journal texts from three genres); Czech part of Prague Czech-English Dependency Treebank (translated financial texts, from English), Prague Dependency Treebank of Spoken Czech (spokem data, including audio and transcripts and multiple speech reconstruction annotation); PDT-Faust (user-generated texts). The difference from the separately published original treebanks can be briefly described as follows: it is published in one package, to allow easier data handling for all the datasets; the data is enhanced with a manual linguistic annotation at the morphological layer and new version of morphological dictionary is enclosed; a common valency lexicon for all four original parts is enclosed. Documentation provides two browsing and editing desktop tools (TrEd and MEd) and the corpus is also available online for searching using PML-TQ.
Bohatě anotovaný a žánrově diverzifikovaný jazykový zdroj, Prague Dependency Treebank - Consolidated 1.0 (PDT-C 1.0) je konsolidovaným vydáním stávajících PDT-korpusů s českými texty, jednotně anotovanými podle standardního anotačního schématu PDT. Korpusy zahrnuté do vydání PDT-C: Prague Dependency Treebank (psané noviny a texty časopisů tří žánrů); Česká část Prague Czech-English Dependency Treebank (přeložené finanční texty, z angličtiny), Prague Dependency Treebank of Spoken Czech (mluvená data, včetně audia a přepisu a anotace rekonstrukce řeči); PDT-Faust (texty generované uživateli). Rozdíl oproti samostatně publikovaným původním korpusům lze stručně popsat následovně: korpusy jsou publikovány v jednom balíčku, aby bylo umožněno jejich snadnější zpracování; data jsou doplněna o manuální lingvistickou anotaci na morfologické rovině a je přiložena nová verze morfologického slovníku; je přiložen společný valenční lexikon pro všechny čtyři původní části. Dokumentace poskytuje dva nástroje pro procházení a úpravy (TrEd a MEd) a korpus je také k dispozici online pro vyhledávání pomocí PML-TQ.
[ "Jan Hajič", "Eduard Bejček", "Alevtina Bémová", "Eva Buráňová", "Eva Fučíková", "Eva Hajičová", "Jiří Havelka", "Jaroslava Hlaváčová", "Petr Homola", "Pavel Ircing", "Jiří Kárník", "Václava Kettnerová", "Natalia Klyueva", "Veronika Kolářová", "Lucie Kučová", "Markéta Lopatková", "David Mareček", "Marie Mikulová", "Jiří Mírovský", "Anna Nedoluzhko", "Michal Novák", "Petr Pajas", "Jarmila Panevová", "Nino Peterek", "Lucie Poláková", "Martin Popel", "Jan Popelka", "Jan Romportl", "Magdaléna Rysová", "Jiří Semecký", "Petr Sgall", "Johanka Spoustová", "Milan Straka", "Pavel Straňák", "Pavlína Synková", "Magda Ševčíková", "Jana Šindlerová", "Jan Štěpánek", "Barbora Štěpánková", "Josef Toman", "Zdeňka Urešová", "Barbora Vidová Hladká", "Daniel Zeman", "Šárka Zikánová", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/674bcbeca5c5d8bde2ba12f3dbec7a01374d2204/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Prague Dependency Treebank - Consolidated 1.0
Pražský závislostní korpus - Konsolidované vydaní 1.0
We present a richly annotated and genre-diversified language resource, the Prague Dependency Treebank-Consolidated 1.0 (PDT-C 1.0), the purpose of which is - as it always been the case for the family of the Prague Dependency Treebanks - to serve both as a training data for various types of NLP tasks as well as for linguistically-oriented research. PDT-C 1.0 contains four different datasets of Czech, uniformly annotated using the standard PDT scheme. The texts come from different sources: daily newspaper articles, Czech translation of the Wall Street Journal, transcribed dialogs and a small amount of user-generated, short, often non-standard language segments typed into a web translator. Altogether, the treebank contains around 180,000 sentences with their morphological, surface and deep syntactic annotation. The diversity of the texts and annotations should serve well the NLP applications as well as it is an invaluable resource for linguistic research, including comparative studies regarding texts of different genres. The corpus is publicly and freely available.
Představujeme bohatě anotovaný a žánrově diverzifikovaný jazykový zdroj Prague Dependency Treebank-Consolidated 1.0 (PDT-C 1.0), jehož účelem je - jak tomu vždy bylo u rodiny Pražských závislostních korpusů - sloužit jako trénovací data pro různé typy úkolů NLP i pro jazykově orientovaný výzkum. PDT-C 1.0 obsahuje čtyři různé datové soubory s českými texty, jednotně anotované podle standardního schématu PDT. Texty pocházejí z různých zdrojů: novinové články, český překlad Wall Street Journal, přepsané dialogy a malé množství uživatelem vytvořených krátkých, často nestandardních jazykových segmentů, které se zadávají do webového překladače. Celkem obsahuje strom kolem 180 000 vět s jejich morfologickou, povrchovou a hlubokou syntaktickou anotací.
[ "Jan Hajič", "Eduard Bejček", "Jaroslava Hlaváčová", "Marie Mikulová", "Milan Straka", "Jan Štěpánek", "Barbora Štěpánková" ]
https://www.semanticscholar.org/paper/674bcbeca5c5d8bde2ba12f3dbec7a01374d2204/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
ÚFAL @ Troja
ÚFAL @ Troja
We present the Institute of formal and applied linguistics at the occasion of the relocation of its part to the new Impakt building in Troja.
Přestavujeme Ústav formální a aplikované lingvistiky u příležitosti relokace jeho časti do nové trojské budovy Impakt.
[ "Jan Hajič", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/bf1c9c518f9bf6ab61db2695f102794164e3176b/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
F. Daneš - S. Čmejrková: Their meetings in the field of Grammar
Světla Čmejrková – František Daneš: Jejich setkávání na poli gramatiky. Jazykovědné aktuality 57, č. 1 a 2, 2020, 35 – 38.
In the memorial number the meetings of two famous Czech linguists are described and evaluated with the focus on their grammatical contributions shared by them.
Ve vzpomínkovém článku se vyčíslují několikerá setkání dvou významných českých lingvistů na poli editorském, pedagogickém, ale zejména jde o jejich styčné body v článcích gramatických.
[ "Jarmila Panevová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Functional Generative Description - a framework for an integrated description of grammar
Funkční generativní popis – rámec pro konzistentní popis gramatiky
In the present contribution, the main constituting features of the Functional Generative Description as proposed by Petr Sgall and his collaborators are introduced together with short characteristics of selected Czech grammatical phenomena within this framework. These phenomena include mainly the verbal and nominal valency and related issues and topic-focus articulation, esp. in relation to negation and presupposition. Further, attention is paid to the categorization of deletions and the related phenomenon of a general participant. Main tenets of FGD have been applied, verified and further refined in the Prague Dependency Treebanks family and valency lexicons, which are briefly characterized here as well.
Článek představuje hlavní principy Funkčního generativního popisu, jak ho navrhl Petr Sgall a jeho spolupracovníci, současně však podává i stručnou charakteristiku vybraných gramatických jevů popsaných v rámci tohoto přístupu. K těmto jevům patří zejména slovesná a substantivní valence a dále aktuální členění věty, zkoumané zejména ve vztahu k negaci a presupozici. Dále je věnována pozornost třídění elips a souvisejícímu jevu zvanému všeobecný aktant. Hlavní principy FGP byly aplikovány, ověřovány a dále zdokonalovány při budování jazykových zdrojů, rovněž v článku krátce popsaných, zejména v rodině Pražských závislostních korpusů a ve valenčních slovnících.
[ "Jarmila Panevová", "Eva Hajičová", "Václava Kettnerová", "Veronika Kolářová", "Markéta Lopatková", "Marie Mikulová", "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Subcategorization of Adverbials (The Case of Temporal Meanings)
Subkategorizace adverbiálních určení (Případ časových významů)
The system of adverbials with temporal meaning is analyzed here with specific emphasis on their surface expressions. The traditional classification for the meanings applied as responses for the question When?, Since when?, Till when?, How long?, How often? requires a more precise subcategorization with regard to systemic behavior of the adverbials. For the primary temporal expressions answering the questions When? and How long?, a system of subfunctors is proposed, while for the secondary meanings Since when?, Till when?, the corresponding functors are not splitted into subfunctors. The meanings connected with the repetition and the frequency are not discussed here as they belong to the description of the boundary between lexicon and grammar.
V článku analyzujeme adverbiální určení s časovým významem se zvláštním důrazem na jejich formální realizaci. Tradiční klasifikace významů podle toho na jakou otázku adverbiální určení odpovídá (Kdy?, Od kdy?, Do kdy?, Jak dlouho?, Jak často?) vyžaduje přesnější subkategorizaci. Pro primární časové výrazy, které odpovídají na otázky Kdy? a Jak dlouho?, je navržen systém subfunktorů, zatímco pro sekundární významy Od kdy?, Do kdy?, nejsou odpovídající funktory rozděleny na subfunktory. Významy spojené s opakováním a frekvencí zde nejsou diskutovány, protože patří k popisu hranice mezi lexikonem a gramatikou.
[ "Jarmila Panevová", "Marie Mikulová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Reciprocals in lexicon and in syntax
Reciproka ve slovníku a v syntaxi
The notion of reciprocity is analyzed in linguistics from many different points of view. In this contribution, we focus on an interplay between reciprocity and valency. In Čzech (as in other languages), three groups of reciprocal verbs can be delimited: inherently reciprocal verbs, derived inherently reciprocal verbs and verbs without reciprocal feature in their lexical meaning that nevertheless allow reciprocity of some of their valency complementations. We show that verbs from the three given groups require different representation in lexicon and grammar and that in their syntactically reciprocalized constructions the clitic reflexive is of different part-of-speech classification. Moreover, they exhibit different types of ambiguity. Finally, we mention those aspects of reciprocity that cross the boundary between linguistically structured meaning and cognitive content.
V tomto příspěvku se zaměřujeme na souhru reciprocity a valence. V češtině lze -- s ohledem na reciprocitu -- vymezit tři skupiny sloves: inherentně reciproční slovesa, odvozená inherentně reciproční slovesa a slovesa, který rys vzájemnosti ve svém významu nenesou, ale reciprocitu umožňují. Ukazujeme, že slovesa těchto tří skupin vyžadují jinou reprezentaci ve slovníku a v gramatice a že reflexivum se v jejich konstrukcích má různou slovnědruhovou klasifikací. Dále se soutředíme na ty aspekty reciprocity, které přesahují jazykový význam.
[ "Jarmila Panevová", "Markéta Lopatková", "Václava Kettnerová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Sentence Meaning Representations across Languages: What Can We Learn from Existing Frameworks?
Reprezentace větného významu napříč jazyky: Jak se můžeme poučit z existujících formalismů?
This article gives an overview of how sentence meaning is represented in eleven deep-syntactic frameworks, ranging from those based on linguistic theories elaborated for decades to rather lightweight NLP-motivated approaches. We outline most important characteristics of each framework and then discuss how particular language phenomena are treated across those frameworks, while trying to shed light on commonalities as well as differences.
Tento článek přináší přehled způsobů zachycení větného významu v jedenácti hloubkově-syntaktických formalismech, od takových, které jsou založené na lingvistických teoriích vyvíjených řadu desetiletí, až po jednodušší přístupy motivované zpracováním přirozeného jazyka. Nastiňujeme nejdůležitější charakteristiky každého formalismu a poté podrobněji rozebíráme způsoby zachycení konkrétních jazykových jevů napříč všemi formalismy. Snažíme se přitom objasnit společné rysy i rozdíly.
[ "Zdeněk Žabokrtský", "Daniel Zeman", "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/9106c99d338d0203ef2559f0a7f26259a61c93e4/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
On the so-called "setting" through the lens of a parallel corpus
K otázce tzv. kulisy ve světle paralelního korpusu
The author presents analysis of a certain category of the functional sentence perspective, called in Czech "kulisa" (setting), and comprising local and temporal modifications of the sentence. The analysis demonstrates that in Czech, such a setting is a part of the topic (theme) of the sentence and stands at its beginning. In English, due to its grammatical word order, such a setting may be placed at the end of the sentence. In such a case it is not a bearer of the sentential pitch accent. The analysis is based on the data from the annotated Czech-English corpus PCEDT.
Autorka předkládá analýzu jisté kategorie v aktuálním členění věty, která se v češtině nazývá kulisa a zahrnuje místní a časové určení věty. Ukazuje se, že pokud má jít o kulisu, je toto určení v češtině součástí základu (tématu) věty a stojí na jejím začátku. V angličtině pak vzhledem k zásadě gramatického slovosledu může takové určení stát i na konci věty, v tom případě ovšem není nositelem větného přízvuku. Materiálem analýzy je anotovaný česko-anglický paralelní korpus PCEDT.
[ "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Read, if you want to be read by others
Čti, chceš-li být čten
An obituary devoted to the life and work of the late Professor Petr Sgall, the founder of computational linguistics in Czechoslovakia, a member of the Prague Linguistic Circle.
Nekrolog věnovaný životu a dílu zesnulého profesora Petra Sgalla, zakladatele počítačové lingvistiky v Československu, člena Pražského lingvistického kroužku.
[ "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Focalizers and discourse relations
Fokalizátory a diskurzní vztahy
The analysis of the so-called focalizers, i.e. particles such as E. also, only, even, and their Czech counterparts také, jenom, dokonce, based on the data from the English–Czech parallel corpus PCEDT, focused on (i) in which respects and under which conditions these focalizers may be said to serve as discourse connectives, (ii) which particular discourse relations are indicated by the focalizers in question.
Analýza tzv. fokalizátorů, tj. částic jako jsou anglické also, only, even, a jejich českých protějšků také, jenom, dokonce, vycházející z údajů anglicko-českého paralelního korpusu PCEDT, zaměřená na (i) za jakých podmínek lze o těchto fokalizátorech říci, že slouží jako diskurzní konektory, (ii) které konkrétní diskurzní vztahy jsou dotyčnými fokalizátory značeny.
[ "Eva Hajičová", "Jiří Mírovský", "Barbora Štěpánková" ]
https://www.semanticscholar.org/paper/c526b2e0b3dac7d88ddeda7f7633c80922a14ae0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Focalizers and Discourse Relations
Fokalizátory a diskurzní vztahy
Our detailed analysis of the data from the English–Czech annotated parallel corpus PCEDT confirms the hypothesis that the particles also, only and even as well as their Czech equivalents play basically a discoursive role of explicit connectives, though in a different way and to a different extent.
Naše podrobná analýza dat z anglicko-českého anotovaného paralelního korpusu PCEDT potvrzuje hypotézu, že anglické částice also, only a even i jejich české ekvivalenty hrají v zásadě diskurzivní roli explicitních konektorů, i když jiným způsobem a v jiné míře.
[ "Eva Hajičová", "Jiří Mírovský", "Barbora Štěpánková" ]
https://www.semanticscholar.org/paper/c526b2e0b3dac7d88ddeda7f7633c80922a14ae0/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
eTranslation - Machine translation for public administrations
eTranslation - strojový překlad pro veřejnou správu
The talk will introduce a machine translation service - eTranslation
Příspěvek představí službu Evropské komise pro strojový překlad - eTranslation
[ "Pavel Pecina" ]
https://www.semanticscholar.org/paper/98e5d478b482d6c7330e3b7c487577555e35db6e/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Information retrieval in medical texts
Vyhledávání informací v medicínských textech
Every day, a vast amount of data is created in the world, in various forms and areas of human activity. A significant part consists of textual data in various languages, such as news reports, professional publications, blog posts, but also private correspondence, conversations on social networks and more. This is no different in the field of medicine and health care. A wide range of data consists on the one hand of highly credible and peer-reviewed publications for experts, on the other hand they are completely uncontrolled advices on this or that illness from virtual friends, or even deliberate misinformation. A special place is given to medical reports typically written in a very specific language. The paper will provide an overview of research in the field of natural language processing with a focus on various types of texts in the field of medicine and health, especially in the context of European projects Khresmoi and KConnect, which were addressed at the Institute of Formal and Applied Linguistics, MFF UK.
Každodenně vzniká na světě nepřeberné množství dat, které mají různou formu a jsou z různých oblastí lidské činnosti. Značnou část tvoří data textová, a to v různých jazycích, např. novinové zprávy, odborné publikace, blogposty, ale i soukromá korespondence, konverzace na sociálních sítích a další. V oblasti lékařství a péče o zdraví tomu není jinak. Širokou škálu útvarů tvoří na jedné straně vysoce důvěryhodné a recenzované publikace pro odborníky, na straně druhé jsou to zcela nekontrolované rady na ten či onen neduh od virtuálních přátel, či dokonce záměrné dezinformace. Zvláštní místo pak mají lékařské zprávy typicky psané velmi specifickým jazykem. Příspěvek poskytne přehled výzkumu v oblasti zpracování přirozeného jazyka se zaměřením na různé typy textů z oblasti lékařství a zdraví, a to zejména v kontextu evropských projektů Khresmoi a KConnect, které byly řešeny na Ústavu formální a aplikované lingvistiky, MFF UK.
[ "Pavel Pecina" ]
https://www.semanticscholar.org/paper/83798c988c2a78c6161b5ac55b3260f56de502e8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
SynSemClass 2.0
SynSemClass 2.0
The SynSemClass synonym verb lexicon is a result of a project investigating semantic ‘equivalence’ of verb senses and their valency behavior in parallel Czech-English language resources, i.e., relating verb meanings with respect to contextually-based verb synonymy. The lexicon entries are linked to PDT-Vallex (http://hdl.handle.net/11858/00-097C-0000-0023-4338-F), EngVallex (http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex (http://hdl.handle.net/11234/1-1512), FrameNet (https://framenet.icsi.berkeley.edu/fndrupal/), VerbNet (http://verbs.colorado.edu/verbnet/index.html), PropBank (http://verbs.colorado.edu/%7Empalmer/projects/ace.html), Ontonotes (http://verbs.colorado.edu/html_groupings/), and English Wordnet (https://wordnet.princeton.edu/). Part of the dataset are files reflecting interannotator agreement.
SynSemClass je slovník česko-anglických slovesných synonym. Základními hesly ve slovníku jsou dvojjazyčné česko-anglické slovesné synonymní třídy, v nichž jsou obsažena synonymní česká a anglická slovesa (členy třídy), reprezentovaná jako valenční rámce (tj. slovesné významy), jejichž pojetí vychází z teorie Funkčně generativního popisu jazyka. Sémantická ekvivalence jednotlivých členů třídy byla stanovena na základě jejich kontextového valenčního chování usouvztažněného k situačně-kognitivnímu obsahu (sémantickým rolím). Synonymické vztahy jsou ve slovníku chápány volně, jednotlivé členy třídy jsou ve vztahu nikoli striktní (úplné) synonymie, ale ve vztahu významové podobnosti, tj. částečné synonymie. Předností slovníku je použití paralelního česko-anglického korpusu, PCEDT(https://catalog.ldc.upenn.edu/LDC2012T08 ) jako hlavního zdroje jazykových dat, které umožňuje tzv. "bottom-up" přístup, tj. od praxe k teorii. Předností slovníku je rovněž propojení všech členů jednotlivých synonymních tříd s dalšími lexikálními zdroji, a to s hesly valenčních slovníků (PDT-Vallex - http://hdl.handle.net/11858/00-097C-0000-0023-4338-F, EngVallex- http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex - http://hdl.handle.net/11234/1-1512 a Vallex - http://ufal.mff.cuni.cz/vallex/3.5/), a s hesly sémantických databází (FrameNet - https://framenet.icsi.berkeley.edu/fndrupal/, VerbNet - http://verbs.colorado.edu/verbnet/index.html, PropBank - http://verbs.colorado.edu/%7Empalmer/projects/ace.html, Ontonotes - http://verbs.colorado.edu/html_groupings/ a Wordnet - https://wordnet.princeton.edu/).
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/6cb63773f1924add840f59357e988cf2481672a6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
SynSemClass 3.0
SynSemClass 3.0
he SynSemClass synonym verb lexicon is a result of a project investigating semantic ‘equivalence’ of verb senses and their valency behavior in parallel Czech-English language resources, i.e., relating verb meanings with respect to contextually-based verb synonymy. The lexicon entries are linked to PDT-Vallex (http://hdl.handle.net/11858/00-097C-0000-0023-4338-F), EngVallex (http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex (http://hdl.handle.net/11234/1-1512), FrameNet (https://framenet.icsi.berkeley.edu/fndrupal/), VerbNet (http://verbs.colorado.edu/verbnet/index.html), PropBank (http://verbs.colorado.edu/%7Empalmer/projects/ace.html), Ontonotes (http://verbs.colorado.edu/html_groupings/), and English Wordnet (https://wordnet.princeton.edu/). Part of the dataset are files reflecting interannotator agreement.
SynSemClass je slovník česko-anglických slovesných synonym. Základními hesly ve slovníku jsou dvojjazyčné česko-anglické slovesné synonymní třídy, v nichž jsou obsažena synonymní česká a anglická slovesa (členy třídy), reprezentovaná jako valenční rámce (tj. slovesné významy), jejichž pojetí vychází z teorie Funkčně generativního popisu jazyka. Sémantická ekvivalence jednotlivých členů třídy byla stanovena na základě jejich kontextového valenčního chování usouvztažněného k situačně-kognitivnímu obsahu (sémantickým rolím). Synonymické vztahy jsou ve slovníku chápány volně, jednotlivé členy třídy jsou ve vztahu nikoli striktní (úplné) synonymie, ale ve vztahu významové podobnosti, tj. částečné synonymie. Předností slovníku je použití paralelního česko-anglického korpusu, PCEDT(https://catalog.ldc.upenn.edu/LDC2012T08 ) jako hlavního zdroje jazykových dat, které umožňuje tzv. "bottom-up" přístup, tj. od praxe k teorii. Předností slovníku je rovněž propojení všech členů jednotlivých synonymních tříd s dalšími lexikálními zdroji, a to s hesly valenčních slovníků (PDT-Vallex - http://hdl.handle.net/11858/00-097C-0000-0023-4338-F, EngVallex- http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex - http://hdl.handle.net/11234/1-1512 a Vallex - http://ufal.mff.cuni.cz/vallex/3.5/), a s hesly sémantických databází (FrameNet - https://framenet.icsi.berkeley.edu/fndrupal/, VerbNet - http://verbs.colorado.edu/verbnet/index.html, PropBank - http://verbs.colorado.edu/%7Empalmer/projects/ace.html, Ontonotes - http://verbs.colorado.edu/html_groupings/ a Wordnet - https://wordnet.princeton.edu/).
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/6cb63773f1924add840f59357e988cf2481672a6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
SynSemClass Linked Lexicon: Mapping Synonymy between Languages
Slovník SynSemClass: mapování synonymie mezi jazyky
This lexicon stores cross-lingual semantically similar verb senses in synonym classes extracted from a richly annotated parallel corpus, the Prague Czech-English Dependency Treebank. When building the lexicon, we make use of predicate-argument relations (valency) and link them to semantic roles; in addition, each entry is linked to several external lexicons of more or less “semantic” nature, namely FrameNet, WordNet, VerbNet, OntoNotes and PropBank, and Czech VALLEX. The aim is to provide a linguistic resource that can be used to compare semantic roles and their syntactic properties and features across languages within and across synonym groups (classes, or ’synsets’), as well as gold standard data for automatic NLP experiments with such synonyms, such as synonym discovery, feature mapping, etc. However, perhaps the most important goal is to eventually build an event type ontology that can be referenced and used as a human-readable and human-understandable “database” for all types of events, processes and states. While the current paper describes primarily the content of the lexicon, we are also presenting a preliminary design of a format compatible with Linked Data, on which we are hoping to get feedback during discussions at the workshop. Once the resource (in whichever form) is applied to corpus annotation, deep analysis will be possible using such combined resources as training data.
Slovník synonym propojuje anglická slovesa s jejich překladovými českými protějšky. Vychází z valence, tak jak je zpracovaná ve valenčních slovnících PDT_Vallex, EngVallex a CzEngVallex, a je založen na datech PCEDT. Sdružuje slovesná synonyma podle významu a chování ohledně sémantických rolí. Hesla jsou propojena s existujícími slovníky pro angličtinu i češtinu (FrameNet, VALLEX, VerbNet, PropBank, OntoNotes, WordNet).
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/7fc9ef06930f37e4fd483e9a671b8480368a970a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Syntactic-Semantic Classes of Context-Sensitive Synonyms Based on a Bilingual Corpus
Syntakticko sémantické třídy kontextových synonym založených na bilingvním korpusu
This paper summarizes findings of a three-year study on verb synonymy in translation based on both syntactic and semantic criteria and reports on recent results extending this work. Primary language resources used are existing Czech and English lexical and corpus resources, namely the Prague Dependency Treebank-style valency lexicons, FrameNet, VerbNet, PropBank, WordNet and the parallel Prague Czech-English Dependency Treebank, which contains deep syntactic and partially semantic annotation of running texts. The resulting lexicon (called formerly CzEngClass, now SynSemClass) and all associated resources linked to the existing lexicons and corpora following from this project are publicly and freely available. While the project proper assumes manual annotation work, we expect to use the resulting resource (together with the existing ones) as a necessary resource for developing automatic methods for extending such a lexicon, or creating similar lexicons for other languages.
Tento dokument shrnuje závěry tříleté studie o slovesných synonymech v překladu, založené na syntaktických i sémantických kritériích. Primárními jazykovými zdroji jsou stávající české a anglické lexikální a korpusové zdroje, konkrétně valenční lexikony ve stylu Pražského závislostního korpusu, FrameNet, VerbNet, PropBank, WordNet a paralelní Pražský česko-anglický závislostní korpus. Výsledný lexikon slovesných synonym (dříve nazývaný CzEngClass, nyní SynSemClass) a všechny související zdroje spojené se stávajícími lexikony jsou veřejně a volně dostupné. Projekt samotný sice předpokládá ruční práci s anotacemi, ale předpokládáme, že výsledný zdroj (spolu se stávajícími) použijeme jako nezbytný zdroj pro vývoj automatických metod rozšíření takového lexikonu nebo vytvoření podobných lexikonů pro další jazyky.
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/5d664f39d3ce5c59a234d8bde8e23e6cf9149bb9/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Relation of affirmative and negative forms of adjectives and nouns from the point of view of their valency
Vztah afirmativní a negované formy adjektiv a substantiv z hlediska jejich valence
When treating valency of adjectives and nouns in a valency lexicon it is necessary to decide whether their affirmative and negative form can be captured in one entry, e.g., (ne)závislý ‘(in)dependent’ and (ne)závislost ‘(in)dependence’. There are two cases that would lead to creating a separate entry in the lexicon, namely a difference between the meaning of an affirmative form and the corresponding negative form, e.g., volnost ‘freedom’ vs. nevolnost ‘indisposition’, and a difference in their valency, cf. Eng. dependent on and independent of. Focusing on valency complementations expressed by a prepositional group, we show that valency of negative forms of Czech adjectives and nouns in used corpus data is, with few exceptions, the same as valency of the corresponding affirmative forms, e.g. (ne)spokojený s čím ‘(un)satisfied with sth’, (ne)spokojenost s čím ‘(dis)satisfaction with sth’. However, it often differs as for its frequency. When capturing valency of affirmative and negative forms in one entry in a lexicon it is important to treat not only the common cases but also less frequent negative forms and their valency (e.g., nevděčný za něco ‘ungrateful for sth’) as well as the opposite cases in which the frequency of a negative form and its valency considerably outnumbers the frequency of the affirmative form (e.g., nepostradatelný pro někoho ‘indispensable to sb’).
Při zpracování valence adjektiv a substantiv ve valenčním slovníku je třeba rozhodnout, zda je možné jejich afirmativní a negované formy zpracovat v jednom hesle, např. (ne)závislý, (ne)závislost. Kromě rozdílů ve významu afirmativní a negované formy, např. volnost (svoboda) vs. nevolnost (nepříjemný tělesný stav), by k vydělení zvláštního hesla vedla také jejich odlišná valence (srov. anglické dependent on vs. independent of). Naše korpusová analýza ukazuje, že negované formy českých adjektiv a substantiv mají až na výjimky stejnou předložkovou valenci jako jejich afirmativní formy (např. (ne)spokojený s čím, (ne)spokojenost s čím), liší se však jejich frekvence. Při zpracování afirmativních a negovaných forem v jednom hesle je vedle běžných případů třeba jednotným způsobem ošetřit jak méně doložené negované formy a jejich valenci (např. nevděčný za něco), tak případy, kdy frekvence negované formy a její valence naopak převažuje nad afirmativní formou (nepostradatelný pro někoho).
[ "Veronika Kolářová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
NomVallex 1.0 - Valency Lexicon of Nouns
NomVallex 1.0 - Valenční slovník substantiv
The NomVallex I. lexicon describes valency of Czech deverbal nouns belonging to three semantic classes, namely Communication (e.g. dotaz 'question'), Mental Action (e.g. plán 'plan') and Psych State (e.g. nenávist 'hatred'). It covers stem-nominals (e.g. dotazování 'asking') as well as root-nominals (e.g. dotaz 'question'). It captures all lexical meanings of the nouns, differentiating between basic “categorial” meanings of action (e.g. žádání (si) ‘asking’, dovtípení (se) ‘inferring’), abstract result of an action (e.g. žádost ‘request’), property / quality (e.g. důvtip ‘ingenuity’), material object (e.g. pohled ‘postcard’), or container / quantity (e.g. počet ‘number’). Nouns matching the following criteria were included in the lexicon: its semantic class is either Communication, Mental Action or Psych State, its categorial meaning is action or abstract result of an action, and it exhibits non-systemic valency behaviour (especially non-systemic forms of participants) in at least one of its meanings. In total, the lexicon includes 505 lexical units in 248 lexemes. Valency properties are captured in the form of valency frames, specifying valency slots and their morphemic forms. The lexicon aims to illustrate the full range of syntactic structures of noun phrases, and thus the syntactic behaviour of every lexical unit is exemplified with all combinations of its participants (in all forms specified in the valency frame) which were found in the corpus data (CNC SYNv8 and Araneum Bohemicum Maximum). The lexicon is created within the theoretical framework of Functional Generative Description and was inspired by the VALLEX lexicon; it adopts the VALLEX annotation scheme, and in relevant cases, deverbal nouns captured in NomVallex I. mirror the division of lexemes into lexical units and the assignment of lexical units to semantic classes of the base verbs captured in the VALLEX lexicon.
Valenční slovník NomVallex I. zachycuje valenci českých deverbativních substantiv, která alespoň v jednom ze svých významů patří k sémantické třídě Communication (např. dotaz, dotázání se – dotazování se), Mental Action (např. plán, plánování) nebo Psych State (např. nenávist, nenávidění), a to v celkovém počtu 248 lexémů zahrnujících 505 lexikálních jednotek. Problematiku substantivní valence zpracovává v teoretickém rámci Funkčního generativního popisu, přičemž se důsledně opírá o korpusový materiál (korpusy řady SYN Českého národního korpusu a korpus Araneum Bohemicum Maximum). Navazuje na valenční slovník VALLEX, odkud přebírá anotační schéma, v relevantních případech rozdělení základových slovesných lexémů do lexikálních jednotek a jejich přiřazení k sémantickým třídám. U substantiv zachycuje všechny jejich lexikální významy, přičemž rozlišuje základní kategoriální významy událost (např. žádání, dovtípení se), abstraktní výsledek děje (např. žádost), vlastnost (např. důvtip), substance (např. komunikace (silnice)) a kontejner (např. počet). S cílem demonstrovat valenční chování různých typů substantivních derivátů jsou do slovníku zařazeny jak kmenové deriváty (odvozené sufixy -ní/-tí, např. žádání, navrhování - navržení, namítání - namítnutí), tak kořenové deriváty (odvozené různými sufixy, včetně sufixu nulového, např. žádost, návrh, námitka), je-li možné je od příslušných základových sloves utvořit. Kritériem pro zařazení do slovníku je příslušnost k jedné ze tří výše uvedených sémantických tříd, označení události nebo abstraktního výsledku děje a projev nesystémového valenčního chování, zejména nesystémové formy valenčních doplnění. Valenci zachycuje v podobě valenčního rámce, který pro každé valenční doplnění uvádí funktor a množinu možných morfematických vyjádření, a příkladů, které se vyskytly v použitých korpusech. Jeho cílem je na korpusových datech ukázat, v jakých syntaktických strukturách se zkoumaná substantiva mohou vyskytovat, proto dokládá všechny kombinace aktantů (ve všech formách uvedených ve valenčním rámci), které se u daných substantiv v použitých korpusových datech vyskytly.
[ "Veronika Kolářová", "Anna Vernerová", "Jana Klímová" ]
https://www.semanticscholar.org/paper/6939d3c0797d6b1967d05a90b23e1cd74029df36/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
NomVallex I. Valency lexicon of nouns
NomVallex I. Valenční slovník substantiv
The NomVallex I. lexicon describes valency of Czech deverbal nouns belonging to three semantic classes, namely Communication (e.g. dotaz 'question'), Mental Action (e.g. plán 'plan') and Psych State (e.g. nenávist 'hatred'). It covers stem-nominals (e.g. dotazování 'asking') as well as root-nominals (e.g. dotaz 'question'). It captures all lexical meanings of the nouns, differentiating between basic “categorial” meanings of action (e.g. žádání (si) ‘asking’, dovtípení (se) ‘inferring’), abstract result of an action (e.g. žádost ‘request’), property / quality (e.g. důvtip ‘ingenuity’), material object (e.g. pohled ‘postcard’), or container / quantity (e.g. počet ‘number’). Nouns matching the following criteria were included in the lexicon: its semantic class is either Communication, Mental Action or Psych State, its categorial meaning is action or abstract result of an action, and it exhibits non-systemic valency behaviour (especially non-systemic forms of participants) in at least one of its meanings. In total, the lexicon includes 505 lexical units in 248 lexemes. Valency properties are captured in the form of valency frames, specifying valency slots and their morphemic forms. The lexicon aims to illustrate the full range of syntactic structures of noun phrases, and thus the syntactic behaviour of every lexical unit is exemplified with all combinations of its participants (in all forms specified in the valency frame) which were found in the corpus data (CNC SYNv8 and Araneum Bohemicum Maximum). The lexicon is created within the theoretical framework of Functional Generative Description and was inspired by the VALLEX lexicon; it adopts the VALLEX annotation scheme, and in relevant cases, deverbal nouns captured in NomVallex I. mirror the division of lexemes into lexical units and the assignment of lexical units to semantic classes of the base verbs captured in the VALLEX lexicon.
Valenční slovník NomVallex I. zachycuje valenci českých deverbativních substantiv, která alespoň v jednom ze svých významů patří k sémantické třídě Communication (např. dotaz, dotázání se – dotazování se), Mental Action (např. plán, plánování) nebo Psych State (např. nenávist, nenávidění), a to v celkovém počtu 248 lexémů zahrnujících 505 lexikálních jednotek. Problematiku substantivní valence zpracovává v teoretickém rámci Funkčního generativního popisu, přičemž se důsledně opírá o korpusový materiál (korpusy řady SYN Českého národního korpusu a korpus Araneum Bohemicum Maximum). Navazuje na valenční slovník VALLEX, odkud přebírá anotační schéma, v relevantních případech rozdělení základových slovesných lexémů do lexikálních jednotek a jejich přiřazení k sémantickým třídám. U substantiv zachycuje všechny jejich lexikální významy, přičemž rozlišuje základní kategoriální významy událost (např. žádání, dovtípení se), abstraktní výsledek děje (např. žádost), vlastnost (např. důvtip), substance (např. komunikace (silnice)) a kontejner (např. počet). S cílem demonstrovat valenční chování různých typů substantivních derivátů jsou do slovníku zařazeny jak kmenové deriváty (odvozené sufixy -ní/-tí, např. žádání, navrhování - navržení, namítání - namítnutí), tak kořenové deriváty (odvozené různými sufixy, včetně sufixu nulového, např. žádost, návrh, námitka), je-li možné je od příslušných základových sloves utvořit. Kritériem pro zařazení do slovníku je příslušnost k jedné ze tří výše uvedených sémantických tříd, označení události nebo abstraktního výsledku děje a projev nesystémového valenčního chování, zejména nesystémové formy valenčních doplnění. Valenci zachycuje v podobě valenčního rámce, který pro každé valenční doplnění uvádí funktor a množinu možných morfematických vyjádření, a příkladů, které se vyskytly v použitých korpusech. Jeho cílem je na korpusových datech ukázat, v jakých syntaktických strukturách se zkoumaná substantiva mohou vyskytovat, proto dokládá všechny kombinace aktantů (ve všech formách uvedených ve valenčním rámci), které se u daných substantiv v použitých korpusových datech vyskytly.
[ "Veronika Kolářová", "Anna Vernerová", "Jana Klímová" ]
https://www.semanticscholar.org/paper/6939d3c0797d6b1967d05a90b23e1cd74029df36/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Nouns derived from verbs with suppletive roots: A corpus-based study of action nouns with the roots klád and lož
Substantiva tvořená od sloves se supletivními kořeny: Korpusová studie deverbativ s kořeny klád a lož
In the word-formation chapters of František Štícha’s newest grammar, suffixless action nouns are provided with contexts demonstrating that they can be interpreted both perfectively and imperfectively, i.e., in relation to the verbs with both the perfective and imperfective aspect (e.g. hvizd ‘whistle’ < hvízdat_impf ‘to whistle_impf’|hvízdnout_pf ‘to whistle_pf’). In support of Štícha’s analysis, the present paper deals with action nouns derived from verbs with the suppletive roots klád and lož (e.g. překládat_impf ‘to replace_impf’|přeložit_pf ‘to replace_pf’), containing various suffixes, e.g. -ba (sklad-ba ‘composition’), -ka (pře-klád-ka ‘replacement’) or -0 (pře-klad-0 ‘translation’). Although these nouns refer formally to a particular member of the aspectual pair (přeložka ‘replacement’ – přeložit_pf ‘to replace_pf’, překládka ‘replacement’ < překládat_impf ‘to replace_impf’), corpus data documents that they are used in the same contexts and are mutually interchangeable, which is in line with our proposal to analyze each of the nouns with respect to both verbs, though with formally different roots (přeložka ‘replacement’ < překládat_impf ‘to replace_impf’|přeložit_pf ‘to replace_pf’, překládka ‘replacement’ < překládat_impf ‘to replace_impf’| přeložit_pf ‘to replace_pf’). An elaborate description of the meanings and valency of the nominalizations with the lož/klád roots is provided in the paper.
V nejnovější mluvnici Františka Štíchy a kol. jsou v kapitolách věnovaných slovotvorbě bezpříponová dějová substantiva představena v kontextech, v nichž jsou užívána dokonavě i nedokonavě, tedy ve vztahu k oběma motivujícím slovesům tvořícím vidový pár (např. hvizd < hvízdat_impf|hvízdnout_pf). V návaznosti na Štíchovu analýzu se v této práci věnujeme bezpříponovým substantivům s kořeny klád a lož (např. překládat_impf|přeložit_pf), obsahujícím různé sufixy, např. -ba (sklad-ba), -ka (pře-klád-ka) nebo -0 (pře-klad-0). Přestože tato substantiva formálně odkazují pouze k jednomu členu vidové dvojice (přeložka – přeložit_pf, překládka < překládat_impf), korpusová data ukazují, že jsou užívána ve stejných kontextech a jsou vzájemně zaměnitelná. Tato skutečnost podporuje naši hypotézu, že bezpříponová dějová substantiva je třeba systematicky vztahovat k celé vidové dvojici základových sloves, a to i v případě jejich formálně odlišných kořenů (tedy přeložka < překládat_impf|přeložit_pf, překládka < překládat_impf|přeložit_pf). Součástí naší analýzy je důkladný popis významů a valence jednotlivých substantiv s kořeny klád a lož.
[ "Veronika Kolářová", "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
CzeDLex 0.6 and its Representation in the PML-TQ
CzeDLex 0.6 a jeho reprezentace v PML-TQ
CzeDLex is an electronic lexicon of Czech discourse connectives with its data coming from a large treebank annotated with discourse relations. Its new version CzeDLex 0.6 is significantly larger with respect to manually processed entries. Also, its structure has been modified to allow for primary connectives to appear with multiple entries for a single discourse sense. We present the new version of the lexicon and demonstrate possibilities of mining various types of information from the lexicon using PML-Tree Query.
CzeDLex je elektronický slovník českých diskurzních konektorů s daty pocházejícími z velkého korpusu anotovaného diskurzními vztahy. Jeho nová verze CzeDLex 0.6 přináší podstatně větší podíl ručně zpracovaných položek. Struktura slovníku byla upravena, aby umožňovala výskyt primárních konektorů s více položkami pro jeden diskurzní typ. Představujeme novou verzi slovníku a ukazujeme možnosti vyhledávání různých typů informací ve slovníku pomocí PML-Tree Query.
[ "Jiří Mírovský", "Lucie Poláková", "Pavlína Synková" ]
https://www.semanticscholar.org/paper/b3982035612762b0ec1eda4c9f73771afeb0217f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Enhanced and Deep Universal Dependencies for Many Languages
Rozšířené a hluboké univerzální závislosti (Universal Dependencies) pro mnoho jazyků
Many linguistic theories and annotation frameworks contain a deep-syntactic and/or semantic layer. While many of these frameworks have been applied to more than one language, none of them is anywhere near the number of languages that are covered in Universal Dependencies (UD). In my talk, I will first discuss Enhanced Universal Dependencies (EUD), a set of semantically-oriented enhancements that have been proposed within the framework of Universal Dependencies (but which are still available only for a small number of languages). I will also present some preliminary observations from the current shared task on parsing into EUD (https://universaldependencies.org/iwpt20/). In the second part, I will present some additional enhancements, called Deep UD, which extend beyond the official UD guidelines. I will focus on two aspects: how can these enhancements be useful for natural language understanding, and to what extent can they be obtained semi-automatically from the surface annotation for many typologically different languages.
Mnohé lingvistické teorie a anotační projekty obsahují hloubkově-syntaktickou a/nebo sémantickou rovinu. I když většina z těchto projektů mířila na více než jeden jazyk, žádný z nich se ani zdaleka neblíží počtu jazyků, které jsou pokryté projektem Universal Dependencies (UD). Ve své přednášce nejprve proberu tzv. rozšířené univerzální závislosti (Enhanced Universal Dependencies, EUD), sadu sémanticky orientovaných rozšíření, která byla navržena v rámci projektu Universal Dependencies (ale v současné době jsou k dispozici pouze pro malý počet jazyků). Představím také předběžná pozorování z právě probíhající soutěže v automatickém větném rozboru do EUD (https://universaldependencies.org/iwpt20/). Ve druhé části představím další rozšíření, která navrhujeme v rámci projektu Deep UD a která přesahují rámec současných anotačních pravidel UD. Zaměřím se na dva aspekty: jak tato rozšíření mohou být užitečná při porozumění přirozenému jazyku strojem a do jaké míry je můžeme získat z povrchově syntaktické anotace automaticky, pro mnoho typologicky odlišných jazyků.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/3888cc7d41469be1adba7f942606336539262860/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Universal Dependencies
Univerzální závislosti
Universal Dependencies is an international project and community that seeks to provide morphologically and syntactically annotated data for many languages, using a uniform annotation style. We report on the Czech grant project MANYLA that was one of the driving forces behind UD.
Universal Dependencies (univerzální závislosti) je mezinárodní projekt a komunita, která se snaží poskytnout morfologicky a syntakticky anotovaná data pro mnoho jazyků v jednotném anotačním stylu. Informujeme o českém grantovém projektu MANYLA, který byl jednou z hnacích sil UD.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/b805693c17961af2cc7f859c1a54320b26036f46/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Universal Dependencies: A Search for Harmonized Morphological and Syntactic Annotation
Universal Dependencies: Hledání harmonizované morfologické a syntaktické anotace
For at least two decades, syntactically annotated corpora (treebanks) have been instrumental both in linguistic research and in development of natural language understanding applications. Even though the application aspect somewhat diminished with the current surge of neural networks, the classical who-did-what-to-whom type of questions still cannot be answered without understanding the syntax of the sentence. In order to facilitate the usage of treebanks, it is desirable that they capture same phenomena the same way, across languages and domains. This is exactly the goal of Universal Dependencies (UD): a community effort to define cross-linguistically applicable annotation guidelines for morphology and syntax, and to provide data annotated following those guidelines. In my talk, I will introduce UD, its main principles and the current state, and I will discuss some of the challenges that harmonization and multi-lingual annotation presents. In the last part of the talk, I will touch upon the latest development towards Enhanced UD and Deep UD.
Po nejméně dvě desetiletí jsou syntakticky anotované korpusy (treebanky) důležitým zdrojem jak pro jazykovědný výzkum, tak pro vývoj počítačových aplikací, které potřebují porozumět přirozenému jazyku.
[ "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
FGD at MRP 2020: Prague Tectogrammatical Graphs
FGP na MRP 2020: Pražské tektogramatické grafy
Prague Tectogrammatical Graphs (PTG) is a meaning representation framework that originates in the tectogrammatical layer of the Prague Dependency Treebank (PDT) and is theoretically founded in Functional Generative Description of language (FGD). PTG in its present form has been prepared for the CoNLL 2020 shared task on Cross-Framework Meaning Representation Parsing (MRP). It is generated automatically from the Prague treebanks and stored in the JSON-based MRP graph interchange format. The conversion is partially lossy; in this paper we describe what part of annotation was included and how it is represented in PTG.
Pražské tektogramatické grafy (PTG) představují reprezentaci pro zachycení významu, která má kořeny v tektogramatické rovině Pražského závislostního korpusu (PDT) a je teoreticky podložena Funkčním generativním popisem jazyka (FGP). Ve své současné podobě byly PTG připraveny pro soutěž CoNLL 2020 v analýze významových reprezentací napříč formalismy (MRP). Jsou automaticky generovány z pražských závislostních korpusů a uloženy v grafovém formátu založeném na JSONu. Převod je částečně ztrátový; v tomto článku popisujeme, které části anotace byly do PTG zahrnuty a jak jsou v PTG reprezentovány.
[ "Daniel Zeman", "Jan Hajič" ]
https://www.semanticscholar.org/paper/2384655c6510a8fa481f424437bcf8c3d4ff1213/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Universal Dependencies 2.7
Universal Dependencies 2.7
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the thirteenth release of UD Treebanks, Version 2.7.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je třinácté vydání treebanků UD, verze 2.7.
[ "Daniel Zeman", "Joakim Nivre", "Mitchell Abrams", "Elia Ackermann", "Noëmi Aepli", "Hamid Aghaei", "Željko Agić", "Amir Ahmadi", "Lars Ahrenberg", "Chika Kennedy Ajede", "Gabrielė Aleksandravičiūtė", "Ika Alfina", "Lene Antonsen", "Katya Aplonova", "Angelina Aquino", "Carolina Aragon", "Maria Jesus Aranzabe", "Þórunn Arnardóttir", "Gashaw Arutie", "Jessica Naraiswari Arwidarasti", "Masayuki Asahara", "Luma Ateyah", "Furkan Atmaca", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Elena Badmaeva", "Keerthana Balasubramani", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Victoria Basmov", "Colin Batchelor", "John Bauer", "Seyyit Talha Bedir", "Kepa Bengoetxea", "Gözde Berk", "Yevgeni Berzak", "Irshad Ahmad Bhat", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Kristín Bjarnadóttir", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Kristina Brokaitė", "Aljoscha Burchardt", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Tatiana Cavalcanti", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Savas Cetin", "Özlem Çetinoğlu", "Fabricio Chalub", "Ethan Chi", "Yongseok Cho", "Jinho Choi", "Jayeol Chun", "Alessandra T. Cignarella", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Marine Courtin", "Elizabeth Davidson", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Mehmet Oguz Derin", "Elvis de Souza", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Arawinda Dinakaramani", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Timothy Dozat", "Kira Droganova", "Puneet Dwivedi", "Hanne Eckhoff", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Olga Erina", "Tomaž Erjavec", "Aline Etienne", "Wograine Evelyn", "Sidney Facundes", "Richárd Farkas", "Marília Fernanda", "Hector Fernandez Alcalde", "Jennifer Foster", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Marcos Garcia", "Moa Gärdenfors", "Sebastian Garza", "Fabrício Ferraz Gerardi", "Kim Gerdes", "Filip Ginter", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Bernadeta Griciūtė", "Matias Grioni", "Loïc Grobol", "Normunds Grūzītis", "Bruno Guillaume", "Céline Guillot-Barbance", "Tunga Güngör", "Nizar Habash", "Hinrik Hafsteinsson", "Jan Hajič", "Jan Hajič, jr.", "Mika Hämäläinen", "Linh Hà Mỹ", "Na-Rae Han", "Muhammad Yudistira Hanifmuti", "Sam Hardwick", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Oliver Hellwig", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Eva Huber", "Jena Hwang", "Takumi Ikeda", "Anton Karl Ingason", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Tomáš Jelínek", "Anders Johannsen", "Hildur Jónsdóttir", "Fredrik Jørgensen", "Markus Juutinen", "Sarveswaran Kengatharaiyer", "Hüner Kaşıkara", "Andre Kåsen", "Nadezhda Kabaeva", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Boris Katz", "Tolga Kayadelen", "Jessica Kenney", "Václava Kettnerová", "Jesse Kirchner", "Elena Klementieva", "Arne Köhn", "Abdullatif Köksal", "Kamil Kopacewicz", "Timo Korkiakangas", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Parameswari Krishnamurthy", "Sookyoung Kwak", "Veronika Laippala", "Lucia Lam", "Lorenzo Lambertino", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Maria Levina", "Cheuk Ying Li", "Josie Li", "Keying Li", "Yuan Li", "KyungTae Lim", "Krister Lindén", "Nikola Ljubešić", "Olga Loginova", "Andry Luthfi", "Mikko Luukko", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Héctor Martínez Alonso", "André Martins", "Jan Mašek", "Hiroshi Matsuda", "Yuji Matsumoto", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Niko Miekka", "Karina Mischenkova", "Margarita Misirpashayeva", "Anna Missilä", "Cătălin Mititelu", "Maria Mitrofan", "Yusuke Miyao", "AmirHossein Mojiri Foroushani", "Amirsaeid Moloodi", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Keiko Sophie Mori", "Shinsuke Mori", "Tomohiko Morioka", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Robert Munro", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Mariam Nakhlé", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Alireza Nourian", "Hanna Nurmi", "Stina Ojala", "Atul Kumar Ojha", "Adédayọ̀ Olúòkun", "Mai Omura", "Emeka Onwuegbuzia", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Şaziye Betül Özateş", "Arzucan Özgür", "Balkız Öztürk Başaran", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Angelika Peljak-Łapińska", "Siyao Peng", "Cenel-Augusto Perez", "Natalia Perkova", "Guy Perrier", "Slav Petrov", "Daria Petrova", "Jason Phelan", "Jussi Piitulainen", "Tommi A Pirinen", "Emily Pitler", "Barbara Plank", "Thierry Poibeau", "Larisa Ponomareva", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Tiina Puolakainen", "Sampo Pyysalo", "Peng Qi", "Andriela Rääbis", "Alexandre Rademaker", "Taraka Rama", "Loganathan Ramasamy", "Carlos Ramisch", "Fam Rashel", "Mohammad Sadegh Rasooli", "Vinit Ravishankar", "Livy Real", "Petru Rebeja", "Siva Reddy", "Georg Rehm", "Ivan Riabov", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Luisa Rocha", "Eiríkur Rögnvaldsson", "Mykhailo Romanenko", "Rudolf Rosa", "Valentin Roșca", "Davide Rovati", "Olga Rudina", "Jack Rueter", "Kristján Rúnarsson", "Shoval Sadde", "Pegah Safari", "Benoît Sagot", "Aleksi Sahala", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Dage Särg", "Baiba Saulīte", "Yanin Sawanakunanon", "Kevin Scannell", "Salvatore Scarlata", "Nathan Schneider", "Sebastian Schuster", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Muh Shohibussirri", "Dmitri Sitchinava", "Einar Freyr Sigurðsson", "Aline Silveira", "Natalia Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Kiril Simov", "Maria Skachedubova", "Aaron Smith", "Isabela Soares-Bastos", "Carolyn Spadine", "Steinþór Steingrímsson", "Antonio Stella", "Milan Straka", "Emmett Strickland", "Jana Strnadová", "Alane Suhr", "Yogi Lesmana Sulestio", "Umut Sulubacak", "Shingo Suzuki", "Zsolt Szántó", "Dima Taji", "Yuta Takahashi", "Fabio Tamburini", "Mary Ann C. Tan", "Takaaki Tanaka", "Samson Tella", "Isabelle Tellier", "Guillaume Thomas", "Liisi Torga", "Marsida Toska", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Utku Türk", "Francis Tyers", "Sumire Uematsu", "Roman Untilov", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Andrius Utka", "Sowmya Vajjala", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Eric Villemonte de la Clergerie", "Veronika Vincze", "Aya Wakasa", "Joel C. Wallenberg", "Lars Wallin", "Abigail Walsh", "Jing Xian Wang", "Jonathan North Washington", "Maximilan Wendt", "Paul Widmer", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Mary Yako", "Kayo Yamashita", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Zhuoran Yu", "Zdeněk Žabokrtský", "Shorouq Zahra", "Amir Zeldes", "Hanzhi Zhu", "Anna Zhuravleva" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Universal Dependencies 2.6
Universal Dependencies 2.6
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the twelfth release of UD Treebanks, Version 2.6.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je dvanácté vydání treebanků UD, verze 2.6.
[ "Daniel Zeman", "Joakim Nivre", "Mitchell Abrams", "Elia Ackermann", "Noëmi Aepli", "Željko Agić", "Lars Ahrenberg", "Chika Kennedy Ajede", "Gabrielė Aleksandravičiūtė", "Lene Antonsen", "Katya Aplonova", "Angelina Aquino", "Maria Jesus Aranzabe", "Gashaw Arutie", "Masayuki Asahara", "Luma Ateyah", "Furkan Atmaca", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Elena Badmaeva", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Victoria Basmov", "Colin Batchelor", "John Bauer", "Kepa Bengoetxea", "Yevgeni Berzak", "Irshad Ahmad Bhat", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Kristina Brokaitė", "Aljoscha Burchardt", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Tatiana Cavalcanti", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Savas Cetin", "Fabricio Chalub", "Ethan Chi", "Jinho Choi", "Yongseok Cho", "Jayeol Chun", "Alessandra T. Cignarella", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Marine Courtin", "Elizabeth Davidson", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Elvis de Souza", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Timothy Dozat", "Kira Droganova", "Puneet Dwivedi", "Hanne Eckhoff", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Olga Erina", "Tomaž Erjavec", "Aline Etienne", "Wograine Evelyn", "Richárd Farkas", "Hector Fernandez Alcalde", "Jennifer Foster", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Marcos Garcia", "Moa Gärdenfors", "Sebastian Garza", "Kim Gerdes", "Filip Ginter", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Bernadeta Griciūtė", "Matias Grioni", "Loïc Grobol", "Normunds Grūzītis", "Bruno Guillaume", "Céline Guillot-Barbance", "Tunga Güngör", "Nizar Habash", "Jan Hajič", "Jan Hajič, jr.", "Mika Hämäläinen", "Linh Hà Mỹ", "Na-Rae Han", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Oliver Hellwig", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Jena Hwang", "Takumi Ikeda", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Tomáš Jelínek", "Anders Johannsen", "Hildur Jónsdóttir", "Fredrik Jørgensen", "Markus Juutinen", "Hüner Kaşıkara", "Andre Kåsen", "Nadezhda Kabaeva", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Boris Katz", "Tolga Kayadelen", "Jessica Kenney", "Václava Kettnerová", "Jesse Kirchner", "Elena Klementieva", "Arne Köhn", "Abdullatif Köksal", "Kamil Kopacewicz", "Timo Korkiakangas", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Sookyoung Kwak", "Veronika Laippala", "Lorenzo Lambertino", "Lucia Lam", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Maria Levina", "Cheuk Ying Li", "Josie Li", "Keying Li", "KyungTae Lim", "Yuan Li", "Nikola Ljubešić", "Olga Loginova", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Héctor Martínez Alonso", "André Martins", "Jan Mašek", "Hiroshi Matsuda", "Yuji Matsumoto", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Niko Miekka", "Margarita Misirpashayeva", "Anna Missilä", "Cătălin Mititelu", "Maria Mitrofan", "Yusuke Miyao", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Keiko Sophie Mori", "Tomohiko Morioka", "Shinsuke Mori", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Robert Munro", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Hanna Nurmi", "Stina Ojala", "Atul Kumar Ojha", "Adédayọ̀ Olúòkun", "Mai Omura", "Emeka Onwuegbuzia", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Şaziye Betül Özateş", "Arzucan Özgür", "Balkız Öztürk Başaran", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Angelika Peljak-Łapińska", "Siyao Peng", "Cenel-Augusto Perez", "Guy Perrier", "Daria Petrova", "Slav Petrov", "Jason Phelan", "Jussi Piitulainen", "Tommi A Pirinen", "Emily Pitler", "Barbara Plank", "Thierry Poibeau", "Larisa Ponomareva", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Tiina Puolakainen", "Sampo Pyysalo", "Peng Qi", "Andriela Rääbis", "Alexandre Rademaker", "Loganathan Ramasamy", "Taraka Rama", "Carlos Ramisch", "Vinit Ravishankar", "Livy Real", "Petru Rebeja", "Siva Reddy", "Georg Rehm", "Ivan Riabov", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Luisa Rocha", "Mykhailo Romanenko", "Rudolf Rosa", "Valentin Roșca", "Davide Rovati", "Olga Rudina", "Jack Rueter", "Shoval Sadde", "Benoît Sagot", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Dage Särg", "Baiba Saulīte", "Yanin Sawanakunanon", "Salvatore Scarlata", "Nathan Schneider", "Sebastian Schuster", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Muh Shohibussirri", "Dmitri Sitchinava", "Aline Silveira", "Natalia Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Kiril Simov", "Maria Skachedubova", "Aaron Smith", "Isabela Soares-Bastos", "Carolyn Spadine", "Antonio Stella", "Milan Straka", "Jana Strnadová", "Alane Suhr", "Umut Sulubacak", "Shingo Suzuki", "Zsolt Szántó", "Dima Taji", "Yuta Takahashi", "Fabio Tamburini", "Takaaki Tanaka", "Samson Tella", "Isabelle Tellier", "Guillaume Thomas", "Liisi Torga", "Marsida Toska", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Utku Türk", "Francis Tyers", "Sumire Uematsu", "Roman Untilov", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Andrius Utka", "Sowmya Vajjala", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Eric Villemonte de la Clergerie", "Veronika Vincze", "Aya Wakasa", "Lars Wallin", "Abigail Walsh", "Jing Xian Wang", "Jonathan North Washington", "Maximilan Wendt", "Paul Widmer", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Mary Yako", "Kayo Yamashita", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Zhuoran Yu", "Zdeněk Žabokrtský", "Amir Zeldes", "Hanzhi Zhu", "Anna Zhuravleva" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
SIGTYP 2020 Shared Task
Soutěž SIGTYP 2020
We present our system for prediction of typological features from the World Atlas of Language Structures (WALS), which participated in the shared task organized as a part of the SIGTYP 2020 workshop.
Představujeme systém pro předpovídání rysů z World Atlas of Language Structures (WALS), který se účastnil soutěže pořádané u příležitosti typologického workshopu SIGTYP 2020.
[ "Daniel Zeman", "Rudolf Rosa", "Martin Vastl" ]
https://www.semanticscholar.org/paper/d19f16d64d2227f8656cd5fb52dc85b272ec87dc/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Compiling Czech Parliamentary Stenographic Protocols into a Corpus
Kompilace stenografických záznamů českého parlamentu do korpusu
The Parliament of the Czech Republic consists of two chambers: the Chamber of Deputies (Lower House) and the Senate (Upper House). In our work, we focus on agenda and documents that relate to the Chamber of Deputies. Namely, we pay particular attention to stenographic protocols that record the Chamber of Deputies’ meetings. Our overall goal is to continually compile the protocols into the TEI encoded corpus ParCzech and make the corpus accessible in a more user friendly way than the Parliament publishes the protocols. In the very first stage of the compilation, the ParCzech corpus consists of the 2013+ protocols that we make accessible and searchable in the TEITOK web-based platform.
Parlament České republiky se skládá ze dvou komor: Poslanecké sněmovny (dolní komora) a Senátu (horní komora). V naší práci se zaměřujeme na agendu a dokumenty týkající se Poslanecké sněmovny. Konkrétně věnujeme zvláštní pozornost stenografickým protokolům, které zaznamenávají schůze Poslanecké sněmovny. Naším cílem je kontinuálně kompilovat protokoly do korpusu ParCzech kódovaného TEI a zpřístupnit ho uživatelsky přívětivějším způsobem, než tak činí Parlament ČR. V první fázi kompilace ParCzech obsahuje protokoly z let 2013+, které zpřístupňujeme a prohledáváme ve webové platformě TEITOK.
[ "Barbora Hladká", "Matyáš Kopp", "Pavel Straňák" ]
https://www.semanticscholar.org/paper/22036743fb72676d1f80ea78b7118a66384b2fd7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
ParCzech PS7 1.0
ParCzech PS7 1.0
The ParCzech PS7 1.0 corpus is the very first member of the corpus family of data coming from the Parliament of the Czech Republic. ParCzech PS7 1.0 consists of stenographic protocols that record the Chamber of Deputies' meetings held in the 7th term between 2013-2017. The audio recordings are available as well. Transcripts are provided in the original HTML as harvested, and also converted into TEI-derived XML format for use in TEITOK corpus manager. The corpus is automatically enriched with the morphological and named-entity annotations using the procedures MorphoDita and NameTag.
Korpus ParCzech PS7 1.0 je úplně první část rodiny korpusů z Parlamentu České republiky. ParCzech PS7 1.0 obsahuje stenoprotokoly z Poslanecké sněmovny sedmého volebního období z let 2013-2017. Audio záznamy jsou přiloženy. Přepisy jsou poskytnuty v původním HTML formátu a navíc zkonvertovány do TEI-odvozeném formátu pro korpusového správce TEITOK. Korpus je automaticky obohacen o morfologii a jmenné entity programy MorphoDita a NameTag.
[ "Barbora Hladká", "Matyáš Kopp", "Pavel Straňák" ]
https://www.semanticscholar.org/paper/d3b5dc1bfcd6ac5b346d8ffce17eba4ac827abc4/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
ParCzech PS7 2.0
ParCzech PS7 2.0
The ParCzech PS7 2.0 corpus is the second version of ParCzech PS7 consisting of stenographic protocols that record the Chamber of Deputies' meetings held in the 7th term between 2013-2017. The protocols are provided in their original HTML format, TEI format and TEI-derived format to make them searchable in the TEITOK corpus manager. Their audio recordings are available as well. The corpus is automatically enriched with the morphological, syntactic, and named-entity annotations using the procedures UDPipe 2 and NameTag 2.
Korpus ParCzech PS7 2.0 je druhá verze korpusu ParCzech PS7, který obsahuje stenografické protokoly sedmého volebního období v letech 2013-2017. Protokoly jsou v jejich puvodním HTML formátu, v TEI formátu a TEI-odvozeném formátu pro korpusového správce TEITOK. Audio záznamy jsou přiloženy. Korpus je automaticky obohacen o morfologii, syntax a jmenné entity programy UDPipe 2 a NameTag 2.
[ "Barbora Hladká", "Matyáš Kopp", "Pavel Straňák" ]
https://www.semanticscholar.org/paper/d3b5dc1bfcd6ac5b346d8ffce17eba4ac827abc4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Manual for Morphological Annotation, Revision for the Prague Dependency Treebank - Consolidated 2020 release
Manuál pro anotaci na morfologické rovině. Revize pro konsolidované vydání Pražského závislostního korpusu 1.0
Although the title of this report inherits the word "Manual" from the previous versions, it is no more intended to guide the annotators. Rather it attempts to describe the current state of the morphological annotation in the Prague Dependency Treebank – Consolidated 1.0 (PDT-C 1.0) We believe that the guidelines can be of use to the users of the PDT-C 1.0 data, as well as for possible preparation of new data.
Ačkoli název této zprávy přebírá slovo „Manuál“ z předchozích verzí, její účel již primárně není sloužit jako návod pro anotátory. Spíše se pokouší popsat současný stav morfologické anotace ve vydání Prague Dependency Treebank - Consolidated 1.0 (PDT-C 1.0) Věříme, že pokyny mohou být užitečné pro uživatele dat PDT-C 1.0, stejně jako pro přípravu nových.
[ "Marie Mikulová", "Jan Hajič", "Jiří Hana", "Hana Hanová", "Jaroslava Hlaváčová", "Emil Jeřábek", "Barbora Štěpánková", "Barbora Vidová Hladká", "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Spatial Adverbials in Written and Spoken Text (Case study)
Vyjadřování prostorových určení v textu psaném a mluveném (Případová studie)
. Based on an analysis of the rich material of the Prague Database of Syntactic Forms and Functions (ForFun), which contains written texts as well as transcriptions of dialogues, we describe functions and forms of spatial adverbials and observe differences in their expression in written and spoken text. We focus on basic formal expressions of adverbials: (i) an adverb, (ii) a dependent clause and (iii) a prepositional phrase. For each formal expression (i) – (iii), we describe the characteristic features of the spatial adverbials in the spoken communication that we gained from the ForFun database.
Na základě analýzy bohatého materiálu Pražské databáze syntaktických forem a funkcí (ForFun), která obsahuje psané texty i přepisy dialogů, popisujeme funkce a formy prostorových určení a sledujeme rozdíly v jejich vyjádření v psané i mluvené podobě text. Zaměřujeme se na základní formální vyjádření příslovečných určení: (i) příslovce, (ii) závislá věta a (iii) předložková fráze. Pro každý formální výraz (i) - (iii) popisujeme charakteristické rysy prostorových určení v mluvené komunikaci, které jsme získali z databáze ForFun.
[ "Marie Mikulová", "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/39b5fa336b77398839067d64da2487ea26a6c201/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
VALLEX 4.0
VALLEX 4.0
VALLEX 4.0 provides information on the valency structure (combinatorial potential) of verbs in their particular senses, which are characterized by glosses and examples. VALLEX 4.0 describes 4 700 Czech verbs in more than 11 000 lexical units, i.e., given verbs in the given senses. VALLEX 4.0 is a is a collection of linguistically annotated data and documentation, resulting from an attempt at formal description of valency frames of Czech verbs. In order to satisfy different needs of different potential users, the lexicon is distributed (i) in a HTML version (the data allows for an easy and fast navigation through the lexicon) and (ii) in a machine-tractable form, so that the VALLEX data can be used in NLP applications. češtiny. VALLEX 4.0 provides (in addition to information from previous versions) also characteristics of verbs expressing reciprocity and reflexivity.
Valenční slovník českých sloves (též VALLEX 4.0) poskytuje informace o valenční struktuře českých sloves v jejich jednotlivých významech, které charakterizuje pomocí glos a příkladů; tyto základní údaje jsou doplněny o některé další syntaktické a sémantické charakteristiky. VALLEX 4.0 zachycuje 4 700 českých sloves, která odpovídají více než 11 000 lexikálním jednotkám, tedy vždy danému slovesu v daném významu. VALLEX je budován jako odpověď na potřebu rozsáhlého a kvalitního veřejně dostupného slovníku, který by obsahoval syntaktické a sémantické charakteristiky českých sloves a byl přitom široce uplatnitelný v aplikacích pro zpracování přirozeného jazyka. Při navrhování koncepce slovníku byl proto kladen důraz na všestranné využití jak pro lidského uživatele, tak pro automatické zpracování češtiny. VALLEX 4.0 obohacuje informace z předchozích verzí o charakteristiku sloves vyjadřujících reflexivní a reciproční významy.
[ "Markéta Lopatková", "Václava Kettnerová", "Anna Vernerová", "Eduard Bejček", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/741739723752c54b5f8160a38df75d348805bb22/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
IWPT 2020 Shared Task Data and System Outputs
Data a systémové výstupy soutěže IWPT 2020
This package contains data used in the IWPT 2020 shared task. It contains training, development and test (evaluation) datasets. The data is based on a subset of Universal Dependencies release 2.5 (http://hdl.handle.net/11234/1-3105) but some treebanks contain additional enhanced annotations. Moreover, not all of these additions became part of Universal Dependencies release 2.6 (http://hdl.handle.net/11234/1-3226), which makes the shared task data unique and worth a separate release to enable later comparison with new parsing algorithms. The package also contains a number of Perl and Python scripts that have been used to process the data during preparation and during the shared task. Finally, the package includes the official primary submission of each team participating in the shared task.
Tento balíček obsahuje data použitá v soutěži IWPT 2020. Obsahuje trénovací, vývojová a testovací (vyhodnocovací) datové množiny. Data jsou založena na podmnožině vydání 2.5 Universal Dependencies (http://hdl.handle.net/11234/1-3105), ale některé treebanky obsahují další obohacené anotace nad rámec UD 2.5.
[ "Gosse Bouma", "Djamé Seddah", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/a2f28fefdf558e1d82f70b002b7217a3e195737c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Overview of the IWPT 2020 Shared Task on Parsing into Enhanced Universal Dependencies
Přehled soutěže IWPT 2020 v syntaktické analýze do Enhanced Universal Dependencies
This overview introduces the task of parsing into enhanced universal dependencies, describes the datasets used for training and evaluation, and evaluation metrics. We outline various approaches and discuss the results of the shared task.
Tento článek představuje úlohu parsingu (syntaktické analýzy) do rozšířených Universal Dependencies, popisuje data použitá pro trénování a vyhodnocení, jakož i evaluační metriky. Stručně shrnujeme jednotlivé přístupy a probíráme výsledky úlohy.
[ "Gosse Bouma", "Djamé Seddah", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/7327defdbd339c880b874de027af0717f1af4ee4/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Consistency of the morphological dictionary MorfFlex
Konzistence morfologického slovníku MorfFlex
The paper describes the new version of the "Prague" morphological dictionary MorfFlex.
Náš příspěvek chce představit novou verzi tzv. „pražského“ morfologického slovníku MorfFlex.
[ "Jaroslava Hlaváčová" ]
https://www.semanticscholar.org/paper/34209326060873e4019360847d2e453f9d642118/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Stylometry in a Bilingual Setup
Stylometrie na textech ve dvou jazycích
The method of stylometry by most frequent words does not allow direct comparison of original texts and their translations, i.e. across languages. For instance, in a bilingual Czech-German text collection containing parallel texts (originals and translations in both directions, along with Czech and German translations from other languages), authors would not cluster across languages, since frequency word lists for any Czech texts are obviously going to be more similar to each other than to a German text, and the other way round. We have tried to come up with an interlingua that would remove the language-specific features and possibly keep the linguistically independent features of individual author signal, if they exist. We have tagged, lemmatized, and parsed each language counterpart with the corresponding language model in UDPipe, which provides a linguistic markup that is cross-lingual to a significant extent. We stripped the output of language-dependent items, but that alone did not help much. As a next step, we transformed the lemmas of both language counterparts into shared pseudolemmas based on a very crude Czech-German glossary, with a 95.6% success. We show that, for stylometric methods based on the most frequent words, we can do without translations.
Metoda stylometrie nejčastějšími slovy neumožňuje přímé srovnání původních textů a jejich překladů, tj. Napříč jazyky. Například v dvojjazyčné česko-německé textové sbírce obsahující paralelní texty (originály a překlady v obou směrech spolu s českými a německými překlady z jiných jazyků) by autoři neshlukovali mezi jazyky, protože seznamy četných slov pro jakékoli české texty jsou zjevně bude se více podobat německému textu a naopak. Pokusili jsme se přijít s interlinguou, která by odstranila rysy specifické pro jazyk a případně zachovala jazykově nezávislé rysy signálu jednotlivého autora, pokud existují. Každý jazykový protějšek jsme označili, lemmatizovali a analyzovali odpovídajícím jazykovým modelem v UDPipe, který poskytuje jazykové označení, které je do značné míry vícejazyčné. Odstranili jsme výstup jazykově závislých položek, ale to samo o sobě moc nepomohlo. V dalším kroku jsme transformovali lemma obou jazykových protějšků na sdílená pseudolemata na základě velmi hrubého česko-německého glosáře s 95,6% úspěšností. Ukazujeme, že u stylometrických metod založených na nejčastějších slovech se můžeme obejít bez překladů.
[ "Silvie Cinková", "Jan Rybicki" ]
https://www.semanticscholar.org/paper/d09ccb72772a2694f78eae41f5814688df214352/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
The suffixes -ismus and -ita in nouns in Czech
Přípony -ismus a -ita v substantivech v češtině
The interplay between borrowing and word formation (in particular, derivation) is documented on the example of the suffixes -ismus and -ita, which are listed among the most common suffixes in loan nouns in Czech. They are both used to form abstract nouns but differ in many aspects. The suffix -ismus combines with bases that form larger derivational families than those of -ita but still most nouns in -ita share their root with several other derivatives, too. By analysing selected derivatives and their mutual relations across a large amount of derivational families, I demonstrate that the size and inner structure of derivational families can provide significant knowledge about the meaning of the formations analysed. The meanings of the suffixes are described using patterns which involve the most relevant derivatives with explicitly marked derivational relations. Using the patterns, it is possible to explain semantic nuances that have not been described with loan words in Czech so far.
Vzájemná provázanost přejímání slov a slovotvorby (specificky derivace) je demonstrována na příkladu přípon -ismus a -ita, které jsou uváděny mezi nejběžnějšími příponami v přejatých substantivech v češtině. Obě přípony odvozují abstraktní substantiva, nicméně v mnoha dalších ohledech se liší. Přípona -ismus se kombinuje se základy, které vytvářejí větší derivační rodiny než základy kombinované s -ita, ale i substantiva na -ita většinou sdílejí svůj kořen s několika dalšími deriváty. Analýzou vybraných derivátů a jejich vzájemných vztahů napříč velkého množství derivačních rodin ukazuji, že velikost a vnitřní struktura derivačních rodin může poskytnout informace o významu analyzovaných derivátů. Význam přípon je popsán pomocí vzorců, do kterých jsou zahrnuty relevantní deriváty s explicitně vyznačenými derivačními vztahy. S použitím těchto vzorců je možné vysvětlit sémantické nuance, které u přejaých slov v češtině zatím nebyly popsány.
[ "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/d14537d2aa937636edabcf28d7f911f7eddc667d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Patterns in derivation of Czech: Applying the paradigmatic approach to Czech word-formation
Vzorce v odvozování slov v češtině: Aplikace paradigmatického přístupu na českou slovotvorbu
Concurring with the recent discussion on derivational paradigms (Bonami & Strnadová 2018, Fernandéz-Alcaina & Čermák 2018, Štekauer 2014, and others), I will present two case studies which aim at identification of repeating patterns (paradigms) in derivational morphology of Czech. First, suffixless action nouns derived from verbs (skok 'jump') are analysed and contrasted with unmotivated suffixless nouns (noc 'night') from which denominal verbs are derived. The corpus data reveal that suffixless action nouns correspond mostly to a pair of verbs with aspect-changing suffixes (cf. skákat : skočit 'to jump.PFV|IPFV' > skok 'jump'). In contrast, verbs that are based on nouns use a prefix to change the aspect (noc 'night' > nocovat 'to stay.IPFV overnight' > přenocovat 'to stay.PFV overnight'). The difference between verbs with verbal roots vs. nominal roots is elaborated into two patterns which are exploited in the second case study on verbal morphology. Assuming that, according to my analysis, Czech native verbs with verbal roots prefer to change the aspect by substituting the suffix (navrhnout : navrhovat 'to propose.PFV|IPFV') while verbs with nominal roots attach a prefix (nocovat : přenocovat 'to stay.PFV|IPFV overnight'), a clear dominance of the prefixation pattern with loan verbs (e.g. kontrolovat : zkontrolovat 'to control.PFV|IPFV') over the suffixation pattern (riskovat : risknout 'to risk.PFV|IPFV') suggests that loan verbs in Czech resemble native denominal verbs.
V návaznosti na aktuální diskuzi o derivačních paradigmatech ve slovotvorbě přednáška představí dvě případové studie, jejichž cílem je identifikace opakujících se vzorců (paradigmat) v derivační morfologii češtiny. První studie se zabývá odvozováním bezpříponových dějových substantiv, druhá studie slovotvorných chováním přejatých sloves v češtině.
[ "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Zero-derived nominals in a language with obligatory verbal suffixes: The case of Czech
Deverbální substantiva odvozená nulovou derivací v jazyce s obligatorními verbálními sufixy: Situace v češtině
In Czech, derivational zero suffixes are assumed to occur in nouns that denote an action or a result. These nouns are viewed as derived from verbs because the action meaning is primarily expressed by verbs. As verbs in Czech are obligatorily marked by a thematic suffix conveying grammatical aspect, deverbal zero-suffix nouns belong to the minority of derivations that have a simpler morphemic structure than their base words and violate thus the general account of derivation as an affix-adding process. In the paper, zero-derived nouns are analysed with respect to the motivating verbs and to competing nominalizations with overt suffixes.
V češtině se nulový odvozovací sufix předpokládá u substantiv s významem děje nebo výsledku. Tato substantiva jsou považována za deverbální deriváty, protože tyto významy jsou primárně vyjadřovány slovesy. V příspěvku jsou substantiva s nulovou příponu analyzována ve vztahu k základovým slovesům i ve vztahu ke konkurenčním substantivům s nenulovými příponami.
[ "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/816742ae79b05301e249c215e86928d79210cd11/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Universal Dependencies v2: An Evergrowing Multilingual Treebank Collection
Universal Dependencies v2: stále rostoucí mnohojazyčná sbírka treebanků
Universal Dependencies is an open community effort to create cross-linguistically consistent treebank annotation for many languages within a dependency-based lexicalist framework. The annotation consists in a linguistically motivated word segmentation; a morphological layer comprising lemmas, universal part-of-speech tags, and standardized morphological features; and a syntactic layer focusing on syntactic relations between predicates, arguments and modifiers. In this paper, we describe version 2 of the guidelines (UD v2), discuss the major changes from UD v1 to UD v2, and give an overview of the currently available treebanks for 90 languages.
Universal Dependencies je komunitní projekt, jehož cílem je vytvořit mnohojazyčnou sbírku korpusů anotovaných způsobem, který je konzistentní napříč jazyky, v rámci závislostního lexikalistického přístupu. Anotace sestává z lingvisticky motivované segmentace na slova, z morfologické roviny obsahující lemmata, univerzální slovní kategorie a standardizované morfologické rysy, jakož i ze syntaktické roviny, která se zaměřuje na syntaktické vztahy mezi predikáty, argumenty a volnými rozvitími.
[ "Joakim Nivre", "Marie-Catherine de Marneffe", "Filip Ginter", "Jan Hajič", "Christopher Manning", "Sampo Pyysalo", "Sebastian Schuster", "Francis Tyers", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/b805693c17961af2cc7f859c1a54320b26036f46/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Cross-Lingual Information Retrieval
Mezijazyčné vyhledávání informací
Cross-Lingual Information Retrieval (for Elitr LangTools workshop at Eurosai 2020)
Mezijazyčné vyhledávání informací (pro Elitr LangTools workshop při Eurosai 2020)
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/fe6fa381e6b826c8411d5c4e6d717f0e4ef23755/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Cross-Lingual Information Retrieval DEMO
DEMO mezijazyčného vyhledávání informací
The Cross-Lingual Information Retrieval (CLIR) tool allows you to search in documents in various languages, using your own language both to enter the search query as well as to display the search results, thanks to automated machine translation. In the demo, you can search in audits and other documents published by the Czech and Belgian Supreme Audit Institutions. The demo works in English, German, French and Czech.
Nástroj Cross-Lingual Information Retrieval (CLIR) vám umožňuje vyhledávat v dokumentech v různých jazycích a pomocí vlastního jazyka zadávat vyhledávací dotaz i zobrazovat výsledky vyhledávání díky automatizovanému strojovému překladu. V ukázce můžete vyhledávat v auditech a dalších dokumentech publikovaných českými a belgickými nejvyššími kontrolními institucemi. Demo funguje v angličtině, němčině, francouzštině a češtině.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/ad8770ceab1ac89d7dc38efec3c7f3c73eed4b80/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
Deliverable D7.2 Report on NLP Technologies Workshop at EUROSAI Congress
Deliverable D7.2 Report o workshopu o jazykových technologiích na kongresu EUROSAI
This deliverable reports on the preparation of the LangTools workshop at EUROSAI Congress 2020, aimed at presenting NLP Technologies to supreme audit institution (SAI) representatives.
Tento deliverable reportuje přípravu workshopu LangTools na kongres EUROSAI 2020, zaměřeného na prezentaci jazykových technologií zástupcům nejvyšších kontrolních úřadů.
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
THEaiTRE: Artificial Intelligence to Write a Theatre Play
THEaiTRE: Umělá inteligence píše divadelní hru
We present the THEaiTRE project, in which we are trying to computationally generate a theatre play script.
Představujeme projekt THEaiTRE, ve kterém se snažíme počítačově vygenerovat scénář divadelní hry.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
THEaiTRE: Artificial intelligence to write a theatre play
THEaiTRE: Umělá inteligence píše divadelní hru
In the paper, we introduce the THEaiTRE project, which aims to automatically generate a theatre play script. We look at how this is done, how successful we have been so far and what problems we are facing.
V článku představíme projekt THEaiTRE, který si dává za cíl automaticky vygenerovat scénář divadelní hry. Podíváme se, jak to děláme, jak se nám to zatím daří a na jaké problémy narážíme.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
THEaiTRE: Artificial intelligence to write a theatre play
THEaiTRE: Umělá inteligence píše divadelní hru
Artificial intelligence is increasingly intruding into our lives, complementing or replacing people in various activities such as driving a car, translating text or making short news stories. We decided to give it a really challenging assignment: to write a new play. How's he going to deal with it? Can artificial intelligence create works of art? Should we even let it? What should be the role of artificial intelligence in society?
Umělá inteligence stále více zasahuje do našich životů a doplňuje či nahrazuje lidi v různých činnostech, jako je řízení auta, překlad textu či vytváření krátkých novinových zpráv. My jsme se rozhodli jí zadat opravdu náročný úkol: napsat novou divadelní hru. Jak se s tím popere? Zvládne umělá inteligence tvořit umělecká díla? A měli bychom jí to vůbec dovolit? Jaká by měla být role umělé inteligence ve společnosti?
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Artificial Intelligence and Creativity
Umělá inteligence a kreativita
Karel Čapek wrote about robots in 1920, are robots capable of writing a play about Karel Čapek these days? Do we want artificial intelligence to interfere with art? What is society's awareness of the use of robotics? And what will happen in the future? It is THEAITRE and Rudolf that will provide answers to these questions in their presentation at the InnoCamp.
Karel Čapek psal v roce 1920 o robotech, jsou v dnešní době roboti schopni napsat divadelní hru o Karlu Čapkovi? Chceme, aby umělá inteligence zasahovala do umění? Jaké je povědomí společnosti o využívání robotiky? A jak vývoj nastane v budoucnu? Odpovědi na tyto otázky přinese právě projekt THEAITRE a Rudolf ve své prezentaci na InnoCampu.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/a70a76d364c50ec5ee9827923a5d7e5dbda393f8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2020
THEaiTRE: Artificial Intelligence to Write a Theatre Play
THEaiTRE: Umělá inteligence píše divadelní hru
We present THEaiTRE, a starting research project aimed at automatic generation of theatre play scripts. This paper reviews related work and drafts an approach we intend to follow. We plan to adopt generative neural language models and hierarchical generation approaches, supported by summarization and machine translation methods, and complemented with a human-in-the-loop approach.
Prezentujeme THEaiTRE, začínající výzkumný projekt zaměřený na automatické generování scénářů divadelních her. Tento článek podává přehled související literatury a návrh přístupu, který plánujeme použít. Konkrétně jde o generativní neuronové jazykové modely a metody hierarchického generování, s podporou automatické sumarizace a strojového překladu, doplněné o přístupy používající manuální lidské vstupy.
[ "Rudolf Rosa", "Ondřej Dušek", "Tom Kocmi", "David Mareček", "Tomáš Musil", "Patrícia Schmidtová", "Dominik Jurko", "Ondřej Bojar", "Daniel Hrbek", "David Košťák", "Martina Kinská", "Josef Doležal", "Klára Vosecká" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2020
Science Café interview: With Rudolf Rosa on artificial intelligence and the THEaiTRE project
Science Café rozhovor: S Rudolfem Rosou o umělé inteligenci a projektu THEaiTRE
The THEaiTRE project provocatively asks if a robot can write a play. Over the past few months, scientists at MFF UK, in collaboration with DAMU experts, dramatists and actors, have programmed artificial intelligence to be able to generate a play script. The experiment is scheduled to premiere at 25. 11 in the Švanda Theatre – exactly 100 years since the premiere of Karel Čapek's R.U.R. play, whose anniversary it also marks.
Projekt THEaiTRE se provokativně ptá, zda robot zvládne napsat divadelní hru. V uplynulých měsících vědci z MFF UK ve spolupráci s odborníky z DAMU, dramaturgy a herci programovali umělou inteligenci tak, aby zvládla generovat scénář hry. Experiment má plánovanou premiéru na 25. 1. ve Švandově divadle – přesně 100 let od premiéry hry Karla Čapka R.U.R., jejíž výročí tím zároveň připomíná.
[ "Rudolf Rosa", "Roman Hájek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null