lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2019
Building a Morphological Network for Persian on Top of a Morpheme-Segmented Lexicon
Tvorba morfologické sítě pro perštinu na základě morfematicky segmentovaného slovníku
In this work, we introduce a new large hand-annotated morpheme-segmentation lexicon of Persian words and present an algorithm that builds a morphological network using this segmented lexicon. The resulting network captures both derivational and inflectional relations. The algorithm for inducing the network approximates the distinction between root morphemes and affixes using the number of morpheme occurrences in the lexicon. We evaluate the quality (in the sense of linguistic correctness) of the resulting network empirically and compare it to the quality of a network generated in a setup based on manually distinguished non-root morphemes. In the second phase of this work, we evaluated various strategies to add new words (unprocessed in the segmented lexicon) into an existing morphological network automatically. For this purpose, we created primary morphological networks based on two initial data: a manually segmented lexicon and an automatically segmented lexicon created by unsupervised MORFESSOR. Then new words are segmented using MORFESSOR and are added to the network. In our experiments, both supervised and unsupervised versions of MORFESSOR are evaluated and the results show that the procedure of network expansion could be performed automatically with reasonable accuracy.
Představujeme nový ručně anotovaný morfematicky segmentovaný slovník pro perštinu, a dále algoritmus, který s využitím tohoto slovníku zkonstruuje morfologickou síť. Výsledná síť zachycuje jak derivační, tak flektivní vztahy mezi slovními formami. Algoritmus pro tvorbu sítě aproximuje rozdíl mezi kořenovými a afixovými morfémy na základě frekvenční informace o morfémech. Vyhodnocujeme kvalitu (ve smyslu lingvistické správnosti) výsledné sítě v konfiguraci s ručně označenými nekořenovými morfémy. V další části naší práce vyhodnocujeme různé strategie pro přidání nových (ve slovníku dosud nezachycených) do sítě s využitím systému MORFESSOR (v řízené i neřízené verzi). Experimenty potvrzují, že navržený postup lze použít pro přidávání dosud nepokrytých slov s přijatelnou úspěšností.
[ "Hamid Haghdoost", "Ebrahim Ansari", "Zdeněk Žabokrtský", "Mahshid Nikravesh" ]
https://www.semanticscholar.org/paper/caed9072d1b9b503d7db2b0d88c146f906b72e8b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Proceedings of the 19th Conference Information Technologies - Applications and Theory (ITAT 2019)
Sborník 19. konference Informačné Technológie - Aplikácie a Teória (ITAT 2019)
ITAT (Information Technologies—Applications and Theory) is a traditional Czecho-Slovak conference gathering scientists and experts working within a broad scope of computer science. ITAT not only offers a possibility to exchange ideas and information, it also emphasizes informal communication and discussions among participants.
ITAT (Informačné Technológie - Aplikácie a Teória) je tradiční česko-slovenská konference sdružující vědce a odborníky pracující v širokém spektru informatiky. ITAT nabízí nejen možnost výměny nápadů a informací, ale klade také důraz na neformální komunikaci a diskuse mezi účastníky.
[ "Petra Barančíková", "Martin Holeňa", "Tomáš Horváth", "Matúš Pleva", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/aa0c8e7d96a0bc9283bab3d43e54c909ad62dd63/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
In Search for Linear Relations in Sentence Embedding Spaces
Hledání lineárních vztahů ve vektorovém prostoru vět
We present an introductory investigation into continuous-space vector representations of sentences. We acquire pairs of very similar sentences differing only by a small alterations (such as change of a noun, adding an adjective, noun or punctuation) from datasets for natural language inference using a simple pattern method. We look into how such a small change within the sentence text affects its representation in the continuous space and how such alterations are reflected by some of the popular sentence embedding models. We found that vector differences of some embeddings actually reflect small changes within a sentence.
Tento článek představuje úvodní výzkum větné reprezentace ve spojitém prostoru. Získali jsme páry velmi podobných vět, které si liší pouze drobnou změnou (jako změna substantiva, přidání adjektiva) z datasetů na odvozování v přirozeném jazyce pomocí metody jednoduchých vzorců. Zkoumáme nakolik drobná změna ve větě ovlivní její reprezentaci ve spojitém prostoru a jak jsou tyto změny zobrazeny v některých populárních modelech větných embeddingů. Zjistili jsme, že některé embeddingy pěkně reflektují malé větné změny.
[ "Petra Barančíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/8d4a717da36b90b089875f2dd5d91fde938b0478/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
An Extended CLEF eHealth Test Collection for Cross-lingual Information Retrieval in the Medical Domain
Rozšířená testovací kolekce CLEF eHealth pro vyhledávání napříč jazyky v textech z medicíny
We present a test collection for medical cross-lingual information retrieval. It is built on resources used by the CLEF eHealth Evaluation Lab 2013–2015 in the patient-centered information retrieval tasks and greatly improves applicability and reusability of the official data. The document set is identical to the official one used for the task in 2015 and contains about 1 million English medical webpages. The query set consists of 166 queries used during the three years of the campaign as test queries, now available in eight languages (the original English and human translations into Czech, French, German, Hungarian, Polish, Spanish and Swedish). The extended test collection provides extensively improved relevance judgements which almost doubled the amount of the officially assessed query-document pairs. This paper describes the content of the extended version of the test collection, details of query translation and relevance assessment, and state-of-the-art results on this collection. The dataset can be obtained publicly in the following url: https://lindat.mff.cuni.cz/repository/xmlui/handle/11234/1-2925
Představujeme sbírku testů pro získávání informací napříč jazyky v medicínské doméně. Tato sbírka je postavena na zdrojích používaných laboratoří CLEF pro hodnocení elektronického zdravotnictví v letech 2013–2015 při úkolech vyhledávání informací zaměřených na pacienta a zlepšuje využitelnost a opakovanou použitelnost oficiálních údajů. Soubor dokumentů je totožný s oficiálním souborem, který byl pro tento úkol použit v roce 2015, a obsahuje asi milion anglických lékařských webových stránek. Sada dotazů obsahuje 166 položek použitých během tří let jako testovací dotazy, které jsou nyní dostupné v osmi jazycích. Rozšířená sbírka testů poskytuje další relevantní hodnocení, která téměř zdvojnásobily množství oficiálně posuzovaných párů dotaz-dokument. Tato práce popisuje obsah rozšířené sbírky, podrobnosti překladu dotazů a posouzení relevance a nejmodernější výsledky získané z této sbírky. https://lindat.mff.cuni.cz/repository/xmlui/handle/11234/1-2925
[ "Shadi Saleh", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/805a9c205dca80a99999821cd8f391acdd02308d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Extended CLEF eHealth 2013-2015 IR Test Collection
Rozšířená testovací kolekce CLEF eHealth 2013--2015
This package contains an extended version of the test collection used in the CLEF eHealth Information Retrieval tasks in 2013--2015. Compared to the original version, it provides complete query translations into Czech, French, German, Hungarian, Polish, Spanish and Swedish and additional relevance assessment.
Rozšířená testovací kolekce CLEF eHealth pro vyhledávání napříč jazyky v textech z medicíny
[ "Shadi Saleh", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/a2f0d6dbbd6478362f523d54ef13fa0f59f63c77/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Term Selection for Query Expansion in Medical Cross-Lingual Information Retrieval
Výběr slov pro rozšíření dotazu ve mnohojazyčném systému získávání informací v medicínské doméně
We present a method for automatic query expansion for cross-lingual information retrieval in the medical domain. The method employs machine translation of source-language queries into a document language and linear regression to predict the retrieval performance for each translated query when expanded with a candidate term. Candidate terms (in the document language) come from multiple sources: query translation hypotheses obtained from the machine translation system, Wikipedia articles and PubMed abstracts. Query expansion is applied only when the model predicts a score for a candidate term that exceeds a tuned threshold which allows to expand queries with strongly related terms only. Our experiments are conducted using the CLEF eHealth 2013–2015 test collection and show significant improvements in both cross-lingual and monolingual settings.
Představujeme metodu automatického rozšíření dotazů pro vyhledávání informací mezi jazyky v oblasti medicíny. Metoda využívá strojový překlad dotazů ze zdrojového jazyka do jazyka dokumentu a lineární regresi k předvídání výkonu vyhledávání pro každý přeložený dotaz, který je rozšířen o kandidátský termín. Kandidátské termíny (v jazyce dokumentu) pocházejí z více zdrojů: hypotézy pro překlad dotazů získané ze systému strojového překladu, články na Wikipedii a abstrakty PubMed. Rozšíření dotazu je použito pouze v případě, že model předpovídá skóre pro kandidátní termín přesahující vyladěnou hranici, která umožňuje rozšiřovat dotazy pouze se silně příbuznými termíny. Naše experimenty jsou prováděny s využitím kolekce testů elektronického zdravotnictví CLEF 2013–2015 a vykazují významná zlepšení jak v mnohojazyčném, tak jednojazyčném nastavení.
[ "Shadi Saleh", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/ca590990737b6264c29bb13a33e2ac7d9c461df4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Examining Structure of Word Embeddings with PCA
Zkoumání struktury slovních embeddingů s pomocí PCA
In this paper we compare structure of Czech word embeddings for English-Czech neural machine translation (NMT), word2vec and sentiment analysis. We show that although it is possible to successfully predict part of speech (POS) tags from word embeddings of word2vec and various translation models, not all of the embedding spaces show the same structure. The information about POS is present in word2vec embeddings, but the high degree of organization by POS in the NMT decoder suggests that this information is more important for machine translation and therefore the NMT model represents it in more direct way. Our method is based on correlation of principal component analysis (PCA) dimensions with categorical linguistic data. We also show that further examining histograms of classes along the principal component is important to understand the structure of representation of information in embeddings.
V tomto příspěvku porovnáváme strukturu českých slovních embeddingů pro anglicko-český strojový překlad (NMT), word2vec a analýzu sentimentu. Ukazujeme, že i když je možné úspěšně předvídat část slovních druhů (POS) z embeddingů word2vec a různých překladových modelů, ne všechny prostory embeddingů vykazují stejnou strukturu. Informace o POS jsou přítomny v embeddingu word2vec, ale vysoký stupeň organizace POS v dekodéru NMT naznačuje, že tyto informace jsou důležitější pro strojový překlad, a proto je model NMT reprezentuje přímějším způsobem. Naše metoda je založena na korelaci dimenzí PCA s kategorickými lingvistickými údaji. Také ukazujeme, že další zkoumání histogramů tříd podél dimenzí PCA je důležité pro pochopení struktury znázornění informací v embeddinzích.
[ "Tomáš Musil" ]
https://www.semanticscholar.org/paper/9d26332e93fbd504c29df8778ab01e645ee15cfa/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Derivational Morphological Relations in Word Embeddings
Derivační morfologické vztahy ve word embeddings
Derivation is a type of a word-formation process which creates new words from existing ones by adding, changing or deleting affixes. In this paper, we explore the potential of word embeddings to identify properties of word derivations in the morphologically rich Czech language. We extract derivational relations between pairs of words from DeriNet, a Czech lexical network, which organizes almost one million Czech lemmas into derivational trees. For each such pair, we compute the difference of the embeddings of the two words, and perform unsupervised clustering of the resulting vectors. Our results show that these clusters largely match manually annotated semantic categories of the derivational relations (e.g. the relation ‘bake–baker’ belongs to category ‘actor’, and a correct clustering puts it into the same cluster as ‘govern–governor’).
Derivace je typ slovotvorného procesu, který odvozuje nová slova z existujících přidáváním, měněním či odebíráním afixů. V tomto článku zkoumáme potenciál slovních embeddingů pro identifikaci vlastností derivací v češtině. Extrahujeme derivační vztahy mezi páry slov z DeriNetu, sítě českých derivací, která sdružuje zhruba milion českých lemmat do derivačních stromů. Pro každý pár vypočteme rozdíl embeddingů obou forem a neřízeně clusterujeme výsledné vektory. Naše výsledky ukazují, že tyto clustery zhruba odpovídají manuálně označeným sémantickým kategoriím derivačních vztahů (čili vztah „péct-pekař“ patří do třídy „aktor“ a správné clusterování ho přiřadí do stejného clusteru jako „řídit-ředitel“).
[ "Tomáš Musil", "Jonáš Vidra", "David Mareček" ]
https://www.semanticscholar.org/paper/7b3b847916d3c5c42146d41652628a9028369a8d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
A Biscriptual Morphological Transducer for Crimean Tatar
Dvojpísmový morfologický převodník pro krymskou tatarštinu
This paper describes a weighted finite-state morphological transducer for Crimean Tatar able to analyse and generate in both Latin and Cyrillic orthographies. This transducer was developed by a team including a community member and language expert, a field linguist who works with the community, a Turkologist with computational linguistics expertise, and an experienced computational linguist with Turkic expertise.
Článek popisuje vážený konečný morfologický převodník pro krymskou tatarštinu, který je schopen analyzovat a generovat slova jak v latince, tak v cyrilici. Tento převodník byl vyvinut týmem, který sestává z člena komunity a jazykového experta, polního lingvisty, který pracuje s krymskotatarskou komunitou, turkologa se zkušeností s počítačovou lingvistikou a zkušeného počítačového lingvisty se zkušenostmi s turkickými jazyky.
[ "Francis M. Tyers", "Jonathan North Washington", "Darya Kavitskaya", "Memduh Gökırmak", "Nick Howell", "Remziye Berberova" ]
https://www.semanticscholar.org/paper/ff921163a198837dfbe4f2930351a028437a3165/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Does artificial intelligence open the way to understanding human speech?
Otevírá umělá inteligence cestu k porozumění lidské řeči?
An introduction of computational linguistics and machine translation in particular to high school students, participants of the seminar 100vedcu.cz.
Představení oboru počítačové lingvistiky a zejména úlohy strojového překladu středoškolákům, účastníkům semináře 100vědců.cz: Strojové zpracování přirozeného jazyka v posledních několika málo letech zasáhla vlna hlubokého učení, "umělé inteligence", a podobně jako v jiných oblastech vidíme revoluční skoky v kvalitě výstupu. V příspěvku představím postupně základy techniky zpracování vět hlubokými neuronovými sítěmi, podrobněji se zaměřím na úlohu strojového překladu, kde stroje v posledním roce začaly dosahovat lidských kvalit, a nakonec se vrátím k obecnějším úvahám, zda nám stroje konečně začínají rozumět.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f51b50638383e72041aae0e6336772c6ec391a00/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Machine translation for investigative purposes
Strojový překlad pro investigativní účely
In the lecture, I will present machine translation technology, its assumptions and limitations, that is, in particular, the reliance on the availability of translated texts and also reliability. Next, I will describe the experience of our project, where we translate SMS from Vietnamese into Czech for the purposes of the National Drug Headquarters of the Police of the Czech Republic.
V přednášce představím technologii strojového překladu, její předpoklady a omezení, to jest zejména závislost na dostupnosti přeložených textů a obecně spolehlivost. Dále popíši zkušenosti s naším projektem, kdy překládáme SMS z vietnamštiny do češtiny pro účely Národní protidrogové centrály Policie České republiky.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/ec1831bc1f67798204547f7d8a020517cb15b06d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Representation of sentence meaning (A JNLE Special Issue)
Reprezentace významu vět (Zvláštní číslo časopisu NLE)
This paper serves as a short overview of the JNLE special issue on representation of the meaning of the sentence, bringing together traditional symbolic and modern continuous approaches. We indicate notable aspects of sentence meaning and their compatibility with the two streams of research and then summarize the papers selected for this special issue.
Tento dokument slouží jako stručný přehled zvláštního vydání JNLE o znázornění významu věty, který spojuje tradiční symbolické a moderní kontinuální přístupy. Uvedeme pozoruhodné aspekty významu věty a jejich slučitelnost s oběma proudy výzkumu a poté shrneme podklady vybrané pro tuto zvláštní otázku.
[ "Ondřej Bojar", "Raffaella Bernardi", "Bonnie L. Webber" ]
https://www.semanticscholar.org/paper/016ddad96845eb41e467320cbfa204402bbd2cb6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
A Multilingual Crossover between Types of Resources
Vícejazyčný přechod mezi typy zdrojů
We present two case studies that demonstrate that co-habitation of various (sub)disciplines of Computational Linguistics and Natural Language Pro-cessing can reach novel findings and help the advancement of the field(s). One example covers a study of synonymy by searching for information in different lexical resources with regard to multilinguality, and the other demonstrates on the study of some phenomena concerning information structure and word order in English and Czech how a parallel multilingual and/or multilayered corpus if properly annotated can be used for a study of some aspects of the deep syntactic structure. Both cases support our convic-tion that the creation of language resources is a fundamental step in the do-main of computational linguistics, that well-founded annotation is an im-portant step forward towards both testing the original linguistic theory and developing it further.
Předkládáme dvě případové studie, které prokazují, že soužití různých (pod)oborů komputační lingvistiky a nauky o přirozeném jazyce může vést k novým zjištěním a pomoci rozvoji oboru (oborů). Jeden příklad pokrývá studium synonymie vyhledáváním informací v různých lexikálních zdrojích s ohledem na mnohojazyčnost a druhý ukazuje na studium některých jevů týkajících se informační struktury a pořadí slov v angličtině a češtině, jak lze paralelní vícejazyčný a/nebo vícevrstevný korpus, pokud je správně opatřen anotací, použít pro studium některých aspektů hloubkové syntaktické struktury. Oba případy podporují naše přesvědčení, že tvorba jazykových zdrojů je základním krokem v hlavní úloze počítačové lingvistiky, že dobře definovaná anotace je důležitým krokem vpřed jak k testování původní jazykové teorie, tak k jejímu dalšímu rozvoji.
[ "Jan Hajič", "Eva Hajičová", "Zdeňka Urešová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Studies on Czech Morphology and Syntax (Selected Writings)
Studie z české morfologie a syntaxe (Vybrané stati)
In the present volume selected papers written during more than 50 years of the author´s linguistic career are presented. Twenty five articles are divided into four general Sections, namely (I) Studies on morphological meanings, (II) General issues on syntax, (III) Issues on valency, (IV) Reflexivity, reciprocity, coreference and control. The Functional Generative Description used as the theoretical framework provides the basis for the studies of form and function relations between the units of several language levels and for the dependency approach to the syntax.
Jako první v rámci oddílu I je zařazena stať Relativní čas napsanáu ve spoluautorství s Petrem Sgallem.P. Sgall je také autorem teoretického rámce pro závislostní a vícerovinný popis jazyka, Funkčního generativního popisu, na nějž zde otištěné příspěvky navazují a dále ho rozvíjejí. Oddíl II o obecných otázkách syntaxe je zakončen statí o přínosu Vladimíra Šmilauera do novočeské syntaxe. Oddíl III obsahuje studie o valenci jakožto „novém paradigmatu“ v syntaxi. Valenci je věnováno hodně pozornosti, jí byly věnovány četné diskuse i polemiky týkající se např. kritérií pro určování sémantické obligatornosti a platnosti „dialogového testu“.Do oddílu IV jsou zařazena témata, v nichž se kumulují problémy morfologické se syntaktickými (zejména s valencí). Jejich zvládnutí a konsistentní popis se stává měřítkem úspěšnosti zvoleného teoretického rámce. Jde především otázky koreference a kontroly.
[ "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/d4e27384926db283db568a604ac20ea4d858c36d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Reflections on adverbials and their classification
Úvahy nad příslovečnými určeními a jejich klasifikací
The traditional classification of adverbials into local, temporal, modal, and causal, such as those used in our syntaxes, and their applications for schooling are suitable for these purposes. For empirical processing under the Functional Generational Description, which also serves, among other things, the tasks of automatic language processing (especially for machine translation, but essentially for the translatological problems associated with the teaching of Czech as a foreign language), a finer classification seems necessary. On the analysis of the material of selected adverbials and in terms of the problems that accompany their solution, we propose a way of capturing them.
Tradiční třídění příslovečných určení na lokální, časová, způsobová a kauzální, s jakými se pracuje v našich syntaxích, a jejich aplikace pro školní výuku jsou pro tyto účely vyhovující. Pro empirické zpracování v rámci Funkčního generativního popis, který slouží mj. i pro úlohy automatického zpracování jazyka (zejména pro strojový překlad, ale v podstatě i pro translatologické problémy spojené s výukou češtiny jako cizího jazyka), se jeví jako potřebná jemnější klasifikace. V kapitole na analýze materiálu vybraných adverbiálních určení a z hlediska problémů, které jejich řešení doprovázejí, navrhujeme způsob jejich zachycení.
[ "Jarmila Panevová", "Marie Mikulová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
A Plea for Information Structure as a Part of Meaning Representation
Argumenty pro začlenění reprezentace aktuálního členění do významové reprezentace věty.
Arguments are presented why the information structure of the sentence should be represented in the representation of the meaning. This claim is supported i.a. by the fact that information structure is semantically relevant and is important for the interpretation of negation, presupposition and discourse connectedness.
V příspěvku se předkládají argumenty pro začlenění reprezentace informační struktury věty do reprezentace větného významu. Tyto argumenty vycházejí ze skutečnosti, že informační struktura je sémanticky relevantní a je třeba ji brát v úvahu při významové interpretaci negace, presupozice i diskurzní koheze.
[ "Eva Hajičová" ]
https://www.semanticscholar.org/paper/d2103e7bc8cb67f33faaf5ef85641f6d90666ef5/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Already Čapek's robots were endowed by language
Již Čapkovi roboti byli obdařeni řečí
The paper analyses the impact of cybernetics on the scientific domain of computational linguistics both in the historical perspective as well as in the influence of modern methodology.
Ve stati se rozebírá vliv kybernetiky na vědní obor počítačové lingvistiky, a to jak v historické perspektivě, tak i v současné metologii.
[ "Eva Hajičová" ]
https://www.semanticscholar.org/paper/f46538e656a4e192a9b7b8cf109aafc571418ac3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
MICHAEL ALEXANDER KIRKWOOD HALLIDAY (1925–2018) (obituary)
MICHAEL ALEXANDER KIRKWOOD HALLIDAY (1925–2018) (nekrolog)
Obituary of Michael Alexander Kirkwood Halliday with special attention on his connection with the Prague scholars.
Vzpomínka na Michaela Alexandra Kirkwooda Hallidaye se zvláštní pozorností věnovanou jeho spojení s pražskými učenci.
[ "Eva Hajičová" ]
https://www.semanticscholar.org/paper/b8d830237083da661fda8061e4a0ae3a641ddd68/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Great Linguist - Petr Sgall - died
Odešel významný český lingvista Petr Sgall
In the obituary the contributions of Petr Sgall to the general linguistics, language typology, computational linguistics as well as his participation in the pedagogical and organization activities are enumerated.
Nekrolog shrnuje zájmy a přínosy Petra Sgalla k oborům obecné lingvistiky, typologie, počítačové lingvistiky v oblasti vědecké, stejně jako jeho přínosy pedagogické a organizační.
[ "Eva Hajičová", "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/e639b41f5ca9082b858b1fd55a30500698950780/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Various views at dichotomy in sentence information structure from the perspective of an annotated corpus
Různé pojetí dichotomie v informační struktuře věty ve světle anotovaného korpusu
We present examples how the data from the Prague Dependency Treebank can be used in linguistic research, allowing to study the relationship among surface syntactic structure, deep syntactic structure including the sentence information structure, and the overall text structure. Thus we could have come to the following conclusions: (1) In general, it cannot be claimed that the topic-focus dichotomy (in any terminology) can be based on the difference between the old (given) and the new information. (2) In addition to the global division of a sentence to topic and focus, it is appropriate to work with local segmentation applied at all layers of the sentence structure. (3) For linking the sentences in the text in terms of their division into topic and focus, it seems to be more typical (for Czech, unlike English) linking of the topic of the given sentence to the focus of the preceding sentence (so-called linear sequence).
Uvádíme několik příkladů dokládajících možnosti využití dat z Pražského závislostního korpusu pro lingvistický výzkum, kde je možné na týchž textech sledovat vztah mezi povrchovou syntaktickou strukturou, hloubkovou syntaktickou strukturou včetně aktuálního členění i celkovou strukturou textu. Mohli jsme tak dojít k následujícím závěrům:(1) Nelze obecně tvrdit, že při charakteristice dichotomie základ – jádro (ať již v jakékoliv terminologii) je možné vycházet z rozdílu mezi starou (danou) a novou informací. (2) Vedle globálního členění věty na základ a jádro je pro popis informační struktury věty vhodné pracovat s členěním lokálním, uplatněným na všech úrovních větné struktury. (3) Pro návaznost vět v textu z hlediska jejich členění na základ a jádro se ukazuje, že je typičtější (pro češtinu, na rozdíl od angličtiny) návaznost základu dané věty na ohnisko věty předcházející (tzv. posloupnost lineární).
[ "Eva Hajičová", "Jiří Mírovský" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Ordering of Adverbials of Time and Place in Grammars and in an Annotated English–Czech Parallel Corpus
Řazení příslovečných určení času a místa v gramatikách a v anotovaném anglicko–českém korpusu
Data from a parallel annotated English–Czech corpus serve for testing the variability of the mutual position of LOC and TWHEN in Czech and English and for the analysis of the relation between information structure and the given order in the two languages.
Data paralelního anotovaného anglicko–českého korpusu byla použita ke zkoumání variability vzájemné pozice LOC a TWHEN v češtině a angličtině a k analýze vztahu mezi informační strukturou a daným pořadím v těchto dvou jazycích.
[ "Eva Hajičová", "Jiří Mírovský", "Kateřina Rysová" ]
https://www.semanticscholar.org/paper/f5bd943448f64db2bceed196e41d7d5c9b485da4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Information Structure in an Annotated Parallel English-Czech Corpus: A Comparative Probe
Informační struktura v anotovaném paralelním anglicko-českém korpusu: srovnávací sonda
Based on the Praguian theory of Topic/Focus Articulation and using a parallel English–Czech corpus, we have followed two research questions: (i) How far does the assignment of Focus proper agree in English and in Czech, (ii) If the assignment of Focus proper differs, is the Focus-proper element in English at least a member of the (global) Focus of the Czech sentence?
Na základě pražské teorie Topic/Focus Articulation a s využitím paralelního anglicko–českého korpusu jsme se zaměřili na dvě otázky: (i) Do jaké míry se shoduje Focus proper v angličtině a v češtině, (ii) pokud se Focus proper liší, platí alespoň, že Focus proper v angličtině je členem (globálního) Focusu v české větě?
[ "Eva Hajičová", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CLARIN-DSpace - Fully integrated repository for scientific data and tools
CLARIN-DSpace - Plně integrovaný repozitář pro vědecká data a vědecké nástroje
CLARIN-DSpace is an enhanced fork of the DSpace repository software. The out of the box it is tailored to suit the needs of a language data repository, but has been also deployed for contemporary history or film archives, and is not limited to specific scientific field. The provided workflows make integrations with third party services auto-suggest grants from OpenAIRE, reporting to CLARIN Virtual Language Observatory, Clarivate Data Citation Index, or OpenAIRE, effortless. Not only is the submission workflow preconfigured to require necessary metadata, but also provides a guide for Open Access licensing by integrating the Public License Selector. And because not all data can be open, there is also a support for submitters to assign custom licenses to their datasets, for users to sign the licenses, and for repository managers to manage and keep track of all of it. When the software is configured to connect with Piwik (Matomo) analytics platform, the submitters of data are provided with concise periodic reports about popularity of their submissions. To offer additional layer of protection, the system can be easily configured to automatically backup submissions via EUDAT B2SAFE service.
CLARIN-DSpace je rozšířená verze softwaru DSpace. Je uzpůsoben potřebám úložiště jazykových dat, ale byl využit i pro jiné účely a není omezen na konkrétní vědecký obor. Poskytované prostředí umožňuje bez námahy integraci se službami třetích stran: automaticky doplňovat granty z OpenAIRE a výsledky naopak do OpenAIRE, Clarivate Data Citation Index a jinam. Nejenže je prostředí pro uložení dat nakonfigurováno tak, aby vyžadovalo potřebná metadata, ale také poskytuje návod pro výběr vhodné licence v rámci otevřeného přístupu prostřednictvím integrace projektu Public license selector a komplexního frameworku pro licencování vč. podepisování licencí a kontrolz přístupu. Pro dodatečnou ochranu dat lze systém snadno nakonfigurovat tak, aby automaticky zálohoval nové záznamy prostřednictvím služby EUDAT B2SAFE.
[ "Pavel Straňák", "Ondřej Košarko", "Amir Kamran", "Jozef Mišutka" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CLARIN-DSpace repository at LINDAT/CLARIN : LINDAT/CLARIN FAIR repository for language data
CLARIN-DSpace repozitář v LINDAT/CLARIN: FAIR repozitář pro jazyková data LINDAT/CLARIN
We present a software solution for and experience in running a digital repository for language data and natural language processing tools - LINDAT/CLARIN. We will present unique support for licensing with an emphasis on Open Access, and how we support all 4 key FAIR principles. We will show the submission workflow including license choice, approval and publishing or submissions by editors, as well as the repository administration environment including license definition, signing and access control. We will also present repository integration with other services, and statistics of operation.
Prezentujeme softwarové řešení a zkušenosti s provozem repozitáře pro jazyková data a nástroje pro zpracování přirozených jazyků - LINDAT/CLARIN. Představíme unikátní podporu licencování s důrazem na Open Access a to, jak podporujeme všechny 4 klíčové principy FAIR. Ukážeme vytváření záznamů včetně volby licence, jejich schvalování a publikaci editory, i prostředí pro administraci repozitáře včetně definice licencí, jejich podepisování a kontroly přístupu. Ukážeme také integrace repozitáře s dalšími službami a provozní statistiky.
[ "Pavel Straňák", "Ondřej Košarko", "Jozef Mišutka" ]
https://www.semanticscholar.org/paper/e82ce583822b6d31424c91ec9e69a28aac78348d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Breaking the Language Barrier in Health-related Web Search
Překování jazykových bariér při webovém vyhledávání v oblasti zdraví
Přehled posledních výsledků ve výkzumu multilingválního vyhledávání v oblasti zdraví.
Overview of recent advances in cross-lingual information retrieval in the patient-centered web search.
[ "Pavel Pecina" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Cross-lingual Information Retrieval
Vyhledání informací napříč jazyky
An overview talk on the topic of cross-lingual information retrieval.
Přehledná přednáška na téma vyhledávání informací napříč jazyky.
[ "Pavel Pecina" ]
https://www.semanticscholar.org/paper/fe6fa381e6b826c8411d5c4e6d717f0e4ef23755/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Parts of Speech in NovaMorf, a New Morphological Annotation of Czech
Slovní druhy v projektu NovaMorf
A detailed morphological description of word forms in any language is a necessary condition for a successful automatic processing of linguistic data. The paper focuses on a new description of morphological categories, mainly on the subcategorization of parts of speech in Czech within the NovaMorf project. NovaMorf focuses on the description of morphological properties of Czech wordforms in a more compact and consistent way and with a higher explicative power than approaches used so far. It also aims at the unification of diverse approaches to morphological annotation of Czech. NovaMorf approach will be reflected in a new morphological dictionary to be exploited for a new automatic morphological analysis (and disambiguation) of corpora of contemporary Czech.
Podrobný morfologický popis slovních forem v jakémkoli jazyce je nezbytnou podmínkou úspěšného automatického zpracování jazykových údajů. Prezentujeme nový popis morfologických kategorií, zejména podkategorizaci slovních druhů v češtině v rámci projektu NovaMorf. NovaMorf se zaměřuje na popis morfologických vlastností českých slov kompaktnějším a konzistentnějším způsobem a s vyšší explikační silou než dosud používané přístupy. Cílem projektu je také sjednocení různých přístupů k morfologické anotaci češtiny.
[ "Vladimír Petkevič", "Jaroslava Hlaváčová", "Klára Osolsobě", "Martin Svášek", "Josef Šimandl" ]
https://www.semanticscholar.org/paper/2c6007da0f555b0d5de5ed2d1acb40aa9d6604e3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CzEngClass: Contextually-based Synonymy and Valency of Verbs in a Bilingual Setting
CzEngClass: Kontextová synonymie a valence sloves v bilingvním prostředí
This technical report is the guideline connected with the project focuses on contextually-based synonymy and valency of verbs in a bilingual setting. The analysis of semantic ‘equivalence’ (synonymy or near synonymy) of verb senses and their valency behavior in parallel Czech-English language resources is the core of the proposed research. Using the translational context supports more language-independent specification of properties of verb sense classes of synonyms and leads towards generalization across languages. An initial sample bilingual verb lexicon of classes representing synonym or near-synonym pairs of verbs (verb senses) based on richly annotated corpora and existing lexical resources will be created. The main contribution of the project will be a deeper insight from the bilingual perspective into the topic of verb meaning in context based on the Functional Generative Description theory, thus extending it towards the appropriate description of contextually-based verb synonymy.
Tato technická zpráva je anotačním manuálem k projektu zaměřenému na kontextovou synonymii a valenci sloves v dvojjazyčném prostředí. Analýza sémantické „ekvivalence“ slovesných významů a jejich valenčního chování v paralelních česko-anglických jazykových zdrojích je jádrem probíhajícího výzkumu. Použití překladového kontextu podporuje více jazykově nezávislé určení vlastností slovesných tříd synonym a vede ke generalizace napříč jazyky. Hlavní přínos projektu je hlubší vhled do tématu významu slovesa v kontextu založeném na teorii funkčního generačního popisu, čímž se tento popis rozšiřuje směrem k popisu synonymie sloves.
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Meaning and Semantic Roles in CzEngClass Lexicon
Význam a sémantické role ve slovníku CzEngClass
This paper focuses on Semantic Roles, an important component of studies in lexical semantics, as they are captured as part of a bilingual (Czech- English) synonym lexicon called CzEngClass. This lexicon builds upon the existing valency lexicons included within the framework of the annotation of the various Prague Dependency Treebanks. The present analysis of Semantic Roles is being approached from the Functional Generative Description point of view and supported by the textual evidence taken specifically from the Prague Czech-English Dependency Treebank.
Tato práce se zaměřuje na sémantické role, důležitou součást studia lexikální sémantiky, neboť jsou zachyceny jako součást dvojjazyčného (česko-anglického) slovníku slovesných synonym (CzEngClass). Tento slovník navazuje na existující valenční lexikony zahrnuté v rámci anotace různých pražských závislostních korpusů. Současná analýza sémantických rolí je nastíněna z pohledu FGP a doložena příklady z korpusu, z Pražského česko-anglického závislostního korpusu.
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/481cd648c5f01bbfaa4b9642afa69130f19f6a84/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Parallel Dependency Treebank Annotated with Interlinked Verbal Synonym Classes and Roles
Paralelní závislosti treebank anotovaný slovníkem synonymních říd a rolí
We present an ongoing project of enriching an annotation of a parallel dependency treebank, namely the Prague Czech-English Dependency Treebank, with verb-centered semantic annotation using a bilingual synonym verb class lexicon, CzEngClass. This lexicon, in turn, links the predicate occurrences in the corpus to various external lexicons. This paper describes a first milestone of a long-term project; so far, approx. 100 CzEngClass classes, containing about 1800 different verbs each for both Czech and English, are available for such annotation.
Představujeme probíhající projekt obohacující anotaci paralelního závislostního korpusu, konkrétně Pražského česko-anglického Treebanku, sémantickou anotací používající dvojjazyčný lexikon slovesných synonymních tříd, CzEngClass. Tento lexikon propojuje slovesné predikáty v korpusu s různými externími lexikony. V tomto článku popisujeme první milník dlouhodobého projektu; zatím je k dispozici 100 tříd CzEngClass, které obsahují asi 1800 různých sloves pro češtinu i angličtinu.
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/ecd34096e32ddbed8f688445c3e91115c24f1276/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
SynSemClass 1.0
SynSemClass 1.0
The SynSemClass synonym verb lexicon is a result of a project investigating semantic ‘equivalence’ of verb senses and their valency behavior in parallel Czech-English language resources, i.e., relating verb meanings with respect to contextually-based verb synonymy. The lexicon entries are linked to PDT-Vallex (http://hdl.handle.net/11858/00-097C-0000-0023-4338-F), EngVallex (http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex (http://hdl.handle.net/11234/1-1512), FrameNet (https://framenet.icsi.berkeley.edu/fndrupal/), VerbNet (http://verbs.colorado.edu/verbnet/index.html), PropBank (http://verbs.colorado.edu/%7Empalmer/projects/ace.html), Ontonotes (http://verbs.colorado.edu/html_groupings/), and English Wordnet (https://wordnet.princeton.edu/). Part of the dataset are files reflecting interannotator agreement.
SynSemClass je slovník česko-anglických slovesných synonym. Základními hesly ve slovníku jsou dvojjazyčné česko-anglické slovesné synonymní třídy, v nichž jsou obsažena synonymní česká a anglická slovesa (členy třídy), reprezentovaná jako valenční rámce (tj. slovesné významy), jejichž pojetí vychází z teorie Funkčně generativního popisu jazyka. Sémantická ekvivalence jednotlivých členů třídy byla stanovena na základě jejich kontextového valenčního chování usouvztažněného k situačně-kognitivnímu obsahu (sémantickým rolím). Synonymické vztahy jsou ve slovníku chápány volně, jednotlivé členy třídy jsou ve vztahu nikoli striktní (úplné) synonymie, ale ve vztahu významové podobnosti, tj. částečné synonymie. Předností slovníku je použití paralelního česko-anglického korpusu, PCEDT(https://catalog.ldc.upenn.edu/LDC2012T08 ) jako hlavního zdroje jazykových dat, které umožňuje tzv. "bottom-up" přístup, tj. od praxe k teorii. Předností slovníku je rovněž propojení všech členů jednotlivých synonymních tříd s dalšími lexikálními zdroji, a to s hesly valenčních slovníků (PDT-Vallex - http://hdl.handle.net/11858/00-097C-0000-0023-4338-F, EngVallex- http://hdl.handle.net/11858/00-097C-0000-0023-4337-2), CzEngVallex - http://hdl.handle.net/11234/1-1512 a Vallex - http://ufal.mff.cuni.cz/vallex/3.5/), a s hesly sémantických databází (FrameNet - https://framenet.icsi.berkeley.edu/fndrupal/, VerbNet - http://verbs.colorado.edu/verbnet/index.html, PropBank - http://verbs.colorado.edu/%7Empalmer/projects/ace.html, Ontonotes - http://verbs.colorado.edu/html_groupings/ a Wordnet - https://wordnet.princeton.edu/).
[ "Zdeňka Urešová", "Eva Fučíková", "Eva Hajičová", "Jan Hajič" ]
https://www.semanticscholar.org/paper/6cb63773f1924add840f59357e988cf2481672a6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Non-systemic valency behavior of Czech deverbal nouns based on the NomVallex lexicon
Nesystémové valenční chování českých deverbativních substantiv na základě slovníku NomVallex
In order to describe non-systemic valency behavior of Czech deverbal nouns, we present results of an automatic comparison of valency frames of interlinked noun and verbal lexical units included in valency lexicons NomVallex and VALLEX. We show that the non-systemic valency behavior of the nouns is mostly manifested by non-systemic forms of their actants, while changes in the number or type of adnominal actants are negligible as for their frequency. Non-systemic forms considerably contribute to a general increase in the number of forms in valency frames of nouns compared to the number of forms in valency frames of their base verbs. The non-systemic forms are more frequent in valency frames of non-productively derived nouns than in valency frames of productively derived ones.
Článek se věnuje popisu nesystémového valenčního chování českých deverbativních substantiv, jak se jeví na základě automatického srovnání valenčních rámců vzájemně propojených substantivních a slovesných lexikálních jednotek ve valenčních slovnících NomVallex a VALLEX. Nesystémové valenční chování se v NomVallexu nejčastěji projevuje nesystémovými formami aktantů, zatímco změny v počtu a typu aktantů jsou co do počtu případů zanedbatelné. Nesystémové formy významně přispívají k všeobecnému nárůstu počtu forem ve valenčních rámcích substantiv, ve srovnání s počtem forem ve valečních rámcích jejich základových sloves. Nesystémové formy jsou častější ve valenčních rámcích neproduktivně tvořených substantiv než ve valenčních rámcích substantiv tvořených produktivně.
[ "Veronika Kolářová", "Anna Vernerová", "Jonathan Verner" ]
https://www.semanticscholar.org/paper/1fc0e073d6083ee2cf5a96260b84230573daf28e/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Reflexives in Universal Dependencies
Reflexiva v Universal Dependencies
We explore the annotation of reflexives in Universal Dependencies (UD) treebanks (Nivre et al., 2018), with a stronger focus on Slavic languages. We will show a number of examples where reflexive markers (in particular reflexive clitics) are used as true (argumental) reflexives, reciprocal arguments, passive/middle/impersonal markers etc.; we will confront the UD guidelines for the individual phenomena with the current state of the data. Improvements will be proposed, sometimes of the guidelines, but mostly of the annotation. This is an extended version of our talk at TLT 2018 in Oslo.
Zkoumáme anotaci reflexiv v závislostních korpusech Universal Dependencies (UD) (Nevre et al., 2018), se silnějším zaměřením na slovanské jazyky.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/b5e65d409386ac5177f95968bbd02c71e95708f6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Towards Deep Universal Dependencies
Směrem k Deep Universal Dependencies
Many linguistic theories and annotation frameworks contain a deep-syntactic and/or semantic layer. While many of these frameworks have been applied to more than one language, none of them is anywhere near the number of languages that are covered in Universal Dependencies (UD). I will present a prototype of Deep Universal Dependencies, a two-speed concept where minimal deep annotation can be derived automatically from surface UD trees, while richer annotation can be added for datasets where appropriate resources are available. The talk is based on joint work with Kira Droganova.
Mnohé lingvistické teorie a anotační projekty zahrnují hloubkově-syntaktickou a/nebo sémantickou rovinu. I když mnohé z nich byly aplikovány na více než jeden jazyk, žádný syntakticko-sémantický projekt se ani zdaleka neblíží množství jazyků pokrytých projektem Universal Dependencies (UD).
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/a2d25cf45f034108628a044b5470ed358164fc02/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Universal Dependencies 2.5
Universal Dependencies 2.5
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the eleventh release of UD Treebanks, Version 2.5.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je jedenácté vydání treebanků UD, verze 2.5.
[ "Daniel Zeman", "Joakim Nivre", "Mitchell Abrams", "Noëmi Aepli", "Željko Agić", "Lars Ahrenberg", "Gabrielė Aleksandravičiūtė", "Lene Antonsen", "Katya Aplonova", "Maria Jesus Aranzabe", "Gashaw Arutie", "Masayuki Asahara", "Luma Ateyah", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Elena Badmaeva", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Victoria Basmov", "Colin Batchelor", "John Bauer", "Sandra Bellato", "Kepa Bengoetxea", "Yevgeni Berzak", "Irshad Ahmad Bhat", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Kristina Brokaitė", "Aljoscha Burchardt", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Tatiana Cavalcanti", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Savas Cetin", "Fabricio Chalub", "Jinho Choi", "Yongseok Cho", "Jayeol Chun", "Alessandra T. Cignarella", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Marine Courtin", "Elizabeth Davidson", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Elvis de Souza", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Timothy Dozat", "Kira Droganova", "Puneet Dwivedi", "Hanne Eckhoff", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Olga Erina", "Tomaž Erjavec", "Aline Etienne", "Wograine Evelyn", "Richárd Farkas", "Hector Fernandez Alcalde", "Jennifer Foster", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Marcos Garcia", "Moa Gärdenfors", "Sebastian Garza", "Kim Gerdes", "Filip Ginter", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Bernadeta Griciūtė", "Matias Grioni", "Normunds Grūzītis", "Bruno Guillaume", "Céline Guillot-Barbance", "Nizar Habash", "Jan Hajič", "Jan Hajič, jr.", "Mika Hämäläinen", "Linh Hà Mỹ", "Na-Rae Han", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Jena Hwang", "Takumi Ikeda", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Tomáš Jelínek", "Anders Johannsen", "Fredrik Jørgensen", "Markus Juutinen", "Hüner Kaşıkara", "Andre Kåsen", "Nadezhda Kabaeva", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Boris Katz", "Tolga Kayadelen", "Jessica Kenney", "Václava Kettnerová", "Jesse Kirchner", "Elena Klementieva", "Arne Köhn", "Kamil Kopacewicz", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Sookyoung Kwak", "Veronika Laippala", "Lorenzo Lambertino", "Lucia Lam", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Cheuk Ying Li", "Josie Li", "Keying Li", "KyungTae Lim", "Maria Liovina", "Yuan Li", "Nikola Ljubešić", "Olga Loginova", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Héctor Martínez Alonso", "André Martins", "Jan Mašek", "Yuji Matsumoto", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Niko Miekka", "Margarita Misirpashayeva", "Anna Missilä", "Cătălin Mititelu", "Maria Mitrofan", "Yusuke Miyao", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Keiko Sophie Mori", "Tomohiko Morioka", "Shinsuke Mori", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Robert Munro", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Hanna Nurmi", "Stina Ojala", "Atul Kumar Ojha", "Adédayọ̀ Olúòkun", "Mai Omura", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Angelika Peljak-Łapińska", "Siyao Peng", "Cenel-Augusto Perez", "Guy Perrier", "Daria Petrova", "Slav Petrov", "Jason Phelan", "Jussi Piitulainen", "Tommi A Pirinen", "Emily Pitler", "Barbara Plank", "Thierry Poibeau", "Larisa Ponomareva", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Tiina Puolakainen", "Sampo Pyysalo", "Peng Qi", "Andriela Rääbis", "Alexandre Rademaker", "Loganathan Ramasamy", "Taraka Rama", "Carlos Ramisch", "Vinit Ravishankar", "Livy Real", "Siva Reddy", "Georg Rehm", "Ivan Riabov", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Luisa Rocha", "Mykhailo Romanenko", "Rudolf Rosa", "Davide Rovati", "Valentin Roșca", "Olga Rudina", "Jack Rueter", "Shoval Sadde", "Benoît Sagot", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Dage Särg", "Baiba Saulīte", "Yanin Sawanakunanon", "Nathan Schneider", "Sebastian Schuster", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Muh Shohibussirri", "Dmitri Sitchinava", "Aline Silveira", "Natalia Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Kiril Simov", "Aaron Smith", "Isabela Soares-Bastos", "Carolyn Spadine", "Antonio Stella", "Milan Straka", "Jana Strnadová", "Alane Suhr", "Umut Sulubacak", "Shingo Suzuki", "Zsolt Szántó", "Dima Taji", "Yuta Takahashi", "Fabio Tamburini", "Takaaki Tanaka", "Isabelle Tellier", "Guillaume Thomas", "Liisi Torga", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Francis Tyers", "Sumire Uematsu", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Andrius Utka", "Sowmya Vajjala", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Eric Villemonte de la Clergerie", "Veronika Vincze", "Lars Wallin", "Abigail Walsh", "Jing Xian Wang", "Jonathan North Washington", "Maximilan Wendt", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Mary Yako", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Zhuoran Yu", "Zdeněk Žabokrtský", "Amir Zeldes", "Manying Zhang", "Hanzhi Zhu" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Subcategorization of adverbial meanings (boundary between cognitive content and linguistic meaning)
Subkategorizace adverbiálních významů (hranice mezi obsahem a významem)
The necessity to distinguish between cognitive content and linguistic meaning arose in European structural linguistics (Saussere, 1916) and was further elaborated in the Prague Linguistic Circle (Mathesius, 1942; Dokulil – Daneš, 1958; Daneš, 1974). In the contribution, we describe the practical aspects of applying the principle of distinguishing meaning and content to the task of delimitation of adverbial meanings, expressed by prepositional groups. We present methodology and main principles we work with in completing the set of meanings of adverbials. We describe how we use the principle of substitutability of synonyms. All the examples in the contribution relate to spatial adverbials but the principles apply to adverbials in general. Our theoretical framework is Functional Generative Description (Sgall et al., 1986).
Článek je příspěvkem k diskusi o hranici mezi kognitivním obsahem a jazykovým významem. V příspěvku se na příkladu určování repertoáru adverbiálních významů probírají praktické důsledky rozlišování mezi obsahem a významem. Je popsána metodologie práce při určování adverbiálních významů, zejména princip zaměnitelnosti synonym. Teroretickým východiskem je Funkční generativní popis.
[ "Marie Mikulová", "Jarmila Panevová" ]
https://www.semanticscholar.org/paper/c2b16590ccee0a971eac881369ff97249311a644/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Delimiting Adverbial Meanings. A corpus-based comparative study on Czech spatial prepositions and their English equivalents
Vydělování adverbiálních významů. Na korpusu založená srovnávací studie věnovaná českým předložkám vyjadřujícím prostorové významy a jejich anglickým ekvivalentům
The data of the Prague Czech-English Dependency Treebank (a member of the family of Prague Dependency Treebanks) have served as a basis for the comparative study of delimiting adverbial meanings of the local relation “within the given place”. The Czech prepositional groups containing the prepositions v, na, and u with the above meaning are compared with their English equivalents, using a more subtle differentiation into three semantic subgroups of "inside", "on the surface" and "at the given place". Our analysis confirms that though every language structures the reality in a different way, certain tendencies may be observed in the relation of the forms and their functions that eventually result in a more detailed classification. The contribution presents results of an ongoing work.
Data Pražského česko-anglického závislostního korpusu (Prague Czech-English Dependency Treebank, PCEDT) posloužila jako materiál pro srovnávací studii věnovanou vydělování adverbiálních významů místního určení "v rámci daného místa". České předložkové skupiny obsahující předložky v, na a u vyjadřující výše uvedené místní určení byly srovnány s jejich anglickými ekvivalenty a byly dále rozděleny do tří sémantických podskupin, konkrétně "uvnitř", "na povrchu" a "v daném místě". Naše analýza potvrdila, že přestože oba jazyky strukturují realitu jiným způsobem, lze vypozorovat určité tendence ve vztahu forem a jejich funkcí, které vedou k jemnější klasifikaci daných adverbiálních významů. Jedná se o studii popisující aktuálně probíhající výzkum.
[ "Marie Mikulová", "Veronika Kolářová", "Jarmila Panevová", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/2e00f304a7b2f9a1896ee57db4860519dd042e23/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Aggregates and Variants in two Czech morphological approaches
Agregáty a varianty ve dvou českých morfologických projektech
There exist several morphological dictionaries for Czech. They differ only in solutions of complicated morphological features. Various attempts have been made to unify their approaches, but only some of them were implemented. The paper deals with several such features and compares their solutions taken in two different projects, namely preparation of the new edition of PDT (Prague Dependency Treebank) and NovaMorf. The features presented in this paper are: aggregates (the word-forms without a clear part of speech, e.g. užs, oč, naň), and variants – inflectional (more wordforms for a particular combination of lemma and morphological tag) as well as global ones (mainly orthographic variants expressed in all wordforms of a paradigm).
Existuje několik morfologických slovníků pro češtinu. Liší se pouze řešením komplikovaných morfologických rysů. Byly učiněny různé pokusy o sjednocení jejich přístupů, ale jen některé z nich byly realizovány. Dokument se zabývá několika takovými rysy a porovnává jejich řešení přijatá ve dvou různých projektech, konkrétně příprava nového vydání PDT (Prague Dependency Treebank) a NovaMorf. Charakteristickými rysy prezentovanými v tomto dokumentu jsou: agregáty (slovní formy bez jasné části řeči, např. užs, oč, naň) a varianty - flektivní (více slovní formy pro konkrétní kombinaci lemmy a morfologické značky) i globální (zejména ortografické varianty vyjádřené ve všech slovních formách paradigmatu).
[ "Jaroslava Hlaváčová" ]
https://www.semanticscholar.org/paper/61ba4cec432c9635400495ccd0188da1cf0866e0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Modifications of the Czech morphological dictionary for consistent corpus annotation
Změny v českém morfologickém slovníku za účelem konzistentní anotace korpusu
We describe systematic changes that have been made to the Czech morphological dictionary related to annotating new data within the project of Prague Dependency Treebank (PDT). We bring new solutions to several complicated morphological features that occur in Czech texts. We introduced two new parts of speech, namely foreign word and segment. We adopted new principles for morphological analysis of global and inflectional variants, homonymous lemmas, abbreviations and aggregates. The changes were initiated by the need of consistency between the data and the dictionary and of the dictionary itself.
V článku jsou popsány systematické změny, které jsou realizovány v českém morfologickém slovníku v souvislosti s anotací nových dat v Pražských závislostních korpusech. Přináší řešení několika komplikovaných morfologických jevů, které se objevují v českých textech. Představeny jsou dva nové slovní druhy: cizí slovo a segment. Popisují se pravidla pro reprezentaci variantních a homonymních tvarů a slov (lemmat), pravidla pro zachycení zkratek a tzv. agregátů (např. naň). Změny ve slovníku jsou prováděny za účelem vyšší konzistence mezi daty a slovníkem a v slovníku samotném.
[ "Jaroslava Hlaváčová", "Marie Mikulová", "Barbora Štěpánková", "Jan Hajič" ]
https://www.semanticscholar.org/paper/faf24e3c6da9dbb5829ab6f9f2061a0055a702ac/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Stylometry in Literary Translation via Universal Dependencies: Finally Breaking the Language Barrier?
Stylometrie v literárním překladu s pomocí Universal Dependencies: prolomíme jazykovou bariéru?
The method of stylometry by most frequent words does not allow direct comparison of original texts and their translations, i.e. across languages. We have tried to remove this language barrier for direct stylometric comparison of literary translation by replacing the text tokens with the cross-lingual morphological tags provided by the Universal Dependencies scheme (http://universaldependencies.org). We have prepared a collection of approximately 50 texts in Czech and German: it contained Czech originals and their German translations; German originals and their Czech translations; and works originally written in English, French or Russian, but only in Czech and German translations. We converted the texts into sequences of tags using the UD-Pipe parser. The output was a CONLL-u table (one token per line, different types of linguistic markup in columns: token, lemma, coarse part-of-speech tag, fine-grained morphological features, dependency relation to the governing node, ID of the governing node).The coarse part-of-speech (POS) tags are called UPOS and the fine-grained morphological features are called FEATS. The dependency relations are called DEPREL. While the UPOS are truly universal, the inventory of relevant FEATS is language-dependent. For instance, a language that does not use noun definiteness does not use the `Definite` feature with its values `Def` and `Indef`. Since the FEATS inventories of Czech and German differ, we have stripped feature attributes and values specific to either language, keeping only features and values shared by both languages. As a next step, we replaced the original lemmas with a ``FLEMMA'', i.e. a "fake lemma". FLEMMA is a cross-lingual lemma for the German-Czech pair. We designed it as a numerical ID. Weobtained a glossary of FLEMMAS drawing on a Czech-German glossary (Škrabal and Vavřín 2017) that was automatically generated from the multilingal parallel corpus InterCorp (Rosen 2016). We counted various combinations of tags obtained for the four parsinglevels according the the usual Delta procedure (Burrows 2002). Each tagging string was treated as a single element (the counterpart of word-types in traditional stylometric analysis by most frequent words), and their frequencies were counted in the texts in the corpus and compared in text pairs to produce a matrix of distance measures; in this study, the distances were established by means of the modified Cosine Delta (Smith and Aldridge 2011), which is now seen as the most reliable version (Evert et al. 2017). The function classify() in the stylo package (Eder et al. 2016) for R (R Core Team 2016) was used to try to assess authorship attribution success when its reference set contained texts in one language and the test set contained texts in the other. Attribution success was counted whenever the Delta value for the pair of the translations of the same text was lowest.The most successful combination for authorship attribution was FLEMMAS + UPOS (95.6%), while FLEMMAS alone achieved only (3.7%), and so did UPOS alone. This shows that even a very crude word-to-word translation (polysemy neglected), along with the coarse part of speech, helps bypass the language barrier. Another interesting finding is the seemingly modest 20.3% success rate for attribution by the combination UPOS + FEATS + DEPREL. This is, after all, much more than a coin toss for such a number of texts. More importantly, guessing was consistently successful for the same pairs of texts, suggesting that these particular pairs might be easier to guess. This, in turn, might indicate that the translations in these case applied strategies resulting in grammatical and syntactic structures somehow similar to the original, a phenomenon oftenobserved in word-for-word translation, or, more generally, in translations aiming for the so-called “formal equivalence” (Nida 1964).This work was funded by LTC18020.
Připomenutí od Googlu ohledně ochrany soukromíPřečíst nyníPřečtu si je později 4027/5000 Metoda stylometrie nejčastějšími slovy neumožňuje přímé srovnání původních textů a jejich překladů, tj. Napříč jazyky. Pokusili jsme se odstranit tuto jazykovou bariéru pro přímé stylometrické srovnání literárního překladu tím, že jsme textové tokeny nahradili křížovými lingválními morfologickými značkami poskytovanými v rámci programu Universal Dependencies (http://universaldependencies.org). Připravili jsme sbírku přibližně 50 textů v češtině a němčině: obsahovala české originály a jejich německé překlady; Německé originály a jejich české překlady; a díla původně psaná v angličtině, francouzštině nebo ruštině, ale pouze v českých a německých překladech. Pomocí analyzátoru UD-Pipe jsme převedli texty na sekvence značek. Výstupem byla tabulka CONLL-u (jeden token na řádek, různé typy jazykových značek ve sloupcích: token, lemma, hrubý tag části řeči, jemnozrnné morfologické znaky, závislost na řídícím uzlu, ID řídící uzel). Hrubé tagy pro část řeči (POS) se nazývají UPOS a jemnozrnné morfologické znaky se nazývají FEATS. Závislostní vztahy se nazývají DEPREL. Zatímco UPOS jsou skutečně univerzální, soupis příslušných funkcí je závislý na jazyce. Například jazyk, který nepoužívá definitivitu substantiva, nepoužívá funkci `Definitivní 's hodnotami` Def` a `Indef`. Protože se české a německé soupisy FEATS liší, odstranili jsme atributy funkcí a hodnoty specifické pro oba jazyky, přičemž zachovali pouze funkce a hodnoty sdílené oběma jazyky. V dalším kroku jsme původní lemma nahradili `` FLEMMA '', tj. "Falešné lemma". FLEMMA je mezikulturní lemma pro německo-český pár. Navrhli jsme to jako číselné ID. Získali jsme glosář FLEMMAS, který čerpal z česko-německého glosáře (Škrabal a Vavřín 2017), který byl automaticky generován z vícejazyčného paralelního korpusu InterCorp (Rosen 2016). Počítali jsme různé kombinace značek získaných pro čtyři úrovně parsingu podle obvyklého postupu Delta (Burrows 2002). Každý značkovací řetězec byl považován za jediný prvek (protějšek typů slov v tradiční stylometrické analýze podle nejčastějších slov) a jejich frekvence byly spočteny v textech v korpusu a porovnány v textových párech za účelem vytvoření matice měr vzdálenosti; v této studii byly vzdálenosti stanoveny pomocí modifikované Cosine Delta (Smith and Aldridge 2011), která je nyní považována za nejspolehlivější verzi (Evert et al. 2017). Funkce classify () v balíčku stylů (Eder et al. 2016) pro R (R Core Team 2016) byla použita k pokusu o posouzení úspěšnosti přiřazení autorství, když její referenční sada obsahovala texty v jednom jazyce a testovací sada obsahovala texty v jiný. Úspěch přiřazení byl počítán vždy, když byla hodnota Delta pro dvojici překladů stejného textu nejnižší. Nejúspěšnější kombinací pro přiřazování autorství byl FLEMMAS + UPOS (95,6%), zatímco samotný FLEMMAS dosáhl pouze (3,7%) a stejně tak UPOS sám. To ukazuje, že i velmi hrubý překlad ze slova na slovo (polysemy zanedbaný), spolu s hrubou částí řeči, pomáhá obejít jazykovou bariéru. Dalším zajímavým nálezem je zdánlivě skromná 20,3% úspěšnost pro přiřazení kombinací UPOS + FEATS + DEPREL. To je konec konců mnohem víc než jen hod pro mince pro takový počet textů. Ještě důležitější je, že hádání bylo pro stejné dvojice textů trvale úspěšné, což naznačuje, že tyto konkrétní dvojice by bylo snadnější uhodnout. To by zase mohlo naznačovat, že překlady v těchto případech aplikovaly strategie vedoucí k gramatickým a syntaktickým strukturám podobným původnímu, jevu často pozorovanému v překladu slovo za slovem, nebo obecněji v překladech zaměřených na tzv. nazývána „formální rovnocennost“ (Nida 1964). Tato práce byla financována z LTC18020. Odeslat zpětnou vazbu Historie Uloženo Komunita
[ "Silvie Cinková", "Jan Rybicki" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Evaluation of taggers for 19th-century fiction
Evaluace taggerů pro beletrii z 19. století
We evaluate a selection of currently available taggers on fiction texts from the 19th century. The texts belong to the ELTeC collection created and maintained by the WG1 team of the COST project CA16204 "Distant Reading for European Literary History". It is a multilingual collection of 19th-century fiction in the following languages: Czech, English, French, German, Hungarian, Italian, Norwegian (both varieties), Portuguese, Serbian, and Slovene (with new languages being added). Each language is represented by at least 20 novels in the TEI format.We have evaluated the taggers for the following languages:Czech, English, French, We evaluate a selection of currently available taggers on fiction texts from the 19th century. The texts belong to the ELTeC collection created and maintained by the WG1 team of the COST project CA16204 "Distant Reading for European Literary History". It is a multilingual collection of 19th-century fiction in the following languages: Czech, English, French, German, Hungarian, Italian, Norwegian (both varieties), Portuguese, Serbian, and Slovene (with new languages being added). Each language is represented by at least 20 novels in the TEI format. We have evaluated the taggers for the following languages: Czech, English, French, German, Hungarian, Norwegian-Nynorsk, Portuguese, and Slovene. We have tagged them all with the UD-Pipe tagger. On top of that, Hungarian was also tagged with e-magyar. We have selected UD-Pipe because of the appealing cross-lingual markup and uniform model building for all languages. It was known before that the Hungarian model is very small and that the Hungarian tagging is poor. Therefore we have also evaluated e-magyar, the best tagger currently available for Hungarian The annotation scheme of UD-Pipe The UD-Pipe tagger and parser draws on Universal Dependencies (universaldependencies.org), henceforth UD. UD is a cross-lingual annotation scheme for morphology and syntax. At the moment, more than 70 languages have their own UD treebank to train a parser on. The categories that UD-Pipe annotates are: lemma, coarse part of speech (e.g. VERB), universal features (e.g. Plural, Past Tense), and syntactic dependency relations (e.g. Subject, Predicate). The procedure We have selected a random sample for a manual tagging correction in each language. Each sample comprised approximately 5,000 tokens in entire sentences. The sentences had been extracted from ELTeC across all documents in each language and tagged in the CONLL-u format: one token per line, columns: token, lemma, universal POS, universal features. The annotators performed the annotation in a spreadsheet, in four additional columns for tokenization, lemma, POS, and features, respectively. In the first three columns, they were to indicate the corresponding error type(s) with an "F". In the fourth column, the annotators were to type the number of incorrectly recognized linguistic features. Hence, the annotation captures four different error types for each token. The number of feature errors measures only the precision, not the recall, of the tagger. This is because the morphological annotation is rather complex and it would have been too time- and resource-consuming to train a fully competent morphological annotator for each language, who would have been able to correct the automatical tagger output to a new gold standard. We have produced descriptive and explorative statistics and visualizations for each language to compare the performance of UD-Pipe among languages and to analyze the errors. As a second step, we have compared the vocabulary of the individual samples to the vocabulary of the referential treebanks of the respective languages to find out how much the domain of the 19th-century fiction differs from the domain of the referential treebank. We have manually classified the tokens specific to the 19-century samples into the following categories: Foreign word/heavy dialect, archaic spelling/morphology, morphological ambiguity, archaic tokenization, typo, proper noun. The annotator was allowed to leave a cell blank when none of the labels matched. The category labels could also be deliberately combined. Based on both annotations, we are able to tell, for each language, where the tagger has most problems (POS, lemmatization? Tokenization? Features?) and with which words (how much is archaic spelling associated with lemmatization performance?). The ability of the tagger to "guess" unknown words differs in each language. With this double annotation, we are able to start a collaboration with UD-Pipe developers on a possible domain adaptation for selected languages and build reliable models to tag 19-th century fiction. This work was funded by LTC18020.
Vyhodnocujeme výběr aktuálně dostupných značkovačů na beletristických textech z 19. století. Texty patří do sbírky ELTeC vytvořené a udržované týmem WG1 projektu COST CA16204 „Vzdálené čtení pro evropskou literární historii“. Jedná se o mnohojazyčnou sbírku beletrie 19. století v následujících jazycích: čeština, angličtina, francouzština, němčina, maďarština, italština, norština (obě odrůdy), portugalština, srbština a slovinština (s novými jazyky). Každý jazyk je zastoupen nejméně 20 romány ve formátu TEI. Hodnotili jsme značkovače pro následující jazyky: Česky, anglicky, francouzsky, německy, maďarsky, norsky-nynorsk, portugalsky a slovinsky. Všechny jsme označili štítkem UD-Pipe. Kromě toho byla maďarština označena také e-magyar. UD-Pipe jsme vybrali kvůli přitažlivé křížové jazykové značce a jednotné tvorbě modelů pro všechny jazyky. Již dříve bylo známo, že maďarský model je velmi malý a že maďarské značkování je špatné. Proto jsme také vyhodnotili e-magyar, nejlepší značkovač v současnosti dostupný pro maďarštinu Schéma anotací UD-Pipe Značkovač a analyzátor UD-Pipe čerpá z Universal Dependencies (universaldependencies.org), dále od UD. UD je schéma vícejazyčných anotací pro morfologii a syntaxi. V současné době má více než 70 jazyků vlastní UD stromovou banku, na které lze trénovat syntaktický analyzátor. Kategorie, které anotují UD-Pipe, jsou: lemma, hrubá část řeči (např. VERB), univerzální rysy (např. Množné číslo, minulé napětí) a vztahy syntaktické závislosti (např. Předmět, predikát). Postup Vybrali jsme náhodný vzorek pro ruční opravu značkování v každém jazyce. Každý vzorek obsahoval přibližně 5 000 žetonů v celých větách. Věty byly extrahovány z ELTeC napříč všemi dokumenty v každém jazyce a označeny ve formátu CONLL-u: jeden token na řádek, sloupce: token, lemma, univerzální POS, univerzální funkce. Anotace provedla anotaci v tabulce ve čtyřech dalších sloupcích pro tokenizaci, lemma, POS a funkce. V prvních třech sloupcích měly označovat odpovídající typ chyby s písmenem „F“. Ve čtvrtém sloupci měli anotátoři zadat počet nesprávně rozpoznaných jazykových prvků. Proto anotace zachycuje čtyři různé typy chyb pro každý token. Počet chyb funkcí měří pouze přesnost, nikoli stažení, značkovače. Je to proto, že morfologická anotace je poněkud složitá a bylo by příliš náročné na čas a zdroje na to, aby bylo možné vyškolit plně kompetentního morfologického anotátora pro každý jazyk, který by byl schopen korigovat výstup automatického značkovače na nový zlatý standard. Pro každý jazyk jsme vytvořili popisné a explorativní statistiky a vizualizace, abychom porovnali výkon UD-Pipe mezi jazyky a analyzovali chyby. Jako druhý krok jsme porovnali slovní zásobu jednotlivých vzorků se slovní zásobou referenčních stromů příslušných jazyků, abychom zjistili, do jaké míry se doména beletrie 19. století liší od domény referenční stromové struktury. Ručně jsme rozdělili tokeny specifické pro vzorky z 19. století do následujících kategorií: Cizí slovo / těžký dialekt, archaické hláskování / morfologie, morfologická dvojznačnost, archaické tokenizace, typo, vlastní jméno. Když anotátor nechal žádnou buňku prázdnou, když se žádný ze štítků neshodoval. Štítky kategorií lze také úmyslně kombinovat. Na základě obou anotací jsme schopni pro každý jazyk říct, kde má tagger největší problémy (POS, lemmatizace? Tokenizace? Funkce?) As jakými slovy (kolik archaického pravopisu souvisí s výkonem lemmatizace?). Schopnost značkovače „hádat“ neznámá slova se v každém jazyce liší. Díky této dvojité anotaci jsme schopni zahájit spolupráci s vývojáři UD-Pipe na možné adaptaci domény pro vybrané jazyky a vytvářet spolehlivé modely pro označování fikce 19. století. Tato práce byla financována z LTC18020. Odeslat zpětnou vazbu
[ "Silvie Cinková", "Tomaž Erjavec", "Cláudia Freitas", "Ioana Maracescu Galleron", "Péter Horváth", "Indig Balász", "Pavel Smrž" ]
https://www.semanticscholar.org/paper/19ea3470c18ef5a9d3b10621bd3524cdc7c77224/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Genre preferences in the narratives of younger school children
Žánrová preference v narativech dětí mladšího školního věku
In this paper, we present an analysis of hypothesized sex-specific genre preferences in spontaneous narratives in a corpus of 286 transcribed recordings of younger school children (aged 6–11). We draw upon Nicolopoulou’s conception of narratives as a symbolic activity with sex-specific tendencies: girls prefer the “family” genre and boys prefer the “heroic-agonistic” one. We operationalized Nikolopoulou’s genre classification into 10 thematic narrative features and an-notated their respective presence or absence in each narrative. The application of a combination of statistical methods to our sample revealed that the sex-correlated narrative preferences are so weak that they have no implications, e.g. for school practice. The most prominent result, in fact, even coun-ters the a priori assumption of sex-based narrative preferences: no matter what sex or age, children show a strong preference for “mutual aid and cooperation”.
V této práci prezentujeme analýzu hypotetických preferencí žánru specifických pro žánry u spontánních příběhů v korpusu 286 přepsaných záznamů mladších školních dětí (ve věku 6–11). Vycházíme z Nicolopoulouvé pojetí vyprávění jako symbolické aktivity s tendencemi danými pohlavím: dívky dávají přednost „rodinnému“ žánru a chlapci preferují „hrdinně agonistický“. Operacionalizovali jsme žánrovou klasifikaci podle Nikolopoulou do 10 tematických vyprávěcích rysů a zaznamenali jsme jejich příslušnou přítomnost nebo nepřítomnost v každém vyprávění. Kombinace statistických metod na náš vzorek odhalila, že narativní preference spojené s pohlavím jsou tak slabé, že nemají žádné důsledky, např. pro školní praxi. Nejvýznamnější výsledek ve skutečnosti dokonce odporuje apriornímu předpokladu pohlavních narativních preferencí: bez ohledu na věk a pohlaví, děti projevují silnou preferenci „vzájemné pomoci a spolupráce“.
[ "Silvie Cinková", "Anežka Náhlíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Aspect in loan verbal neologisms in Czech
Kategorie vidu u přejatých slvoesných neologismů v češtině
The paper focuses on how loan verbal neologisms form their aspectual counterpart in Czech, either by changing the thematic suffix in a simplex verb, or by deriving a prefixed verb. The main hypothesis is that the formation of aspectual pairs is determined by whether the neologism is interpreted as having either a verbal base, or a noun base.
Příspěvek se zabývá tvořením vidového protějšku u přejatých slovesných neologismů v češtině. To, zda je vidový protějšek tvořen sufixací či prefixací, závisí - podle mé hypotézy diskutované v příspěvku - na tom, zda je báze neologismu v češtině interpretovaná jako slovesná nebo nominální.
[ "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Introducing Semantic Labels into the DeriNet Network
Seémantické značkování derivační sítě DeriNet
The paper describes a semi-automatic procedure introducing semantic labels into the DeriNet network, which is a large, freely available resource modelling derivational relations in the lexicon of Czech. The data were assigned labels corresponding to five semantic categories (diminutives, possessives, female nouns, iteratives, and aspectual meanings) by a machine learning model, which achieved excellent results in terms of both precision and recall.
Příspěvek popisuje poloautomatickou proceduru, při níž byly vztahy mezi základovými slovy a jejich deriváty v lexikální síti DeriNet označkovány sémantickými značkami. V prezentovaném pilotním experimentu, který byl omezen na pět sémantických značek (diminutiva, posesiva, ženské protějšky maskulin, iterativa a vidové významy), byla data značkována metodami strojového učení.
[ "Magda Ševčíková", "Lukáš Kyjánek" ]
https://www.semanticscholar.org/paper/90ccb909869964e4adc5b0a5262bf1cf02b6c6dc/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Universal Dependencies 2.4
Universal Dependencies 2.4
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the tenth release of UD Treebanks, Version 2.4.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je desáté vydání treebanků UD, verze 2.4.
[ "Joakim Nivre", "Mitchell Abrams", "Željko Agić", "Lars Ahrenberg", "Gabrielė Aleksandravičiūtė", "Lene Antonsen", "Katya Aplonova", "Maria Jesus Aranzabe", "Gashaw Arutie", "Masayuki Asahara", "Luma Ateyah", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Elena Badmaeva", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Victoria Basmov", "John Bauer", "Sandra Bellato", "Kepa Bengoetxea", "Yevgeni Berzak", "Irshad Ahmad Bhat", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Kristina Brokaitė", "Aljoscha Burchardt", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Savas Cetin", "Fabricio Chalub", "Jinho Choi", "Yongseok Cho", "Jayeol Chun", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Marine Courtin", "Elizabeth Davidson", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Timothy Dozat", "Kira Droganova", "Puneet Dwivedi", "Hanne Eckhoff", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Tomaž Erjavec", "Aline Etienne", "Richárd Farkas", "Hector Fernandez Alcalde", "Jennifer Foster", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Marcos Garcia", "Moa Gärdenfors", "Sebastian Garza", "Kim Gerdes", "Filip Ginter", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Matias Grioni", "Normunds Grūzītis", "Bruno Guillaume", "Céline Guillot-Barbance", "Nizar Habash", "Jan Hajič", "Jan Hajič, jr.", "Linh Hà Mỹ", "Na-Rae Han", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Jena Hwang", "Takumi Ikeda", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Tomáš Jelínek", "Anders Johannsen", "Fredrik Jørgensen", "Hüner Kaşıkara", "Andre Kåsen", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Boris Katz", "Tolga Kayadelen", "Jessica Kenney", "Václava Kettnerová", "Jesse Kirchner", "Arne Köhn", "Kamil Kopacewicz", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Sookyoung Kwak", "Veronika Laippala", "Lorenzo Lambertino", "Lucia Lam", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Cheuk Ying Li", "Josie Li", "Keying Li", "KyungTae Lim", "Yuan Li", "Nikola Ljubešić", "Olga Loginova", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Héctor Martínez Alonso", "André Martins", "Jan Mašek", "Yuji Matsumoto", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Niko Miekka", "Margarita Misirpashayeva", "Anna Missilä", "Cătălin Mititelu", "Yusuke Miyao", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Keiko Sophie Mori", "Tomohiko Morioka", "Shinsuke Mori", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Hanna Nurmi", "Stina Ojala", "Adédayọ̀ Olúòkun", "Mai Omura", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Angelika Peljak-Łapińska", "Siyao Peng", "Cenel-Augusto Perez", "Guy Perrier", "Daria Petrova", "Slav Petrov", "Jussi Piitulainen", "Tommi A Pirinen", "Emily Pitler", "Barbara Plank", "Thierry Poibeau", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Tiina Puolakainen", "Sampo Pyysalo", "Andriela Rääbis", "Alexandre Rademaker", "Loganathan Ramasamy", "Taraka Rama", "Carlos Ramisch", "Vinit Ravishankar", "Livy Real", "Siva Reddy", "Georg Rehm", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Luisa Rocha", "Mykhailo Romanenko", "Rudolf Rosa", "Davide Rovati", "Valentin Roșca", "Olga Rudina", "Jack Rueter", "Shoval Sadde", "Benoît Sagot", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Dage Särg", "Baiba Saulīte", "Yanin Sawanakunanon", "Nathan Schneider", "Sebastian Schuster", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Muh Shohibussirri", "Dmitri Sitchinava", "Natalia Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Kiril Simov", "Aaron Smith", "Isabela Soares-Bastos", "Carolyn Spadine", "Antonio Stella", "Milan Straka", "Jana Strnadová", "Alane Suhr", "Umut Sulubacak", "Shingo Suzuki", "Zsolt Szántó", "Dima Taji", "Yuta Takahashi", "Fabio Tamburini", "Takaaki Tanaka", "Isabelle Tellier", "Guillaume Thomas", "Liisi Torga", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Francis Tyers", "Sumire Uematsu", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Sowmya Vajjala", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Eric Villemonte de la Clergerie", "Veronika Vincze", "Lars Wallin", "Abigail Walsh", "Jing Xian Wang", "Jonathan North Washington", "Maximilan Wendt", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Mary Yako", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Zhuoran Yu", "Zdeněk Žabokrtský", "Amir Zeldes", "Daniel Zeman", "Manying Zhang", "Hanzhi Zhu" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Automatic Generation of Theatre Play Scripts
Automatické generování divadelních her
We present a proposal for a project for automatic generation of theatre play scripts. We suggest a hierarchical generation scenario based on text expansion (an inverse of text summarization), iteratively expanding the title of the play until the whole script is generated. We review the challenges of the project and solutions that we envision for them.
Představujeme návrh projektu pro automatické generování scénářů divadelních her. Navrhujeme hierarchický postup generování založený na expanzi textu (inverze sumarizace textu), která iterativně rozgenerovává název hry, dokud není vygenerován celý scénář. Diskutujeme výzvy projektu a navrhujeme pro ně řešení.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Deep Neural Networks in Natural Language Processing
Hluboké neuronové sítě ve zpracování přirozeného jazyka
Similarly to other fields, Natural language processing has recently been revolutionized by the introduction of Deep learning. In my talk, I will focus on two specific properties of natural text as input to a machine learning system, and the current ways in which these are addressed in Deep neural networks: - Representing massively multi-valued discrete data (words) by continuous low-dimensional vectors (word embeddings). - Handling variable-length input sequences with long-distance relations between elements (sentences) by fixed-sized neural units (attention mechanisms).
Podobně jako v jiných oborech, zpracování přirozeného jazyka prošlo nedávno revolucí zavedením hlubokého učení. V mé přednášce se zaměřím na dvě specifické vlastnosti přírozeného textu jako vstupu pro systém strojového učení a na současné způsoby, jakými jsou v hlubokých neuronových sítích řešeny: - Reprezentace masivně vícehodnotových diskrétních dat (slov) kontinuálními nízkodimenzionálními vektory (slovní embedinky). - Zpracování vstupních sekvencí s proměnnou délkou pomocí vztahů na dlouhou vzdálenost mezi elementy (větami) neurálními jednotkami pevné velikosti (mechanismy pozornosti).
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/57458bc1cffe5caa45a885af986d70f723f406b4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CoNLL 2018 Shared Task Team CUNI-x-ling
CoNLL 2018 Shared Task tým CUNI-x-ling
CoNLL 2018 Shared Task Team CUNI-x-ling -- source codes for a competition in multilingual parsing
CoNLL 2018 Shared Task, tým CUNI-x-ling -- zdrojové kódy pro soutěž ve vícejazyčném syntaktickém parsingu
[ "Rudolf Rosa", "David Mareček" ]
https://www.semanticscholar.org/paper/03ecb5b364429f825147c46c0065921c5dd23350/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Inducing Syntactic Trees from BERT Representations
Odvozování syntactických stromů z BERTových reprezentací
We use the English model of BERT and explore how a deletion of one word in a sentence changes representations of other words. Our hypothesis is that removing a reducible word (e.g. an adjective) does not affect the representation of other words so much as removing e.g. the main verb, which makes the sentence ungrammatical and of "high surprise" for the language model. We estimate reducibilities of individual words and also of longer continuous phrases (word n-grams), study their syntax-related properties, and then also use them to induce full dependency trees.
Používáme anglický model BERT a zkoumáme, jak vypuštění jednoho slova ve větě mění reprezentace jiných slov. Naše hypotéza je taková, že odstranění redukovatelného slova (např. přídavného jména) neovlivní reprezentaci jiných slov natolik, jako odstranění např. hlavního slovesa, které činí větu pro jazykový model negramatickou a „velmi překvapivou“. Odhadujeme reducibility jednotlivých slov a také delších souvislých frází (slovních n-gramů), studujeme jejich syntaktické vlastnosti a poté je také použijeme k odvození plných závislostních stromů.
[ "Rudolf Rosa", "David Mareček" ]
https://www.semanticscholar.org/paper/71f551f0352b91ab4725c498c68610655d3b5578/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Quick intro to language processing for the THEAITRE project
Rychlokurz počítačového zpracování jazyka pro projekt THEAITRE
Representing text on a computer. Representation of words (word embeddings). Generating Sentences I. (n-gram language models). Basic principles of machine learning. Generating Sentences II (artificial neural networks). Reflections on more powerfully managed generation.
Reprezentace textu v počítači. Reprezentace slov (slovní embedinky). Generování vět I. (n-gramové jazykové modely). Základní principy strojového učení. Generování vět II. (umělé neuronové sítě). Úvahy nad silněji řízeným generováním.
[ "Rudolf Rosa", "Ondřej Dušek", "Tomáš Musil", "Tom Kocmi" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Attempting to separate inflection and derivation using vector space representations
Pokus o oddělení flexe a derivace pomocí vektorových reprezentací
We investigate to what extent inflection can be automatically separated from derivation, just based on the word forms. We expect pairs of inflected forms of the same lemma to be closer to each other than pairs of inflected forms of two different lemmas (still derived from a same root, though), given a proper distance measure. We estimate distances of word forms using edit distance, which represents character-based similarity, and word embedding similarity, which serves as a proxy to meaning similarity. Specifically, we explore Levenshtein and Jaro-Winkler edit distances, and cosine similarity of FastText word embeddings. We evaluate the separability of inflection and derivation on a sample from DeriNet, a database of word formation relations in Czech. We investigate the word distance measures directly, as well as embedded in a clustering setup. Best results are achieved by using a combination of Jaro-Winkler edit distance and word embedding cosine similarity, outperforming each of the individual measures. Further analysis shows that the method works better for some classes of inflections and derivations than for others, revealing some limitations of the method, but also supporting the idea of replacing a binary inflection-derivation dichotomy with a continuous scale.
Zkoumáme, do jaké míry lze flexi automaticky oddělit od derivace, jen na základě slovních forem. Očekáváme, že při použití vhodné míry vzdálenosti budou páry vyskloňovaných tvarů stejného lemmatu k sobě blíže než páry vyskloňovaných forem dvou různých lemmat (stále odvozených od stejného kořene). Vzdálenosti slovních tvarů odhadujeme pomocí editační vzdálenosti, která představuje podobnost založenou na znacích, a pomocí podobnosti slovních embedinků, která slouží jako proxy k významové podobnosti. Konkrétně zkoumáme Levenshteinovu a Jarovu-Winklerovu editační vzdálenost a kosinovou podobnost FastTextových slovních embedinků. Vyhodnocujeme oddělitelnost flexe a derivace na vzorku z databáze DeriNet, což je databáze slovotvorných vztahů v češtině. Zkoumáme míry vzdálenosti slov jednak přímo a jednak a jako složku shlukovacího postupu. Nejlepších výsledků je dosaženo kombinací Jarovy-Winklerovy editační vzdálenosti a kosionové podobnosti slovních embedinků, která překonává míry použité samostatně. Další analýza ukazuje, že metoda funguje lépe pro některé třídy flexí a derivací než pro jiné, což ukazuje některá omezení metody, ale také podporuje myšlenku nahrazení binární dichotomie flexe-derivace kontinuální škálou.
[ "Rudolf Rosa", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/c236e3aa12d5c0de006351dfae1ceb7d815d8ee3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Unsupervised Lemmatization as Embeddings-Based Word Clustering
Neřízená lematizace jako shlukování slov založené na embedinkách
We focus on the task of unsupervised lemmatization, i.e. grouping together inflected forms of one word under one label (a lemma) without the use of annotated training data. We propose to perform agglomerative clustering of word forms with a novel distance measure. Our distance measure is based on the observation that inflections of the same word tend to be similar both string-wise and in meaning. We therefore combine word embedding cosine similarity, serving as a proxy to the meaning similarity, with Jaro-Winkler edit distance. Our experiments on 23 languages show our approach to be promising, surpassing the baseline on 23 of the 28 evaluation datasets.
Zaměřujeme se na úlohu neřízené lemmatizace, tj. seskupení vyskloňovaných forem jednoho slova pod jeden štítek (lemma) bez použití anotovaných trénovacích dat. Navrhujeme provádět aglomerativní shlukování slovních forem s novou mírou vzdálenosti. Naše míra vzdálenosti je založena na pozorování, že flexe jednoho slova mají tendenci být podobné řetězcově i významově. Proto kombinujeme kosinovou podobnost slovních embedinků, která slouží jako proxy k významové podobnosti, s editační vzdáleností Jaro-Winklera. Naše experimenty na 23 jazycích ukazují, že náš přístup je slibný a překonal baseline pro 23 z 28 testovacích sad.
[ "Rudolf Rosa", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/884d9432bae4ec45c17b98484298cfd68dc75eb4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Coherence Evaluation in Czech: Utilization of Large Unlabeled data
Hodnocení koherence v češtině: využití velkých neanotovaných dat
Introduction of the research of automatic coherence evaluation in Czech using unlabeled large data.
Představení výzkumu automatického vyhodnocování koherence v češtině s pomocí naanotovaných velkých dat.
[ "Michal Novák", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Exploiting Large Unlabeled Data in Automatic Evaluation of Coherence in Czech
Využití velkých neanotovaných dat v automatickém hodnocení koherence v češtině
We use large unlabeled data (n-gram model, density estimates of features) to improve quality of surface coherence evaluation in Czech texts. Along with new features across layers of language description, the additions significantly improve the performance of the system.
Využíváme velkých neanotovaných dat (n-gramový model, odhady hustoty featur) ke zlepšení kvality automatického hodnocení koherence textů v češtině. Spolu s novými featurami z různých jazykových rovin přispělo využití neanotovaných dat k signifikantnímu zlepšení výsledků systému.
[ "Michal Novák", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová" ]
https://www.semanticscholar.org/paper/7d329a1226cb80e5a9a16c4e51f571e1a29d0b44/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
EVALD 4.0 for Beginners – Evaluator of Discourse
EVALD 4.0 pro začátečníky – Evaluátor diskurzu
Evaluator of Discourse for Beginners (EVALD 4.0 for Beginners) is a software that serves for automatic evaluation of surface coherence (cohesion) in Czech texts written by non-native speakers of Czech. Software evaluates the level of the given text from the perspective of its surface coherence (i.e. it takes into consideration, e.g., the frequency and diversity of connectives, richness of vocabulary, coreference realations, topic-focus articulation, readability etc.), and reports whether the text reaches the basic A1 level.
Počítačový nástroj Evaluátor diskurzu pro začátečníky (EVALD 4.0 pro začátečníky) slouží k automatickému hodnocení povrchové koherence (koheze) textů v češtině psaných začínajícími nerodilými mluvčími češtiny. Software hodnotí úroveň předloženého textu z hlediska jeho povrchové výstavby (zohledňuje např. frekvenci a rozmanitost užitých spojovacích prostředků, bohatost slovní zásoby, koreferenční vztahy, aktuální členění, obtížnost čtení apod.) a vyhodnocuje, zda text dostahuje alespoň základní úrovně A1.
[ "Michal Novák", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/9a8b7f2f81bb43433ed96b2f2580bfdd7c89fac7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
EVALD 4.0 for Foreigners – Evaluator of Discourse
EVALD 4.0 pro cizince – Evaluátor diskurzu
Evaluator of Discourse for Foreigners (EVALD 4.0 for Foreigners) is a software that serves for automatic evaluation of surface coherence (cohesion) in Czech texts written by non-native speakers of Czech. Software evaluates the level of the given text from the perspective of its surface coherence (i.e. it takes into consideration, e.g., the frequency and diversity of connectives, richness of vocabulary, coreference relations, topic-focus articulation etc.). The new version (4.0) adds a set of features related to readability of the text and also newly uses large unlabeled data.
Počítačový nástroj Evaluátor diskurzu pro cizince (EVALD 4.0 pro cizince) slouží k automatickému hodnocení povrchové koherence (koheze) textů v češtině psaných nerodilými mluvčími češtiny. Software hodnotí úroveň předloženého textu z hlediska jeho povrchové výstavby (zohledňuje např. frekvenci a rozmanitost užitých spojovacích prostředků, bohatost slovní zásoby, koreferenční vztahy, aktuální členění apod.). Nová verze (4.0) přidává množinu rysů zaměřených především na obtížnost čtení textu a nově také využívá velká neanotovaná data.
[ "Michal Novák", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová", "Eva Hajičová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
EVALD 4.0 – Evaluator of Discourse
EVALD 4.0 – Evaluátor diskurzu
Evaluator of Discourse (EVALD 4.0) is a software that serves for automatic evaluation of surface coherence (cohesion) in Czech texts written by native speakers of Czech. Software evaluates the level of the given text from the perspective of its surface coherence (i.e. it takes into consideration, e.g., the frequency and diversity of connectives, richness of vocabulary, coreference relations, topic-focus articulation etc.). The new version (4.0) adds a set of features related to readability of the text and also newly uses large unlabeled data.
Počítačový nástroj Evaluátor diskurzu (EVALD 4.0) slouží k automatickému hodnocení povrchové koherence (koheze) textů v češtině psaných rodilými mluvčími češtiny. Software tedy hodnotí (známkuje) úroveň předloženého textu z hlediska jeho povrchové výstavby (zohledňuje např. frekvenci a rozmanitost spojovacích prostředků, bohatost slovní zásoby, koreferenční vztahy, aktuální členění apod.). Nová verze (4.0) přidává množinu rysů zaměřených především na obtížnost čtení textu a nově také využívá velká neanotovaná data.
[ "Michal Novák", "Jiří Mírovský", "Kateřina Rysová", "Magdaléna Rysová", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/9a8b7f2f81bb43433ed96b2f2580bfdd7c89fac7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CUNI System for the Building Educational Applications 2019 Shared Task: Grammatical Error Correction
CUNI systém pro Building Educational Applications 2019 Shared Task v automatické opravě gramatiky
In this paper, we describe our systems submitted to the Building Educational Applications (BEA) 2019 Shared Task (Bryant et al., 2019). We participated in all three tracks. Our models are NMT systems based on the Transformer model, which we improve by incorporating several enhancements: applying dropout to whole source and target words, weighting target subwords, averaging model checkpoints, and using the trained model iteratively for correcting the intermediate translations. The system in the Restricted Track is trained on the provided corpora with oversampled "cleaner" sentences and reaches 59.39 F0.5 score on the test set. The system in the Low-Resource Track is trained from Wikipedia revision histories and reaches 44.13 F0.5 score. Finally, we finetune the system from the Low-Resource Track on restricted data and achieve 64.55 F0.5 score, placing third in the Unrestricted Track.
V tomto článku popisujeme naše systémy předložené v rámci soutěže Building Educational Applications (BEA) 2019 Shared Task (Bryant a kol., 2019). Zúčastnili jsme se všech tří variant. Naše modely jsou systémy NMT založené na architektuře Transformer, který vylepšujeme začleněním několika vylepšení: dropout celých zdrojových a cílových slov, vážení cílových podslov, průměrování modelu a použití trénovaného modelu iterativním způsobem. Systém v Restricted Track je trénován na poskytnutých korpusech s nadměrně zesílenými "čistšími" větami a na testovací sadě dosahuje skóre 59,39 F0,5. Systém v režimu nízkých zdrojů je trénován z historie revizí Wikipedie a dosahuje skóre 44,13 F0,5. V neomezeném režimu jsme dotrénováním systému z režimu nízkých zdrojů dosáhli 64.55 F0.5 skóre a obsadili tak třetí místo.
[ "Jakub Náplava", "Milan Straka" ]
https://www.semanticscholar.org/paper/3b187b45b8cb77eeac8ac4633235f6781e68c7f1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Grammatical Error Correction in Low-Resource Scenarios
Automatická oprava gramatiky při malém množství trénovacích dat
Grammatical error correction in English is a long studied problem with many existing systems and datasets. However, there has been only a limited research on error correction of other languages. In this paper, we present a new dataset AKCES-GEC on grammatical error correction for Czech. We then make experiments on Czech, German and Russian and show that when utilizing synthetic parallel corpus, Transformer neural machine translation model can reach new state-of-the-art results on these datasets. AKCES-GEC is published under CC BY-NC-SA 4.0 license at https://hdl.handle.net/11234/1-3057 and the source code of the GEC model is available at https://github.com/ufal/low-resource-gec-wnut2019.
Automatická oprava gramatiky v angličtině je dlouho studovaný problém s mnoha existujícími systémy a datovými zdroji. Výzkum oprav chyb v jiných jazycích je však pouze omezený. V této práci představujeme nový dataset AKCES-GEC pro gramatickou korekci chyb pro češtinu. Dále provádíme experimenty na češtině, němčině a ruštině a ukazujeme, že při využití syntetického paralelního korpusu může model neuronového strojového překladu Transformer dosáhnout na těchto datasetech nejlepších známých výsledků. AKCES-GEC vychází pod licencí CC BY-NC-SA 4.0 na adrese https://hdl.handle.net/11234/1-3057 a zdrojový kód modelu GEC je k dispozici na adrese https://github.com/ufal/low-resource-gec-wnut2019.
[ "Jakub Náplava", "Milan Straka" ]
https://www.semanticscholar.org/paper/9ad2f58f1e7f3b3d825d5c6b174fb38f601c6df0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Overview of the 6th Workshop on Asian Translation
Přehled 6. workshopu o překladu do asijských jazyků
This paper presents the results of the shared tasks from the 6th workshop on Asian translation (WAT2019) including Ja↔En, Ja↔Zh scientific paper translation subtasks, Ja↔En, Ja↔Ko, Ja↔En patent translation subtasks, Hi↔En, My↔En, Km↔En, Ta↔En mixed domain subtasks, Ru↔Ja news commentary translation task, and En→Hi multi-modal translation task. For the WAT2019, 25 teams participated in the shared tasks. We also received 10 research paper submissions out of which 71 were accepted. About 400 translation results were submitted to the automatic evaluation server, and selected submissions were manually evaluated.
Tento článek představuje výsledky sdílených úkolů z 6. workshopu o asijském překladu (WAT2019), včetně dílčích úkolů Ja↔En, Ja↔Zh pro překlad vědeckých článků, Ja↔En, Ja↔Ko, Ja↔En pro překlad patentů, Hi↔En, My↔En, Km↔En, Ta↔En pro překlad smíšených doménových dílčích úkolů, Ru↔Ja komentář pro překlad zpráv a En pro multimodální překlad. V rámci programu WAT2019 se sdílených úkolů účastnilo 25 týmů. Obdrželi jsme také 10 písemných podání k výzkumu, z nichž 71 bylo přijato. Automatickému hodnotícímu serveru bylo předloženo asi 400 výsledků překladu a vybraná podání byla ručně vyhodnocena.
[ "Toshiaki Nakazawa", "Nobushige Doi", "Shohei Higashiyama", "Chenchen Ding", "Raj Dabre", "Hideya Mino", "Isao Goto", "Win Pa Pa", "Anoop Kunchukuttan", "Shantipriya Parida", "Ondřej Bojar", "Sadao Kurohashi" ]
https://www.semanticscholar.org/paper/62305a5110d24767a008c1fcfe3168fe0e4c9a81/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Fuzzy Boundaries in the Different Functions and Translations of the Discourse Marker and
Nejasné hranice v různých funkcích a překladech diskurzního markeru AND
The present research focuses on the multiple functions performed by the discourse marker "and" in annotated spoken-like texts of TED Talks in English and Lithuanian. The annotation of TED Talks in Lithuanian has started only recently, which results in the limitation regarding the quantity of annotated texts. The research findings show that and and its Lithuanian counterparts perform multiple fuzzy functions, including the function of addition, discourse management and structuring discourse. It was also established that the most frequent variants of translation of the discourse marker and are those provided by bilingual English–Lithuanian dictionaries and that translators choose paraphrases to convey the pragmatics of the spoken-like texts.
Tento výzkum se zaměřuje na různé funkce diskurzního konektivu "a" v anotovaných zapsaných mluvených textech TED Talks v angličtině a litevštině. Anotace litevských textů bylo zahájena teprve nedávno, proto tvoří litevské texty ve srovnání prozatím menší vzorek. Výsledky výzkumu ukazují, že výraz "and" a jeho ekvivalenty v litevštině vyjadřují řadu vágních významů, včetně prostého přidávání, řízení a strukturace diskurzu
[ "Giedre Valunaite Oleskeviciene", "Sigita Rackevičienė", "Jolita Šliogerienė", "Nijolė Burkšaitienė", "Viktorija Mažeikienė", "Liudmila Mockienė", "Péter Furkó", "Ágnes Abuczki", "Šárka Zikánová" ]
https://www.semanticscholar.org/paper/7d6f5a9a939111b64fefe6d9f02d18e7002daf45/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Efficiency Metrics for Data-Driven Models: A Text Summarization Case Study
Metriky účinnosti pro datově řízené modely: případová studie sumarizace textu
Using data-driven models for solving text summarization or similar tasks has become very common in the last years. Yet most of the studies report basic accuracy scores only, and nothing is known about the ability of the proposed models to improve when trained on more data. In this paper, we define and propose three data efficiency metrics: data score efficiency, data time deficiency and overall data efficiency. We also propose a simple scheme that uses those metrics and apply it for a more comprehensive evaluation of popular methods on text summarization and title generation tasks. For the latter task, we process and release a huge collection of 35 million abstract-title pairs from scientific articles. Our results reveal that among the tested models, the Transformer is the most efficient on both tasks.
Využití modelů řízených daty pro sumarizaci textu nebo podobné úlohy se v posledních letech stává velmi běžným. Zatímco většina studií hlásí pouze základní přesnost, není nic známo o schopnosti zmíněných modelů se zlepšit, jsou-li trénovány na větších datech. V tomto příspěvku definujeme a navrhujeme tři metriky efektivity dat: efektivita úspěšnosti dat, časové nedostatečnosti dat a celkové účinnosti dat. Navrhujeme také jednoduché schema využívající těchto metod a využívající je pro ucelenější hodnocení populárních metod sumarizace textů a generování nadpisů. Pro druhou z úloh zpracováváme a uvol%nujeme rozsáhlou kolekci 35 miliónů párů abstrakt-název vědeckých článků. Naše výsledky odhalují, že mezi tetovanými metodami je Transformer nejúčinnější pro obě úlohy.
[ "Erion Çano", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/0d87ad347e349485341aacf244b486ab55220de9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Keyphrase Generation: A Multi-Aspect Survey
Generování klíčových slov: Přehled víceaspektových metod
Extractive keyphrase generation research has been around since the nineties, but the more advanced abstractive approach based on the encoder-decoder framework and sequence-to-sequence learning has been explored only recently. In fact, more than a dozen of abstractive methods have been proposed in the last three years, producing meaningful keyphrases and achieving state-of-the-art scores. In this survey, we examine various aspects of the extractive keyphrase generation methods and focus mostly on the more recent abstractive methods that are based on neural networks. We pay particular attention to the mechanisms that have driven the perfection of the later. A huge collection of scientific article metadata and the corresponding keyphrases is created and released for the research community. We also present various keyphrase generation and text summarization research patterns and trends of the last two decades.
Výzkum získávání klíčových slov probíhá od devadesátých let, ale pokročilé přístupy jako kodér-dekodér a učení z posloupností byly objeveny až v poslední době. Více než tucet abstrakčních metod poskytujících smysluplná klíčová slova a dosahujících aktuálních výsledků bylo navrženo v posledních třech letech. Testujeme zde různé aspekty metod generování klíčových slov. Soustředíme se zejména na metody z poslední doby založené na neuronových sítích. Zvláštní důraz klademe na mechanismy řízení přesnosti těch posledně jmenovaných. Byla vytvořena velmi rozsáhlá kolekce metadat o vědeckých článcích a uvolněna vědecké komunitě. Také jsme prezentovali různé vzory výzkumu generování klíčových slov a sumarizace textu a trendy posledních dvou dekád.
[ "Erion Çano", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/8c32068c9fb6fa03aebe3142ecdf7de594590375/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Keyphrase Generation: A Text Summarization Struggle
Generování klíčových slov: Náročná sumarizace textu
Authors' keyphrases assigned to scientific articles are essential for recognizing content and topic aspects. Most of the proposed supervised and unsupervised methods for keyphrase generation are unable to produce terms that are valuable but do not appear in the text. In this paper, we explore the possibility of considering the keyphrase string as an abstractive summary of the title and the abstract. First, we collect, process and release a large dataset of scientific paper metadata that contains 2.2 million records. Then we experiment with popular text summarization neural architectures. Despite using advanced deep learning models, large quantities of training data and many days of computation, our systematic evaluation on four test datasets reveals that the explored text summarization methods could not produce better keyphrases than the much simpler unsupervised methods or the existing supervised ones.
Klíčová slova, která svým vědeckým článkům přiřadili jejich autoři jsou nepostradatelná pro rozpoznání obsahu a témat dané článku. Většina řízených i neřízených metod generování klíčových slov není schopna přiřazovat termíny, které to dobře vystihují, ale nevyskytují se v textu. V tomto příspěvku zkoumáme možnost klíčových slov coby shrnutím názvu práce a abstraktu. Nejdříve sesbíráme, zpracujme a vydáme velkou sadu metadat vědeckých článků čítajících 2,2 milionu záznamů. Pak vyzkoušíme populární neurální architektury pro sumarizaci textů. Na rozdíl od pokročilých metod hlubokého učení, velkých objemů dat a mnoha dní výpočtů naše systematické vyhodnocování na čtyřech testovacích sadách dat ukázalo, že zkoumané metody sumarizace textu nemohou vytvořit lepší klíčová slova než jednoduché neřízené či řízené metody.
[ "Erion Çano", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/2fa54c636832197e7d117b9fbafd7161e66215d7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Sentiment Analysis of Czech Texts: An Algorithmic Survey
Analýza sentimentu českých textů: Přehled algoritmů
In the area of online communication, commerce and transactions, analyzing sentiment polarity of texts written in various natural languages has become crucial. While there have been a lot of contributions in resources and studies for the English language, "smaller" languages like Czech have not received much attention. In this survey, we explore the effectiveness of many existing machine learning algorithms for sentiment analysis of Czech Facebook posts and product reviews. We report the sets of optimal parameter values for each algorithm and the scores in both datasets. We finally observe that support vector machines are the best classifier and efforts to increase performance even more with bagging, boosting or voting ensemble schemes fail to do so.
V oblasti online komunikace, komerce a překladů, se analýza polarity sentimentu textů napsaných v různých přirozených jazycích stává zásadní. Zatímco pro angličtinu je k dispozici mnoho příspěvků a zdrojů, "menší" jazyky, jako je čeština, se zatím netěší větší pozornosti. V tomto přehledu zkoumáme efektivitu mnoha algoritmů strojového učení pro analýzu sentimentu příspěvků na českém Facebooku a recenzí různých produktů. Sepíšeme sady optimálních hodnot parametrů pro každý algoritmus a ohodnocení v obou datasetech. Nakonec zaznamenáme, že metoda podpůrných vektorů je nejlepším klasifikátorem a snahy dále zlepšit výkon pomocí baggingu, boostingu, či hlasovacích schemat selhaly.
[ "Erion Çano", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a7c9ddf83e3cdd403b469fe345d275b883de4275/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Supervised Morphological Segmentation Using Rich Annotated Lexicon
Řízená morfologická segmentace s využitím bohatě anotovaného slovníku
Morphological segmentation of words is the process of dividing a word into smaller units called morphemes; it is tricky especially when a morphologically rich or polysynthetic language is under question. In this work, we designed and evaluated several Recurrent Neural Network (RNN) based models as well as various other machine learning based approaches for the morphological segmentation task. We trained our models using annotated segmentation lexicons. To evaluate the effect of the training data size on our models, we decided to create a large hand-annotated morphologically segmented corpus of Persian words, which is, to the best of our knowledge, the first and the only segmentation lexicon for the Persian language. In the experimental phase, using the hand-annotated Persian lexicon and two smaller similar lexicons for Czech and Finnish languages, we evaluated the effect of the training data size, different hyper-parameters settings as well as different RNN-based models.
Morfologická segmentace slov je proces rozdělování slova na menší jednotky nazývané morfémy, což je úloha, která je obtížná zejména v případě morfologicky bohatých nebo polysyntetických jazyků. V této práci navrhujeme pro řešení této úlohy několik rekurzivních neuronových sítí a dalších přístupů založených na strojovém učení. Jako trénovací data používáme ručně segmentované slovníky. K vyhodnocení vlivu velikosti slovníku na kvalitu segmentace používáme rozsáhlý, ručně anotovaný segmentační slovník perštiny. Dále používáme menší segmentační slovníky pro češtinu a finštinu. Na těchto jazycích zkoumáme rovněž vliv nastavení hyperparametrů a zvolených rekurentních architektur.
[ "Ebrahim Ansari", "Zdeněk Žabokrtský", "Mohammad Mahmoudi", "Hamid Haghdoost", "Jonáš Vidra" ]
https://www.semanticscholar.org/paper/1b871a76e17aa4bafa710e44609c194d5627b3bb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Multimodal Abstractive Summarization for How2 Videos
Multimodální abstraktivní sumarizace instruktážních videí
In this paper, we study abstractive summarization for open-domain videos. Unlike the traditional text news summarization, the goal is less to "compress" text information but rather to provide a fluent textual summary of information that has been collected and fused from different source modalities, in our case video and audio transcripts (or text). We show how a multi-source sequence-to-sequence model with hierarchical attention can integrate information from different modalities into a coherent output, compare various models trained with different modalities and present pilot experiments on the How2 corpus of instructional videos. We also propose a new evaluation metric (Content F1) for abstractive summarization task that measures semantic adequacy rather than fluency of the summaries, which is covered by metrics like ROUGE and BLEU.
V tomto článku studujeme abstraktiví sumarizaci videí bez doménového omezení. Na rozdíl od tradiční sumarizace zpravodajských textů není cílem "komprimovat" textové informace, ale spíše poskytnout plynulé textové shrnutí informací, které byly shromážděny z různých zdrojových modalit, v našem případě videozáznamů a audio přepisů (nebo textu). Ukazujeme, jak vícezdrojový model sekvenčního učení s hierarchickým mechanismem pozorností dokáže integrovat informace z různých modalit do uceleného výstupu, porovnáváme různé modely trénované s různými modalitami a prezentuje pilotní experimenty na How2 korpusu instruktážních videí. Navrhujeme také novou hodnotící metriku (Conent F1) pro abstraktivní sumarizaci, která měří spíše sémantickou adekvátnost než plynulost, kterou naopak zachcují tradiční metriky jako jako ROUGE a BLEU.
[ "Shruti Palaskar", "Jindřich Libovický", "Spandana Gella", "Florian Metze" ]
https://www.semanticscholar.org/paper/37cc2c54cc60ee1301baca2d95bf003c76dd07d5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Comparison of Automatic and Human Evaluation of L2 Texts in Czech
Srovnání hodnocení textů L2 v češtině provedeného strojem a člověkem
We introduce an experimental probe comparing how texts written by non-native speakers of Czech are evaluated by a software application EVALD and by teachers of Czech as a foreign language.
Článek představuje experimentální výzkum srovnávající, jak jsou texty psané nerodilými mluvčími češtiny hodnoceny softwarovou aplikací EVALD a učiteli češtiny jako cizího jazyka.
[ "Svatava Škodová", "Kateřina Rysová", "Magdaléna Rysová" ]
https://www.semanticscholar.org/paper/0a1e8c12a06b1a884b9d606b57ed1dd01aa61e4a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
User Evaluation of a Multi-dimensional Statistical Dialogue System
Uživatelská evaluace multidimenzionálního statistického dialogového systému
We present the first complete spoken dialogue system driven by a multiimensional statistical dialogue manager. This framework has been shown to substantially reduce data needs by leveraging domain-independent dimensions, such as social obligations or feedback, which (as we show) can be transferred between domains. In this paper, we conduct a user study and show that the performance of a multi-dimensional system, which can be adapted from a source domain, is equivalent to that of a one-dimensional baseline, which can only be trained from scratch.
Představujeme první kompletní hlasový dialogový systém řízený multidimenzionálním statistickým dialogovým manažerem. Tento framework prokazatelně významně snižuje potřebu dat využitím doménově nezávislých dimenzí, jako jsou společenské konvence nebo zpětná vazba, které (jak ukazujeme) lze přenášet mezi doménami. V tomto článku provádíme uživatelskou sudii a ukazujeme, že výkon multidimenzionálního systému, který lze adaptovat ze zdrojové domény, je ekvivalentní výkonu jednodimenzionální baseline, kterou je třeba natrénovat od nuly.
[ "Simon Keizer", "Ondřej Dušek", "Xingkun Liu", "Verena Rieser" ]
https://www.semanticscholar.org/paper/f03e650f99c253faff477b9944164af2f0b4deca/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Cohesion in Czech: Semantics of implicit and explicit discourse relations
Koheze v češtině: význam implicitních a explicitních diskurzních vztahů
The lecture presents the results of the annotation of implicit relations in Czech based on the PDiT-EDA 1.0 corpus. It focuses on the distribution of implicit and explicit relations, their semantics, the presence of sentence negation and the relation of implicitness to the text genre.
Přednáška představuje výsledky anotace implicitních vztahů v češtině na základě korpusu PDiT-EDA 1.0. Zaměřuje se na distribuci implicitních a explicitních vztahů, jejich sémantiku, přítomnost větné negace a vztah implicitnosti k textovému žánru.
[ "Šárka Zikánová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
He did not come, it rained. Implicit discourse relations in Czech
Nepřišel, pršelo. Implicitní diskurzní vztahy v češtině.
The paper gives a basic overview of implicit discourse relations in the PDiT-EDA 1.0 corpus. It deals with the relation of implicitness to the following language factors: semantics of discourse relation, presence of sentence negation, text genre.
Příspěvek podává základní přehled o implicitních diskurzních vztazích v korpusu PDiT-EDA 1.0. Zabývá se vztahem implicitnosti k následujícím jazykovým faktorům: sémantika diskurzního vztahu, přítomnost větné negace, textový žánr.
[ "Šárka Zikánová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Explicit and Implicit Discourse Relations in the Prague Discourse Treebank
Explicitní a implicitní diskurzní vztahy v Pražském diskurzním korpusu
We analyze some of the factors influencing the explicitness/implicitness of discourse relations, such as the text genre, semantic type of the discourse relation and the presence of negation in discourse arguments.
Analyzujeme některé faktory ovlivňující explicitnost/implicitnost diskurzních vztahů, např. žánr textu, sémantický typ diskurzního vztahu a přítomnost negace v diskurzních argumentech.
[ "Šárka Zikánová", "Jiří Mírovský", "Pavlína Synková" ]
https://www.semanticscholar.org/paper/9224f1a99f10cee8eeef6bbd20aa58e370959e1d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Jana Hoffmannová, Jiří Homoláč, Kamila Mrázková (eds.): Syntax of Spoken Czech, Praha: Academia, 2019
Jana Hoffmannová, Jiří Homoláč, Kamila Mrázková (eds.): Syntax mluvené češtiny, Praha: Academia, 2019
Review of Syntax of Spoken Czech, a book edited by Jana Hoffmannová, Jiří Homoláč and Kamila Mrázková.
Recenze knihy Syntax mluvené češtiny, jejímiž editory jsou Jana Hoffmannová, Jiří Homoláč a Kamila Mrázková.
[ "Magdaléna Rysová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Coherence Errors in Learners’ Essays and a Possibility of Their Improvement through EVALD (Automated Evaluator of Discourse)
Chyby v koherenci v žákovských textech a možnosti jejich zlepšení pomocí aplikace EVALD (automatického evaluátoru diskurzu)
Coherence may be manifested through various language means, e.g. by discourse connectives, anaphoric devices, lexical repetition etc. We present research of the most common errors in coherence occurring in learners’ essays.
Koherence textů může být zajištěna řadou jazykových prostředků, např. diskurzními konektory, anaforickým odkazováním, lexikálním opakováním apod. Představujeme výzkum nejčastějších chyb v koherenci žákovských textů.
[ "Magdaléna Rysová", "Kateřina Rysová", "Jiří Mírovský", "Michal Novák" ]
https://www.semanticscholar.org/paper/2c18f30a94e7862b335d295d06e872a8b40e31c2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
ÚFAL MRPipe at MRP 2019: UDPipe Goes Semantic in the Meaning Representation Parsing Shared Task
ÚFAL MRPipe na MRP 2019: UDPipe se stává sémantickým v soutěži Meaning Representation Parsing
We present a system description of our contribution to the CoNLL 2019 shared task, Cross- Framework Meaning Representation Parsing (MRP 2019). The proposed architecture is our first attempt towards a semantic parsing extension of the UDPipe 2.0, a lemmatization, POS tagging and dependency parsing pipeline. For the MRP 2019, which features five formally and linguistically different approaches to meaning representation (DM, PSD, EDS, UCCA and AMR), we propose a uniform, language and framework agnostic graph-to-graph neural network architecture. Without any knowledge about the graph structure, and specifically without any linguistically or framework motivated features, our system implicitly models the meaning representation graphs. After fixing a human error (we used earlier incorrect version of provided test set analyses), our submission would score third in the competition evaluation. The source code of our system is available at https://github. com/ufal/mrpipe-conll2019.
Předkládáme popis našeho příspěvku do soutěže CoNLL 2019, Cross-Framework Meaning Representation Parsing (MRP 2019). Navržená architektura je naším prvním pokusem o sémantický parsing v rámci UDPipe 2.0, nástroje pro lemmatizaci, POS tagging a závislostní parsing. Pro MRP 2019, který zahrnuje pět formálně a lingvisticky rozdílných přístupů k reprezentaci významu (DM, PSD, EDS, UCCA a AMR), navrhujeme uniformní, jazykově a formálně agnostickou architekturu založenou na transformaci grafů pomocí umělých neuronových sítí. Bez jakékoli znalosti grafové struktury, a specificky bez jakýchkoli lingvisticky nebo formálně motivovaných klasifikačních rysů náš systém implicitně modeluje reprezentaci významu v grafu. Po opravě člověkem způsobené chyby (použili jsme nesprávnou verzi poskytnutých analýz testovacích dat) se náš příspěvek umístil na třetím místě v soutěžním hodnocení. Zdrojový ḱód našeho systému je dostupný na adrese https://github. com/ufal/mrpipe-conll2019.
[ "Milan Straka", "Jana Straková" ]
https://www.semanticscholar.org/paper/83c2988617a09b890b78379e9a1821b275c9a80f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Czech Text Processing with Contextual Embeddings: POS Tagging, Lemmatization, Parsing and NER
Zpracování textu v češtině pomocí kontextových embeddingů: POS tagging, lemmatizace, závislostní parsing a rozpoznávání pojmenovaných entit
Contextualized embeddings, which capture appropriate word meaning depending on context, have recently been proposed. We evaluate two methods for precomputing such embeddings, BERT and Flair, on four Czech text processing tasks: part-of-speech (POS) tagging, lemmatization, dependency parsing and named entity recognition (NER). The first three tasks, POS tagging, lemmatization and dependency parsing, are evaluated on two corpora: the Prague Dependency Treebank 3.5 and the Universal Dependencies 2.3. The named entity recognition (NER) is evaluated on the Czech Named Entity Corpus 1.1 and 2.0. We report state-of-the-art results for the above mentioned tasks and corpora.
Nedávno byly navrženy kontextové embeddingy, které vhodně zachycují význam slova v závislosti na kontextu. V tomto příspěvku vyhodnocujeme dvě metody pro výpočet takových embeddingů, BERT a Flair, na čtyřech úlohách zpracování přirozeného jazyka v češtině: značkování slovních druhů (POS tagging), lemmetizace, závislostní parsing a rozpoznávání pojmenovaných entit. První tři úlohy jsou vyhodnoceny na dvou korpusech: Pražský závislostní korpus 3.5 a Universal Dependencies 2.3. Rozpoznávání pojmenovaných entit je vyhodnoceno na Českém korpusu pojmenovaných entit (Czech Named Entity Corpus) 1.1 a 2.0. Publikujeme state-of-the-art výsledky ve všech výše zmíněných úlohách na všech korpusech.
[ "Milan Straka", "Jana Straková", "Jan Hajič" ]
https://www.semanticscholar.org/paper/65d320b988feb9cd89b7c6ddc95afdfe7917b54c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Evaluating Contextualized Embeddings on 54 Languages in POS Tagging, Lemmatization and Dependency Parsing
Vyhodnocení kontextualizovaných embeddingů na 54 jazycích v POS tagingu, lemmatizaci a závislostním parsingu
We present an extensive evaluation of three recently proposed methods for contextualized embeddings on 89 corpora in 54 languages of the Universal Dependencies 2.3 in three tasks: POS tagging, lemmatization, and dependency parsing. Employing the BERT, Flair and ELMo as pretrained embedding inputs in a strong baseline of UDPipe 2.0, one of the best-performing systems of the CoNLL 2018 Shared Task and an overall winner of the EPE 2018, we present a one-to-one comparison of the three contextualized word embedding methods, as well as a comparison with word2vec-like pretrained embeddings and with end-to-end character-level word embeddings. We report state-of-the-art results in all three tasks as compared to results on UD 2.2 in the CoNLL 2018 Shared Task.
Představujeme rozsáhlé hodnocení tří nedávno navržených metod pro kontextualizované embeddiny na 89 korpusech v 54 jazycích projektu Universal Dependencies 2.3 ve třech úkolech: POS tagging, lemmatizace a závislostní analýza. Využitím BERT, Flair a ELMo jako předtrénovaných embeddingů do systému UDPipe 2.0, jednoho z vítězů CoNLL 2018 Shared Task a celkového vítěze EPE 2018, představujeme porovnání těchto tří kontextualizovaných metod, word2vec předtrénovaných embedingů a trénovatelných embedingů založených na znacích slov. Popsané metody dosahují nejlepších známých výsledků na UD 2.2 v porovnání s výsledky na CoNLL 2018 Shared Task.
[ "Milan Straka", "Jana Straková", "Jan Hajič" ]
https://www.semanticscholar.org/paper/2febb64b4f4db5fe7df527834a40e134d080852e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
UDPipe at SIGMORPHON 2019: Contextualized Embeddings, Regularization with Morphological Categories, Corpora Merging
UDPipe na SIGMORPHON 2019: Kontextualizované embeddingy, regularizace morfologickými kategoriemi, slučování korpusů
We present our contribution to the SIGMORPHON 2019 Shared Task: Crosslinguality and Context in Morphology, Task 2: contextual morphological analysis and lemmatization. We submitted a modification of the UDPipe 2.0, one of best-performing systems of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies and an overall winner of the The 2018 Shared Task on Extrinsic Parser Evaluation. As our first improvement, we use the pretrained contextualized embeddings (BERT) as additional inputs to the network; secondly, we use individual morphological features as regularization; and finally, we merge the selected corpora of the same language. In the lemmatization task, our system exceeds all the submitted systems by a wide margin with lemmatization accuracy 95.78 (second best was 95.00, third 94.46). In the morphological analysis, our system placed tightly second: our morphological analysis accuracy was 93.19, the winning system’s 93.23.
Představujeme náš příspěvek k shared tasku SIGMORPHON 2019: Crosslingualita a kontext v morfologii, úkol 2: kontextová morfologická analýza a lemmatizace. Odevzdali jsme modifikaci UDPipe 2.0, jednoho z výherního systému CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies a celkového vítěze The 2018 Shared Task on Extrinsic Parser Evaluation. Jako první vylepšení používáme předtrénované kontextualizované embeddingy (BERT) jako další vstupy do sítě, za druhé používáme jednotlivé morfologické vlastnosti jako regularizaci a nakonec slučujeme vybrané korpusy stejného jazyka. V lemmatizačním úkolu náš systém výrazně převyšuje všechny ostatní systémy s přesností lemmatizace 95,78 (druhý nejlepší byl 95,00, třetí 94,46). V morfologické analýze se náš systém umístil těsně druhý: přesnost naší morfologické analýzy byla 93,19, vítězný systém měl 93,23.
[ "Milan Straka", "Jana Straková", "Jan Hajič" ]
https://www.semanticscholar.org/paper/5e87c8ce78dd91c6e531406bca1d97eea9d02aa9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Universal Derivations v0.5
Univerzální derivace v0.5
Universal Derivations (UDer) is a collection of harmonized lexical networks capturing word-formation, especially derivational relations, in a cross-linguistically consistent annotation scheme for many languages. The annotation scheme is based on a rooted tree data structure, in which nodes correspond to lexemes, while edges represent derivational relations or compounding. The current version of the UDer collection contains eleven harmonized resources covering eleven different languages.
Universal Derivations (UDer) je sada lexikalních sítí zachycujících slovotvorné, zvl. derivační vztahy jednotlivých jazyků, tyto sítě byly harmonizovány do jednotného formátu. Stávající verze UDer v0.5 obsahuje 11 harmonizovaných zdrojů pokrývajících 11 různých jazyků.
[ "Lukáš Kyjánek", "Zdeněk Žabokrtský", "Jonáš Vidra", "Magda Ševčíková" ]
https://www.semanticscholar.org/paper/8dc5d62ed2c805063e5f727eeabab133fc9f9bab/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Universal Derivations Kickoff: A Collection of Harmonized Derivational Resources for Eleven Languages
Universal Derivations: Soubor harmonizovaných derivačních zdrojů pro jedenáct jazyků
The aim of this paper is to open a discussion on harmonization of existing data resources related to derivational morphology. We present a newly assembled collection of eleven harmonized resources named “Universal Derivations” (clearly being inspired by the success story of the Universal Dependencies initiative in treebanking), as well as the harmonization process that brings the individual resources under a unified annotation scheme.
Cílem tohoto článku je otevřít diskusi o harmonizaci existujících datových zdrojů zabývajících se derivační morfologií. Představujeme nově vytvořený soubor jedenácti harmonizovaných zdrojů pojmenovaný „Universal Derivations“ (zjevně inspirovaný úspěchem iniciativy Universal Dependencies mezi syntakticky anotovanými korpusy) a harmonizační proces, kterým jsme tyto zdroje sjednotili do stejného anotačního schématu.
[ "Lukáš Kyjánek", "Zdeněk Žabokrtský", "Magda Ševčíková", "Jonáš Vidra" ]
https://www.semanticscholar.org/paper/036637684567d82be5cd4beb82d06ae5ebb8811a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CUNI–Malta system at CoNLL–SIGMORPHON 2019 Shared Task on Morphological Analysis and Lemmatization in context: Operation-based word formation
Systém UK-Malta v soutěži CoNLL-SIGMORPHON 2019 v morfologické analýze a lematizaci v kontextu: Ohýbání slov postavené na operacích
This paper presents the submission by the Charles University-University of Malta team to the CoNLL--SIGMORPHON 2019 Shared Task on Morphological Analysis and Lemmatization in context. We present a lemmatization model based on previous work on neural transducers \cite{makarov2018neural,aharoni-goldberg-2017-morphological}. The key difference is that our model transform the whole word form in every stem, instead of consuming it character by character. We propose a merging strategy inspired by Byte-Pair-Encoding that reduces the space of valid operations by merging frequent adjacent operations. The resulting operations not only encode the action/s to be performed but the relative position in the word token and how characters need to be transformed. Our morphological tagger is a vanilla biLSTM tagger that operates over operation representations, encoding operations and words in a hierarchical manner. Even though relative performance according to metrics is below the baseline, experiments show that our models capture important associations between interpretable operation labels and fine-grained morpho-syntax labels.
Článek představuje příspěvek týmu Univerzity Karlovy a Maltské univerzity do soutěže CoNLL-SIGMORPHON 2019 v morfologické analýze a lematizaci v kontextu. Předkládáme lematizační model postavený na dříve publikované metodě neuronových převodníků (Makarov 2018; Aharoni a Goldberg 2017). Klíčovým rozdílem je, že náš model transformuje celý slovní tvar každého kmene, místo aby ho konzumoval znak po znaku.
[ "Ronald Cardenas", "Claudia Borg", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/12a94e021493fa7ef266f1711927e840ccb33411/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Challenges of integrating multiple divergent audiovisual oral history collections: the case of the Malach Center for visual history in Prague
Výzvy spojené se začleněním více různých sbírek audiovizuální historie: případ Centra vizuální historie Malach v Praze
Digital collections of audiovisual oral history interviews (OHIs) can be conceived as a specific category of large text corpora that require implementation of distant reading methods. Following the digital revolution in oral history research (e.g. Thomson, 2007; Boyd & Larson, 2014), many institutions now provide access to divergent digital collections at once, which provides the users and researchers with an opportunity to combine and compare, for example, several OHIs conducted with the same person in varied situational and socio-historical framework as part of various "process-generated" (Freund, 2009) oral history projects. This constitutes a pertinent issue for such access institutions: How can we make it as easy as possible for users to work with several separate digital archives of OHIs? Which computational methods can facilitate distant reading and efficient use of large collection of audiovisual OHI materials? And what are the persistent problems -- technical, methodological, ethical, etc. -- that have to be solved by the institutions of multiple access? In outlining answers to these questions, in our presentation, we will discuss our experience and technological solution from the Malach Center for Visual History (CVHM) at the Charles University in Prague (see Mlynář, 2015). Over the last decade, CVHM has been providing access for students, researchers and general public to several established collections of OHIs. Since 2009, CVHM is an access point to the USC Shoah Foundation's Visual History Archive (VHA), which is an ever-growing collection of interviews with witnesses and survivors of genocides, especially the Holocaust. At the present moment, the VHA contains nearly 56,000 audiovisual recordings of OHIs in more than 40 languages (see Gustman et al., 2002). Since 2018, the Fortunoff Video Archive for Holocaust Testimonies of the Yale University Library with more than 4,400 audiovisual recordings of OHIs is also available at CVHM. In addition, users in CVHM can work with smaller collections lacking an integrated user interface such as the Refugee Voices archive (150 English interviews), and a small portion of interviews from the Jewish Holocaust Center in Melbourne (15 interviews with people of Czechoslovak origin). The present situation of hosting several disparate collections at once poses several challenges on the level of improving effectivity of search and textual corpora analysis methods. On one hand, users-researchers are in need of a complete metadata overview, in order to generate relevant datasets, discover duplicate cases and analyze OHI collections’ profiles. On the other hand, the question of performing content-based queries across the whole corpus is imminent. For these purposes, CVHM developed an in-house interface integrating several collection at once providing solutions to both of these issues. Besides providing general access to metadata, automated speech recognition based transcripts (generated by AMALACH algorithm, post-edited) serve simultaneously as textual data for the multilingual cross-corpus search in English, Czech and Slovak and searchable automatically generated keywords dataset (KER - Keyword Extractor provided by LINDAT/CLARIN). Owing to this approach, users are able to easily acquire relevant results on several levels without the necessity of separately accessing the individual collections or OHIs.
Digitální sbírky audiovizuálních orálněhistorických rozhovorů (OHI) mohou být pojaty jako zvláštní kategorie velkých textových korpusů, které vyžadují implementaci metod vzdáleného čtení. Po digitální revoluci ve výzkumu orální historie (např. Thomson, 2007; Boyd & Larson, 2014) dnes mnoho institucí poskytuje přístup k mnoha digitálním kolekcím najednou, což uživatelům a výzkumníkům poskytuje možnost zkombinovat a porovnat například několik OHI provedených se stejnou osobou v různorodém situačním a sociohistorickém rámci jako součást různých projektů. To klade před takové přístupové instituce řadu otázek: Jak můžeme uživatelům co nejvíce usnadnit práci s několika samostatnými digitálními archivy OHI? Které výpočetní metody mohou usnadnit vzdálené čtení a efektivní využití rozsáhlého sběru audiovizuálních materiálů OHI? A jaké jsou přetrvávající problémy - technické, metodologické, etické atd. -, které musí instituce vyřešit? Při nastínění odpovědí na tyto otázky budeme v naší prezentaci diskutovat o našich zkušenostech a technologických řešeních z Centra vizuální historie Malach (CVHM) na Univerzitě Karlově. Současná situace, kdy je zpřístupněno několik nesourodých sbírek najednou, představuje několik výzev na úrovni zlepšení účinnosti metod vyhledávání a textové analýzy korpusů. Na jedné straně uživatelé-výzkumníci potřebují úplný přehled metadat, aby mohli vytvářet příslušné soubory dat, objevovat duplicitní případy a analyzovat profily sbírek OHI. Zároveň vyvstává otázka prohledávání obsahu napříč celým korpusem. Pro tyto účely vyvinulo CVHM interní rozhraní, které integruje několik kolekcí najednou a poskytuje řešení obou těchto otázek. Díky tomuto řešení mohou uživatelé snadno získávat relevantní výsledky na několika úrovních bez nutnosti samostatného přístupu k jednotlivým sbírkám nebo k OHI.
[ "Jiří Kocián", "Jakub Mlynář", "Pavel Obdržálek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Promoting the Knowledge of Source Syntax in Transformer NMT Is Not Needed
Podpora znalostí zdrojové syntaxe v Transformer NMT není třeba
The utility of linguistic annotation in neural machine translation seemed to had been established in past papers. The experiments were however limited to recurrent sequence-to-sequence architectures and relatively small data settings. We focus on the state-of-the-art Transformer model and use comparably larger corpora. Specifically, we try to promote the knowledge of source-side syntax using multi-task learning either through simple data manipulation techniques or through a dedicated model component. In particular, we train one of Transformer attention heads to produce source-side dependency tree. Overall, our results cast some doubt on the utility of multi-task setups with linguistic information. The data manipulation techniques, recommended in previous works, prove ineffective in large data settings. The treatment of self-attention as dependencies seems much more promising: it helps in translation and reveals that Transformer model can very easily grasp the syntactic structure. An important but curious result is, however, that identical gains are obtained by using trivial ``linear trees'' instead of true dependencies. The reason for the gain thus may not be coming from the added linguistic knowledge but from some simpler regularizing effect we induced on self-attention matrices.
Užitečnost jazykových anotací v překladu do neurálních strojů byla zřejmě prokázána v minulých pracích. Pokusy se však omezovaly na opakující se sekvenční architektury a relativně malé nastavení dat. Zaměřujeme se na nejmodernější model Transformeru a používáme srovnatelně větší korporáty. Konkrétně se snažíme podporovat znalosti syntaxe na zdrojové straně pomocí víceúkolového učení buď pomocí jednoduchých technik manipulace s daty, nebo pomocí speciální modelové komponenty. Konkrétně jednoho cvičíme Transformer se soustředí na vytvoření stromu závislosti na straně zdroje. Celkově naše výsledky zpochybňují užitečnost víceúkolových sestav s jazykovými informacemi. Techniky manipulace s daty, doporučované v předchozích dílech, se v nastavení velkých dat ukazují jako neúčinné. Zacházení se sebepozorností jako se závislostmi se zdá mnohem slibnější: pomáhá při překladu a odhaluje, že model Transformer dokáže velmi snadno uchopit syntaktickou strukturu. Důležitým, ale kuriózním výsledkem však je, že identického zisku se dosáhne použitím triviálních ,,lineárních stromů`` namísto skutečných závislostí. Přínos tedy nemusí vyplývat z přidaných jazykových znalostí, ale z nějakého jednoduššího regularizačního efektu, který jsme navodili u matricí, které se věnují samy sobě.
[ "Thuong-Hai Pham", "Dominik Macháček", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/d4243a84365efae87e88c52cda162fdd79a20a0c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Anaphoric Connectives and Long-Distance Discourse Relations in Czech
Anaforické konektory a diskurzní vztahy nesousedních textových segmentů v češtině
The paper is a linguistic as well as technical survey for the development of a shallow discourse parser for Czech. It focuses on long-distance discourse relations signalled by (mostly) anaphoric discourse connectives. Proceeding from the division of connectives on “structural” and “anaphoric” according to their (in)ability to accept distant (non-adjacent) text segments as their left-sided arguments, and taking into account results of related analyses on English data in the framework of the Penn Discourse Treebank, we analyze a large amount of language data in Czech. We benefit from the multilayer manual annotation of various language aspects from morphology to discourse, coreference and bridging relations in the Prague Dependency Treebank 3.0. We describe the linguistic parameters of long-distance discourse relations in Czechin connection with their anchoring connective, and suggest possible ways of their detection. Our empirical research also outlines some theoretical consequences for the underlying assumptions in discourse analysis and parsing, e.g. the risk of relying too much on different (language-specific?) part-of-speech categorizations of connectives or the different perspectives in shallow and global discourse analyses (the minimality principle vs. higher text structure).
Článek přináší lingvistický i technický podklad pro vývoj diskurzního parseru pro češtinu. Zaměřuje se na diskurzní vztahy mezi nesousedními segmenty textu signalizované (většinou) anaforickými konektory.
[ "Lucie Poláková", "Jiří Mírovský" ]
https://www.semanticscholar.org/paper/7c9933c968c039adaf71b349ef93589a70fb66ff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CUNI Systems for the Unsupervised News Translation Task in WMT 2019
Systémy Univerzity Karlovy pro soutěž ve strojovém překladu novinových textů bez použití paralelních dat
In this paper we describe the CUNI translation system used for the unsupervised news shared task of the ACL 2019 Fourth Conference on Machine Translation (WMT19). We follow the strategy of Artetxe ae at. (2018b), creating a seed phrase-based system where the phrase table is initialized from cross-lingual embedding mappings trained on monolingual data, followed by a neural machine translation system trained on synthetic parallel data. The synthetic corpus was produced from a monolingual corpus by a tuned PBMT model refined through iterative back-translation. We further focus on the handling of named entities, i.e. the part of vocabulary where the cross-lingual embedding mapping suffers most. Our system reaches a BLEU score of 15.3 on the German-Czech WMT19 shared task.
V tomto článku popisujeme překladový systém CUNI pro úlohu neřízeného strojového překladu novinových textů na ACL 2019 Fourth Conference on Machine Translation (WMT19).
[ "Ivana Kvapilíková", "Dominik Macháček", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a763df05a150bb48c55e7d57f7fdf0243dc14e17/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
CUNI System for the WMT19 Robustness Task
Systém Univerzity Karlovy pro úlohu robustního překladu na WMT19
We present our submission to the WMT19 Robustness Task. Our baseline system is the CUNI Transformer system trained for the WMT18 shared task on News Translation. Quantitative results show that the CUNI Transformer system is already far more robust to noisy input than the LSTM-based baseline provided by the task organizers. We further improved the performance of our model by fine-tuning on the in-domain noisy data.
V článku přestavuje náš přísvek do soutěže v robustním strojovém překaladu na konferenci WMT19. Náš základní systém je CUNI Transformer systém trénovaný překlad novinových textů pro WMT18. Kvantitativní výsledky ukazují, že systém CUNI Transformer je již mnohem robustnější základní model založený na LSTM, který poskytli organizátoři soutěže. Kvalitu překladu našeho modelu jsme dále vylepšili vyladěním na zašuměných datech, která byla poskytnuta k soutěži.
[ "Jindřich Helcl", "Jindřich Libovický", "Martin Popel" ]
https://www.semanticscholar.org/paper/d2beef4761222d2b35ffb184c9d13120fc08e58e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Multimodality in Machine Translation
Multimodalita ve strojovém překladu
Traditionally, most natural language processing tasks are solved within the language, relying on distributional properties of words. Representation learning abilities of deep learning recently allowed using additional information source by grounding the representations in the visual modality. One of the tasks that attempt to exploit the visual information is multimodal machine translation: translation of image captions when having access to the original image. The thesis summarizes joint processing of language and real-world images using deep learning. It gives an overview of the state of the art in multimodal machine translation and describes our original contribution to solving this task. We introduce methods of combining multiple inputs of possibly different modalities in recurrent and self-attentive sequence-to-sequence models and show results on multimodal machine translation and other tasks related to machine translation. Finally, we analyze how the multimodality influences the semantic properties of the sentence representation learned by the networks and how that relates to translation quality
Tradičně se většina úloh zpracování přirozeného jazyka řeší výhradně uvnitř jazyka, kdy modely spoléhají na distribuční vlastnosti slov. Hluboké učení se svojí schopností učit se vhodné reprezentace vstupních dat umožňuje využití více informací tím, že trénovací signál nepochází pouze z jazyka, ale o i z obrazové modality. Jednou z úloh, které se pokoušejí využít vizuální informace, je multimodální strojový překlad: překlad popisků obrázků, kdy je stále k dispozici původní obrázek, který lze využít jako vstup pro překladač. Tato práce shrnuje metody společného zpracovávání jazykových dat a fotografií s využitím hlubokého učení. Uvádíme přehled metod, které se využívají k řešení multimodálního strojového překladu a popisujeme náš původní příspěvek k řešení této úlohy. Představujeme metody kombinování více vstupů z potenciálně různých modalit v modelech sekvenčního učení založených na rekurentních neuronových sítích a neuronových sítí s mechanismem sebepozornosti. Uvádíme výsledky, kterých jsme dosáhli při řešení multimodálního strojového překladu a dalších úloh souvisejících se strojovým překladem. Na závěr analyzujeme, jak multimodalita ovlivňuje sémantické vlastnosti větných reprezentací, které v sítích vznikají, a jak sémantické vlastnosti reprezentací souvisí s kvalitou překladu.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/beee557bf36bd36b8d0c081aaa5107e5104cd680/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Multimodality in Machine Translation
Multimodalita ve strojovém překladu
Traditionally, most NLP tasks are solved within the language, relying on distributional properties of words. Representation learning abilities of deep learning recently allowed using additional information source by grounding the representations in the visual modality. One of the tasks that attempt to exploit the visual information is multimodal machine translation, translation of image captions when having access to the original image. The talk will summarize methods of combining multiple inputs of possibly different modality in recurrent and Transformer sequence-to-sequence models and show results on multimodal and multi-source machine translation. Finally, we will discuss how the multimodality influences the semantic properties of the representation learned by the networks and how does that relate to the translation quality.
Většina úloh zpracování přirozeného jazyka se tradičně řeší v rámci jazyka a spoléhá se na distribuční vlastnosti slov. Schopnost modelů hlubokého učení učit se vhodnou reprezentaci vstupních dat nedávno umožnila využít také obrazovou informaci. Jedna z úloh, které se pokoušejí využít vizuální informaci, je multimodální strojový překlad, tj. překlad popisků obrázků, který má k původnímu obrázku. Přednáška shrnuje metody kombinování více vstupů s možnou různou modalitou v model využívajích rekurentní neuronové sítě a modelu Tranformer a ukáže výsledky multimodálního a vícezdrojového strojového překladu. Nakonec probereme, jak multimodalita ovlivňuje sémantické vlastnosti reprezentace, které se sítě naučily, a jak to souvisí s kvalitou překladu.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/beee557bf36bd36b8d0c081aaa5107e5104cd680/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Neural Networks as Explicit Word-Based Rules
Neuronové sítě jako explicitní pravida se slovy
Filters of convolutional networks used in computer vision are often visualized as image patches that maximize the response of the filter. We use the same approach to interpret weight matrices in simple architectures for natural language processing tasks. We interpret a convolutional network for sentiment classification as word-based rules. Using the rule, we recover the performance of the original model.
Filtry konvolučních neuronových sítí používaných v počítačovém vidění se často vizualizjí jako malé čtevrcové obrázky, které maximalizují odezvu filtru. V tomto abstraktu používáme stejný postup při interpretaci váhových matic v jednoduchých architekturách pro úkoly zpracování přirozeného jazyka. Intepretujeme konvoluční neuronovou síť pro klasifikaci sentimentu jako slovní pravidla. Pomocí těchto pravidel jsme schopni rokonstruovat fungování původního modelu.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/67588f76e255318ffec4026a0fac0ac262fe28c5/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2019
Neural networks and automatic translation
Neuronové sítě a automatický překlad
The article explains the basics of artificial neural networks and describes model for neural machine translation. Further, it discusses problem of the current models such as handling gender stereotypes.
Článek populárně vysvětluje základy fungování umělých neuronových sítí a popisuje, jak fungují modely pro neuronový strojový překlad. Dále ukazuje problémy strojového překladu jako třeba genderové stereotypy, které modely vykazují.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/ec225c2234a03883557c8c2b4fb50e32bf32bc94/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
How Language-Neutral is Multilingual BERT?
Jak jazykově neutrální je vícejazyčný BERT?
Multilingual BERT (mBERT) provides sentence representations for 104 languages, which are useful for many multi-lingual tasks. Previous work probed the cross-linguality of mBERT using zero-shot transfer learning on morphological and syntactic tasks. We instead focus on the semantic properties of mBERT. We show that mBERT representations can be split into a language-specific component and a language-neutral component, and that the language-neutral component is sufficiently general in terms of modeling semantics to allow high-accuracy word-alignment and sentence retrieval but is not yet good enough for the more difficult task of MT quality estimation. Our work presents interesting challenges which must be solved to build better language-neutral representations, particularly for tasks requiring linguistic transfer of semantics.
Vícejazyčný BERT (mBERT) poskytuje větné reprezentace pro 104 jazyků, které jsou užitečné pro mnoho vícejazyčných úloh. Předchozí práce zkoumala mnohojazyčnost mBERTu s využitím nulového transferového učení na morfologických a syntaktických úkolech. Místo toho se soustředíme na sémantické vlastnosti mBERTu. Ukazujeme, že reprezentace mBERT mohou být rozděleny na jazykově specifickou složku a jazykově neutrální složku a že jazykově neutrální složka je dostatečně obecná, pokud jde o modelování sémantiky, aby umožnila vysoce přesné zarovnání slov a vyhledávání vět, ale zatím není dostatečně dobrá pro obtížnější úkol odhadu kvality MT. Naše práce přináší zajímavé výzvy, které musí být vyřešeny, aby bylo možné sestavit lepší jazykově neutrální reprezentace, zejména u úkolů vyžadujících jazykový přenos sémantiky.
[ "Jindřich Libovický", "Rudolf Rosa", "Alexander Fraser" ]
https://www.semanticscholar.org/paper/5d8beeca1a2e3263b2796e74e2f57ffb579737ee/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Probing Representations Learned by Multimodal Recurrent and Transformer Models
Zkoumání reprezentací naučených v multimodálních rekurentních a sebepozornostních modelech
Recent literature shows that large-scale language modeling provides excellent reusable sentence representations with both recurrent and self-attentive architectures. However, there has been less clarity on the commonalities and differences in the representational properties induced by the two architectures. It also has been shown that visual information serves as one of the means for grounding sentence representations. In this paper, we present a meta-study assessing the representational quality of models where the training signal is obtained from different modalities, in particular, language modeling, image features prediction, and both textual and multimodal machine translation. We evaluate textual and visual features of sentence representations obtained using predominant approaches on image retrieval and semantic textual similarity. Our experiments reveal that on moderate-sized datasets, a sentence counterpart in a target language or visual modality provides much stronger training signal for sentence representation than language modeling. Importantly, we observe that while the Transformer models achieve superior machine translation quality, representations from the recurrent neural network based models perform significantly better over tasks focused on semantic relevance.
Z nedávné literatury vyplývá, že jazykové modelování na velkých datech poskytuje vynikající opakovaně použitelné větné reprezentace. Bylo rovněž prokázáno, že vizuální informace sloužit jako jeden ze způsobů ukotvení větných reprezentací. V tomto článku představujeme metastudii hodnotící kvalitu reprezentace modelů, kde trénovací signál pochází z různých modalit: jazykového modelování, předvídání reprezentace obrázku a textového a multimodálního strojového překladu. Hodnotíme textové a vizuální vlastnosti větných reprezentací na úlohách vyhledávání obrázků a sématické podobnosti textů. Naše experimenty odhalují, že na středně velkých datasetech poskytuje větný protějšek v cílovém jazyce nebo vizuální modalitě mnohem silnější trénovací signál pro reprezentaci vět než jazykové modelování. Důležité je, že zatímco modely Transformer dosahují vyšší kvality strojového překladu, reprezentace z modelů založených na rekurentních neuronové sítí dosahují výrazně lepších výsledků při hodnocení sématické relevance.
[ "Jindřich Libovický", "Pranava Madhyastha" ]
https://www.semanticscholar.org/paper/a4fb315e16bbd2becbaa06ab06a51322f2b0eb48/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Unsupervised Word Sense Disambiguation Using Word Embeddings
Neřízená lexikální desambiguace s využitím vektorové reprezentace slov
Word sense disambiguation is the task of assigning the correct sense of a polysemous word in the context in which it appears. In recent years, word embeddings have been applied successfully to many NLP tasks. Thanks to their ability to capture distributional semantics, more recent attention have been focused on utilizing word embeddings to disambiguate words. In this paper, a novel unsupervised method is proposed to disambiguate words from the first language by deploying a trained word embeddings model of the second language using only a bilingual dictionary. While the translated words are useful clues for the disambiguation process, the main idea of this work is to use the information provided by English-translated surrounding words to disambiguate Persian words using trained English word2vec; well-known word embeddings model. Each translation of the polysemous word is compared against word embeddings of translated surrounding words to calculate word similarity scores and the most similar word to vectors of translated surrounding words is selected as the correct translation. This method only requires a raw corpus and a bilingual dictionary to disambiguate the word under question. The experimental results on a manually-created test dataset demonstrate the accuracy of the proposed method.
Lexikální desambiguace je úlohu, při které má být zvolen ten význam slova, který je v daném kontextu relevantní. V posledních letech můžeme pozorovat úspěšnou aplikaci vektorových reprezentací slov napříč různými úlohami v oblasti zpracování přirozeného jazyka. Vzhledem ke schopnosti těchto vektorových reprezentací odrážet distribuční sémantiku byla v nedávné době věnovaná pozornost i možnosti využití pro lexikální desambiguaci. V tomto článku navrhujeme novou neřízenou metodu pro lexikální desambiguace v jednom jazyce s využitím vektorových reprezentací natrénovaných pro jiný jazyk a překladového slovníku. V našich experimentech byly pro lexikální desambiguaci perských slov využity vektorové reprezentace anglických překladů slov z blízkého kontextu. Každý možný překlad polysémního slova je porovnán s vektorovými reprezentacemi okolních slov, z toho je vygenerováno podobnostní skóre, přičemž překladový ekvivalent s nejvyšším skóre reprezentuje zvolený význam. Tato metoda vyžaduje pouze neznačkovaný korpus a překladový slovník. Úspěšnost našeho přístupu je ilustrovaná na malém vzorku ručně desambiguovaných dat.
[ "Behzad Moradi", "Ebrahim Ansari", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/f6ca6707af079de16116f14a5ed53b2de12d1532/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
AGRR-2019: Automatic Gapping Resolution for Russian
AGRR-2019: Automatické rozlišení mezer pro ruštinu
The 2019 Shared Task on Automatic Gapping Resolution for Russian (AGRR2019) aims to tackle non-trivial linguistic phenomenon, gapping, that occurs in coordinated structures and elides a repeated predicate, typically from the second clause. In this paper, we define the task and evaluation metrics, provide detailed information on data preparation, annotation schemes and methodology, analyze the results and describe different approaches of the participating solutions.
ílem sdíleného úkolu o automatickém rozlišení mezer v ruštině (AGRR2019) v roce 2019 je boj proti netriviálnímu lingvistickému jevu, který se vyskytuje v koordinovaných strukturách, a eliminuje opakovaný predikát, obvykle z druhé věty. V tomto článku definujeme metriku úkolů a hodnocení, poskytujeme podrobné informace informace o přípravě údajů, schématech anotace a metodice, analyzovat výsledky a popsat různé přístupy účastníka řešení.
[ "Ivan Smurov", "Maria Ponomareva", "Tatiana Shavrina", "Kira Droganova" ]
https://www.semanticscholar.org/paper/f5c5f617b324e19c555480027913deee721e3aa6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Biases and perils of MT evaluation
Úskalí vyhodnocování strojového překladu
Virtually all MT evaluation metrics and techniques, both automatic and manual, have their own perils. Some of the perils can be considered biases if there are MT systems which can (unfairly) benefit from a given evaluation aspects. In my presentation, I focus on the following aspects of evaluations: sentence-level vs. document-level vs. document-aware, source-based vs. reference-based, direct assessment vs. comparison-based, fluency-biased vs. adequacy-biased. I also discuss the aspect of translationese and native target/source-language translators and evaluators.
Prakticky všechny metriky a techniky hodnocení strojového překladu, automatické i manuální, mají svá vlastní nebezpečí. Některá nebezpečí lze považovat za podjatá, pokud existují systémy MT, které mohou (nespravedlivě) těžit z daných aspektů hodnocení. Ve své prezentaci se zaměřuji na následující aspekty: hodnocení na úrovni vět vs. dokumentu (document-level vs. document-aware evaluation), source-based vs. reference-based, přímé hodnocení vs. hodnocení založené na srovnávání, plynulost vs. přesnost. Zabývám se také aspektem překladštiny (translationese) a rodným jazykem překladatelů a hodnotitelů.
[ "Martin Popel" ]
https://www.semanticscholar.org/paper/3ddd64c646d5ab21abf8791a8fc530560c33dc36/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
English-Czech Systems in WMT19: Document-Level Transformer
Anglicko-český systém pro WMT19: Transformer na úrovni dokumentů
We describe our NMT systems submitted to the WMT19 shared task in English→Czech news translation. Our systems are based on the Transformer model implemented in either Tensor2Tensor (T2T) or Marian framework. We aimed at improving the adequacy and coherence of translated documents by enlarging the context of the source and target. Instead of translating each sentence independently, we split the document into possibly overlapping multi-sentence segments. In case of the T2T implementation, this “document-level”-trained system achieves a +0.6 BLEU improvement (p < 0.05) relative to the same system applied on isolated sentences. To assess the potential effect document-level models might have on lexical coherence, we performed a semi-automatic analysis, which revealed only a few sentences improved in this aspect. Thus, we cannot draw any conclusions from this week evidence.
Článek popisuje CUNI NMT systémy pro překlad z angličtiny do češtiny zaslané na WMT 2019 News Translation Shared Task. Systémy jsou založené na architektuře Transformer a její implementaci ve frameworcích Tensor2Tensor (T2T) a Marian. Snahou bylo zlepšit adekvátnost a koherenci přeložených dokumentů rozšířením kontextu na zdrojové a cílové straně. Namísto překladu izolovaných vět překládají popisované systémy potenciálně překrývající se vícevětné segmenty. V případě T2T implementace dosahuje takto trénovaný systém oproti systému trénovaném na izolovaných větách vylepšení +0.6 BLEU (p < 0.05). Poloautomatická analýza lexikální koherence odhalila jen málo příkladů, kde systém s větším kontext opravil chybu systému překládajíchího izolované věty.
[ "Martin Popel", "Dominik Macháček", "Michal Auersperger", "Ondřej Bojar", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/92a88ac6bd7cfab097547c94f37f31cb7747c596/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Domain Adaptation of Document-Level NMT in IWSLT19
Doménová adaptace dokumentového neuronového strojového překladu v IWSLT19
We describe our four NMT systems submitted to the IWSLT19 shared task in English→Czech text-to-text translation of TED talks. The goal of this study is to understand the interactions between document-level NMT and domain adaptation. All our systems are based on the Transformer model implemented in the Tensor2Tensor framework. Two of the systems serve as baselines, which are not adapted to the TED talks domain: SENTBASE is trained on single sentences, DOCBASE on multi-sentence (document-level) sequences. The other two submitted systems are adapted to TED talks: SENTFINE is fine-tuned on single sentences, DOCFINE is fine-tuned on multi-sentence sequences. We present both automatic-metrics evaluation and manual analysis of the translation quality, focusing on the differences between the four systems.
Popisujeme naše čtyři systémy neuronového strojového překladu (NMT), které jsme odeslali do shared tasku IWSLT19 pro anglicko-český překlad TED Talks. Cílem této studie je porozumět interakcím mezi NMT na úrovni dokumentů a doménovou adaptací. Všechny naše systémy jsou založeny na modelu Transformer implementovaném ve frameworku Tensor2Tensor. Dva ze systémů slouží jako baseline a nejsou přizpůsobeny doméně TED Talks: SENTBASE je trénován na jednotlivých větách, DOCBASE na vícevětných (document-level) sekvencích. Další dva předložené systémy jsou přizpůsobeny doméně TED Talks: SENTFINE je adaptován na jednotlivých větách, DOCFINE na vícevětných sekvencích. Představujeme jak automatické metrické hodnocení, tak manuální analýzu kvality překladu se zaměřením na rozdíly mezi těmito čtyřmi systémy.
[ "Martin Popel", "Christian Federmann" ]
https://www.semanticscholar.org/paper/8d8762cebb52f2b287488cf96c3e1c12d7795394/
null
null
null
null
null
null
null
null
null
null
null
null
en
2019
Unsupervised Pretraining for Neural Machine Translation Using Elastic Weight Consolidation
Předtrénování bez dohledu pro neuronový strojový překlad s využitím elastické konsolidace vah
This work presents our ongoing research of unsupervised pretraining in neural machine translation (NMT). In our method, we initialize the weights of the encoder and decoder with two language models that are trained with monolingual data and then fine-tune the model on parallel data using Elastic Weight Consolidation (EWC) to avoid forgetting of the original language modeling tasks. We compare the regularization by EWC with the previous work that focuses on regularization by language modeling objectives. The positive result is that using EWC with the decoder achieves BLEU scores similar to the previous work. However, the model converges 2-3 times faster and does not require the original unlabeled training data during the finetuning stage. In contrast, the regularization using EWC is less effective if the original and new tasks are not closely related. We show that initializing the bidirectional NMT encoder with a left-toright language model and forcing the model to remember the original left-to-right language modeling task limits the learning capacity of the encoder for the whole bidirectional context.
Tato práce představuje náš probíhající výzkum předtrénování bez dohledu v oblasti neuronového strojového překladu (NMT). Naše metoda inicializuje váhy enkodéru a dekodéru pomocí dvou jazykových modelů, které jsou trénovány na jednojazyčných datech. Celý model pak dolaďujeme na paralelních datech s pomocí elastické konsolidace vah (EWC), abychom zabránili zapomenutí původní úlohy jazykového modelování. Srovnáváme regularizaci EWC s předchozí prací, která se zaměřuje na regularizaci s pomocí optimalizačních cílů jazykového modelování. Pozitivním výsledkem je, že použitím EWC s dekodérem dosáhneme podobných hodnot BLEU jako předchozí práce. Model však konverguje 2-3krát rychleji a nevyžaduje původní jednojazyčná data během dolaďování. Oproti tomu je EWC regularizace méně účinná, pokud spolu původní a navazující úloha úzce nesouvisí. Ukazujeme, že inicializace obousměrného NMT enkodéru pomocí jednosměrného jazykového modelu a nucení modelu zapamatovat si původní úlohu modelování jazyka zleva doprava omezuje schopnosti enkodéru naučit se oboustranný kontext.
[ "Dušan Variš", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/3c541136849e575bd8a81e0f1e3c89214132df54/
null
null
null
null
null
null
null
null
null
null
null
null
en
2018
A Baseline for General Music Object Detection with Deep Learning
Porovnání obecné detekce objektů hudební notace pomocí hlubokého učení
Deep learning is bringing breakthroughs to many computer vision subfields including Optical Music Recognition (OMR), which has seen a series of improvements to musical symbol detection achieved by using generic deep learning models. However, so far, each such proposal has been based on a specific dataset and different evaluation criteria, which made it difficult to quantify the new deep learning-based state-of-the-art and assess the relative merits of these detection models on music scores. In this paper, a baseline for general detection of musical symbols with deep learning is presented. We consider three datasets of heterogeneous typology but with the same annotation format, three neural models of different nature, and establish their performance in terms of a common evaluation standard. The experimental results confirm that the direct music object detection with deep learning is indeed promising, but at the same time illustrates some of the domain-specific shortcomings of the general detectors. A qualitative comparison then suggests avenues for OMR improvement, based both on properties of the detection model and how the datasets are defined. To the best of our knowledge, this is the first time that competing music object detection systems from the machine learning paradigm are directly compared to each other. We hope that this work will serve as a reference to measure the progress of future developments of OMR in music object detection.
Hluboké učení přináší průlomy v mnoha podoborech strojového vidění, včetně rozpoznávání notopisu (Optical Music Recognition, OMR), kde bylo zaznamenáno množství pokroků v detekci notopisných symbolů pomocí obecných modelů hlubokého učení. Zatím však byly všechny tyto pokroky měřené pouze na některém z dostupných datasetů a využívaly různá evaluační kritéria, takže lze jen obtížně kvantifikovat nový stav poznání dosažený těmito metodami a porovnat jejich výhody a nevýhody v doméně hudební notace. V tomto článku prezentujeme základní výsledky detekce symbolů hudební notace pomocí tří různých obecných detekčních modelů hlubokého učení, a to napříč třemi typologicky různými datasety, změřené standardizovaným postupem. Experimentální výsledky potvrzují, že přímá detekce notačních objektů pomocí hlubokého učení má velmi slibné výsledky, nicméně zároveň ilustruje omezení generických detektorů na této doméně. Kvalitativní porovnání poté naznačuje, jak detekci zlepšit: jak na základě vlastností detekčních modelů, tak na základě vlastností datasetů. Dle našich poznatků je toto poprvé, kdy je vícero špičkových metod detekce notačních objektů přímo porovnáváno. Doufáme, že tato práce bude sloužit jako reference pro měření dalších pokroků v OMR.
[ "Alexander Pacha", "Jan Hajič, jr.", "Jorge Calvo-Zaragoza" ]
https://www.semanticscholar.org/paper/1fbb66a9407470e1da332c4ef69cdc34e169a3d7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2018
Syntactic annotation of a second-language learner corpus
Syntaktická anotace žákovského korpusu
Our goal has been to annotate the CzeSL corpus according to the non-native grammar in the mind of the author, not according to the standard grammar. However, this brings many challenges. First, we do not have enough data to get reliable insights into the grammar of each author. Second, many phenomena are far more complicated than they are in native languages.
Naším cílem je anotace korpusu CzeSL podle gramatiky jazyka, se kterou pracuje nerodilý mluvčí, a ne podle standartní gramatiky. Tento přístup přináší několik problémů. Za prvé nemáme dostatek dat na to, abychom analyzovali gramatiky jednotlivých autorů. Za druhé v jazyce nerodilých mluvčí je podstatně více složitějších jevů než v jazyce rodilých mluvčí.
[ "Jirka Hana", "Barbora Hladká" ]
https://www.semanticscholar.org/paper/425305110dd5170114c2484d4c99a9fadeb7c26a/
null
null
null
null
null
null
null
null
null
null
null
null