lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2023
Low-Resource Text Style Transfer for Bangla: Data & Models
Přenos stylu textu s malým množstvím zdrojů pro bengálštinu: Data a modely
Text style transfer (TST) involves modifying the linguistic style of a given text while retaining its core content. This paper addresses the challenging task of text style transfer in the Bangla language, which is low-resourced in this area. We present a novel Bangla dataset that facilitates text sentiment transfer, a subtask of TST, enabling the transformation of positive sentiment sentences to negative and vice versa. To establish a high-quality base for further research, we refined and corrected an existing English dataset of 1,000 sentences for sentiment transfer based on Yelp reviews, and we introduce a new human-translated Bangla dataset that parallels its English counterpart. Furthermore, we offer multiple benchmark models that serve as a validation of the dataset and baseline for further research.
Přenos stylu textu (TST) zahrnuje úpravu jazykového stylu daného textu při zachování jeho hlavního obsahu. Tento článek se zabývá náročným úkolem přenosu textového stylu v bengálštině, která má v této oblasti málo zdrojů. Představujeme novou datovou sadu v bengálštině, která usnadňuje převod sentimentu textu, dílčí úkol TST, umožňující transformaci pozitivních sentimentálních vět na negativní a naopak. Abychom vytvořili kvalitní základnu pro další výzkum, zdokonalili jsme a opravili existující anglický dataset o 1 000 větách pro přenos sentimentu založený na recenzích na Yelpu a představujeme nový dataset v bengálštině přeložený člověkem, který je paralelní s jeho anglickým protějškem. Dále nabízíme několik srovnávacích modelů, které slouží jako validace datové sady a východisko pro další výzkum.
[ "Sourabrata Mukherjee", "Akansha Bansal", "Pritha Majumdar", "Atul Kr. Ojha", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/de44c12630190cfc69a66aa9a8427591c8267bdc/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Universal Anaphora Scorer 2.0
Universal Anaphora Scorer 2.0
The aim of the Universal Anaphora initiative is to push forward the state of the art both in anaphora (coreference) annotation and in the evaluation of models for anaphora resolution. The first release of the Universal Anaphora Scorer (Yu et al., 2022b) supported the scoring not only of identity anaphora as in the Reference Coreference Scorer (Pradhan et al., 2014) but also of split antecedent anaphoric reference, bridging references, and discourse deixis. That scorer was used in the CODI-CRAC 2021/2022 Shared Tasks on Anaphora Resolution in Dialogues (Khosla et al., 2021; Yu et al., 2022a). A modified version of the scorer supporting discontinuous markables and the COREFUD markup format was also used in the CRAC 2022 Shared Task on Multilingual Coreference Resolution (Žabokrtský et al., 2022). In this paper, we introduce the second release of the scorer, merging the two previous versions, which can score reference with discontinuous markables and zero anaphora resolution.
Článek představuje novou verzi evaluačního nástroje na hodnocení rozpoznávání koreference a dalších anaforických vztahů v rámci iniciativy Universal Anaphora.
[ "Juntao Yu", "Michal Novák", "Abdulrahman Aloraini", "Nafise Sadat Moosavi", "Silviu Paun", "Sameer Pradhan", "Massimo Poesio" ]
https://www.semanticscholar.org/paper/1a831196cb37ff715ad05299e2a49567b465f0aa/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Missing information, unresponsive authors, experimental flaws: The impossibility of assessing the reproducibility of previous human evaluations in NLP
Chybějící informace, neteční autoři, chyby v návrhu experimentů: nemožnost vyhodnocení reprodukovatelnosti předchozích lidských vyhodnocení v NLP
We report our efforts in identifying a set of previous human evaluations in NLP that would be suitable for a coordinated study examining what makes human evaluations in NLP more/less reproducible. We present our results and findings, which include that just 13% of papers had (i) sufficiently low barriers to reproduction, and (ii) enough obtainable information, to be considered for reproduction, and that all but one of the experiments we selected for reproduction was discovered to have flaws that made the meaningfulness of conducting a reproduction questionable. As a result, we had to change our coordinated study design from a reproduce approach to a standardisethen-reproduce-twice approach. Our overall (negative) finding that the great majority of human evaluations in NLP is not repeatable and/or not reproducible and/or too flawed to justify reproduction, paints a dire picture, but presents an opportunity for a rethink about how to design and report human evaluations in NLP.
Referujeme o našem úsilí při identifikaci souboru předchozích lidských hodnocení v NLP, která by byla vhodná pro koordinovanou studii zkoumající, co činí lidská hodnocení v NLP více či méně reprodukovatelnými. Uvádíme naše výsledky a zjištění, mezi něž patří, že pouze 13 % prací mělo (i) dostatečně nízké překážky pro reprodukci a (ii) dostatek dostupných informací, aby mohly být uvažovány pro reprodukci, a že až na jeden u všech experimentů vybraných pro reprodukci byly zjištěny nedostatky, které samotné provádění reprodukce zpochybnily. V důsledku toho jsme museli změnit náš koordinovaný plán studie z přístupu reprodukce na přístup standardizace + dvojí reprodukce. Naše celkové (negativní) zjištění, že velká většina lidských hodnocení v NLP není opakovatelná a/nebo není reprodukovatelná a/nebo je příliš chybová na to, aby reprodukce dávala smysl, vykresluje neradostný obraz, ale představuje příležitost k přehodnocení toho, jak navrhovat a podávat zprávy o lidských hodnoceních v NLP.
[ "Anya Belz", "Craig Thomson", "Ehud Reiter", "Gavin Abercrombie", "Jose M. Alonso-Moral", "Mohammad Arvan", "Jackie Cheung", "Mark Cieliebak", "Elizabeth Clark", "Kees van Deemter", "Tanvi Dinkar", "Ondřej Dušek", "Steffen Eger", "Qixiang Fang", "Albert Gatt", "Dimitra Gkatzia", "Javier González Corbelle", "Dirk Hovy", "Manuela Hürlimann", "Takumi Ito", "John D. Kelleher", "Filip Klubička", "Huiyuan Lai", "Chris van der Lee", "Emiel van Miltenburg", "Yiru Li", "Saad Mahamood", "Margot Mieskes", "Malvina Nissim", "Natalie Parde", "Ondřej Plátek", "Verena Rieser", "Pablo Mosteiro Romero", "Joel Tetreault", "Antonio Toral", "Xiaojun Wan", "Leo Wanner", "Lewis Watson", "Diyi Yang" ]
https://www.semanticscholar.org/paper/4fcfe83c05402b5c5fb6e853082e74af6379d7f9/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Automatic generation of seminars/homework/ and eventually possibly bachelor and thesis
Automatické generování seminárek/domácích úkolů/ a časem možná i bakalářek a diplomek
The aim of the seminar will be to reflect informally on how to handle the new technology in the classroom and to share experiences and visions.
Cílem semináře bude se společně neformálně zamyslet jak s novou technologií v rámci výuky zacházet a případně sdílet zkušenosti a vize.
[ "Tereza Hannemann", "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Discussion of ChatGPT
Debata o ChatGPT
How does ChatGPT etc. change informatics? How does ChatGPT etc. change the study in the informatics section? How does ChatGPT etc. affect the entering and evaluation of tasks? Is the use of GPT etc. in the study a fraud or an effective solution?
Jak ChatGPT aj. mění informatiku? Jak ChatGPT aj. mění studium na informatické sekci? Jak ChatGPT aj. ovlivňuje zadávání a hodnocení úkolů? Je využívání GPT aj. při studiu podvod nebo efektivní řešení?
[ "Tereza Hannemann", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/155b42acafc4f39a10f44713c600f7540473c395/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
On Difficulties of Attention Factorization through Shared Memory
K obtížnosti faktorizace attention pomocí sdílené paměti
Transformers are powerful deep learning models that have revolutionized various fields like natural language processing, computer vision, and audio processing. Their strength lies in the attention mechanism, which enables learning complex dependencies between inputs. However, this attention mechanism also comes with quadratic time and memory complexity, making it challenging to apply the model to larger inputs. Among other approaches to accelerate computation, researchers are exploring models that use external learnable memory to reduce attention computation to linear complexity. We focus on one such model, Linear Unified Nested Attention (Luna), to examine how memory size and block connectivity affect model training convergence and predictive accuracy. Our research brings some counter-intuitive results regarding the Luna model, e.g. that the size of the memory has much less impact on the performance than one might expect, and that the block might significantly benefit from layer reordering.
Transformátory jsou výkonné modely hlubokého učení, které způsobily revoluci v různých oblastech, jako je zpracování přirozeného jazyka, počítačové vidění a zpracování zvuku. Jejich síla spočívá v mechanismu pozornosti, který umožňuje učení komplexních závislostí mezi vstupy. Tento mechanismus pozornosti však přichází také s kvadratickým časem a složitostí paměti, takže je náročné aplikovat model na větší vstupy. Mezi dalšími přístupy k urychlení výpočtů výzkumníci zkoumají modely, které využívají externí naučitelnou paměť k redukci výpočtu pozornosti na lineární složitost. Zaměřujeme se na jeden takový model, Lineární sjednocená vnořená pozornost (Luna), abychom zkoumali, jak velikost paměti a připojení bloku ovlivňují trénink modelu konvergence a prediktivní přesnost. Náš výzkum přináší několik protichůdných výsledků týkajících se modelu Luny, např. že velikost paměti má mnohem menší dopad na výkon, než by se dalo očekávat, a že blok by mohl významně těžit z přeskupení vrstev.
[ "Uladzislau Yorsh", "Ondřej Bojar", "Martin Holeňa" ]
https://www.semanticscholar.org/paper/d0270dcfa7ca058cea59512b832be6c91408676f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Assessing Word Importance Using Models Trained for Semantic Tasks
Určení důležitosti slova pomocí modelů trénovaných pro sémantické úlohy
Many NLP tasks require to automatically identify the most significant words in a text. In this work, we derive word significance from models trained to solve semantic task: Natural Language Inference and Paraphrase Identification. Using an attribution method aimed to explain the predictions of these models, we derive importance scores for each input token. We evaluate their relevance using a so-called cross-task evaluation: Analyzing the performance of one model on an input masked according to the other model’s weight, we show that our method is robust with respect to the choice of the initial task. Additionally, we investigate the scores from the syntax point of view and observe interesting patterns, e.g. words closer to the root of a syntactic tree receive higher importance scores. Altogether, these observations suggest that our method can be used to identify important words in sentences without any explicit word importance labeling in training.
Mnoho úloh NLP vyžaduje automatickou identifikaci nejdůležitějších slov v textu. V této práci odvozujeme význam slov z modelů natrénovaných k řešení sémantických úloh: Inference přirozeného jazyka a identifikace parafrází. Pomocí atribuční metody, jejímž cílem je vysvětlit předpovědi těchto modelů, odvozujeme skóre důležitosti pro každý vstupní token. Jejich relevanci hodnotíme pomocí tzv. křížového hodnocení úloh: Analýzou výkonu jednoho modelu na vstupu maskovaném podle váhy druhého modelu prokážeme, že naše metoda je robustní s ohledem na volbu výchozí úlohy. Kromě toho zkoumáme skóre z hlediska syntaxe a pozorujeme zajímavé vzorce, např. slova blíže ke kořeni syntaktického stromu dostávají vyšší skóre důležitosti. Celkově tato pozorování naznačují, že naši metodu lze použít k identifikaci důležitých slov ve větách bez jakéhokoli explicitního označení důležitosti slov v tréninku.
[ "Dávid Javorský", "Ondřej Bojar", "François Yvon" ]
https://www.semanticscholar.org/paper/feb40dec09a7125d13fcfb9b7c0561455640ead5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Breeding Machine Translations: Evolutionary approach to survive and thrive in the world of automated evaluation
Šlechtění strojového překladu: Evoluční přístup k přežití a prosperitě ve světě automatizovaného hodnocení
We propose a genetic algorithm (GA) based method for modifying n-best lists produced by a machine translation (MT) system. Our method offers an innovative approach to improving MT quality and identifying weaknesses in evaluation metrics. Using common GA operations (mutation and crossover) on a list of hypotheses in combination with a fitness function (an arbitrary MT metric), we obtain novel and diverse outputs with high metric scores. With a combination of multiple MT metrics as the fitness function, the proposed method leads to an increase in translation quality as measured by other held-out automatic metrics.With a single metric (including popular ones such as COMET) as the fitness function, we find blind spots and flaws in the metric. This allows for an automated search for adversarial examples in an arbitrary metric, without prior assumptions on the form of such example. As a demonstration of the method, we create datasets of adversarial examples and use them to show that reference-free COMET is substantially less robust than the reference-based version.
Navrhujeme metodu založenou na genetickém algoritmu (GA) pro modifikaci n-nejlepších seznamů vytvořených systémem strojového překladu (MT). Naše metoda nabízí inovativní přístup ke zlepšení kvality MT a identifikaci slabin v metrikách hodnocení. Pomocí běžných GA operací (mutace a crossover) na seznamu hypotéz v kombinaci s fitness funkcí (libovolná MT metrika) získáváme nové a různorodé výstupy s vysokými metrickými skóre. Díky kombinaci více metrik MT jako fitness funkce vede navrhovaná metoda ke zvýšení kvality překladu měřené jinými automatickými metrikami. S jedinou metrikou (včetně populárních, jako je COMET) jako funkce fitness, najít slepá místa a nedostatky v metrice. To umožňuje automatizované vyhledávání příkladů protivníka v libovolné metrice, bez předchozích předpokladů o formě takového příkladu. Jako demonstraci metody vytváříme datové sady protichůdných příkladů a používáme je, abychom ukázali, že bezreferenční COMET je podstatně méně robustní než referenční verze.
[ "Josef Jon", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/6b8f95261aab7b3f123233a90fc063d4970e2be7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Character-level NMT and language similarity
NMT na úrovni znaků a jazyková podobnost
We explore the effectiveness of character-level neural machine translation using Transformer architecture for various levels of language similarity and size of the training dataset on translation between Czech and Croatian, German, Hungarian, Slovak, and Spanish. We evaluate the models using automatic MT metrics and show that translation between similar languages benefits from character-level input segmentation, while for less related languages, character-level vanilla Transformer-base often lags behind subword-level segmentation. We confirm previous findings that it is possible to close the gap by finetuning the already trained subword-level models to character-level.
Zkoumáme efektivitu neuronového strojového překladu na úrovni znaků pomocí architektury Transformer pro různé úrovně jazykové podobnosti a velikosti trénovacího souboru dat na překladu mezi češtinou a chorvatštinou, němčinou, maďarštinou, slovenštinou a španělštinou. Modely vyhodnocujeme pomocí metrik automatického MT a ukazujeme, že překlad mezi podobnými jazyky těží ze segmentace vstupů na úrovni znaků, zatímco u méně příbuzných jazyků vanilková báze Transformer na úrovni znaků často zaostává za segmentací na úrovni subwordů. Potvrzujeme předchozí zjištění, že je možné tuto mezeru zmenšit finetuningem již natrénovaných modelů na úrovni subwordů na úroveň znaků.
[ "Josef Jon", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/74f89dfa5060c87093f045b59e1aebeb0e8bfd7d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
CUNI at WMT23 General Translation Task: MT and a Genetic Algorithm
Příspěvky CUNI na WMT23 úkol obecného překladu
This paper describes the submissions of different Charles University teams to WMT23 General translation task (English to Czech and Czech to Ukrainian translation directions). Our main submission, CUNI-GA, is a result of applying a novel n-best list reranking and modification method on translation candidates produced by the two other submitted systems, CUNI-Transformer and CUNI-DocTransformer (document-level translation only used for the $en \rightarrow cs$ direction). Our method uses a genetic algorithm and MBR decoding to search for optimal translation under a given metric (in our case, a weighted combination of ChrF, BLEU, COMET22-DA, and COMET22-QE-DA). Based on the automatic metrics, our submissions are first in the constrained track and competitive with the best unconstrained systems according to some of the metrics.
Tento příspěvek popisuje příspěvky různých týmů Univerzity Karlovy do překladatelské úlohy WMT23 General (překladatelské směry z češtiny do angličtiny a z češtiny do ukrajinštiny). Naše hlavní podání, CUNI-GA, je výsledkem aplikace nové metody přeřazování a modifikace n-nejlepších seznamů na kandidáty překladu vytvořené dalšími dvěma předloženými systémy, CUNI-Transformer a CUNI-DocTransformer (překlad na úrovni dokumentů se používá pouze pro směr $en \rightarrow cs$). Naše metoda používá genetický algoritmus a dekódování MBR k hledání optimálního překladu podle dané metriky (v našem případě vážené kombinace ChrF, BLEU, COMET22-DA a COMET22-QE-DA). Na základě automatických metrik jsou naše příspěvky první v omezené stopě a podle některých metrik konkurují nejlepším neomezeným systémům.
[ "Josef Jon", "Martin Popel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/9d8a84eac41fc1334764836f0bbb7803e8ad8beb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Negative Lexical Constraints in Neural Machine Translation
Negativní lexikální omezení ve strojovém překladu
This paper explores negative lexical constraining in English to Czech neural machine translation. Negative lexical constraining is used to prohibit certain words or expressions in the translation produced by the neural translation model. We compared various methods based on modifying either the decoding process or the training data. The comparison was performed on two tasks: paraphrasing and feedback-based translation refinement. We also studied to which extent these methods “evade" the constraints presented to the model (usually in the dictionary form) by generating a different surface form of a given constraint.We propose a way to mitigate the issue through training with stemmed negative constraints to counter the model’s ability to induce a variety of the surface forms of a word that can result in bypassing the constraint. We demonstrate that our method improves the constraining, although the problem still persists in many cases.
Tento článek zkoumá negativní lexikální omezení v angličtině do českého neuronového strojového překladu. Negativní lexikální omezení se používá k zákazu určitých slov nebo výrazů v překladu vytvořeném modelem neurální translace. Porovnali jsme různé metody založené na úpravě buď dekódovacího procesu nebo trénovacích dat. Srovnání bylo provedeno na dvou úlohách: parafrázování a zpřesňování překladu na základě zpětné vazby. Zkoumali jsme také, do jaké míry se tyto metody „vyhýbají“ omezením prezentovaným v modelu (obvykle ve formě slovníku) tím, že generují jinou povrchovou formu daného omezení. Navrhujeme způsob, jak tento problém zmírnit pomocí tréninku s odstraněnými negativními omezeními. čelit schopnosti modelu vyvolat různé povrchové formy slova, což může vést k obejití omezení. Ukazujeme, že naše metoda omezení zlepšuje, i když problém v mnoha případech stále přetrvává.
[ "Josef Jon", "Dušan Variš", "Michal Novák", "Joao Paulo Aires", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/acf3d639a7611827656ce79cc41c7af11518fa1f/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI, where are you heading? Where are we heading together?
AI kam kráčís? Kam spolu půjdeme?
Do you want to make magic with AI? I'll show you a gallery of AI spells and explain how you can use it too. I'll show you AI chatting, talking, and playing music. I'll briefly summarise the history and predict what will be hot in AI this Christmas. Is AI hard to understand? It is, and it isn't. Come to the talk and join the open online community for advice. You'll learn how to use AI, create it, and maybe even improve it. Take your phone and come. You'll learn how to get started and how to grow your knowledge. Getting started with AI is easy!
Chceš začít kouzlit s AI? Ukážu ti galerii AI kouzel a vysvětlím, jak ji můžeš používat i ty. Předvedu ti AI chatující, mluvící i hrající muziku. Krátce shrnu historii a předpovím, co bude frčet v AI o Vánocích. Je těžké AI rozumět? Je a není. Přijď na přednášku a přidej se do otevřené online komunity, která ti poradí. Naučíš se AI používat, tvořit a třeba ji i vylepšíš. Vem si mobil a přijď. Dozvíš se jak začít i jak své znalosti prohlubovat. Začít s AI je jednoduché!
[ "Ondřej Plátek" ]
https://www.semanticscholar.org/paper/b74fcd64f8e456e5db4ee20a132e2348fa1aa794/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI f* ups. How to avoid troubles and be ethical?
AI přešlapy. Jak se vyhnout průšvihům a chovat se eticky?
AI overshoots? How will I stay out of trouble? (Generative) AI can't be avoided anymore. At the same time, as a new technology, it creates many controversial situations with no precedents for how to behave in them. Let's demonstrate them so you can recognize them and have time to prepare an appropriate ethical solution.
AI přešlapy? Vyhnu se průšvihům. (Generativní) AI se vyhnout již nedá. Zároveň AI, jako nová technologie, vytváří řadu kontroverzních situací bez precedensu jak se v nich chovat. Pojdmě si kontroverzní situace ukázat, abychom je rozpoznali a měli čas si připravit vhodné etické řešení.
[ "Ondřej Plátek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI f* ups. How to avoid troubles and be ethical?
AI přešlapy. Jak se vyhnout průšvihům a chovat se eticky?
AI overshoots? How will I stay out of trouble? (Generative) AI can't be avoided anymore. At the same time, as a new technology, it creates many controversial situations with no precedents for how to behave in them. Let's demonstrate them so you can recognize them and have time to prepare an appropriate ethical solution.
AI přešlapy? Vyhnu se průšvihům. (Generativní) AI se vyhnout již nedá. Zároveň jako nová technologie vytváří řadu kontroverzních situací bez precedenců jak se v nich chovat. Pojdmě si je ukázat ať je rozpoznáte a máte se čas si připravit vhodné etické řešení.
[ "Ondřej Plátek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
MooseNet: A Trainable Metric for Synthesized Speech with a PLDA Module
MooseNet: trénovatelná metrika pro syntetizovanou řeč s PLDA modulem
We present MooseNet, a trainable speech metric that predicts the listeners’ Mean Opinion Score (MOS). We propose a novel approach where the Probabilistic Linear Discriminative Analysis (PLDA) generative model is used on top of an embedding obtained from a self-supervised learning (SSL) neural network (NN) model. We show that PLDA works well with a non-finetuned SSL model when trained only on 136 utterances (ca. one minute training time) and that PLDA consistently improves various neural MOS prediction models, even stateof-the-art models with task-specific fine-tuning. Our ablation study shows PLDA training superiority over SSL model finetuning in a low-resource scenario. We also improve SSL model fine-tuning using a convenient optimizer choice and additional contrastive and multi-task training objectives. The fine-tuned MooseNet NN with the PLDA module achieves the best results, surpassing the SSL baseline on the VoiceMOS Challenge data.
Představujeme MooseNet trénovatelnou metriku pro syntetizovanou řeč, která předpovídá průměrné skóre názorů posluchačů (MOS). Navrhujeme nový přístup, v němž je generativní model pravděpodobnostní lineární diskriminační analýzy (PLDA) použit nad předtrénovaným modelem neuronové sítě (NN) natrénovaným self-supervised learning(SSL). Ukazujeme, že PLDA funguje dobře i s netrénovaným modelem SSL, když je trénován pouze na 136 promluvách, a že PLDA konzistentně zlepšuje různé neuronové modely predikce MOS, dokonce i nejmodernější modely adaptované na konkrétní úlohy. Naše ablační studie ukazuje nadřazenost PLDA nad adaptovanými modely SSL ve scénáři s malým počtem trénovacích dat. Zlepšili jsme také adaptaci SSL modelu pomocí. Adaptovaný MooseNet NN s modulem PLDA dosahuje nejlepších výsledků a překonává základní model SSL na datech VoiceMOS Challenge.
[ "Ondřej Plátek", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/9ef343b59bcf024ff3a86850086efe6427d343e7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Three Ways of Using Large Language Models to Evaluate Chat
Tři způsoby použití velkých jazykových modelů pro evaluaci chatu
This paper describes the systems submitted by team6 for ChatEval, the DSTC 11 Track 4 competition. We present three different approaches to predicting turn-level qualities of chatbot responses based on large language models (LLMs). We report improvement over the baseline using dynamic few-shot examples from a vector store for the prompts for ChatGPT. We also analyze the performance of the other two approaches and report needed improvements for future work. We developed the three systems over just two weeks, showing the potential of LLMs for this task. An ablation study conducted after the challenge deadline shows that the new Llama 2 models are closing the performance gap between ChatGPT and open-source LLMs. However, we find that the Llama 2 models do not benefit from few-shot examples in the same way as ChatGPT.
Tento článek popisuje systémy odevzdané týmem 6 v soutěži ChatEval, která se koná v rámci DSTC 11 Track 4. Představuje tři různé přístupy k předpovídání kvality odpovědí chatbotů na úrovni tahů na základě velkých jazykových modelů (LLM). Uvádíme zlepšení oproti základnímu systému pomocí dynamických příkladů s několika příklady z vektorového úložiště pro ChatGPT prompty. Analyzujeme také výkonnost dalších dvou přístupů a uvádíme potřebná zlepšení pro budoucí práci. Tyto tři systémy jsme vyvinuli během pouhých dvou týdnů, což ukazuje potenciál LLM pro tuto úlohu. Ablační studie provedená po soutěži ukazuje, že nové modely Llama 2 zmenšují rozdíl mezi ChatGPT a open-source LLM. Zjistili jsme však, že modely Llama 2 nevyužívají příklady s několika příklady stejným způsobem jako ChatGPT.
[ "Ondřej Plátek", "Vojtěch Hudeček", "Patrícia Schmidtová", "Mateusz Lango", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/4a4a7c1281f022970f9faa171ff33f2de04a3ba7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
With a Little Help from the Authors: Reproducing Human Evaluation of an MT Error Detector
S dopomocí autorů: Reprodukce lidského hodnocení MT detektoru
This work presents our efforts to reproduce the results of the human evaluation experiment presented in the paper of Vamvas and Sennrich (2022), which evaluated an automatic system detecting over- and undertranslations (translations containing more or less information than the original) in machine translation (MT) outputs. Despite the high quality of the documentation and code provided by the authors, we discuss some problems we found in reproducing the exact experimental setup and offer recommendations for improving reproducibility. Our replicated results generally confirm the conclusions of the original study, but in some cases statistically significant differences were observed, suggesting a high variability of human annotation.
Tato práce představuje naši snahu o reprodukci výsledků experimentu s lidským hodnocením, který byl prezentován v článku Vamvase a Sennricha (2022), který hodnotil automatický systém pro detekci "under-" a "over-" translation (překladů obsahujících více nebo méně informací než originál) ve výstupech strojového překladu (MT). Navzdory vysoké kvalitě dokumentace a kódu, které autoři poskytli, jsme popsali problémy, které jsme zjistili při reprodukci přesného experimentálního uspořádání, a nabízíme doporučení pro zlepšení reprodukovatelnosti. Naše replikované výsledky obecně potvrzují závěry původní studie, ale v některých případech byly pozorovány statisticky významné rozdíly, což naznačuje vysokou variabilitu lidské anotace.
[ "Ondřej Plátek", "Mateusz Lango", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/27d3a410dc9206041461883f7e4db59fa1716d0d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
THEaiTRE: Artificial Intelligence Writes a Theatre Play
THEaiTRE: Umělá inteligence píše divadelní hru
Presentation of the THEaiTRE project within the conference for both professional and lay public.
Prezentace projektu THEaiTRE v rámci konference pro odbornou i laickou veřejnost.
[ "Tomáš Studeník", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
ESPnet-ST-v2: Multipurpose Spoken Language Translation Toolkit
ESPnet-ST-v2: Víceúčelová sada nástrojů pro překlad mluveného jazyka
ESPnet-ST-v2 is a revamp of the open-source ESPnet-ST toolkit necessitated by the broadening interests of the spoken language translation community. ESPnet-ST-v2 supports 1) offline speech-to-text translation (ST), 2) simultaneous speech-to-text translation (SST), and 3) offline speech-to-speech translation (S2ST) -- each task is supported with a wide variety of approaches, differentiating ESPnet-ST-v2 from other open source spoken language translation toolkits. This toolkit offers state-of-the-art architectures such as transducers, hybrid CTC/attention, multi-decoders with searchable intermediates, time-synchronous blockwise CTC/attention, Translatotron models, and direct discrete unit models. In this paper, we describe the overall design, example models for each task, and performance benchmarking behind ESPnet-ST-v2, which is publicly available at https://github.com/espnet/espnet.
ESPnet-ST-v2 je přepracováním open-source sady nástrojů ESPnet-ST, kterou si vyžádaly rozšiřující se zájmy komunity překladatelů mluveného jazyka. ESPnet-ST-v2 podporuje 1) offline překlad řeči do textu (ST), 2) simultánní překlad řeči do textu (SST) a 3) offline převod řeči na řeč (S2ST) – každý úkol je podporováno širokou škálou přístupů, které odlišují ESPnet-ST-v2 od jiných open source sad nástrojů pro překlad mluveného jazyka. Tato sada nástrojů nabízí nejmodernější architektury, jako jsou převodníky, hybridní CTC/attention, multi dekodéry s prohledávatelnými meziprodukty, časově synchronní blokové CTC/attention, modely Translatotron a přímé modely diskrétních jednotek. V tomto dokumentu popisujeme celkový design, příklady modelů pro každou úlohu a výkonnostní benchmarking za ESPnet-ST-v2, který je veřejně dostupný na https://github.com/espnet/espnet.
[ "Brian Yan", "Jiatong Shi", "Yun Tang", "Hirofumi Inaguma", "Yifan Peng", "Siddharth Dalmia", "Peter Polák", "Patrick Fernandes", "Dan Berrebbi", "Tomoki Hayashi", "Xiaohui Zhang", "Zhaoheng Ni", "Moto Hira", "Soumi Maiti", "Juan Pino", "Shinji Watanabe" ]
https://www.semanticscholar.org/paper/dab8e7dc79085774eea58bcb9ea2ed0ee20377eb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
From MT to Solving All World’s Language Tasks
Od strojového překladu k řešení všech jazykových úloh světa
At the workshop organized by AG Keim (https://www.vis.uni-konstanz.de/), I presented the brief history, current status and common misconceptions about the Transformer models.
Na workshopu pořádaném kolegy z AG Keim (https://www.vis.uni-konstanz.de/) jsem představil stručnou historii, současný stav a typické omyly při práci s modely typu Transformer.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/d71d9715587ca65cc5c8bb239aad1512cbc74427/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
From MT to Solving All World’s Text Problems
Od strojového překladu k řešení všech textových problémů
At the DeepLayers event of Brno AI Days, I presented the sudden changes that the Transformer model brought to the area of machine translation and the common pitfalls in interpreting Transformer behaviour.
Na akci DeepLayers v rámci Brno AI Days jsem představil náhlé změny, které model Transformer přinesl do oblasti strojového překladu a typické nástrahy v interpretaci chování Transformeru.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/1cc14924941edd9f1b7379ebe0d2ff8de511f040/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
How to Progress beyond Human Quality in Speech and Machine Translation?
Jak vylepšovat strojový překlad psané a mluvené řeči po dosažení lidských kvalit?
I presented the status of machine and speech translation, which is reaching human quality levels for certain settings of English->Czech and then discussed how to navigate further research.
Prezentoval jsem stav strojového překladu a překladu mluvené řeči, který za určitých podmínek dosahuje úrovně lidské kvality pro angličtinu->češtinu a poté jsem diskutoval, jak vést další výzkum.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f4819abe25959087e7ca483d661e91800c016e87/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
LLMs: Limitations and Evaluation
LLMs: Omezení a vyhodnocování
The lecture has summarized current limitations fo large language models (LLMs) and highlighted problems with their evaluation.
Přednáška shrnula současná omezení velkých jazykových modelů a vypíchla problémy při jejich vyhodnocování.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/752ab0f4549c74d1707b664ed25b1fbe06ecfd60/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Machine Translation
Strojový překlad
A block of two lectures on machine translation: from basics and data preparation over Transformers and multi-lingual models to common pitfalls in analysis of Transformer behaviour.
Blok dvou přednášek o strojovém překladu: od základů a přípravy dat přes Transformery a vícejazyčné modely až po běžná úskalí v analýze chování Transformerů.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/1518039b5001f1836565215eb047526b3ac7f462/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Machine translation and interpreting
Strojové překlady a tlumočení
A presentation for students of translation studies and interpretring.
Příspěvek na semináři pro studenty překladatelství a zejména tlumočnictví.
[ "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/7a1331203fd2841fbffab26adba658790cef6217/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Generative AI: opportunities, risks and challenges
Genrativní UI: příležitosti a hrozby
Artificial Intelligence is with us for decades – from Marvin Minsky’s experiments through its ups and downs in the 70s and 80s of the last century, to successful implementations in practice, especially in industry and services, through signs of a quote superhuman unquote performance on certain tasks usually considered tests of human intelligence, such as the games of chess or go, we have seen a huge lap in its abilities when – finally – natural language came into the picture in full, and the so-called Generative AI was born and, even more importantly, became available for the public in the form of so-called Large Language Models.
Umělá inteligence nás provází desítky let – od experimentů Marvina Minskyho přes jeho vzestupy a pády v 70. a 80. letech minulého století až po úspěšné implementace v praxi, zejména v průmyslu a službách, přes známky citovaného nadlidského unquote výkonu na určitých úkolech obvykle považovaných za testy lidské inteligence, jako jsou partie šachů nebo go, jsme viděli obrovské kolečko v jejích schopnostech, když – konečně – se do hry plně dostal přirozený jazyk a zrodila se takzvaná Generativní AI, a co je ještě důležitější, stala se přístupnou veřejnosti v podobě takzvaných Velkých jazykových modelů.
[ "Jan Hajič" ]
https://www.semanticscholar.org/paper/317ad53bea6fb603c20f692bb2f1a01e2dc86161/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
HPLT High-Performance Language Technology: Building LLMs and TMs in European languages
HPLT High-Performance Language Technology: Budování LLM a TM v evropských jazycích
Description of the HPLT project for building large language data (monolingual, parallel) and on their basis large language and translation models in 80 languages.
Popis projektu HPLT pro budování velkých jazykových dat (monolingválních, paralelních) a na jejich základě pak velkých jazykových a překladových modelů v 80 jazycích.
[ "Jan Hajič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Language Technology Research Serving the SSH domain: Access to Oral History Archives
Výzkum jazykové technologie Obsluhování domény SSH: Přístup k archivům orální historie
Talk will describe language technologies for access to oral history archives in multiple languages.
Přednáška se bude týkat jazykových technologií pro přístup k multilingválním archivům orální historie.
[ "Jan Hajič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Research Support for AI nad NLP (LT) in Czechia
Podpora výzkumu v oblasti AI-LT v Česku
POssibilities of funding speech nad language technology research worldwide for Czech research organizations.
Možnosti financování pro výzkum v oblasti řeči a jazykových technologií pro české organizace v celosvětovém měřítku.
[ "Jan Hajič" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Natural Language Processing: analysis, generation, apllicaitons
Zpracování textu (NLP): analýza, generování, aplikace
Summary of possibilities and conditions of language technologies in the field of artificial intelligence and their application.
Shrnutí možností a podmínek jazykových technologií v oblasti umělé inteligence a jejich aplikace.
[ "Jan Hajič" ]
https://www.semanticscholar.org/paper/1e83ab09190afe862573f2484fdf34629920dec9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Consulting the Community: How to Reach Digital Language Equality in Europe by 2030?
Konzultace s komunitou: Jak dosáhnout digitální jazykovou rovnost v Evropě do roku 2030?
This chapter describes the community consultation process carried out in the European Language Equality (ELE) project concerning the future situation in 2030. Due to its central status for the future-looking activities within the project, this chapter introduces the second part of the present book. We gathered, analysed and structured the views, visions, demands, needs and gaps of European Language Technology (LT) developers, both industry and academia, and European LT users and consumers. Additionally, based on these collected findings and other evidence, we attempted to derive a thorough description of the steps to take to reach Digital Language Equality (DLE) in Europe by the year 2030 and, moreover, what the field of LT will look like in Europe in about ten years from now.
Tato kapitola popisuje proces konzultací s LT komunitou prováděný v rámciprojektu European Language Equality (ELE) týkající se budoucí situace v roce 2030. Shromáždili jsme, analyzovali a strukturoval názory, vize, požadavky a potřeby týkající se jazykových technologií (LT) v Evropě od vývojářů těchto technologií, jak z průmyslu, tak z akademické sféry, a evropských uživatelů LT a spotřebitelů. Na základě těchto shromážděných zjištění jsme se pokusili odvodit a navrhnout kroky, které je třeba podniknout k dosažení digitální jazykové rovnosti (DLE) v Evropě do roku 2030 a nastínit, jak by mohl obor LT v Evropě vypadat za cca deset let.
[ "Jan Hajič", "Maria Giagkou", "Stelios Piperidis", "Georg Rehm", "Natalia Resende" ]
https://www.semanticscholar.org/paper/c29aeb2487df7db4e7a360f1e5291c5919135530/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
A contradiction between form and function: the specificity of infinitives in selected valency positions
Rozpor mezi formou a funkcí: specifika infinitivu ve vybraných valenčních pozicích
Although the Czech language has two forms of infinitive (active and passive) in its morphological paradigm, infinitive constructions can be found where this opposition is not employed and the active vs. passive interpretation depends on the context. This article focuses on active infinitives which convey meanings primary expressed by passive infinitives. The verbs which govern such infinitives are divided into several classes: (a) potřebovat "to need", zasluhovat "to deserve", (b) verbs of movement, such as poslat "to send", přinést "to bring", odvézt "to take away", (c) žádat "to require", odmítat "to refuse". The competition between the active forms of the infinitive and the analytic passive forms, coreference between the valency members of the governing verbs and the hidden valency member of the infinitive are analyzed. Quantitative insights into how the phenomenon under study is represented in the Czech National Corpus are provided. The article concludes with a terminological proposal to complete the system of functions in the domain of infinitive constructions.
Ačkoli má čeština ve svém morfologickém systému dvě formy infinitivu (aktivní a pasivní), lze nalézt infinitivní konstrukce, kde tato opozice není využita a aktivní vs. pasivní interpretace závisí na kontextu. Tento článek se zaměřuje na aktivní infinitivy, které vyjadřují významy primárně vyjádřené pasivními infinitivy.
[ "Jarmila Panevová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Findings of the Second Shared Task on Multilingual Coreference Resolution
Výsledky druhé soutěže ve vícejazyčné analýze koreference
This paper summarizes the second edition of the shared task on multilingual coreference resolution, held with the CRAC 2023 workshop. Just like last year, participants of the shared task were to create trainable systems that detect mentions and group them based on identity coreference; however, this year's edition uses a slightly different primary evaluation score, and is also broader in terms of covered languages: version 1.1 of the multilingual collection of harmonized coreference resources CorefUD was used as the source of training and evaluation data this time, with 17 datasets for 12 languages. 7 systems competed in this shared task.
Článek shrnuje druhý ročník soutěže ve vícejazyčné analýze koreference, která proběhla v rámci workshopu CRAC 2023. Stejně jako v minulém roce museli účastníci vytvořit trénovatelné systémy, které detekují zmínky entit a sloučí je na základě identické koreference; tento ročník nicméně používá částečně odlišné hodnotící skóre a má také širší záběr, pokud jde o zahrnuté jazyky: nyní byla využita mnohojazyčná sbírka harmonizovaných koreferenčních korpusů CorefUD ve verzi 1.1, která obsahuje 17 korpusů pro 12 jazyků. Soutěže se zúčastnilo 7 systémů.
[ "Zdeněk Žabokrtský", "Miloslav Konopík", "Anna Nedoluzhko", "Michal Novák", "Maciej Ogrodniczuk", "Martin Popel", "Ondřej Pražák", "Jakub Sido", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/2d66e01a0edea492ce3732462bf8ac43d6ac9e60/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Supervised Machine Learning for Text Analysis in R
Strojové učení pro analýzu textů v R
Supervised Machine Learning for Text Analysis in R by Emil Hvitfeldt and Julia Silge is a volume intended mainly for data scientists and analysts who work with natural language texts. This book should serve as a thorough introduction to text processing and advancement of the application of statistical modeling and prediction with texts using R.
Kniha Řízené strojové učení pro analýzu textu v R od Emila Hvitfeldta a Julie Silge je svazek určený především datovým vědcům a analytikům, kteří pracují s texty v přirozeném jazyce. Tato kniha by měla posloužit jako podrobný úvod do technologií pro zpracování textů a aplikaci statistického modelování textů a predikce s použitím R.
[ "Martin Holub", "Patrícia Martinková" ]
https://www.semanticscholar.org/paper/e975fff3d296c6b178dca4480afb4ad85d9bcd0d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
SynSemClass 5.0
SynSemClass 5.0
The SynSemClass synonym verb lexicon version 5 investigates, with respect to contextually-based verb synonymy, semantic ‘equivalence’ of Czech, English, Spanish, and German verb senses and their valency behavior in parallel Czech-English, Spanish-English, and German-English language resources. SynSemClass 5 is a multilingual event-type ontology based on classes of synonymous verb senses, complemented with semantic roles and links to existing semantic lexicons. The SynSemClass is not only enriched by an additional number of classes but in the context of content hierarchy, some classes have been merged. Compared to the older version of the lexicon, the novelty is Spanish class members.
SynSemClass lexicon 5.0 zkoumá s ohledem na kontextově založenou slovesnou synonymii, sémantickou „ekvivalenci“ českých, anglických, španělských a německých sloves a jejich valenční chování v paralelních česko-anglických a německo-anglických jazykových zdrojích. SynSemClass 5.0 je vícejazyčná ontologie typu události založená na třídách synonymních významů sloves, doplněná sémantickými rolemi a odkazy na existující sémantické lexikony. Slovník je nejen obohacen o další množství tříd, ale v rámci hierarchizace obsahu byly některé třídy sloučeny. V porovnání se starou verzí obsahuje slovník nově definice tříd a definice rolí. Kromě již použitých odkazů na položky PDT-Vallex, EngVallex, CzEngVallex, FrameNet, VerbNet, PropBank, Ontonotes a English WordNet pro české a anglické záznamy jsou nové odkazy na německé jazykové lexikální zdroje, jako je Woxikon, E-VALBU a GUP, využívány pro německé slovesné záznamy. Nově je v této verzi přidána španělština.
[ "Zdeňka Urešová", "Eva Fučíková", "Cristina Fernández Alcaina", "Jan Hajič" ]
https://www.semanticscholar.org/paper/6cb63773f1924add840f59357e988cf2481672a6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
SynSemClass Czech and English Annotation Guidelines
SynSemClass anotační manuál pro češtinu a angličtinu
These guidelines are created as part of the research project ‘Language Understanding: from Syntax to Discourse’ (LUSyD) and describe the goals, resources, and procedure of the annotation for Czech and English, included as the two main languages in the multilingual synonym verbal lexicon SynSemClass. These guidelines cover a new updated and extended version based on the first annotation guidelines for these two languages as included in the predecessor of the current SynSemClass, namely in the original bilingual synonym lexicon called CzEngClass. The SynSemClass lexicon currently comprises four languages: Czech, English, German, and Spanish, thus allowing a comparison of syntactic-semantic cross-linguistic properties. The lexicon also provides empirical data relevant to ongoing NLP research.
Tento manuál je vytvořen v rámci výzkumného projektu „Language Understanding: from Syntax to Discourse“ (LUSyD) a popisuje cíle, zdroje a postup anotace pro češtinu a angličtinu, zahrnuté jako dva hlavní jazyky ve vícejazyčném synonymu slovního lexikonu SynSemClass. Tento manuál pokrývá novou aktualizovanou a rozšířenou verzi založenou na prvních pokynech pro anotace pro tyto dva jazyky v původním dvojjazyčném lexikonu CzEngClass. Lexikon SynSemClass v současnosti zahrnuje čtyři jazyky: češtinu, angličtinu, němčinu a španělštinu, čímž umožňuje srovnání syntakticko-sémantických mezijazykových vlastností. Lexikon také poskytuje empirická data relevantní pro probíhající výzkum NLP.
[ "Zdeňka Urešová", "Cristina Fernández-Alcaina", "Eva Fučíková", "Jan Hajič" ]
https://www.semanticscholar.org/paper/d85cf7ddec7872c8c9f69288e1b30eea5b0a6061/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Valency of Czech deverbal and deadjectival nouns and how it is captured in the valency lexicon NomVallex
Valence českých deverbálních a deadjektivních substantiv a její zachycení ve valenčním slovníku NomVallex
Both Czech deverbal and deadjectival nouns are often endowed with valency but they significantly differ in how they reflect active and passive constructions of their motivating predicates: while deverbal nouns derived from transitive verbs may display both the active and the passive syntax (e.g., pacientovo.ACT vnímání vysokého zvuku.PAT, vnímání vysokého zvukuPAT pacientemACT, politikovo.ACT přesvědčování voličů.ADDR, přesvědčování voličůADDR politikemACT), deadjectival nouns use either the active or the passive syntax, not both, typically depending on the derivational type they represent. (e.g., pacientova.ACT vnímavost k vysokému zvuku.PAT, vnímatelnost vysokého zvuku.PAT pacientem.ACT, přesvědčenost voličů.ACT o správnosti.PAT jejich volby, přesvědčitelnost voličů.ADDR, přesvědčivost politika.ACT). This notable difference is explained as a result of the syntactic behavior of the verbs and adjectives the nouns are directly derived from, and of the way the nouns reflect it. The research is based on the substantial amount of data from the NomVallex valency lexicon.
Česká deverbální a deadjektivní abstraktní substantiva sdílejí řadu valenčních vlastností, zásadně se ale liší v tom, zda jejich valenční struktury připouštějí aktivní i pasivní interpretaci, nebo pouze jednu z nich. V přednášce se zaměřím na substantiva přímo nebo nepřímo odvozená ze sloves, konkrétně na deverbální substantiva (např. vnímání, přesvědčování) a substantiva odvozená z různých typů deverbálních adjektiv (např. vnímavost, vnímatelnost, přesvědčenost, přesvědčitelnost, přesvědčivost). Na základě dat z valenčního slovníku NomVallex představím valenční chování charakteristické pro jednotlivé slovotvorné typy zkoumaných substantiv a doložím, že zatímco valenční struktury některých deverbálních substantiv lze spojovat jak s aktivní větnou strukturou základových sloves (např. pacientovo.ACT vnímání vysokého zvuku.PAT, politikovo.ACT přesvědčování voličů.ADDR), tak s jejich pasivní diatezí (např. vnímání vysokého zvuku.PAT pacientem.ACT, přesvědčování voličů.ADDR politikem.ACT), deadjektivní substantiva přebírají buď aktivní, nebo pasivní perspektivu svých základových adjektiv, a to zpravidla v závislosti na konkrétním slovotvorném typu, který reprezentují (srov. pacientova.ACT vnímavost k vysokému zvuku.PAT, vnímatelnost vysokého zvuku.PAT pacientem.ACT, přesvědčenost voličů.ACT o správnosti.PAT jejich volby, přesvědčitelnost voličů.ADDR, přesvědčivost politika.ACT).
[ "Veronika Kolářová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Through Derivational Relations to Valency of Non-verbal Predicates in the NomVallex Lexicon
Skrze derivační vztahy k valenci neslovesných predikátů ve valenčním slovníku NomVallex
NomVallex is a manually annotated valency lexicon of Czech nouns and adjectives that enables a comparison of valency properties of derivationally related lexical units. We present new developments in how the lexicon facilitates research into changes in valency across part-of-speech categories and derivational types. In particular, it provides links from derived lexical units to their base lexical units and also allows to search and display a base lexical unit together with all lexical units directly derived from it. Using an automatic procedure, any difference in valency between two derivationally related lexical units is specified. As a case study, focusing on nouns and adjectives directly or indirectly motivated by verbs, the facilities provided by the lexicon are used to show differences in what ways the particular deverbal derivatives representing various derivational types express the valency complementation standing in the base verbal construction in the subject position.
NomVallex je ručně anotovaný valenční slovník českých substantiv a adjektiv, který umožňuje srovnání valenčních vlastností derivačně příbuzných lexikálních jednotek. Prezentujeme nové funkce slovníku, které zjednodušují zkoumání změn ve valenci napříč slovnědruhovými kategoriemi a derivačními typy. Odvozené lexikální jednotky ve slovníku jsou pomocí odkazů propojeny s jejich základovými lexikálními jednotkami a slovník aktuálně umožňuje vyhledat a zobrazit základovou lexikální jednotku společně se všemi jejími přímými deriváty. Všechny rozdíly ve valenci derivačně příbuzných lexikálních jednotek jsou automaticky identifikovány a zobrazeny ve zvláštním atributu. V rámci případové studie zaměřené na valenci adjektiv a valenci substantiv přímo nebo nepřímo motivovaných slovesy jsou popsané funkce slovníku využity k výzkumu rozdílů v tom, jak jednotlivé deverbální deriváty reprezentující různé derivační typy vyjadřují valenční doplnění, které v základové slovesné konstrukci stojí v pozici subjektu.
[ "Veronika Kolářová", "Václava Kettnerová", "Jiří Mírovský" ]
https://www.semanticscholar.org/paper/95bad8492e97169903d65d64b8e3ec7d9b6a80fd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
MasKIT 0.5
MasKIT 0.5
MasKIT is an on-line tool and REST API service for anonymization of Czech legal texts. Taking a plain text as input (e.g., a letter sent by a legal authority to a citizen), it runs external services for dependency parsing and named entity recognition and then identifies and replaces personal information in the text.
MasKIT je on-line nástroj a služba REST API pro anonymizaci českých právních textů. Po vložení vstupního textu (např. dopisu zaslaného právním orgánem občanovi) spustí externí služby pro závislostní syntaktickou analýzu a pro rozpoznávání jmenných entit a následně identifikuje a nahradí osobní údaje v textu.
[ "Jiří Mírovský", "Barbora Hladká" ]
https://www.semanticscholar.org/paper/2d7daf810dd80c1df53cf4ffdb9d608ce97f7387/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
SouDeC 1.0 - Source Detection and Classification
SouDeC 1.0 - Detekce a klasifikace zdrojů
SouDeC (Source Detection and Classification) is an on-line tool and REST API service for detecting and classifying citation sources in Czech texts. Taking a plain text (typically, a newspaper article) as an input, it identifies citation phrases and sources in the text and classifies each source into one of five classes: anonymous, anonymous-partial, unofficial, official-non-political, official-political.
SouDeC (Source Detection and Classification) je on-line nástroj a služba REST API pro detekci a klasifikaci citačních zdrojů v českých textech. Po vložení prostého textu (typicky novinového článku) jako vstupu systém v textu identifikuje citační fráze a zdroje a každý zdroj zařadí do jedné z pěti tříd: anonymní, anonymní-částečně, neoficiální, oficiální-nepolitický, oficiální-politický.
[ "Jiří Mírovský", "Barbora Hladká" ]
https://www.semanticscholar.org/paper/9dc7223fa6df94e4a1f285f20ffece3352c96747/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Prague to Penn Discourse Transformation
Transformace diskurzní anotace z pražského stylu do stylu Penn Discourse Treebanku
The paper focuses on handling the most important issues in the transformation process from the Prague style to the Penn style of discourse annotation, in an effort to bring a valuable data resource – the Prague Discourse Treebank – closer to the international scientific community.
Příspěvek se zaměřuje na řešení nejdůležitějších problémů v procesu transformace z pražského stylu diskurzní anotace do stylu Penn Discourse Treebanku ve snaze usnadnit mezinárodní vědecké komunitě přístup k cennému zdroji dat, Prague Discourse Treebanku.
[ "Jiří Mírovský", "Magdaléna Rysová", "Pavlína Synková", "Lucie Poláková" ]
https://www.semanticscholar.org/paper/c7ab6c5055fb827ca7e1c98e37439d982fec0ed5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Subword Relations, Superword Features (UniDive Paris)
Vztahy uvnitř slova, rysy víceslovných výrazů
We propose an extension of Universal Dependencies that will accommodate 1. dependency-like relations between parts of a syntactic word, e.g., within a compound; 2. word-like morphological annotation of a multi-word expression.
Navrhujeme rozšíření Universal Dependencies, které umožní anotovat 1. vztahy podobné závislostem mezi částmi syntaktického slova, např. uvnitř složeného slova; 2. anotaci víceslovného výrazu, která je analogií morfologické analýzy jednotlivého slova.
[ "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Subword Relations, Superword Features (UniLid Dagstuhl)
Vztahy uvnitř slova, rysy víceslovných výrazů
The Dagstuhl Seminar 23191 entitled “Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics” was an accomplishment of long-standing efforts, initiated as early as in October 2018.
Dagstuhlský seminář 23191 pod názvem "Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics" byl vyvrcholením dlouhotrvajícího úsilí a spolupráce, která začala už v říjnu 2018.
[ "Daniel Zeman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Universal Dependencies: Where do we stand and where do we want to go from here?
Universal Dependencies: Kde se nacházíme a kam se chceme odsud vydat?
In the first part, we briefly introduce the project of Universal Dependencies. In the second part, we present some of the extensions of the project that have been proposed, and we focus in particular on relations between subword units.
V první části stručně představíme projekt Universal Dependencies. Ve druhé části představíme některá rozšíření, která byla nad tímto projektem navržena, zvláště se pak zaměříme na závislostní vztahy mezi jednotkami menšími než slova.
[ "Daniel Zeman" ]
https://www.semanticscholar.org/paper/c9e4fe0a88a4ea282ec91665f5ac466723111a30/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Universal Dependencies 2.13
Universal Dependencies 2.13
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the nineteenth release of UD Treebanks, Version 2.13.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je devatenácté vydání treebanků UD, verze 2.13.
[ "Daniel Zeman", "Joakim Nivre", "Mitchell Abrams", "Elia Ackermann", "Noëmi Aepli", "Hamid Aghaei", "Željko Agić", "Amir Ahmadi", "Lars Ahrenberg", "Chika Kennedy Ajede", "Salih Furkan Akkurt", "Gabrielė Aleksandravičiūtė", "Ika Alfina", "Avner Algom", "Khalid Alnajjar", "Chiara Alzetta", "Erik Andersen", "Lene Antonsen", "Tatsuya Aoyama", "Katya Aplonova", "Angelina Aquino", "Carolina Aragon", "Glyd Aranes", "Maria Jesus Aranzabe", "Bilge Nas Arıcan", "Þórunn Arnardóttir", "Gashaw Arutie", "Jessica Naraiswari Arwidarasti", "Masayuki Asahara", "Katla Ásgeirsdóttir", "Deniz Baran Aslan", "Cengiz Asmazoğlu", "Luma Ateyah", "Furkan Atmaca", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Mariana Avelãs", "Elena Badmaeva", "Keerthana Balasubramani", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Starkaður Barkarson", "Rodolfo Basile", "Victoria Basmov", "Colin Batchelor", "John Bauer", "Seyyit Talha Bedir", "Shabnam Behzad", "Juan Belieni", "Kepa Bengoetxea", "İbrahim Benli", "Yifat Ben Moshe", "Gözde Berk", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Kristín Bjarnadóttir", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Anouck Braggaar", "António Branco", "Kristina Brokaitė", "Aljoscha Burchardt", "Marisa Campos", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Catarina Carvalheiro", "Rita Carvalho", "Lauren Cassidy", "Maria Clara Castro", "Sérgio Castro", "Tatiana Cavalcanti", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Neslihan Cesur", "Savas Cetin", "Özlem Çetinoğlu", "Fabricio Chalub", "Liyanage Chamila", "Shweta Chauhan", "Ethan Chi", "Taishi Chika", "Yongseok Cho", "Jinho Choi", "Jayeol Chun", "Juyeon Chung", "Alessandra T. Cignarella", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Claudia Corbetta", "Daniela Corbetta", "Francisco Costa", "Marine Courtin", "Benoît Crabbé", "Mihaela Cristescu", "Vladimir Cvetkoski", "Ingerid Løyning Dale", "Philemon Daniel", "Elizabeth Davidson", "Leonel Figueiredo de Alencar", "Mathieu Dehouck", "Martina de Laurentiis", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Mehmet Oguz Derin", "Elvis de Souza", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Arawinda Dinakaramani", "Elisa Di Nuovo", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Adrian Doyle", "Timothy Dozat", "Kira Droganova", "Magali Sanches Duran", "Puneet Dwivedi", "Christian Ebert", "Hanne Eckhoff", "Masaki Eguchi", "Sandra Eiche", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Olga Erina", "Tomaž Erjavec", "Farah Essaidi", "Aline Etienne", "Wograine Evelyn", "Sidney Facundes", "Richárd Farkas", "Federica Favero", "Jannatul Ferdaousi", "Marília Fernanda", "Hector Fernandez Alcalde", "Amal Fethi", "Jennifer Foster", "Theodorus Fransen", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Federica Gamba", "Marcos Garcia", "Moa Gärdenfors", "Fabrício Ferraz Gerardi", "Kim Gerdes", "Luke Gessler", "Filip Ginter", "Gustavo Godoy", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Bernadeta Griciūtė", "Matias Grioni", "Loïc Grobol", "Normunds Grūzītis", "Bruno Guillaume", "Kirian Guiller", "Céline Guillot-Barbance", "Tunga Güngör", "Nizar Habash", "Hinrik Hafsteinsson", "Jan Hajič", "Jan Hajič, jr.", "Mika Hämäläinen", "Linh Hà Mỹ", "Na-Rae Han", "Muhammad Yudistira Hanifmuti", "Takahiro Harada", "Sam Hardwick", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Oliver Hellwig", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Yidi Huang", "Marivel Huerta Mendez", "Jena Hwang", "Takumi Ikeda", "Anton Karl Ingason", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Artan Islamaj", "Kaoru Ito", "Sandra Jagodzińska", "Siratun Jannat", "Tomáš Jelínek", "Apoorva Jha", "Katharine Jiang", "Anders Johannsen", "Hildur Jónsdóttir", "Fredrik Jørgensen", "Markus Juutinen", "Hüner Kaşıkara", "Nadezhda Kabaeva", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Neslihan Kara", "Ritván Karahóǧa", "Andre Kåsen", "Tolga Kayadelen", "Sarveswaran Kengatharaiyer", "Václava Kettnerová", "Lilit Kharatyan", "Jesse Kirchner", "Elena Klementieva", "Elena Klyachko", "Petr Kocharov", "Arne Köhn", "Abdullatif Köksal", "Kamil Kopacewicz", "Timo Korkiakangas", "Mehmet Köse", "Alexey Koshevoy", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Parameswari Krishnamurthy", "Sandra Kübler", "Adrian Kuqi", "Oğuzhan Kuyrukçu", "Aslı Kuzgun", "Sookyoung Kwak", "Kris Kyle", "Käbi Laan", "Veronika Laippala", "Lorenzo Lambertino", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Maria Levina", "Lauren Levine", "Cheuk Ying Li", "Josie Li", "Keying Li", "Yixuan Li", "Yuan Li", "KyungTae Lim", "Bruna Lima Padovani", "Yi-Ju Jessica Lin", "Krister Lindén", "Yang Janet Liu", "Nikola Ljubešić", "Irina Lobzhanidze", "Olga Loginova", "Lucelene Lopes", "Stefano Lusito", "Andry Luthfi", "Mikko Luukko", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Menel Mahamdi", "Jean Maillard", "Ilya Makarchuk", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Büşra Marşan", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Stella Markantonatou", "Héctor Martínez Alonso", "Lorena Martín Rodríguez", "André Martins", "Cláudia Martins", "Jan Mašek", "Hiroshi Matsuda", "Yuji Matsumoto", "Alessandro Mazzei", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Tatiana Merzhevich", "Niko Miekka", "Aaron Miller", "Karina Mischenkova", "Anna Missilä", "Cătălin Mititelu", "Maria Mitrofan", "Yusuke Miyao", "AmirHossein Mojiri Foroushani", "Judit Molnár", "Amirsaeid Moloodi", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Giovanni Moretti", "Shinsuke Mori", "Tomohiko Morioka", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Robert Munro", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Mariam Nakhlé", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Manuela Nevaci", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Alireza Nourian", "Maria das Graças Volpe Nunes", "Hanna Nurmi", "Stina Ojala", "Atul Kr. Ojha", "Hulda Óladóttir", "Adédayọ̀ Olúòkun", "Mai Omura", "Emeka Onwuegbuzia", "Noam Ordan", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Şaziye Betül Özateş", "Merve Özçelik", "Arzucan Özgür", "Balkız Öztürk Başaran", "Teresa Paccosi", "Alessio Palmero Aprosio", "Anastasia Panova", "Thiago Alexandre Salgueiro Pardo", "Hyunji Hayley Park", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Giulia Pedonese", "Angelika Peljak-Łapińska", "Siyao Peng", "Siyao Logan Peng", "Rita Pereira", "Sílvia Pereira", "Cenel-Augusto Perez", "Natalia Perkova", "Guy Perrier", "Slav Petrov", "Daria Petrova", "Andrea Peverelli", "Jason Phelan", "Claudel Pierre-Louis", "Jussi Piitulainen", "Yuval Pinter", "Clara Pinto", "Rodrigo Pintucci", "Tommi A Pirinen", "Emily Pitler", "Magdalena Plamada", "Barbara Plank", "Thierry Poibeau", "Larisa Ponomareva", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Robert Pugh", "Tiina Puolakainen", "Sampo Pyysalo", "Peng Qi", "Andreia Querido", "Andriela Rääbis", "Alexandre Rademaker", "Mizanur Rahoman", "Taraka Rama", "Loganathan Ramasamy", "Carlos Ramisch", "Joana Ramos", "Fam Rashel", "Mohammad Sadegh Rasooli", "Vinit Ravishankar", "Livy Real", "Petru Rebeja", "Siva Reddy", "Mathilde Regnault", "Georg Rehm", "Arij Riabi", "Ivan Riabov", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Putri Rizqiyah", "Luisa Rocha", "Eiríkur Rögnvaldsson", "Ivan Roksandic", "Mykhailo Romanenko", "Rudolf Rosa", "Valentin Roșca", "Davide Rovati", "Ben Rozonoyer", "Olga Rudina", "Jack Rueter", "Kristján Rúnarsson", "Shoval Sadde", "Pegah Safari", "Aleksi Sahala", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Ezgi Sanıyar", "Dage Särg", "Marta Sartor", "Mitsuya Sasaki", "Baiba Saulīte", "Agata Savary", "Yanin Sawanakunanon", "Shefali Saxena", "Kevin Scannell", "Salvatore Scarlata", "Emmanuel Schang", "Nathan Schneider", "Sebastian Schuster", "Lane Schwartz", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Syeda Shahzadi", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Yana Shishkina", "Muh Shohibussirri", "Maria Shvedova", "Janine Siewert", "Einar Freyr Sigurðsson", "João Silva", "Aline Silveira", "Natalia Silveira", "Sara Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Haukur Barri Símonarson", "Kiril Simov", "Dmitri Sitchinava", "Ted Sither", "Maria Skachedubova", "Aaron Smith", "Isabela Soares-Bastos", "Per Erik Solberg", "Barbara Sonnenhauser", "Shafi Sourov", "Rachele Sprugnoli", "Vivian Stamou", "Steinþór Steingrímsson", "Antonio Stella", "Abishek Stephen", "Milan Straka", "Emmett Strickland", "Jana Strnadová", "Alane Suhr", "Yogi Lesmana Sulestio", "Umut Sulubacak", "Shingo Suzuki", "Daniel Swanson", "Zsolt Szántó", "Chihiro Taguchi", "Dima Taji", "Fabio Tamburini", "Mary Ann C. Tan", "Takaaki Tanaka", "Dipta Tanaya", "Mirko Tavoni", "Samson Tella", "Isabelle Tellier", "Marinella Testori", "Guillaume Thomas", "Sara Tonelli", "Liisi Torga", "Marsida Toska", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Utku Türk", "Francis Tyers", "Sveinbjörn Þórðarson", "Vilhjálmur Þorsteinsson", "Sumire Uematsu", "Roman Untilov", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Andrius Utka", "Elena Vagnoni", "Sowmya Vajjala", "Socrates Vak", "Rob van der Goot", "Martine Vanhove", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Uliana Vedenina", "Giulia Venturi", "Eric Villemonte de la Clergerie", "Veronika Vincze", "Natalia Vlasova", "Aya Wakasa", "Joel C. Wallenberg", "Lars Wallin", "Abigail Walsh", "Jonathan North Washington", "Maximilan Wendt", "Paul Widmer", "Shira Wigderson", "Sri Hartati Wijono", "Vanessa Berwanger Wille", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Qishen Wu", "Mary Yako", "Kayo Yamashita", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Arife Betül Yenice", "Olcay Taner Yıldız", "Zhuoran Yu", "Arlisa Yuliawati", "Zdeněk Žabokrtský", "Shorouq Zahra", "Amir Zeldes", "He Zhou", "Hanzhi Zhu", "Yilun Zhu", "Anna Zhuravleva", "Rayan Ziane" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Universal Dependencies 2.12
Universal Dependencies 2.12
Universal Dependencies is a project that seeks to develop cross-linguistically consistent treebank annotation for many languages, with the goal of facilitating multilingual parser development, cross-lingual learning, and parsing research from a language typology perspective. The annotation scheme is based on (universal) Stanford dependencies (de Marneffe et al., 2006, 2008, 2014), Google universal part-of-speech tags (Petrov et al., 2012), and the Interset interlingua for morphosyntactic tagsets (Zeman, 2008). This is the eighteenth release of UD Treebanks, Version 2.12.
Universal Dependencies je projekt, který vyvíjí mezijazykově konzistentní morfologicko-syntaktickou anotaci mnoha jazyků s cílem usnadnit vývoj jazykově nezávislých parserů, mezijazykové strojové učení a výzkum parsingu z perspektivy jazykové typologie. Anotační schéma je založeno na univerzálních Stanfordských závislostech (de Marneffe et al., 2006, 2008, 2014), univerzálních značkách Google (Petrov et al., 2012) a na Intersetu, tj. interlingvě pro sady morfologických značek (Zeman, 2008). Toto je osmnácté vydání treebanků UD, verze 2.12.
[ "Daniel Zeman", "Joakim Nivre", "Mitchell Abrams", "Elia Ackermann", "Noëmi Aepli", "Hamid Aghaei", "Željko Agić", "Amir Ahmadi", "Lars Ahrenberg", "Chika Kennedy Ajede", "Salih Furkan Akkurt", "Gabrielė Aleksandravičiūtė", "Ika Alfina", "Avner Algom", "Khalid Alnajjar", "Chiara Alzetta", "Erik Andersen", "Lene Antonsen", "Tatsuya Aoyama", "Katya Aplonova", "Angelina Aquino", "Carolina Aragon", "Glyd Aranes", "Maria Jesus Aranzabe", "Bilge Nas Arıcan", "Þórunn Arnardóttir", "Gashaw Arutie", "Jessica Naraiswari Arwidarasti", "Masayuki Asahara", "Katla Ásgeirsdóttir", "Deniz Baran Aslan", "Cengiz Asmazoğlu", "Luma Ateyah", "Furkan Atmaca", "Mohammed Attia", "Aitziber Atutxa", "Liesbeth Augustinus", "Mariana Avelãs", "Elena Badmaeva", "Keerthana Balasubramani", "Miguel Ballesteros", "Esha Banerjee", "Sebastian Bank", "Verginica Barbu Mititelu", "Starkaður Barkarson", "Rodolfo Basile", "Victoria Basmov", "Colin Batchelor", "John Bauer", "Seyyit Talha Bedir", "Shabnam Behzad", "Kepa Bengoetxea", "İbrahim Benli", "Yifat Ben Moshe", "Gözde Berk", "Riyaz Ahmad Bhat", "Erica Biagetti", "Eckhard Bick", "Agnė Bielinskienė", "Kristín Bjarnadóttir", "Rogier Blokland", "Victoria Bobicev", "Loïc Boizou", "Emanuel Borges Völker", "Carl Börstell", "Cristina Bosco", "Gosse Bouma", "Sam Bowman", "Adriane Boyd", "Anouck Braggaar", "António Branco", "Kristina Brokaitė", "Aljoscha Burchardt", "Marisa Campos", "Marie Candito", "Bernard Caron", "Gauthier Caron", "Catarina Carvalheiro", "Rita Carvalho", "Lauren Cassidy", "Maria Clara Castro", "Sérgio Castro", "Tatiana Cavalcanti", "Gülşen Cebiroğlu Eryiğit", "Flavio Massimiliano Cecchini", "Giuseppe G. A. Celano", "Slavomír Čéplö", "Neslihan Cesur", "Savas Cetin", "Özlem Çetinoğlu", "Fabricio Chalub", "Liyanage Chamila", "Shweta Chauhan", "Ethan Chi", "Taishi Chika", "Yongseok Cho", "Jinho Choi", "Jayeol Chun", "Juyeon Chung", "Alessandra T. Cignarella", "Silvie Cinková", "Aurélie Collomb", "Çağrı Çöltekin", "Miriam Connor", "Daniela Corbetta", "Francisco Costa", "Marine Courtin", "Mihaela Cristescu", "Ingerid Løyning Dale", "Philemon Daniel", "Elizabeth Davidson", "Leonel Figueiredo de Alencar", "Mathieu Dehouck", "Martina de Laurentiis", "Marie-Catherine de Marneffe", "Valeria de Paiva", "Mehmet Oguz Derin", "Elvis de Souza", "Arantza Diaz de Ilarraza", "Carly Dickerson", "Arawinda Dinakaramani", "Elisa Di Nuovo", "Bamba Dione", "Peter Dirix", "Kaja Dobrovoljc", "Adrian Doyle", "Timothy Dozat", "Kira Droganova", "Puneet Dwivedi", "Christian Ebert", "Hanne Eckhoff", "Masaki Eguchi", "Sandra Eiche", "Marhaba Eli", "Ali Elkahky", "Binyam Ephrem", "Olga Erina", "Tomaž Erjavec", "Farah Essaidi", "Aline Etienne", "Wograine Evelyn", "Sidney Facundes", "Richárd Farkas", "Federica Favero", "Jannatul Ferdaousi", "Marília Fernanda", "Hector Fernandez Alcalde", "Amal Fethi", "Jennifer Foster", "Cláudia Freitas", "Kazunori Fujita", "Katarína Gajdošová", "Daniel Galbraith", "Federica Gamba", "Marcos Garcia", "Moa Gärdenfors", "Fabrício Ferraz Gerardi", "Kim Gerdes", "Luke Gessler", "Filip Ginter", "Gustavo Godoy", "Iakes Goenaga", "Koldo Gojenola", "Memduh Gökırmak", "Yoav Goldberg", "Xavier Gómez Guinovart", "Berta González Saavedra", "Bernadeta Griciūtė", "Matias Grioni", "Loïc Grobol", "Normunds Grūzītis", "Bruno Guillaume", "Céline Guillot-Barbance", "Tunga Güngör", "Nizar Habash", "Hinrik Hafsteinsson", "Jan Hajič", "Jan Hajič, jr.", "Mika Hämäläinen", "Linh Hà Mỹ", "Na-Rae Han", "Muhammad Yudistira Hanifmuti", "Takahiro Harada", "Sam Hardwick", "Kim Harris", "Dag Haug", "Johannes Heinecke", "Oliver Hellwig", "Felix Hennig", "Barbora Hladká", "Jaroslava Hlaváčová", "Florinel Hociung", "Petter Hohle", "Marivel Huerta Mendez", "Jena Hwang", "Takumi Ikeda", "Anton Karl Ingason", "Radu Ion", "Elena Irimia", "Ọlájídé Ishola", "Artan Islamaj", "Kaoru Ito", "Siratun Jannat", "Tomáš Jelínek", "Apoorva Jha", "Katharine Jiang", "Anders Johannsen", "Hildur Jónsdóttir", "Fredrik Jørgensen", "Markus Juutinen", "Hüner Kaşıkara", "Nadezhda Kabaeva", "Sylvain Kahane", "Hiroshi Kanayama", "Jenna Kanerva", "Neslihan Kara", "Ritván Karahóǧa", "Andre Kåsen", "Tolga Kayadelen", "Sarveswaran Kengatharaiyer", "Václava Kettnerová", "Jesse Kirchner", "Elena Klementieva", "Elena Klyachko", "Arne Köhn", "Abdullatif Köksal", "Kamil Kopacewicz", "Timo Korkiakangas", "Mehmet Köse", "Alexey Koshevoy", "Natalia Kotsyba", "Jolanta Kovalevskaitė", "Simon Krek", "Parameswari Krishnamurthy", "Sandra Kübler", "Adrian Kuqi", "Oğuzhan Kuyrukçu", "Aslı Kuzgun", "Sookyoung Kwak", "Kris Kyle", "Veronika Laippala", "Lorenzo Lambertino", "Tatiana Lando", "Septina Dian Larasati", "Alexei Lavrentiev", "John Lee", "Phương Lê Hồng", "Alessandro Lenci", "Saran Lertpradit", "Herman Leung", "Maria Levina", "Lauren Levine", "Cheuk Ying Li", "Josie Li", "Keying Li", "Yixuan Li", "Yuan Li", "KyungTae Lim", "Bruna Lima Padovani", "Yi-Ju Jessica Lin", "Krister Lindén", "Yang Janet Liu", "Nikola Ljubešić", "Olga Loginova", "Stefano Lusito", "Andry Luthfi", "Mikko Luukko", "Olga Lyashevskaya", "Teresa Lynn", "Vivien Macketanz", "Menel Mahamdi", "Jean Maillard", "Ilya Makarchuk", "Aibek Makazhanov", "Michael Mandl", "Christopher Manning", "Ruli Manurung", "Büşra Marşan", "Cătălina Mărănduc", "David Mareček", "Katrin Marheinecke", "Stella Markantonatou", "Héctor Martínez Alonso", "Lorena Martín Rodríguez", "André Martins", "Cláudia Martins", "Jan Mašek", "Hiroshi Matsuda", "Yuji Matsumoto", "Alessandro Mazzei", "Ryan McDonald", "Sarah McGuinness", "Gustavo Mendonça", "Tatiana Merzhevich", "Niko Miekka", "Aaron Miller", "Karina Mischenkova", "Anna Missilä", "Cătălin Mititelu", "Maria Mitrofan", "Yusuke Miyao", "AmirHossein Mojiri Foroushani", "Judit Molnár", "Amirsaeid Moloodi", "Simonetta Montemagni", "Amir More", "Laura Moreno Romero", "Giovanni Moretti", "Shinsuke Mori", "Tomohiko Morioka", "Shigeki Moro", "Bjartur Mortensen", "Bohdan Moskalevskyi", "Kadri Muischnek", "Robert Munro", "Yugo Murawaki", "Kaili Müürisep", "Pinkey Nainwani", "Mariam Nakhlé", "Juan Ignacio Navarro Horñiacek", "Anna Nedoluzhko", "Gunta Nešpore-Bērzkalne", "Manuela Nevaci", "Lương Nguyễn Thị", "Huyền Nguyễn Thị Minh", "Yoshihiro Nikaido", "Vitaly Nikolaev", "Rattima Nitisaroj", "Alireza Nourian", "Hanna Nurmi", "Stina Ojala", "Atul Kr. Ojha", "Hulda Óladóttir", "Adédayọ̀ Olúòkun", "Mai Omura", "Emeka Onwuegbuzia", "Noam Ordan", "Petya Osenova", "Robert Östling", "Lilja Øvrelid", "Şaziye Betül Özateş", "Merve Özçelik", "Arzucan Özgür", "Balkız Öztürk Başaran", "Teresa Paccosi", "Alessio Palmero Aprosio", "Anastasia Panova", "Hyunji Hayley Park", "Niko Partanen", "Elena Pascual", "Marco Passarotti", "Agnieszka Patejuk", "Guilherme Paulino-Passos", "Giulia Pedonese", "Angelika Peljak-Łapińska", "Siyao Peng", "Siyao Logan Peng", "Rita Pereira", "Sílvia Pereira", "Cenel-Augusto Perez", "Natalia Perkova", "Guy Perrier", "Slav Petrov", "Daria Petrova", "Andrea Peverelli", "Jason Phelan", "Jussi Piitulainen", "Yuval Pinter", "Clara Pinto", "Tommi A Pirinen", "Emily Pitler", "Magdalena Plamada", "Barbara Plank", "Thierry Poibeau", "Larisa Ponomareva", "Martin Popel", "Lauma Pretkalniņa", "Sophie Prévost", "Prokopis Prokopidis", "Adam Przepiórkowski", "Robert Pugh", "Tiina Puolakainen", "Sampo Pyysalo", "Peng Qi", "Andreia Querido", "Andriela Rääbis", "Alexandre Rademaker", "Mizanur Rahoman", "Taraka Rama", "Loganathan Ramasamy", "Joana Ramos", "Fam Rashel", "Mohammad Sadegh Rasooli", "Vinit Ravishankar", "Livy Real", "Petru Rebeja", "Siva Reddy", "Mathilde Regnault", "Georg Rehm", "Arij Riabi", "Ivan Riabov", "Michael Rießler", "Erika Rimkutė", "Larissa Rinaldi", "Laura Rituma", "Putri Rizqiyah", "Luisa Rocha", "Eiríkur Rögnvaldsson", "Ivan Roksandic", "Mykhailo Romanenko", "Rudolf Rosa", "Valentin Roșca", "Davide Rovati", "Ben Rozonoyer", "Olga Rudina", "Jack Rueter", "Kristján Rúnarsson", "Shoval Sadde", "Pegah Safari", "Aleksi Sahala", "Shadi Saleh", "Alessio Salomoni", "Tanja Samardžić", "Stephanie Samson", "Manuela Sanguinetti", "Ezgi Sanıyar", "Dage Särg", "Marta Sartor", "Mitsuya Sasaki", "Baiba Saulīte", "Yanin Sawanakunanon", "Shefali Saxena", "Kevin Scannell", "Salvatore Scarlata", "Nathan Schneider", "Sebastian Schuster", "Lane Schwartz", "Djamé Seddah", "Wolfgang Seeker", "Mojgan Seraji", "Syeda Shahzadi", "Mo Shen", "Atsuko Shimada", "Hiroyuki Shirasu", "Yana Shishkina", "Muh Shohibussirri", "Maria Shvedova", "Janine Siewert", "Einar Freyr Sigurðsson", "João Silva", "Aline Silveira", "Natalia Silveira", "Sara Silveira", "Maria Simi", "Radu Simionescu", "Katalin Simkó", "Mária Šimková", "Haukur Barri Símonarson", "Kiril Simov", "Dmitri Sitchinava", "Ted Sither", "Maria Skachedubova", "Aaron Smith", "Isabela Soares-Bastos", "Per Erik Solberg", "Barbara Sonnenhauser", "Shafi Sourov", "Rachele Sprugnoli", "Vivian Stamou", "Steinþór Steingrímsson", "Antonio Stella", "Abishek Stephen", "Milan Straka", "Emmett Strickland", "Jana Strnadová", "Alane Suhr", "Yogi Lesmana Sulestio", "Umut Sulubacak", "Shingo Suzuki", "Daniel Swanson", "Zsolt Szántó", "Chihiro Taguchi", "Dima Taji", "Fabio Tamburini", "Mary Ann C. Tan", "Takaaki Tanaka", "Dipta Tanaya", "Mirko Tavoni", "Samson Tella", "Isabelle Tellier", "Marinella Testori", "Guillaume Thomas", "Sara Tonelli", "Liisi Torga", "Marsida Toska", "Trond Trosterud", "Anna Trukhina", "Reut Tsarfaty", "Utku Türk", "Francis Tyers", "Sveinbjörn Þórðarson", "Vilhjálmur Þorsteinsson", "Sumire Uematsu", "Roman Untilov", "Zdeňka Urešová", "Larraitz Uria", "Hans Uszkoreit", "Andrius Utka", "Elena Vagnoni", "Sowmya Vajjala", "Socrates Vak", "Rob van der Goot", "Martine Vanhove", "Daniel van Niekerk", "Gertjan van Noord", "Viktor Varga", "Uliana Vedenina", "Giulia Venturi", "Veronika Vincze", "Natalia Vlasova", "Aya Wakasa", "Joel C. Wallenberg", "Lars Wallin", "Abigail Walsh", "Jonathan North Washington", "Maximilan Wendt", "Paul Widmer", "Shira Wigderson", "Sri Hartati Wijono", "Seyi Williams", "Mats Wirén", "Christian Wittern", "Tsegay Woldemariam", "Tak-sum Wong", "Alina Wróblewska", "Mary Yako", "Kayo Yamashita", "Naoki Yamazaki", "Chunxiao Yan", "Koichi Yasuoka", "Marat M. Yavrumyan", "Arife Betül Yenice", "Olcay Taner Yıldız", "Zhuoran Yu", "Arlisa Yuliawati", "Zdeněk Žabokrtský", "Shorouq Zahra", "Amir Zeldes", "He Zhou", "Hanzhi Zhu", "Yilun Zhu", "Anna Zhuravleva", "Rayan Ziane" ]
https://www.semanticscholar.org/paper/1e105a47662affe083eaf110e5590ad4b9f7894d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
WG1: Above and Below Word Level
PS1: Nad a pod úrovní slov
The Dagstuhl Seminar 23191 entitled “Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics” was an accomplishment of long-standing efforts, initiated as early as in October 2018.
Dagstuhlský seminář 23191 pod názvem "Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics" byl vyvrcholením dlouhotrvajícího úsilí a spolupráce, která začala už v říjnu 2018.
[ "Daniel Zeman", "Reut Tsarfaty" ]
https://www.semanticscholar.org/paper/2e7c7301e8095178d7c74e600dda5e4c63e10aa1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Morphosyntactic Annotation in Universal Dependencies for Old Czech
Morfosyntaktické anotace v Universal Dependencies pro starou češtinu
We describe the first steps in preparation of a treebank of 14th-century Czech in the framework of Universal Dependencies. The Dresden and Olomouc versions of the Gospel of Matthew have been selected for this pilot study, which also involves modification of the annotation guidelines for phenomena that occur in Old Czech but not in Modern Czech. We describe some of these modifications in the paper. In addition, we provide some interesting observations about applicability of a Modern Czech parser to the Old Czech data.
Popisujeme první kroky při přípravě korpusu češtiny 14. století anotovaného podle pravidel Universal Dependencies. Pro tuto pilotní studii jsme zvolili Evangelium svatého Matouše ve verzi z Bible drážďanské a olomoucké. Součástí práce byla modifikace anotačních pravidel pro jevy, které se vyskytují ve staré, ale nikoli v nové češtině. Některé z těchto úprav v článku popisujeme. Navíc uvádíme zajímavá pozorování o použitelnosti novočeského analyzátoru pro staročeská data.
[ "Daniel Zeman", "Pavel Kosek", "Martin Březina", "Jiří Pergler" ]
https://www.semanticscholar.org/paper/61097e5e330f320ff10ac66a2436da20d16bfdb6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
KUK 0.0
KUK 0.0
KUK 0.0 is a pilot version of a corpus of Czech legal and administrative texts designated as data for manual and automatic assessment of accessibility (comprehensibility or clarity) of Czech legal texts.
KUK 0.0 je pilotní verzí korpusu českých právních a správních textů určených jako data pro manuální a automatické hodnocení přístupnosti (srozumitelnosti či přehlednosti) českých právních textů.
[ "Barbora Hladká", "Silvie Cinková", "Michal Kuk", "Jiří Mírovský", "Tereza Novotná", "Kristýna Nguyen Zahálková" ]
https://www.semanticscholar.org/paper/fe0cfac084918e94ae3db455cfad970c2c2e627a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Expressing Measure in Czech (Corpus-based Study)
Vyjadřování míry v češtině (korpusová studie)
In the contribution, we provide a theory-based and corpus-verified description of expressions for measure in Czech. We demonstrate that the measure expressions may modify quantity of entities (approximately ten boys), internal characteristics of events (he works a lot), properties (very big) and relations (completely without sound). We distinguish between the measure expressions that are an answer to the question To what extent? (Extent-modifiers) and expressions that modify an answer to the question How many? (Quantity-modifiers). The Extent-modifiers are formally, structurally and semantically more diverse than the Quantity-modifiers. For the Quantity-modifiers a list of forms and functions is provided. Theoretical knowledge stemming from the analysis will subsequently be used to improve the annotation in the Prague Dependency Treebanks. It can be also useful for other semantically-oriented descriptions of language.
V příspěvku uvádíme teorií podložený a korpusem ověřený popis výrazů pro vyjadřování míry v češtině. Ukazujeme, že měrové výrazy mohou modifikovat množství entit (přibližně deset chlapců), vnitřní charakteristiky dějů (hodně pracuje), vlastnosti (velmi velké) a vztahy vyjádřené předložkami (zcela bez zvuku). Rozlišujeme měorvá určení, která jsou odpovědí na otázku Do jaké míry? (Extent-modifikátory) a výrazy, které modifikují odpověď na otázku Kolik? (Quantity-modifikátory). Extent-modifikátory jsou formálně, strukturálně a sémanticky rozmanitější než Quantity-modifikátory. Pro Quantity-modifikátory je uveden seznam forem a funkcí.
[ "Marie Mikulová" ]
https://www.semanticscholar.org/paper/8a7a7f2ff1b67b422e50cf30578c0716068a1e5b/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Maths in Linguistice? Maths in Linguistics!
Matematika v lingvistice? Matematika v lingvistice!
The lecture within the "Mathematics for Life" event presents the use of mathematics in linguistics. It introduces the role of mathematics in formal modeling of natural languages. Further, it presents the basic idea of neural networks and their application in language tools. It also presents several NLP tools, such as machine translation or text generation.
Přednáška v rámci akce "Matematika pro život" představuje využití matematiky v lingvistice. Věnuje se uplatnění matematiky při formálním modelování přirozeného jazyka a jeho významu a dále přibližuje základní myšlenku neuronových sítí a jejich využití v jazykových nástrojích. Představuje též některé konkrétní aplikace, jako je strojový překlad či generování textů.
[ "Markéta Lopatková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Inherently Reciprocal Predicates - Do They Exist At All?
Inherentně reciproční predikáty - existují vůbec?
Reciprocity and mutuality represent phenomena intensively studied both in linguistics and in formal semantics. Here we focus on inherently reciprocal predicates, i.e., predicates bearing the feature of mutuality in their lexical meaning. While there is a consensus generally accepted by linguists that such predicates most likely exist in all natural languages, a reliable criterion defining this type of predicates is still missing. The usual definition – adopted from formal semantics – appears to be too strong for natural language predicates, leading to the contraintuitive conclusion that such predicates do not exist at all. Here, inspired by Gleitman and Partee (2022), we redefine the criterion. The proposed weaker definition allows us to group predicates of a natural language in a more appropriate way, reflecting their syntactic behavior and thus enabling their adequate lexicographic description.
Reciprocita a vzájemnost představují jevy intenzivně studované jak z pohledu lingvistiky, tak z pohledu formální sémantiky. Zde se zaměříme na inherentně reciproční predikáty, tedy predikáty nesoucí ve svém lexikálním významu rys vzájemnosti. I když mezi lingvisty existuje konsenzus, že takové predikáty s největší pravděpodobností existují ve všech přirozených jazycích, stále chybí spolehlivé kritérium definující tento typ predikátů. Obvyklá definice – převzatá z formální sémantiky – se zdá být pro predikáty přirozeného jazyka příliš silná, což vede ke kontraintuitivnímu závěru, že takové predikáty vůbec neexistují. Zde, inspirováni Gleitmanovou a Partee (2022), redefinujeme toto kritérium. Navrhovaná slabší definice umožňuje vhodnější seskupování predikátů přirozeného jazyka, které odráží jejich syntaktické chování a umožňuje tak jejich adekvátní lexikografický popis.
[ "Markéta Lopatková", "Václava Kettnerová" ]
https://www.semanticscholar.org/paper/7a977239b1ef03f07cc9c3c51312a8992ed187bd/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Modelling reciprocity in the theoretical description of the Czech language
Ještě k modelování reciprocity v teoretickém popisu češtiny
The paper addresses the so-called discontinuous reciprocal constructions in Czech and their description in grammar and lexicon, as recently discussed by J. Pergler. Two ways of treating discontinuous constructions are introduced: (i) to handle these constructions in the grammar as one type of constructions of non-reflexive verbs, and (ii) to capture them in the lexicon as constructions of derived reflexive verbs. The advantages and disadvantages of both these approaches are carefully considered with the conclusion that the latter approach is more advantageous as it complies with the fact that discontinuous constructions are – with respect to the lexicon-grammar continuum – rather at the lexical end.
Příspěvek se zabývá tzv. diskontinuálními konstrukcemi v češtině a jejich popisem v gramatice a slovníku, reaguje tak na text Jiřího Perglera (2022). Diskutuje dva možní přístupy k zachycení těchto konstrukcí: (i) popis diskontinuálních konstrukcí v rámci gramatiky, tedy jako jeden z typů konstrukcí nereflexivních sloves a (ii) jejich interpretaci jako konstrukcí odvozených reflexivních slovesa, tedy v rámci slovníkové komponenty popisu jazyka. Výhody a nevýhody obou těchto přístupů jsou v textu pečlivě zváženy se závěrem, že druhý přístup je výhodnější, neboť plně využívá možnosti popsat lexikálně omezené tvoření těchto konstrukcí v rámci lexikálního komponentu, přičemž obecné, systémové vztahy mezi jednotlivými lexémy zachycuje v komponentu gramatickém.
[ "Markéta Lopatková", "Václava Kettnerová" ]
https://www.semanticscholar.org/paper/1ccfe549e4d013852f6ff5dc197f627b014fdc24/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Towards characteristics of inherently reciprocal predicates
Proč má ježek bodliny přilepené k tělu, ale nemá tělo přilepené k bodlinám? K charakteristice inherentně recipročních predikátů
Reciprocity represents one of core research issues in current linguistics. However, identification of inherently reciprocal predicates, i.e., predicates that bear the feature of mutuality in their lexical meaning, have proven to be a challenge, as the criterion of the so called strong reciprocity, adopted from formal semantics and defined with respect to a predicate in all its instances, appears to be too strict for natural language predicates. In this paper, inspired by Gleitman & Partee (2022, ms.), we redefine this criterion, applying it not to all instance of a predicate but to its individual instances. This weaker definition allows us to group predicates of a natural language in a more appropriate way, as we illustrate on description of mutuality in the VALLEX lexicon, where the classification of verbs with respect to mutuality reliably predict syntactic behavior of predicates in simple reciprocal constructions.
Otázky související s vyjadřováním recipročních vztahů, jejich vymezení a adekvátní popis náleží k aktuálním problémům současné lingvistiky. Výzvou zůstává samotná identifikace inherentně recipročních predikátů, tedy predikátů, které nesou rys vzájemnosti ve svém lexikálním významu: kritérium tzv. silné reciprocity (převzaté z formální sémantiky a definované vzhledem k predikátu ve všech jho užitích) se totiž zdá být příliš striktní pro identifikaci predikátů přirozeného jazyka. V tomto textu, inspirovaném přístupem Gleitmanempvě & Partee (2022, ms.), navrhujeme vztahovat toto kritérium na jednotlivé instance daného predikátu, což lépe odráží v (české) lingvistice dosud spíše intuitivně vymezovanou třídu inherentně recipročních predikátů. Takto pojatou klasifikaci pak uplatňujeme ve VALLEXu, valenčním slovníku českých sloves.
[ "Markéta Lopatková", "Václava Kettnerová" ]
https://www.semanticscholar.org/paper/263b440401a714333503552ab360bff461b5fc7d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linking Two Lexical Resources: VALLEX and MorfFlex Lexicons
Propojení dvou lexikálních zdrojů: VALLEX a MorfFlex lexikony
The article focuses on two different lexicons providing complementary information: MorfFlex covering general Czech morphology, and VALLEX giving information on the syntax and semantics of Czech verbs. We discuss different designs of these lexicons, concentrating primarily on variants and homographs in the Czech vocabulary. Within the project, we have verified the theoretical approaches and harmonized the treatment of variants in both lexicons, adopting the clear morphologically based criteria from MorfFlex for distinguishing variants in VALLEX. The two updated lexicons, MorfFlex and VALLEX, with interlinked records represent the project’s main outcome.
Článek se zaměřuje na dva různé slovníky poskytující vzájemně se doplňující informace: MorfFlex pokrývající obecnou morfologii češtiny a VALLEX poskytující informace o syntaxi a sémantice českých sloves. Porovnáváme přístupy těchto slovníků, přičemž se soustředíme především na zachycení variant a homografů v české slovní zásobě. V rámci projektu jsme ověřili teoretické přístupy a sjednotili popis variant v obou slovnících, přičemž jsme jasná morfologicky založená kritéria z MorfFlex využili pro rozlišení variant ve VALLEXu. Dva aktualizované lexikony, MorfFlex a VALLEX se vzájemně propojenými záznamy představují hlavní výsledek projektu.
[ "Markéta Lopatková", "Jaroslava Hlaváčová", "Jiří Mírovský" ]
https://www.semanticscholar.org/paper/5e707fe81dd223275f66f8771251f6a7ac2213bd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Language Report Czech
Jazykový report čeština
This chapter provides basic data about Language Technology for the Czech language. After a brief introduction with general facts about the language (history, linguistic features, writing system, dialects), we touch upon Czech in the digital sphere. The main achievements in the field of NLP are presented: important datasets (corpora, treebanks, lexicons etc.) and tools (morphological analyzers, taggers, automatic translators, voice recognisers and generators, keyword extracters etc).
V této kapitole shromaďujeme základní údaje o jazykových technologiích pro český jazyk. Po krátkém úvodu s obecnými fakty o jazyce (historie, jazykové rysy, systém psaní, dialekty), se zabýváme češtinou v oblasti digitálních technologií. Uvádíme hlavní úspěchy v oblasti NLP: důležité datové soubory (korpusy, lexikony atd.) a nástroje (morfologické analyzátory, tagery, automatické překladače, rozpoznávače hlasu a generátory, extraktory klíčových slov atd.).
[ "Jaroslava Hlaváčová" ]
https://www.semanticscholar.org/paper/13f2310d439edbc328fde371be94368d0017097e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
CLS INFRA D8.1 Report of the tools for the basic Natural Language Processing (NLP) tasks in the CLS context
CLS INFRA D8.1 Zpráva o nástrojích pro NLP v kontextu CLS
This report lists and describes a selection of Natural Language Processing (NLP) tools which are considered to form a Corpus-Enrichment and NLP toolchain for common CLS research tasks. The tools were selected to be: • safely positioned in their life cycle, i.e., state-of-the art, and mature as well as continuously maintained, or in development and promised as CLS Infra Deliverables by March 2025 • as multilingual as possible (beyond English and several major European languages) • as interoperable as possible with other tools and texts in other languages.
Tato zpráva uvádí a popisuje výběr nástrojů pro zpracování přirozeného jazyka (NLP), které jsou považovány za tvořící soubor nástrojů Corpus-Enrichment a NLP pro společný výzkum CLS úkoly. Nástroje byly vybrány jako: • bezpečně umístěné ve svém životním cyklu, tj. nejmodernější, a stejně tak vyzrálé průběžně udržovány nebo ve vývoji a přislíbeny jako CLS Infra Deliverables by březen 2025 • pokud možno vícejazyčný (kromě angličtiny a několika hlavních evropských jazyků) • co možná nejvíce interoperabilní s jinými nástroji a texty v jiných jazycích.
[ "Silvie Cinková", "Julie Birkholz", "Ingo Börner", "Tess Dejaeghere", "Serge Heiden", "Maarten Janssen", "Michal Křen", "Alvaro Perez Pozo" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
How Corpus Analysis Helps Operationalize Research Questions and Entices Literary Scholars to Learn Programming.
Jak korpusová analýza pomáhá v DH
We describe the preparation and implementation of the corpus linguistics summer school for DH. We assumed that students have no programming knowledge, but want to familiarize themselves with what they should learn in order to build text corpora and search them.
Popisujeme přípravu a realizaci letní školy korpusové lingvistiky pro DH. Vycházeli jsme z toho, že studenti nemají žádné znalosti programování, ale chtějí se zorientovat v tom, co by se měli doučit, aby mohli stavět textové korpusy a prohledávat je.
[ "Silvie Cinková", "Václav Cvrček", "Maarten Janssen", "Michal Křen" ]
https://www.semanticscholar.org/paper/d9af72c05762b3f229e60f625f82201a665c1a32/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Gaps in conversion of verbs to nouns in Czech
Nerealizace deverbální konverze substantiv v češtině
The present paper deals with conversion between nouns and verbs in Czech. It points out that in some morphological families conversion occurs repeatedly, while in others it occurs only once. The analysis, which is based on a dataset of more than 2,000 conversion pairs and related morphological families extracted from a 100-million corpus of written Czech, seeks to identify linguistic features that may underlie these differences. The non-attestation of the particular formations, or the appearance of the gaps, is put in the context of the discussion of competition and blocking in word formation. Attention is paid particularly to established synonyms that would block the converted word (synonymy-based blocking), but such an explanation accounts for only a few individual cases in the dataset. Rather, the data suggest that the capacity of repeated conversion is related to the word class of the unmotivated item in the respective morphological family. Conversion reoccurs in the families that originate in a verb, but it is prevented in the families that are traced back to a noun.
Tento příspěvek se zabývá slovotvorným procesem konverze v češtině. Poukazuje na to, že v některých slovotvorných hnízdech dochází ke konverzi opakovaně, zatímco v jiných pouze jednou. Analýza, která je založena na souboru více než 2 000 konverzních párů a souvisejících slovotvorných hnízd extrahovaných ze 100milionového korpusu psané češtiny, se snaží identifikovat lingvistické rysy, které mohou být příčinou těchto rozdílů.
[ "Magda Ševčíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Semantic annotation of noun/verb conversion in Czech
Sémantická anotace konverze mezi substantivy a slovesy v češtině
The item contains a list of 2,058 noun/verb conversion pairs along with related formations (word-formation paradigms) provided with linguistic features, including semantic categories that characterize semantic relations between the noun and the verb in each conversion pair. Semantic categories were assigned manually by two human annotators based on a set of sentences containing the noun and the verb from individual conversion pairs. In addition to the list of paradigms, the item contains a set of 739 files (a separate file for each conversion pair) annotated by the annotators in parallel and a set of 2,058 files containing the final annotation, which is included in the list of paradigms.
Data obsahují seznam 2 058 konverzních dvojic, které jsou tvořeny substantivem a od něj utvořeným slovesem (denomimální konverze) nebo slovesem a od něj utvořeným substantivem (deverbální konverze). Konverzní dvojice jsou opatřeny řadou jazykových rysů včetně sémantických kategorií, které charakterizují významové vztahy mezi podstatným jménem a slovesem v každé dvojici. Sémantické kategorie byly přiřazeny ručně na základě souboru vět obsahujících substantivum a sloveso z jednotlivých dvojic. Kromě seznamu paradigmat obsahuje položka soubor 739 souborů (pro každou konverzní dvojici samostatný soubor), které anotátoři anotovali paralelně, a soubor 2 058 souborů obsahujících konečnou anotaci, z níž seznam konverzních dvojic vychází.
[ "Magda Ševčíková", "Lukáš Kyjánek", "Hana Hledíková", "Anna Staňková" ]
https://www.semanticscholar.org/paper/b7364aa618bd661bba5c76133103b68d568a7fdd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Semantics of noun/verb conversion in Czech: lessons learned from corpus data annotation
Sémantika v konverzních párech podstatných jmen / sloves v češtině: poučení z anotace korpusových dat
The paper contributes to the study of conversion in Czech, which is rarely understood as an independent word-formation process and therefore not much attention has been paid to its semantics in the literature on Czech (only as part of research on derivation). An annotation experiment is presented in which semantic relations in 800 conversion pairs are assessed on the basis of corpus concordances by two human raters in parallel. The annotation experiment provides evidence of the applicability of semantic classification of conversion based on meaning paraphrases on large-scale linguistic data, showing that it is possible to reach reasonable inter-annotator agreement. The sources of disagreement, as well as the patterns of polysemy found in the data, provide information about the conceptual relationships between the semantic categories in conversion.
Práce přispívá ke studiu české konverze, která je málokdy chápána jako samostatný slovotvorný proces, a proto její sémantice nebyla v literatuře o češtině věnována příliš velká pozornost (pouze v rámci výzkumu odvozování). Je prezentován anotační experiment, ve kterém jsou paralelně dvěma lidskými hodnotiteli posuzovány sémantické vztahy v 800 konverzních párech na základě korpusových konkordancí. Anotační experiment poskytuje důkaz o použitelnosti sémantické klasifikace konverze založené na významových parafrázích na rozsáhlých lingvistických datech a ukazuje, že je možné dosáhnout rozumné mezianotátorské shody. Zdroje nesouhlasu, stejně jako vzorce polysémie nalezené v datech, poskytují informace o konceptuálních vztazích mezi sémantickými kategoriemi při konverzi.
[ "Magda Ševčíková", "Hana Hledíková", "Lukáš Kyjánek", "Anna Staňková" ]
https://www.semanticscholar.org/paper/b7364aa618bd661bba5c76133103b68d568a7fdd/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The ParlaMint corpora of parliamentary proceedings
Korpusy přepisů parlamentních zasedání ParlaMint
This paper presents the ParlaMint corpora containing transcriptions of the sessions of the 17 European national parliaments with half a billion words. The corpora are uniformly encoded, contain rich meta-data about 11 thousand speakers, and are linguistically annotated following the Universal Dependencies formalism and with named entities. Samples of the corpora and conversion scripts are available from the project’s GitHub repository, and the complete corpora are openly available via the CLARIN.SI repository for download, as well as through the NoSketch Engine and KonText concordancers and the Parlameter interface for on-line exploration and analysis.
Tato práce představuje korpus ParlaMint obsahující přepisy ze zasedání 17 evropských národních parlamentů s půl miliardou slov. Korpusy jsou jednotně kódovány, obsahují bohatá metadata o 11 tisících mluvčích a jsou lingvisticky anotovány podle Universal Dependencies a s pojmenovanými entitami. Vzorky korpusů a konverzních skriptů jsou k dispozici v úložišti projektu na GitHub a kompletní korpusy jsou otevřeně k dispozici prostřednictvím úložiště CLARIN.SI ke stažení, stejně jako prostřednictvím NoSketch Engine a KonText a rozhraní Parlameter pro on-line průzkum a analýzu.
[ "Tomaž Erjavec", "Maciej Ogrodniczuk", "Petya Osenova", "Nikola Ljubešić", "Kiril Simov", "Andrej Pančur", "Michał Rudolf", "Matyáš Kopp", "Starkaður Barkarson", "Steinþór Steingrímsson", "Çağrı Çöltekin", "Jesse de Does", "Katrien Depuydt", "Tommaso Agnoloni", "Giulia Venturi", "María Calzada Pérez", "Luciana de Macedo", "Costanza Navarretta", "Giancarlo Luxardo", "Matthew Coole", "Paul Rayson", "Vaidas Morkevičius", "Tomas Krilavičius", "Roberts Darģis", "Orsolya Ring", "Ruben van Heusden", "Maarten Marx", "Darja Fišer" ]
https://www.semanticscholar.org/paper/382c276d6084fc2a8a9963e1806c5b505f20a07a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
TEI and Git in ParlaMint: Collaborative Development of Language Resources
TEI a Git v ParlaMint: Spolupráce při rozvoji jazykových zdrojů
This paper discusses the encoding, validation and development of language resources of the completed ParlaMint I and on-going ParlaMint II CLARIN projects, which centre on the collaborative development of a large set of interoperable corpora of parliamentary proceedings. It focuses on the ParlaMint encoding and the GitHub development platform and the evaluation of their use by project partners. We introduce the use of TEI ODD for the encoding guidelines and validation schemas. We motivate and explain using Git to develop and maintain the encoding schemas, validation and conversion scripts and valid samples of the corpora. Apart from revision control, issues, and publishing documentation, the GitHub platform also supports integrating code execution with pull requests, which significantly automates the data submission process. The paper also presents the results of a survey on the use of TEI and Git in the ParlaMint projects among the project participants. Overall, participants were mostly positive about their experience with TEI and Git, although some difficulties were reported. Some partners also expressed doubts about whether the current scheme is flexible enough to support encoding the unique features of sometimes drastically different parliamentary systems. On the other hand, reactions to Git were very positive in terms of information and feedback received via GitHub Issues, effectiveness in the communication process, and plans to use Git in the future. However, there was less agreement on whether the requirements and workflows were adequately explained. The reported difficulties will serve as a basis for further Git workflow optimisation in ParlaMint.
Tento článek pojednává o kódování, validaci a vývoji jazykových zdrojů dokončeného projektu ParlaMint I a probíhajícího projektu ParlaMint II CLARIN, které se zaměřují na společný vývoj velkého souboru interoperabilních korpusů parlamentních jednání. Zaměřuje se na kódování ParlaMint a vývojovou platformu GitHub a vyhodnocování jejich využití partnery projektu. Zavádíme využití TEI ODD pro pokyny pro kódování a validační schémata. Motivujeme a vysvětlujeme využití Gitu pro vývoj a údržbu kódovacích schémat, validačních a konverzních skriptů a platných vzorků korpusů. Kromě kontroly revizí, problémů a publikační dokumentace podporuje platforma GitHub také integraci provádění kódu s požadavky pull, což významně automatizuje proces odevzdávání dat. Příspěvek také prezentuje výsledky průzkumu o využití TEI a Git v projektech ParlaMint mezi účastníky projektu. Celkově se účastníci ke svým zkušenostem s TEI a Git stavěli většinou pozitivně, i když byly hlášeny určité potíže. Někteří partneři také vyjádřili pochybnosti o tom, zda je stávající systém dostatečně flexibilní na to, aby podporoval kódování jedinečných vlastností někdy drasticky odlišných parlamentních systémů. Na druhou stranu byly reakce na Git velmi pozitivní, pokud jde o informace a zpětnou vazbu získané prostřednictvím GitHub Issues, efektivitu v komunikačním procesu a plány na používání Git v budoucnu. Menší shoda však panovala v tom, zda byly požadavky a pracovní postupy dostatečně vysvětleny. Oznámené potíže poslouží jako základ pro další optimalizaci pracovního postupu Git v ParlaMint.
[ "Tomaž Erjavec", "Matyáš Kopp", "Katja Meden" ]
https://www.semanticscholar.org/paper/b97d2f2549afca793759ee9f12b2a83b028eace0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Multilingual comparable corpora of parliamentary debates ParlaMint 4.0
Vícejazyčný korpus parlamentních debat ParlaMint 4.0
ParlaMint is a multilingual set of comparable corpora containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Basque Country, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, Finland, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Spain, Sweden, Turkey, UK, Ukraine.
ParlaMint je vícejazyčný soubor srovnatelných korpusů obsahujících parlamentní debaty. Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Baskicko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Finsko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Španělsko, Švédsko, Turecko, Spojené království, Ukrajina.
[ "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Manex Agirrezabal", "Tommaso Agnoloni", "José Aires", "Monica Albini", "Jon Alkorta", "Iván Antiba-Cartazo", "Ekain Arrieta", "Mario Barcala", "Daniel Bardanca", "Starkaður Barkarson", "Roberto Bartolini", "Roberto Battistoni", "Núria Bel", "Maria del Mar Bonet Ramos", "María Calzada Pérez", "Aida Cardoso", "Çağrı Çöltekin", "Matthew Coole", "Roberts Darģis", "Ruben de Libano", "Griet Depoorter", "Sascha Diwersy", "Réka Dodé", "Kike Fernandez", "Elisa Fernández Rei", "Francesca Frontini", "Marcos Garcia", "Noelia García Díaz", "Pedro García Louzao", "Maria Gavriilidou", "Dimitris Gkoumas", "Ilko Grigorov", "Vladislava Grigorova", "Dorte Haltrup Hansen", "Mikel Iruskieta", "Johan Jarlbrink", "Kinga Jelencsik-Mátyus", "Bart Jongejan", "Neeme Kahusk", "Martin Kirnbauer", "Anna Kryvenko", "Noémi Ligeti-Nagy", "Nikola Ljubešić", "Giancarlo Luxardo", "Carmen Magariños", "Måns Magnusson", "Carlo Marchetti", "Maarten Marx", "Katja Meden", "Amália Mendes", "Michal Mochtak", "Martin Mölder", "Simonetta Montemagni", "Costanza Navarretta", "Bartłomiej Nitoń", "Fredrik Mohammadi Norén", "Amanda Nwadukwe", "Mihael Ojsteršek", "Andrej Pančur", "Vassilis Papavassiliou", "Rui Pereira", "María Pérez Lago", "Stelios Piperidis", "Hannes Pirker", "Marilina Pisani", "Henk van der Pol", "Prokopis Prokopidis", "Valeria Quochi", "Paul Rayson", "Xosé Luís Regueira", "Michał Rudolf", "Manuela Ruisi", "Peter Rupnik", "Daniel Schopper", "Kiril Simov", "Laura Sinikallio", "Jure Skubic", "Lars Magne Tungland", "Jouni Tuominen", "Ruben van Heusden", "Zsófia Varga", "Marta Vázquez Abuín", "Giulia Venturi", "Adrián Vidal Miguéns", "Kadri Vider", "Ainhoa Vivel Couso", "Adina Ioana Vladu", "Tanja Wissik", "Väinö Yrjänäinen", "Rodolfo Zevallos", "Darja Fišer" ]
https://www.semanticscholar.org/paper/7f8287dfa5e19c9bdce0895eaf529b46d74ea391/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Multilingual comparable corpora of parliamentary debates ParlaMint 3.0
Vícejazyčný korpus parlamentních debat ParlaMint 3.0
ParlaMint is a multilingual set of comparable corpora containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Sweden, Turkey, UK, Ukraine.
ParlaMint je vícejazyčný soubor srovnatelných korpusů obsahujících parlamentní debaty. Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Švédsko, Turecko, Velká Británie, Ukrajina.
[ "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Darja Fišer", "Hannes Pirker", "Tanja Wissik", "Daniel Schopper", "Martin Kirnbauer", "Nikola Ljubešić", "Peter Rupnik", "Michal Mochtak", "Henk van der Pol", "Griet Depoorter", "Kiril Simov", "Vladislava Grigorova", "Ilko Grigorov", "Bart Jongejan", "Dorte Haltrup Hansen", "Costanza Navarretta", "Martin Mölder", "Neeme Kahusk", "Kadri Vider", "Núria Bel", "Iván Antiba-Cartazo", "Marilina Pisani", "Rodolfo Zevallos", "Adina Ioana Vladu", "Carmen Magariños", "Daniel Bardanca", "Mario Barcala", "Marcos Garcia", "José Manuel Gómez Pérez", "Pedro García Louzao", "Ainhoa Vivel Couso", "Marta Vázquez Abuín", "Noelia García Díaz", "Adrián Vidal Miguéns", "Elisa Fernández Rei", "Xosé Luís Regueira", "Sascha Diwersy", "Giancarlo Luxardo", "Matthew Coole", "Paul Rayson", "Amanda Nwadukwe", "Dimitris Gkoumas", "Vassilis Papavassiliou", "Giedrė Jarašiūnaitė", "Maria Gavriilidou", "Stelios Piperidis", "Noémi Ligeti-Nagy", "Kinga Jelencsik-Mátyus", "Zsófia Varga", "Réka Dodé", "Starkaður Barkarson", "Tommaso Agnoloni", "Roberto Bartolini", "Francesca Frontini", "Simonetta Montemagni", "Valeria Quochi", "Giulia Venturi", "Manuela Ruisi", "Carlo Marchetti", "Roberto Battistoni", "Roberts Darģis", "Ruben van Heusden", "Maarten Marx", "Lars Magne Tungland", "Michał Rudolf", "Bartłomiej Nitoń", "José Aires", "Amália Mendes", "Aida Cardoso", "Rui Pereira", "Väinö Yrjänäinen", "Fredrik Mohammadi Norén", "Måns Magnusson", "Johan Jarlbrink", "Katja Meden", "Andrej Pančur", "Mihael Ojsteršek", "Çağrı Çöltekin", "Anna Kryvenko" ]
https://www.semanticscholar.org/paper/7f8287dfa5e19c9bdce0895eaf529b46d74ea391/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linguistically annotated multilingual comparable corpora of parliamentary debates ParlaMint.ana 3.0
Lingvisticky anotovaný vícejazyčný korpus parlamentních debat ParlaMint.ana 3.0
ParlaMint.ana is a multilingual set of comparable linguistically annotated corpora containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Sweden, Turkey, UK, Ukraine
ParlaMint.ana je vícejazyčný soubor srovnatelných jazykově anotovaných korpusů obsahujících parlamentní debaty. Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Švédsko, Turecko, Velká Británie, Ukrajina
[ "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Darja Fišer", "Hannes Pirker", "Tanja Wissik", "Daniel Schopper", "Martin Kirnbauer", "Michal Mochtak", "Nikola Ljubešić", "Peter Rupnik", "Henk van der Pol", "Griet Depoorter", "Jesse de Does", "Kiril Simov", "Vladislava Grigorova", "Ilko Grigorov", "Bart Jongejan", "Dorte Haltrup Hansen", "Costanza Navarretta", "Martin Mölder", "Neeme Kahusk", "Kadri Vider", "Núria Bel", "Iván Antiba-Cartazo", "Marilina Pisani", "Rodolfo Zevallos", "Xosé Luís Regueira", "Adina Ioana Vladu", "Carmen Magariños", "Daniel Bardanca", "Mario Barcala", "Marcos Garcia", "María Pérez Lago", "Pedro García Louzao", "Ainhoa Vivel Couso", "Marta Vázquez Abuín", "Noelia García Díaz", "Adrián Vidal Miguéns", "Elisa Fernández Rei", "Sascha Diwersy", "Giancarlo Luxardo", "Matthew Coole", "Paul Rayson", "Amanda Nwadukwe", "Dimitris Gkoumas", "Vassilis Papavassiliou", "Prokopis Prokopidis", "Maria Gavriilidou", "Stelios Piperidis", "Noémi Ligeti-Nagy", "Kinga Jelencsik-Mátyus", "Zsófia Varga", "Réka Dodé", "Starkaður Barkarson", "Tommaso Agnoloni", "Roberto Bartolini", "Francesca Frontini", "Simonetta Montemagni", "Valeria Quochi", "Giulia Venturi", "Manuela Ruisi", "Carlo Marchetti", "Roberto Battistoni", "Roberts Darģis", "Ruben van Heusden", "Maarten Marx", "Katrien Depuydt", "Lars Magne Tungland", "Michał Rudolf", "Bartłomiej Nitoń", "José Aires", "Amália Mendes", "Aida Cardoso", "Rui Pereira", "Väinö Yrjänäinen", "Fredrik Mohammadi Norén", "Måns Magnusson", "Johan Jarlbrink", "Katja Meden", "Andrej Pančur", "Mihael Ojsteršek", "Çağrı Çöltekin", "Anna Kryvenko" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linguistically annotated multilingual comparable corpora of parliamentary debates ParlaMint.ana 4.0
Lingvisticky anotovaný vícejazyčný korpus parlamentních debat ParlaMint.ana 4.0
ParlaMint.ana is a multilingual set of comparable linguistically annotated corpora containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Basque Country, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, Finland, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Spain, Sweden, Turkey, UK, Ukraine.
ParlaMint.ana je vícejazyčný soubor srovnatelných jazykově anotovaných korpusů obsahujících parlamentní debaty Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Baskicko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Finsko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Španělsko, Švédsko, Turecko, Spojené království, Ukrajina.
[ "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Rodrigo Agerri", "Manex Agirrezabal", "Tommaso Agnoloni", "José Aires", "Monica Albini", "Jon Alkorta", "Iván Antiba-Cartazo", "Ekain Arrieta", "Mario Barcala", "Daniel Bardanca", "Starkaður Barkarson", "Roberto Bartolini", "Roberto Battistoni", "Núria Bel", "Maria del Mar Bonet Ramos", "María Calzada Pérez", "Aida Cardoso", "Çağrı Çöltekin", "Matthew Coole", "Roberts Darģis", "Jesse de Does", "Ruben de Libano", "Griet Depoorter", "Katrien Depuydt", "Sascha Diwersy", "Réka Dodé", "Kike Fernandez", "Elisa Fernández Rei", "Francesca Frontini", "Marcos Garcia", "Noelia García Díaz", "Pedro García Louzao", "Maria Gavriilidou", "Dimitris Gkoumas", "Ilko Grigorov", "Vladislava Grigorova", "Dorte Haltrup Hansen", "Mikel Iruskieta", "Johan Jarlbrink", "Kinga Jelencsik-Mátyus", "Bart Jongejan", "Neeme Kahusk", "Martin Kirnbauer", "Anna Kryvenko", "Noémi Ligeti-Nagy", "Nikola Ljubešić", "Giancarlo Luxardo", "Carmen Magariños", "Måns Magnusson", "Carlo Marchetti", "Maarten Marx", "Katja Meden", "Amália Mendes", "Michal Mochtak", "Martin Mölder", "Simonetta Montemagni", "Costanza Navarretta", "Bartłomiej Nitoń", "Fredrik Mohammadi Norén", "Amanda Nwadukwe", "Mihael Ojsteršek", "Andrej Pančur", "Vassilis Papavassiliou", "Rui Pereira", "María Pérez Lago", "Stelios Piperidis", "Hannes Pirker", "Marilina Pisani", "Henk van der Pol", "Prokopis Prokopidis", "Valeria Quochi", "Paul Rayson", "Xosé Luís Regueira", "Michał Rudolf", "Manuela Ruisi", "Peter Rupnik", "Daniel Schopper", "Kiril Simov", "Laura Sinikallio", "Jure Skubic", "Minna Tamper", "Lars Magne Tungland", "Jouni Tuominen", "Ruben van Heusden", "Zsófia Varga", "Marta Vázquez Abuín", "Giulia Venturi", "Adrián Vidal Miguéns", "Kadri Vider", "Ainhoa Vivel Couso", "Adina Ioana Vladu", "Tanja Wissik", "Väinö Yrjänäinen", "Rodolfo Zevallos", "Darja Fišer" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
It's good to be afraid of artificial intelligence, but it's necessary to be afraid in the right way, says computer researcher
Je dobré se umělé inteligence bát, ale je nutné se bát správným způsobem, říká počítačový výzkumník
What was a clandestine discipline for a few enthusiasts just three years ago is now a global phenomenon that most don't know what to do with. The rise of artificial intelligence can be compared to the massive rise of the Internet in the 1990s. Back then, no one knew what the world web had to offer. What is certain is that it only became dangerous because of those who sit behind the monitor - that is, the people themselves.
To, co byla ještě před třemi lety pokoutní disciplína pro pár nadšenců, je dnes celosvětový fenomén, se kterým si většina ale neví rady. Rozmach umělé inteligence se dá přirovnat k masivnímu nástupu internetu v 90. letech. Tehdy také nikdo netušil, co všechno světová síť dokáže nabídnout. Jisté je, že nebezpečnou se stala jen díky těm, kteří sedí za monitorem - tedy samotným lidem.
[ "Alžběta Havlová", "Rudolf Rosa", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
People often fear artificial intelligence badly, waiting for robots to take over and kill us all, says researcher
Lidé se často bojí umělé inteligence špatně, čekají, kdy roboti získají nadvládu a všechny nás pozabíjejí, říká výzkumník
Artificial intelligence has become a global phenomenon that most of us don't understand very well. Its boom can be compared to the massive rise of the Internet in the 1990s. 'On the web it will be better than us, on the contrary, where there is no data there is room for a human,' says the hacker. Listen to the full episode of the series.
Z umělé inteligence se stal světový fenomén, kterému většina z nás moc nerozumí. Její rozmach se dá přirovnat k masivnímu nástupu internetu v devadesátých letech. „Na webu bude lepší než my, naopak tam, kde data nejsou, je prostor pro člověka,“ říká hacker. Poslechněte si celý díl seriálu.
[ "Alžběta Havlová", "Rudolf Rosa", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
A few years ago, artificial intelligence was an obscure discipline. Today, it can generate both a fairy tale and a play.
Před pár lety byla umělá inteligence obskurní disciplínou. Dnes umí vygenerovat pohádku i divadelní hru
The assignment of the computer linguist Rudolf Rosa was – Doggie and kitty cooked a cake. How will the artificial intelligence cope with creating a play or a well-known fairy tale for children? And why does the computer linguist miss the older language model in which he created a play for the Švanda Theatre?
Zadání počítačového lingvisty Rudolfa Rosy znělo – Pejsek a kočička vařili dort. Jak si umělá inteligence poradí s vytvořením divadelní hry nebo známé pohádky pro děti? A proč se počítačovému lingvistovi stýská po starším jazykovém modelu, ve kterém tvořil divadelní hru pro Švandovo divadlo?
[ "Alžběta Havlová", "Rudolf Rosa", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
There's a need for innovation in the arts. Artificial intelligence only draws on what's been done, says computer linguist
V umění je potřeba inovace. Umělá inteligence čerpá jen z toho, co už bylo, říká počítačový lingvista
In Series of the Week, we talk about artificial intelligence. How does artificial intelligence cope with creating a play or a well-known fairy tale for children? The assignment of the computer linguist Rudolf Rosa was: A doggy and a kitty were cooking a cake.
V Seriálu týdne mluvíme o umělé inteligenci. Jak si umělá inteligence poradí s vytvořením divadelní hry nebo známé pohádky pro děti? Zadání počítačového lingvisty Rudolfa Rosy znělo: Pejsek a kočička vařili dort.
[ "Alžběta Havlová", "Rudolf Rosa", "Tomáš Studeník" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linking lexical and textual resources in LiLa: the examples of Querolus and Lexicon Bohemorum
Propojení lexikálních a textových zdrojů v LiLa: příklady Querolus a Lexicon Bohemorum
The talk presents the process of linking and integrating two resources into the LiLa Knowledge Base, developed within the LiLa - Linking Latin project (ERC Grant Agreement No. 769994). First, the linking process of a textual resource is described: Querolus, a Latin anonymous comedy dating back to V century. Secondly, a lexicon resource is presented: Lexicon Medii Aevi Latinitatis Lexicon Bohemorum, a lexicon collecting Latin vocabulary used in Czech lands in Middle Ages (1000-1500 AD).
Přednáška představuje proces propojení a integrace dvou zdrojů do znalostní databáze LiLa, vyvinuté v rámci projektu LiLa - Linking Latin (ERC Grant Agreement No. 769994). Nejprve je popsán proces propojování textového zdroje: Querolus, latinská anonymní komedie z V. století. Za druhé je představen lexikální zdroj: Lexicon Medii Aevi Latinitatis Lexicon Bohemorum, lexikon shromažďující latinskou slovní zásobu užívanou v českých zemích ve středověku (1000-1500 AD).
[ "Federica Gamba" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Omnia Mutantur: Latin Treebanks in Universal Dependencies as a Gateway to the Investigation of Language Change
Omnia Mutantur: Latinské stromové banky v Universal Dependencies jako brána ke zkoumání jazykových změn
Spread over a span of more than two millennia and across an area that corresponds to today’s Europe, the Latin language has undergone a number of significant changes, affecting each of its linguistic layers (e.g., vocabulary, morphology and syntax). Diachronic, diatopic and diaphasic variability - respectively, variability in time, space and context - thus represents a non-negligible issue when it comes to Natural Language Processing of Latin. Being a historical language, such intra-linguistic variability is intrinsically tied in it and has a significant impact in every NLP task. For instance, it has been repeatedly remarked that variability of Latin texts has significant negative impact on parsing performances. Namely, when a model is used to parse data that differ from those it has been trained on, a considerable drop can be observed in accuracy scores. Therefore, the five treebanks available in Universal Dependencies, as released through LINDAT/CLARIN, represent a unique resource allowing to examine how Latin varies across time, space, and literary genres, and thus to gain valuable insights on the evolution of the language across multiple dimensions. The Late Latin Charter Treebank, for instance, includes charters dating back to VIII-IX centuries AD, while Perseus encompasses Classical Latin poetry and prose. Thanks to the large collection of syntactic data that CLARIN offers, it is possible to carry out linguistic investigations, which are also facilitated by tools that – via CLARIN – provide a way to browse these data, such as PML-TQ. One of the goals is thus to try to define a strategy to handle such diversity in parsing, as well as to detect the most diverse linguistic phenomena. Analysing errors made by parsers can be a useful strategy towards these goals. One of the several parsers that were selected for this research is UDPipe, once again readily available thanks to CLARIN. Yet, the main contribution of CLARIN to this kind of research definitely consists in the data it provides. Indeed, dealing with ancient languages necessarily means dealing with data that are already available, as the absence of native speakers does not allow to easily collect new ones. And by helping to store and preserve these data, CLARIN provides us with a useful gateway to ancient languages like Latin. Of course, in order to investigate data, we need them to be consistent. Having immediately observed that the treebanks presented many divergences at the annotation level, I have first been working on harmonising them so as to make them more mutually consistent and more compliant to UD guidelines. The morphologically and syntactically harmonised version of the treebanks, that resulted from this process, has already been made available and is now used for all further experiments, which concern not only syntax, but extend the investigation of Latin variability also to the semantic layer. The considerations of language variability will be further extended from syntax to semantics, starting with providing a uniform semantic representation of a selected subsample of the treebanks.
Latinský jazyk, který se rozprostíral po více než dvě tisíciletí na území odpovídajícím dnešní Evropě, prošel řadou významných změn, které se dotkly všech jeho jazykových vrstev (např. slovní zásoby, morfologie a syntaxe). Diachronní, diatopická a diafázická variabilita - respektive variabilita v čase, prostoru a kontextu - tak představuje nezanedbatelný problém, pokud jde o zpracování přirozeného jazyka latiny. Jelikož se jedná o historický jazyk, je tato vnitrojazyková variabilita s ním neodmyslitelně spjata a má významný dopad v každé úloze NLP. Bylo například opakovaně poznamenáno, že variabilita latinských textů má značný negativní dopad na výkonnost parsování. Konkrétně, pokud je model použit k parsování dat, která se liší od těch, na nichž byl natrénován, lze pozorovat značný pokles skóre přesnosti. Pět stromových bank dostupných v Universal Dependencies, které byly zveřejněny prostřednictvím LINDAT/CLARIN, proto představuje jedinečný zdroj umožňující zkoumat, jak se latina mění v čase, prostoru a literárních žánrech, a získat tak cenné poznatky o vývoji jazyka v mnoha dimenzích. Late Latin Charter Treebank například zahrnuje listiny z VIII-IX století n. l., zatímco Perseus zahrnuje klasickou latinskou poezii a prózu. Díky rozsáhlé sbírce syntaktických dat, kterou CLARIN nabízí, je možné provádět lingvistická zkoumání, která usnadňují i nástroje, jež - prostřednictvím CLARINu - umožňují tato data prohlížet, jako například PML-TQ. Jedním z cílů je tedy pokusit se definovat strategii, jak se s takovou rozmanitostí vypořádat při parsování a jak odhalit nejrůznější jazykové jevy. Analýza chyb, kterých se parsery dopouštějí, může být užitečnou strategií k dosažení těchto cílů. Jedním z několika parserů, které byly pro tento výzkum vybrány, je UDPipe, opět snadno dostupný díky CLARIN. Hlavní přínos CLARINu pro tento druh výzkumu však rozhodně spočívá v datech, která poskytuje. Zabývat se starými jazyky totiž nutně znamená pracovat s daty, která jsou již k dispozici, protože absence rodilých mluvčích neumožňuje snadno shromažďovat nová. A tím, že CLARIN pomáhá tato data uchovávat a uchovávat, nám poskytuje užitečnou bránu ke starověkým jazykům, jako je latina. Abychom mohli data zkoumat, potřebujeme samozřejmě, aby byla konzistentní. Poté, co jsem ihned zjistil, že stromové banky vykazují na úrovni anotací mnoho rozdílů, jsem nejprve pracoval na jejich harmonizaci, aby byly vzájemně konzistentnější a více odpovídaly směrnicím UD. Morfologicky a syntakticky harmonizovaná verze treebank, která je výsledkem tohoto procesu, již byla zpřístupněna a nyní se používá pro všechny další experimenty, které se týkají nejen syntaxe, ale rozšiřují zkoumání variability latinky i na sémantickou rovinu. Úvahy o variabilitě jazyka budou dále rozšířeny ze syntaxe na sémantiku, počínaje poskytnutím jednotné sémantické reprezentace vybrané podskupiny treebanků.
[ "Federica Gamba" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Latin Morphology through the Centuries: Ensuring Consistency for Better Language Processing
Latinská morfologie napříč staletími: zajištění konzistence pro lepší zpracování jazyka
This paper focuses on the process of harmonising the five Latin treebanks available in Universal Dependencies with respect to morphological annotation. We propose a workflow that allows to first spot inconsistencies and missing information, in order to detect to what extent the annotations differ, and then correct the retrieved bugs, with the goal of equalising the annotation of morphological features in the treebanks and producing more consistent linguistic data. Subsequently, we present some experiments carried out with UDPipe and Stanza in order to assess the impact of such harmonisation on parsing accuracy.
Tento příspěvek se zaměřuje na proces harmonizace pěti latinských treebanků, které jsou součástí Universal Dependencies, s ohledem na morfologickou anotaci. Představujeme metodologii, která umožňuje najít nekonzistence a chybějící informace, stanovit míru odlišnosti anotací v jednotlivých korpusech a následovně opravit nalezené chyby. Cílem je učinit anotace morfologických rysů v jednotlivých treebancích navzájem co možná nejpodobnější a vyprodukovat konzistentnější jazyková data. Poté uvádíme experimenty s UDPipe a Stanzou, abychom stanovili vliv zmíněné harmonizace na úspěšnost parsingu.
[ "Federica Gamba", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/ae4d688c5fff9778b31f0ed4300fb881a2bdfe05/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Universalising Latin Universal Dependencies: a harmonisation of Latin treebanks in UD
Univerzalizace latinských Universal Dependencies: harmonizace latinských treebanků v UD
This paper presents the harmonisation process carried out on the five treebanks available for Latin in Universal Dependencies, with the aim of eliminating the discrepancies in their annotation styles. Indeed, this is the first issue to be addressed when parsing Latin, as significant drops in parsing accuracy on different Latin treebanks have been repeatedly observed. Latin syntactic variability surely accounts for this, but parsing results are as well affected by divergent annotation choices. By analysing where annotations differ, we propose a Python-based alignment of the five UD treebanks. Consequently, the impact of annotation choices on accuracy scores is assessed by performing parsing experiments with UDPipe and Stanza.
Tento článek představuje proces harmonizace, provedené na pěti závislostních korpusech latiny v Universal Dependencies, s cílem eliminovat rozdíly v jejich anotačních stylech.
[ "Federica Gamba", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/f61d01eb74b7d7643ed52c4ee1e4ec225b2a7907/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linking the Dictionary of Medieval Latin in the Czech Lands to the LiLa Knowledge Base
Propojení Slovníku středověké latiny v českých zemích se LiLa Knowledge Base
The paper presents the process of linking the Dictionary of Medieval Latin in the Czech Lands to the LiLa Knowledge Base, which adopts the Linked Data paradigm to make linguistic resources for Latin interoperable. An overview of the Dictionary and of the architecture of the LiLa Knowledge Base is first provided; then, the stages of the process of linking the Dictionary to LiLa's collection of lemmas are described. In conclusion, a query illustrates how interoperability allows for full exploitation of Latin resources.
Práce představuje proces propojení Slovníku středověké latiny v českých zemích se znalostní základnou LiLa, která přejímá paradigma Propojených dat, aby jazykové zdroje pro latinu byly interoperabilní. Nejprve je uveden přehled Slovníku a architektury znalostní základny LiLa; poté jsou popsány fáze procesu propojení Slovníku se sbírkou lemmů LiLa. Na závěr dotaz ilustruje, jak interoperabilita umožňuje plné využití latinských zdrojů.
[ "Federica Gamba", "Marco Passarotti", "Paolo Ruffolo" ]
https://www.semanticscholar.org/paper/56089e955d836bc8937f9b775a40265dcb1b5d53/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI does (not) write for you
AI (ne)píše za vás
A meeting for authors of fantasy who are eager to learn something new or meet new colleagues with the same interest. Visitors can enjoy a range of lectures on writing as well as workshops from experienced writers and other professionals.
Setkání pro autory fantastiky, kteří touží dozvědět se něco nového nebo potkat nové kolegy se stejným zájmem. Na návštěvníky čeká pásmo přednášek o psaní i workshopů od zkušených spisovatelů a dalších odborníků.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/66a15e9448092ee1fff9a67e288238e399a9fc17/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI workshop
AI workshop
It explains the principles of how big language models work and in practice allows participants to learn how to use AI tools for their own agenda.
Vysvětluje principy fungování velkých jazykových modelů a v praxi umožňuje účastníkům naučit se používat AI nástroje pro vlastní agendu.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/30d0a5a5f8e776c844a37afe3b1ace0b21b24859/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Generating theatre play scripts
Generování scénářů divadelních her
Presenting the demo version of the THEaiTRobot tool for generating theatre scripts at JDIM.
Představení demo verze nástroje THEaiTRobot na generování divadelních scénářů na JDIM.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/19c1b00b95c569bc8a2016a09ea22f6e5b211d46/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Generating plays scenarios using GPT family language models
Generování scénářů divadelních her pomocí jazykových modelů rodiny GPT
In February 2021, as part of the THEaiTRE project at the Švanda Theatre, we presented a play called "AI: When a Robot Writes a Play." It was the first full-length play, the script of which was mostly generated automatically using a language model. In the lecture, we will introduce the project, in which we used the language model GPT-2, which we have trained on the scenarios of the plays. We will explain how we progressed in the project and what we came across. We will also look more generally at newer versions of large language models, such as GPT-4 or ChatGPT. We will tell how today's language models work and how they differ from previous n-gram models. We will also explain how they are trained, how they can be used, and what their problems are.
V únoru 2021 jsme v rámci projektu THEaiTRE ve Švandově divadle uvedli divadelní hru s názvem "AI: Když robot píše hru". Šlo o první celovečerní divadelní hru, jejíž scénář byl převážně vygenerován automaticky pomocí jazykového modelu. V přednášce se seznámíme s projektem, v němž jsme využili jazykový model GPT-2, který jsme dotrénovali na scénářích divaelních her. Vysvětlíme si, jak jsme v projektu postupovali a na co jsme naráželi. Podíváme se i obecněji na novější verze velkých jazykových modelů, jako je GPT-4 či ChatGPT. Řekneme si, jak dnešní jazykové modely fungují a jak se liší od předchozích n-gramových modelů. Vysvětlíme si také, jak se trénují, jak se dají použít, i jaké mají problémy.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/2fd85798a742460c468777e150056cf0e43f9010/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
GPT & Co.: Generating texts using large language models
GPT a spol.: Generování textů pomocí velkých jazykových modelů
The main topic of the seminar will be large language models (LLM, large language models), which have recently achieved very remarkable results. We will look at how these models are created and trained, how they can be used, their abilities and limitations, and what other research is being done in this area.
Hlavním tématem semináře budou velké jazykové modely (LLM, large language models), které v poslední době dosahují velmi pozoruhodných výsledků. Podíváme se, jak se tyto modely vytvářejí a trénují, jak je lze používat, jaké mají schopnosti i omezení, a jaký další výzkum v této oblasti probíhá.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/8ca62fdf4c276ea3052dc96dcfd8ee96ca425a48/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
GPT et al.: Generating Texts with Transformer-Based Large Language Models
GPT et al.: Generování textů s velkými jazykovými modely na bázi transformeru
This presentation explores the use of large transformer-based language models for generating texts. We will discuss the history of language modeling and how the recent advances in recurrent neural networks (RNNs) and transformer networks have enabled the development of powerful language models. We will also examine the use of subwords and attention mechanisms in these models. Finally, we will present the THEaiTRE project, which uses transformer-based language models to generate theatre play scripts.
Tato prezentace zkoumá využití velkých jazykových modelů založených na transformátorech pro generování textů. Budeme diskutovat o historii jazykového modelování a o tom, jak nedávný pokrok v oblasti rekurentních neuronových sítí (RNN) a transformátorových sítí umožnil rozvoj výkonných jazykových modelů. Budeme také zkoumat využití podslov a mechanismů pozornosti v těchto modelech. Na závěr představíme projekt THEaiTRE, který využívá jazykové modely založené na transformátorech pro generování scénářů divadelních her.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/176e8c49c32f4c219857a1853998770927a598c6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
GPT et al.: Generating Texts with Transformer-Based Large Language Models
GPT et al.: Generování textů s velkými jazykovými modely na bázi transformeru
This presentation explores the use of large transformer-based language models for generating texts. We will discuss the history of language modeling and how the recent advances in recurrent neural networks (RNNs) and transformer networks have enabled the development of powerful language models. We will also examine the use of subwords and attention mechanisms in these models. Finally, we will present the THEaiTRE project, which uses transformer-based language models to generate theatre play scripts.
Tato prezentace zkoumá využití velkých jazykových modelů založených na transformátorech pro generování textů. Budeme diskutovat o historii jazykového modelování a o tom, jak nedávný pokrok v oblasti rekurentních neuronových sítí (RNN) a transformátorových sítí umožnil rozvoj výkonných jazykových modelů. Budeme také zkoumat využití podslov a mechanismů pozornosti v těchto modelech. Na závěr představíme projekt THEaiTRE, který využívá jazykové modely založené na transformátorech pro generování scénářů divadelních her.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/176e8c49c32f4c219857a1853998770927a598c6/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
About AI risks for TV Nova
O rizicích AI pro TV Nova
Information about risks related to artificial intelligence. Short TV entry.
Informace o rizicích spojených s umělou inteligencí. Krátký televizní vstup.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/604547093631fefe78c0da4eecb7f96ece6b22d6/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Panel: AI ARTIFICIAL INTELIGENCE NOT ONLY IN PHOTOGRAPHY
Panel: AI UMĚLÁ INTELIGENCE NEJEN VE FOTOGRAFII
Mgr. Rudolf Rosa, Ph.D. is a computer linguist and robopsychologist. He studied at the Institute of Formal and Applied Linguistics of MFF UK, where he currently works as an academic researcher. In recent years, he has focused on generating text using language models. As part of the THEaiTRE project, he participated in the creation of the first Czech theatre play with a scenario generated by artificial intelligence. He is also a member of the AI group in a context that focuses on artificial intelligence in the context of various disciplines. Currently, he participates in the interdisciplinary project “Man, Soul, AI”, exploring the relationships between man, modern technologies and religious concepts. In the past, he has also worked on multilingual and interlingual language processing, morphological and compositional language analysis, automatic machine translation or interpretation of trained models of artificial neural networks.
Mgr. Rudolf Rosa, Ph.D. je počítačovým lingvistou a robopsychologem. Studoval na Ústavu formální a aplikované lingvistiky MFF UK, kde v současné době působí jako akademický vědecký pracovník. V posledních letech se zaměřuje na generování textu pomocí jazykových modelů. V rámci projektu THEaiTRE se podílel na vzniku první české divadelní hry se scénářem vygenerovaným umělou inteligencí. Je také členem skupiny AI v kontextu, která se zaměřuje na umělou inteligenci v kontextu různých oborů. V současné době se podílí na interdisciplinárním projektu „Člověk, duše, AI“, zkoumajícím vztahy mezi člověkem, moderními technologiemi a náboženskými koncepty. V minulosti se věnoval také vícejazyčnému a mezijazyčnému zpracování jazyka, tvaroslovnému a skladebnému rozboru jazyka, automatickému strojovému překladu či interpretaci natrénovaných modelů umělých neuronových sítí.
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
panelist at Towards AI-Aided Human-Supervised Linguistics
panelista na Towards AI-Aided Human-Supervised Linguistics
● The evolving role of linguists: Today in near future ● The future of linguistic research infrastructure: Advancements in language corpora, user interfaces, and linguistic annotation ● Reevaluating the authenticity of linguistic data ● Transformations in language education: Adapting to change and integration of AI technologies in language teaching ● The future of “non-English” languages and “non-English” LLM
● Vyvíjející se role lingvistů: Dnes v blízké budoucnosti ● Budoucnost infrastruktury lingvistického výzkumu: Pokroky v jazykových korpusech, uživatelských rozhraních a lingvistické anotaci ● Přehodnocení autenticity jazykových dat ● Transformace v jazykovém vzdělávání: Přizpůsobení se změně a integraci AI technologií ve výuce jazyků ● Budoucnost „neanglických“ jazyků a „neanglických“ LLM
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Artificial intelligence in the library
SMAZAT Umělá inteligence v knihovně
We cordially invite you to April's Inspiromat dedicated to the topic of AI, or artificial intelligence. We will talk about what AI actually is (and what it isn't). We will introduce you to basic concepts to get an idea of how it all actually works. In the second part we will then focus specifically on textual models, introduce how such a model works and what can be done with them (like writing a play). In the third phase we will try to outline in the form of a dialogue the possibilities and changes that the development of AI will bring not only to libraries. The guest will be Rudolf Rosa Ph.D., a researcher in the field of computational linguistics and artificial intelligence at the Institute of Applied and Formal Linguistics of MFF UK. As part of the Theiatre project and in cooperation with Švandový Theatre, he presented a full-length play for which 90% of the script was written by artificial intelligence. He is one of the members of the AI team in a context dedicated to popularization and education in the field of artificial intelligence.
Srdečně vás zveme na dubnový Inspiromat věnovaný tématu AI neboli umělé inteligence. Budeme si povídat o tom, co AI vlastně je (a co není). Seznámíme vás se základními pojmy, abyste získali představu, jak to celé vlastně funguje. V druhé části se pak zaměříme konkrétně na textové modely, představíme, jak takový model funguje a co se s nimi dá dělat (třeba napsat divadelní hra). Ve třetí fázi pak formou dialogu zkusíme nastínit možnosti a změny, které rozvoj AI přinese nejenom do knihoven. Hostem bude Rudolf Rosa Ph.D., výzkumník v oblasti komputační lingvistiky a umělé inteligence na Ústavu aplikované a formální lingvistiky MFF UK. V rámci projektu Theiatre a ve spolupráci se Švandovým divadlem uvedl celovečerní divadelní hru, ke které z 90% scénář napsala umělá inteligence. Je jedním z členů týmu AI v kontextu, který se věnuje popularizaci a vzdělávání v oblasti umělé inteligence.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/e3e582915887321cb5a5ce3eba9cebbc198f0367/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
THEaiTRE: Automatically Generating Theatre Play Scripts
THEaiTRE: Automatické generování scénářů divadelních her
Presenting THEaiTRE project research for bachelor students of JKU.
Představení výzkumu v rámci projektu THEaiTRE pro bakalářské studenty JKU.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/5cf787dcb21cc9db4a689c57702d0a247222a3ff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
THEaiTRE: generating theatre plays
THEaiTRE: generování divadelní her
Lecture for participants on THEaiTRobot tool and language models.
Přednáška pro účastníky předmětu o nástroji THEaiTRobot a jazykových modelech.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/19c1b00b95c569bc8a2016a09ea22f6e5b211d46/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
THEaiTRE: Artificial Intelligence Writes Theatre Plays
THEaiTRE: Umělá inteligence píše divadelní hry
Lecture on generating theatre plays and language models at JDIM.
Přednáška o generování divadelních her a jazykových modelech na JDIM.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Participation in the Ajaj AI panel discussion? How libraries and society become familiar with artificial intelligence
účast na panelové diskuzi Ajaj AI? Jak se knihovny a společnost sžijí s umělou inteligencí
It will transform the labour market, the form of education, the concept of copyright and the dynamics in society… What will artificial intelligence mean for the future of libraries?
Promění trh práce, podobu vzdělávání, pojetí autorských práv i dynamiku ve společnosti… Co bude umělá inteligence znamenat pro budoucnost knihoven?
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Artificial intelligence, language models and theatre
Umělá inteligence, jazykové modely a divadlo
Artificial intelligence, language models and theatre Rules / machine learning Capabilities and limitations of AI THEaiTRE: AI in theatre Language models
Umělá inteligence, jazykové modely a divadlo Pravidla / strojové učení Schopnosti a omezení AI THEaiTRE: AI v divadle Jazykové modely
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/654aaf71b757fe87c4d2f0c04d02a0744c737216/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
More than just ChatGPT
Více než jen ChatGPT
More than just ChatGPT: The principles and capabilities of current AI tools. The principles of AI and machine learning. The capabilities of current AI tools. The legal aspects of AI.
Více než jen ChatGPT: Principy a možnosti současných nástrojů umělé inteligence. Principy AI a strojového učení. Možnosti současných AI nástrojů. Právní aspekty AI.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/bf8491bef353df126e2306ad2fe4b898697b906a/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Life with Artificial Intelligence
Život s umělou inteligencí
Popularisation lecture for high school students with the topic of artificial intelligence and text generation
Popularizační přednáška pro studenty SŠ na téma umělé inteligence a generování textu
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Life with Artificial Intelligence
Život s umělou inteligencí
Popularisation lecture for high school students with the topic of artificial intelligence and text generation
Popularizační přednáška pro studenty SŠ na téma umělé inteligence a generování textu
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Life with Artificial Intelligence
Život s umělou inteligencí
Popularisation lecture for elementary school students with the topic of artificial intelligence and text generation
Popularizační přednáška pro studenty ZŠ na téma umělé inteligence a generování textu
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
AI Soul Imprint Generator
AI generátor otisků duší
Each user's response to the app's questions is converted into a text description that serves as a prompt to generate a unique image using Stable Diffusion technology. Each user is given a different random number, so even if two people answer the questions the same way, the resulting image will be unique to each of them. This means that each soul imprint generated by this app is completely unique. The app contains questions that are designed to be easy to answer, but also to help reveal something deeper about the user's soul. Each answer to these questions is then converted into English text to be used as a prompt for the image generator.
Každá odpověď uživatele na otázky aplikace je převedena na textový popis, který slouží jako prompt pro generování unikátního obrázku pomocí technologie Stable Diffusion. Každý uživatel dostává jiné náhodné číslo, takže i když dvě osoby odpoví na otázky stejně, výsledný obrázek bude unikátní pro každého z nich. To znamená, že každý otisk duše generovaný touto aplikací je zcela jedinečný. Aplikace obsahuje otázky, které jsou navrženy tak, aby byly snadno zodpověditelné, ale zároveň aby pomáhaly odhalit něco hlubšího o duši uživatele. Každá odpověď na tyto otázky je následně převedena na anglický text, který se použije jako prompt pro generátor obrázků.
[ "Rudolf Rosa", "Jiří Dosoudil", "František Štěch", "Tereza Hannemann", "Pavel Pola" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
AI: WHEN A ROBOT WRITES A PLAY
AI: KDYŽ ROBOT PÍŠE HRU
This volume is a direct result of the Theatre About Science Conference, held in November 2021 in Coimbra, Portugal. Most of the articles build upon presentations given at the conference, but some were written specifically for this publication. On the occasion of the centenary of Karel Čapek›s play R.U.R (Čapek, 1920), the Švanda Theatre prepared a presentation of a unique project, THEaiTRE, conceived by a Czech innovator Tomáš Studeník, which examines whether artificial intelligence can write a play. Within a few months, the computer generated images from the life of a robot that has to face the joys and sorrows of everyday life. And it revealed to us how it perceives basic human issues such as birth, dying, the desire for love, the search for jobs, or aging.
Tento svazek je přímým výsledkem konference Theatre About Science, která se konala v listopadu 2021 v Coimbra, Portugalsko. Většina článků vychází z prezentací přednesených na konferenci, ale některé byly napsány speciálně pro tuto publikaci. U příležitosti stého výročí hry Karla Čapka R.U.R (Čapek, 1920) připravilo Švandovo divadlo představení unikátního projektu THEaiTRE českého inovátora Tomáše Studeníka, který zkoumá, zda umělá inteligence dokáže napsat hru. Počítač během pár měsíců vygeneroval obrázky ze života robota, který musí čelit radostem i strastem všedního dne. A prozradila nám, jak vnímá základní lidská témata jako zrození, umírání, touha po lásce, hledání zaměstnání nebo stárnutí.
[ "Rudolf Rosa", "Daniel Hrbek" ]
https://www.semanticscholar.org/paper/a4921203e6b9fd6d1ee5f3b89b8c59408b1cedde/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
DVPP “Artificial Intelligence”
DVPP “Umělá inteligence”
The aim of the course is to show artificial intelligence from the perspective of various disciplines of science. To reflect on how artificial intelligence affects our daily lives in various fields. The course will focus mainly on contexts/perspectives: AI in psychology, pedagogy, transport, health, linguistics, journalism and theatre. Within all parts of the course, emphasis will be placed on strengthening the multiperspective view of artificial intelligence, providing a broad pension of information on the use of artificial intelligence, its role, impacts and vision for the future.
Cílem kurzu je ukázat umělou inteligenci z perspektivy různých vědních disciplín. Zamyslet nad tím, jak umělá inteligence ovlivňuje náš každodenní život v různých oblastech. Kurz bude zaměřen především na kontexty/perspektivy: AI v psychologie, pedagogice, dopravě, zdravotnictví, lingvistice, žurnalistice a divadle. V rámci všech částí kurzu bude kladen důraz na posilování multiperspektivního pohledu na umělou inteligenci, poskytnutí širokého penza informací o využití umělé inteligence, její roli, dopadech a vizi do budoucnosti.
[ "Rudolf Rosa", "Jindřich Libovický", "Ondřej Hrách", "Tereza Hannemann" ]
https://www.semanticscholar.org/paper/ff97adbdf7ba45c08c6abe277aba04b41e85e5b0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
CorefUD 1.1
CorefUD 1.1
CorefUD is a collection of previously existing datasets annotated with coreference, which we converted into a common annotation scheme.
CorefUD je kolekce existujících korpusů s anotací koreference, které jsme převedli na jednotné anotační schéma.
[ "Michal Novák", "Martin Popel", "Zdeněk Žabokrtský", "Daniel Zeman", "Anna Nedoluzhko", "Kutay Acar", "Peter Bourgonje", "Silvie Cinková", "Gülşen Cebiroğlu Eryiğit", "Jan Hajič", "Christian Hardmeier", "Dag Haug", "Tollef Jørgensen", "Andre Kåsen", "Pauline Krielke", "Frédéric Landragin", "Ekaterina Lapshinova-Koltunski", "Petter Mæhlum", "Maria Antònia Martí", "Marie Mikulová", "Anders Nøklestad", "Maciej Ogrodniczuk", "Lilja Øvrelid", "Tuğba Pamay Arslan", "Marta Recasens", "Per Erik Solberg", "Manfred Stede", "Milan Straka", "Svetlana Toldova", "Noémi Vadász", "Erik Velldal", "Veronika Vincze", "Amir Zeldes", "Voldemaras Žitkus" ]
https://www.semanticscholar.org/paper/33336cdc37455107ca34636d844ab352e410eb1a/
null
null
null
null
null
null
null
null
null
null
null
null