lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2023
Linguistically annotated multilingual comparable corpora of parliamentary debates in English ParlaMint-en.ana 4.0
Lingvisticky anotovaný vícejazyčný korpus parlamentních debat v angličtině ParlaMint.ana 4.0
ParlaMint is a multilingual set of comparable corpora containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Basque Country, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, Finland, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Spain, Sweden, Turkey, UK, Ukraine.
ParlaMint je vícejazyčný soubor srovnatelných korpusů obsahujících parlamentní debaty. Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Baskicko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Finsko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Španělsko, Švédsko, Turecko, Spojené království, Ukrajina.
[ "Taja Kuzman", "Nikola Ljubešić", "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Paul Rayson", "John Vidler", "Rodrigo Agerri", "Manex Agirrezabal", "Tommaso Agnoloni", "José Aires", "Monica Albini", "Jon Alkorta", "Iván Antiba-Cartazo", "Ekain Arrieta", "Mario Barcala", "Daniel Bardanca", "Starkaður Barkarson", "Roberto Bartolini", "Roberto Battistoni", "Núria Bel", "Maria del Mar Bonet Ramos", "María Calzada Pérez", "Aida Cardoso", "Çağrı Çöltekin", "Matthew Coole", "Roberts Darģis", "Jesse de Does", "Ruben de Libano", "Griet Depoorter", "Katrien Depuydt", "Sascha Diwersy", "Réka Dodé", "Kike Fernandez", "Elisa Fernández Rei", "Francesca Frontini", "Marcos Garcia", "Noelia García Díaz", "Pedro García Louzao", "Maria Gavriilidou", "Dimitris Gkoumas", "Ilko Grigorov", "Vladislava Grigorova", "Dorte Haltrup Hansen", "Mikel Iruskieta", "Johan Jarlbrink", "Kinga Jelencsik-Mátyus", "Bart Jongejan", "Neeme Kahusk", "Martin Kirnbauer", "Anna Kryvenko", "Noémi Ligeti-Nagy", "Giancarlo Luxardo", "Carmen Magariños", "Måns Magnusson", "Carlo Marchetti", "Maarten Marx", "Katja Meden", "Amália Mendes", "Michal Mochtak", "Martin Mölder", "Simonetta Montemagni", "Costanza Navarretta", "Bartłomiej Nitoń", "Fredrik Mohammadi Norén", "Amanda Nwadukwe", "Mihael Ojsteršek", "Andrej Pančur", "Vassilis Papavassiliou", "Rui Pereira", "María Pérez Lago", "Stelios Piperidis", "Hannes Pirker", "Marilina Pisani", "Henk van der Pol", "Prokopis Prokopidis", "Valeria Quochi", "Xosé Luís Regueira", "Michał Rudolf", "Manuela Ruisi", "Peter Rupnik", "Daniel Schopper", "Kiril Simov", "Laura Sinikallio", "Jure Skubic", "Minna Tamper", "Lars Magne Tungland", "Jouni Tuominen", "Ruben van Heusden", "Zsófia Varga", "Marta Vázquez Abuín", "Giulia Venturi", "Adrián Vidal Miguéns", "Kadri Vider", "Ainhoa Vivel Couso", "Adina Ioana Vladu", "Tanja Wissik", "Väinö Yrjänäinen", "Rodolfo Zevallos", "Darja Fišer" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Linguistically annotated multilingual comparable corpora of parliamentary debates in English ParlaMint-en.ana 3.0
Lingvisticky anotovaný vícejazyčný korpus parlamentních debat v angličtině ParlaMint.ana 3.0
ParlaMint-en.ana is a multilingual set of comparable linguistically annotated corpora translated to English containing parliamentary debates. It contains parliament debates from these countries and regions: Austria, Belgium, Bosnia, Bulgaria, Catalonia, Croatia, Czechia, Denmark, Estonia, Galicia, Greek, France, Iceland, Italy, Latvia, Hungary, Netherlands, Norway, Poland, Portugal, Serbia, Slovenia, Sweden, Turkey, UK, Ukraine
ParlaMint.ana je vícejazyčný soubor srovnatelných jazykově anotovaných korpusů přeložený do angličtiny obsahujících parlamentní debaty. Obsahuje parlamentní debaty z těchto zemí a regionů: Belgie, Bosna, Bulharsko, Katalánsko, Chorvatsko, Česko, Dánsko, Estonsko, Galicie, Řecko, Francie, Island, Itálie, Lotyšsko, Maďarsko, Nizozemsko, Norsko, Polsko, Portugalsko, Srbsko, Slovinsko, Švédsko, Turecko, Velká Británie, Ukrajina
[ "Taja Kuzman", "Nikola Ljubešić", "Tomaž Erjavec", "Matyáš Kopp", "Maciej Ogrodniczuk", "Petya Osenova", "Darja Fišer", "Hannes Pirker", "Tanja Wissik", "Daniel Schopper", "Martin Kirnbauer", "Michal Mochtak", "Peter Rupnik", "Henk van der Pol", "Griet Depoorter", "Jesse de Does", "Kiril Simov", "Vladislava Grigorova", "Ilko Grigorov", "Bart Jongejan", "Dorte Haltrup Hansen", "Costanza Navarretta", "Martin Mölder", "Neeme Kahusk", "Kadri Vider", "Núria Bel", "Iván Antiba-Cartazo", "Marilina Pisani", "Rodolfo Zevallos", "Xosé Luís Regueira", "Adina Ioana Vladu", "Carmen Magariños", "Daniel Bardanca", "Mario Barcala", "Marcos Garcia", "María Pérez Lago", "Pedro García Louzao", "Ainhoa Vivel Couso", "Marta Vázquez Abuín", "Noelia García Díaz", "Adrián Vidal Miguéns", "Elisa Fernández Rei", "Sascha Diwersy", "Giancarlo Luxardo", "Matthew Coole", "Paul Rayson", "Amanda Nwadukwe", "Dimitris Gkoumas", "Vassilis Papavassiliou", "Prokopis Prokopidis", "Maria Gavriilidou", "Stelios Piperidis", "Noémi Ligeti-Nagy", "Kinga Jelencsik-Mátyus", "Zsófia Varga", "Réka Dodé", "Starkaður Barkarson", "Tommaso Agnoloni", "Roberto Bartolini", "Francesca Frontini", "Simonetta Montemagni", "Valeria Quochi", "Giulia Venturi", "Manuela Ruisi", "Carlo Marchetti", "Roberto Battistoni", "Roberts Darģis", "Ruben van Heusden", "Maarten Marx", "Katrien Depuydt", "Lars Magne Tungland", "Michał Rudolf", "Bartłomiej Nitoń", "José Aires", "Amália Mendes", "Aida Cardoso", "Rui Pereira", "Väinö Yrjänäinen", "Fredrik Mohammadi Norén", "Måns Magnusson", "Johan Jarlbrink", "Katja Meden", "Andrej Pančur", "Mihael Ojsteršek", "Çağrı Çöltekin", "Anna Kryvenko" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Overview of the 10th Workshop on Asian Translation
Přehled 10. workshopu o překladech pro asijské jazyky
This paper presents the results of the shared tasks from the 10th workshop on Asian translation (WAT2023). For the WAT2023, 2 teams submitted their translation results for the human evaluation. We also accepted 1 research paper. About 40 translation results were submitted to the automatic evaluation server, and selected submissions were manually evaluated.
Tento článek představuje výsledky společných úkolů z 10. workshopu o asijském překladu (WAT2023). V rámci workshopu WAT2023 předložily 2 týmy své výsledky překladu k hodnocení lidmi a přijali jsme také 1 výzkumnou práci. Na automatický hodnotící server bylo zasláno přibližně 40 výsledků překladů a vybrané příspěvky byly hodnoceny ručně.
[ "Toshiaki Nakazawa", "Kazutaka Kinugawa", "Hideya Mino", "Isao Goto", "Raj Dabre", "Shohei Higashiyama", "Shantipriya Parida", "Makoto Morishita", "Ondřej Bojar", "Akiko Eriguchi", "Yusuke Oda", "Chenhui Chu", "Sadao Kurohashi" ]
https://www.semanticscholar.org/paper/bf7cf9df1329aab822fd162676cc4949f33bcfa8/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Discussion after the derniere of the performance AI: When a Robot Writes a Play
Diskuze po derniéře představení AI: Když robot píše hru
What does the robot think about, how does it feel and can it write a play? Snippets from the life of artificial intelligence in its own words. Futuristic Little Prince of the postpandemic era. Every reprise will be followed by a debate with experts in artificial intelligence and theater makers. The show is not only a testament to the current capabilities of computer technology, but also an engaging vision of the future world inspired by the sci-fi classics.
O čem robot přemýšlí, co cítí a dokáže napsat divadelní hru? Střípky ze života umělé inteligence jejími vlastními slovy. Futuristický Malý princ z doby postpandemické. Inscenace, po jejíž každé repríze následuje debata s odborníky na umělou inteligenci i divadelními tvůrci, je nejen svědectvím o současných schopnostech počítačových technologií, ale i poutavou vizí budoucího světa inspirující se v klasikách žánru sci-fi.
[ "Daniel Hrbek", "David Košťák", "Rudolf Rosa", "Tomáš Musil" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The OmniOMR Project
Projekt OmniOMR
In March 2023, the OmniOMR project started with the aim of applying OMR technologies in a digital library environment. The project aims to provide full-text search functionality in musical documents in diverse library collections, covering primarily Common Western Music Notation, but (white) mensural and diastematic chant notations as well, both printed and handwritten. To provide this capability, we aim to build an ”OmniOMR Service” - not just for recognition, but also the preceding step of music notation detection and classification, as not all documents that contain music notation are marked in library collections with the appropriate metadata. A significant condition for the project’s success is building a dataset that accurately reflects the challenges present in a broad library collection. This report lays out in more detail the goals of the project, its current status, and most importantly, we outline the opportunities for collaboration across the OMR community.
V březnu 2023 byl zahájen projekt OmniOMR s cílem aplikovat technologie OMR v prostředí digitální knihovny. Cílem projektu je zajistit funkčnost fulltextového vyhledávání v hudebních dokumentech v rozličných knihovních sbírkách, pokrývající především Common Western Music Notation, ale i (bílé) menzurální a diastematické zápisy nápěvů, tištěných i psaných rukou. Pro zajištění této schopnosti chceme vybudovat službu OmniOMR - nejen pro rozpoznávání, ale také pro předchozí krok detekce a klasifikace notových zápisů, protože ne všechny dokumenty, které obsahují notový zápis, jsou v knihovních sbírkách označeny příslušnými metadaty. Významnou podmínkou úspěchu projektu je sestavení datasetu, který přesně odráží výzvy obsažené v široké knihovní sbírce. Tato zpráva podrobněji popisuje cíle projektu, jeho současný stav, a co je nejdůležitější, nastiňuje možnosti spolupráce napříč komunitou OMR.
[ "Jan Hajič, jr.", "Petr Žabička", "Jan Rychtář", "Jiří Mayer", "Martina Dvořáková", "Filip Jebavý", "Markéta Vlková", "Pavel Pecina" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The ParlaMint Project: Ever-growing Family of Comparable and Interoperable Parliamentary Corpora
Projekt ParlaMint: Stále rostoucí rodina srovnatelných a interoperabilních parlamentních korporací
We present an overview of the current status of the CLARIN flagship project ParlaMint (ParlaMint II), summarizing coverage of the parliament corpora, their size and time span. The organization of the workflow is outlined and newly added corpus enrichment procedures are described, such as machine translation of the corpora into English and showcasing of multimodal aspects. Last but not least, a number of ways for exploring the corpora are described.
Představujeme přehled aktuálního stavu vlajkového projektu CLARIN ParlaMint (ParlaMint II), shrnující pokrytí korpusu parlamentu, jejich velikost a časové rozpětí. Je nastíněna organizace workflow a jsou popsány nově přidané postupy obohacování korpusu, jako je strojový překlad korpusu do angličtiny a ukázka multimodálních aspektů. V neposlední řadě je popsána řada způsobů, jak korpus prozkoumat.
[ "Maciej Ogrodniczuk", "Petya Osenova", "Tomaž Erjavec", "Darja Fišer", "Nikola Ljubešić", "Çağrı Çöltekin", "Matyáš Kopp", "Katja Meden", "Taja Kuzman" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Generating clickbait spoilers with an ensemble of large language models
Generování clickbaitových spoilerů pomocí souboru velkých jazykových modelů
Clickbait posts are a widespread problem in the webspace. The generation of spoilers, i.e. short texts that neutralize clickbait by providing information that makes it uninteresting, is one of the proposed solutions to the problem. Current state-of-the-art methods are based on passage retrieval or question answering approaches and are limited to generating spoilers only in the form of a phrase or a passage. In this work, we propose an ensemble of fine-tuned large language models for clickbait spoiler generation. Our approach is not limited to phrase or passage spoilers, but is also able to generate multipart spoilers that refer to several non-consecutive parts of text. Experimental evaluation demonstrates that the proposed ensemble model outperforms the baselines in terms of BLEU, METEOR and BERTScore metrics.
Clickbait příspěvky jsou ve webovém prostoru rozšířeným problémem. Jedním z navrhovaných řešení tohoto problému je generování spoilerů, tj. krátkých textů, které clickbait neutralizují tím, že poskytují informace, které jej činí nezajímavým. Současné nejmodernější metody jsou založeny na přístupech vyhledávání pasáží nebo zodpovídání otázek a omezují se na generování spoilerů pouze ve formě fráze nebo pasáže. V této práci navrhujeme soubor vyladěných rozsáhlých jazykových modelů pro generování spoilerů typu clickbait. Náš přístup se neomezuje pouze na spoilery typu fráze nebo pasáž, ale je schopen generovat i vícedílné spoilery, které se vztahují k několika nesouvislým částem textu. Experimentální vyhodnocení ukazuje, že navržený model souboru překonává základní modely z hlediska metrik BLEU, METEOR a BERTScore.
[ "Mateusz Woźny", "Mateusz Lango" ]
https://www.semanticscholar.org/paper/6f143e828da9066228d4d133e54648595123e103/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Ukrainian parliamentary corpus ParlaMint-UA 4.0.1
Ukrajinský parlamentní korpus ParlaMint-UA 4.0.1
The Ukrainian parliamentary corpus ParlaMint-UA 4.0.1 is an extended version of the ParlaMint-UA 4.0 corpus. It contains plenary proceedings for the 4th, 5th, 6th, 7th, 8th and 9th terms of the Rada between 14 May 2002 and 10 November 2023. Tokens in Ukrainian comprise 94% and tokens in Russian comprise 6%.
Ukrajinský parlamentní korpus ParlaMint-UA 4.0.1 je rozšířenou verzí korpusu ParlaMint-UA 4.0. Obsahuje plenární zasedání pro 4., 5., 6., 7., 8. a 9. funkční období Rady v období od 14. května 2002 do 10. listopadu 2023. Tokeny v ukrajinštině tvoří 94% a tokeny v ruštině 6%.
[ "Matyáš Kopp", "Anna Kryvenko", "Andriana Rii" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Language Technology Tools and Services
Nástroje a služby jazykových technologií
At the time of writing, the European Language Grid includes more than 800 LT services of varied types, including machine translation (MT), automatic speech recognition (ASR), text-to-speech synthesis (TTS), and text analysis ranging from simple tokenisers and part-of-speech taggers through to complete named entity recognition and sentiment analysis systems. This chapter gives a high-level summary of the development of the ELG service catalogue over time and digs deeper to discuss the process of service integration by looking at a few example services.
V době psaní tohoto textu zahrnuje European Language Grid více než 800 jazykových služeb různých typů, včetně strojového překladu (MT), automatického rozpoznávání řeči (ASR), syntézy řeči (TTS) a analýzy textu od jednoduchých tokenizérů a taggerů až po kompletní systémy rozpoznávání pojmenovaných entit a analýzy sentimentu. Tato kapitola podává vysokoúrovňový přehled o vývoji katalogu služeb ELG v průběhu času a hlouběji se zabývá procesem integrace služeb na několika ukázkových příkladech.
[ "Ian Roberts", "Andres Garcia-Silva", "Cristian Berrìo Aroca", "José Manuel Gómez-Pérez", "Miroslav Jánoší", "Dimitris Galanis", "Rémi Callizano", "Andis Lagzdiņš", "Milan Straka", "Ulrich Germann" ]
https://www.semanticscholar.org/paper/eed651fac60d461a13d8aae06f0c1e8cc431b4f7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
VisuaLLM: Easy Web-based Visualization for Neural Language Generation
VisuaLLM: Snadná webová vizualizace pro neuronové generování jazyka
VisuaLLM is a Python library that enables interactive visualization of common tasks in natural language generation with pretrained language models (using HuggingFace's model API), with tight integration of benchmark datasets and fine-grained generation control. The system runs as a local generation backend server and features a web-based frontend, allowing simple interface configuration by minimal Python code. The currently implemented views include data visualization, next-token prediction with probability distributions, and decoding parameter control, with simple extension to additional tasks.
VisuaLLM je knihovna pro Python, která umožňuje interaktivní vizualizaci běžných úloh generování přirozeného jazyka s předtrénovanými jazykovými modely (pomocí modelového API HuggingFace), s úzkou integrací referenčních datových sad a jemným řízením generování. Systém běží jako lokální generovací backendový server a je vybaven webovým frontendem, který umožňuje jednoduchou konfiguraci rozhraní pomocí minimálního kódu jazyka Python. Aktuálně implementované pohledy zahrnují vizualizaci dat, predikci dalších tokenů s pravděpodobnostními distribucemi a řízení parametrů dekódování s možností jednoduchého rozšíření o další úlohy.
[ "František Trebuňa", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/85b49963182e0bcd239d6e51b7edd750331edb86/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Searching for Reasons of Transformers’ Success: Memorization vs Generalization
Hledání příčin úspěchu transformerů: Zapamatování vs. zobecnění
The Transformer architecture has, since its conception, led to numerous breakthrough advancements in natural language processing. We are interested in finding out whether its success is primarily due to its capacity to learn the various generic language rules, or whether the architecture leverages some mem- orized constructs without understanding their structure. We conduct a series of experiments in which we modify the training dataset to prevent the model from memorizing bigrams of words that are needed by the test data. We find out that while such a model performs worse than its unrestricted counterpart, the findings do not indicate that the Transformers’ success is solely due to its memorization capacity. In a small qualitative analysis, we demonstrate that a human translator lacking the necessary terminological knowledge would likely struggle in a similar way.
Architektura transformeru vedla od svého vzniku k mnoha změnám a dosáhla přelomových pokroků v oblasti zpracování přirozeného jazyka. Chceme zjistit, zda je její úspěch způsoben především schopností učit se různá obecná jazyková pravidla, nebo zda architektura využívá některé zapamatované konstrukce, aniž by rozuměla jejich struktuře. Provádíme řadu experimentů, v nichž modifikujeme trénovací datovou sadu tak, aby si model nemohl zapamatovat bigramy slov, které jsou potřebné v testovacích datech. Ačkoli takový model dosahuje horších výsledků než jeho neomezený protějšek, zjištění nenaznačují, že by úspěch modelu transformetu byl způsoben pouze jeho schopností pamatovat si. V malé kvalitativní analýze prokazujeme, že lidský překladatel postrádající potřebné terminologické znalosti by měl pravděpodobně velmi podobné potíže.
[ "František Trebuňa", "Kristína Szabová", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/fa514a3336be98649dae672d41f219a6ce7187d4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The State of Universal Dependencies
Stav Universal Dependencies
We present Universal Dependencies as one of the pillars on which the UniDive COST Action is constructed.
Představujeme Universal Dependencies jako jeden ze dvou pilířů, na kterých je postavena COST akce UniDive.
[ "Marie-Catherine de Marneffe", "Joakim Nivre", "Daniel Zeman" ]
https://www.semanticscholar.org/paper/4fbf1cb480434fdb45ca6c0f2357b9d4bb10b46b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Are Large Language Models All You Need for Task-Oriented Dialogue?
Jsou velké jazykové modely vše, co potřebujete pro modelování task-oriented dialogů?
Instruction-finetuned large language models (LLMs) gained a huge popularity recently, thanks to their ability to interact with users through conversation. In this work, we aim to evaluate their ability to complete multi-turn tasks and interact with external databases in the context of established task-oriented dialogue benchmarks. We show that in explicit belief state tracking, LLMs underperform compared to specialized task-specific models. Nevertheless, they show some ability to guide the dialogue to a successful ending through their generated responses if they are provided with correct slot values. Furthermore, this ability improves with few-shot in-domain examples.
Velké jazykové modely (LLM) si v poslední době získaly velkou popularitu díky své schopnosti komunikovat s uživateli prostřednictvím konverzace. V této práci se snažíme vyhodnotit jejich schopnost plnit víceúlohové úlohy a komunikovat s externími databázemi v kontextu zavedených benchmarků pro dialog orientovaný na úlohy. Ukazujeme, že při explicitním sledování dialogového stavu mají LLM ve srovnání se specializovanými modely zaměřenými na konkrétní úlohy horší výsledky. Nicméně vykazují určitou schopnost vést dialog k úspěšnému konci prostřednictvím svých generovaných odpovědí, pokud jsou jim poskytnuty správné hodnoty slotů. Tato schopnost se navíc zlepšuje při použití několika málo příkladů z dané domény.
[ "Vojtěch Hudeček", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/dce4e4cf1cd8c42b8a400280a48283234ad7aafb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
UMR annotation of multiword expressions
Anotace MWE v UMR
Similarly to AMR, Uniform Meaning Representation (UMR) is a graph-based formalism with nodes as concepts and edges as relations between them. When used to represent natural language semantics, words in a sentence will be mapped to concepts in the UMR graph. Multiword expressions (MWEs) pose a particular challenge to UMR annotation because they deviate from the default one-to-one mapping between words and concepts. There are different types of MWEs which require different kinds of annotation that must be specified in guidelines. This paper discusses the specific treatment for each type of MWE and its mapping to a UMR concept.
Podobně jako AMR, Uniform Meaning Representation (UMR) je grafový formalismus s uzly jako pojmy a hranami jako vztahy mezi nimi. Pokud se používá k reprezentaci sémantiky přirozeného jazyka, budou slova ve větě mapována na pojmy v UMR grafu. Víceslovné výrazy (MWE) představují zvláštní výzvu pro UMR anotaci, protože se odchylují od výchozího mapování jeden na jednoho mezi slovy a pojmy. Existují různé typy MWE, které vyžadují různé druhy anotací, které musí být specifikovány v pokynech. Tato práce pojednává o specifickém zacházení pro každý typ MWE a jeho mapování na UMR koncept.
[ "Julia Bonn", "Andrew Cowell", "Jan Hajič", "Alexis Palmer", "Martha Palmer", "James Pustejovsky", "Zdeňka Urešová", "Shira Wein", "Nianwen Xue", "Jin Zhou" ]
https://www.semanticscholar.org/paper/5711a1891769557ce4f1b9cf5c56cf475e57064d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Mapping AMR to UMR: Resources for Adapting Existing Corpora for Cross-Lingual Compatibility
Mapování AMR na UMR: Zdroje pro přizpůsobení stávajících korpusů pro mezijazykovou kompatibilitu
This paper presents detailed mappings between the structures used in Abstract Meaning Representation (AMR) and those used in Uniform Meaning Representation (UMR). These structures include general semantic roles, rolesets, and concepts that are largely shared between AMR and UMR, but with crucial differences. While UMR annotation of new low-resource languages is ongoing, AMR-annotated corpora already exist for many languages, including lots of English data, which are ripe for conversion to UMR format. Rather than focusing on semantic coverage that is new to UMR (which will likely need to be dealt with manually), this paper serves as a resource (with illustrated mappings) for users looking to understand the fine-grained adjustments that have been made to the representation techniques for semantic categories present in both AMR and UMR
Tato práce představuje detailní mapování mezi strukturami používanými v Abstract Meaning Representation (AMR) a strukturami používanými v Uniform Meaning Representation (UMR). Tyto struktury zahrnují obecné sémantické role, rolesety a koncepty, které jsou z velké části sdíleny mezi AMR a UMR, ale se zásadními rozdíly. Zatímco UMR anotace nových nízkozdrojových jazyků probíhá, AMR anotované korpusy již existují pro mnoho jazyků, včetně spousty anglických dat, které jsou zralé pro konverzi do formátu UMR. Spíše než se soustředit na sémantické pokrytí, které je v UMR nové (které bude pravděpodobně potřeba řešit ručně), tato práce slouží jako zdroj (s ilustrovanými mapováním) pro uživatele, kteří hledají pochopení jemnozrnných úprav, které byly provedeny v reprezentačních technikách pro sémantické kategorie přítomné v AMR i UMR
[ "Julia Bonn", "Skatje Myers ", "Jens E. L. van Gysel", "Lukas Denk", "Meagan Vigus", "Jin Zhou", "Andrew Cowell", "William Croft", "Jan Hajič", "James Martin", "Alexis Palmer", "Martha Palmer", "James Pustejovsky", "Zdeňka Urešová", "Rosa Vallejos", "Nianwen Xue" ]
https://www.semanticscholar.org/paper/03734718cf83e0269721c431ad1799fe33fa95d9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Unsupervised segmentation of Gregorian chant melodies for exploring chant modality
Unsupervised segmentace gregoriánských melodií pro zkoumání chorální modality
Gregorian chant, as an oral musical tradition, was performed by singers that had to memorize thousands of melodies. Each melody has a set of properties, one of which is what mode it belongs to within the modal system. To understand the learning process principles of chants, it may be helpful to decompose melodies into smaller units and analyze their relationship to modality. In this work, we compare Bayesian and neural network unsupervised segmentation methods. We measure their performance on evaluation metrics we design in order to examine the chant’s properties with respect to the memorization challenge considering the modality aspects. For this purpose, we have two datasets, one with over thirteen thousand antiphons and the other with over seven thousand responsories. We find the Pitman-Yor process to be a more fitting model than BERT for this particular task, especially the conditional Pitman-Yor process model we proposed to segment each mode independently. We provide several clear arguments that modality and chant segmentation are closely connected. We also dispute the claim by Cornelissen et al. [2020] that the natural segmentation by chant words or syllables is best in terms of mode classification, and we provide a new state-of-the-art performance on the mode classification task.
Gregoriánský chorál, jako ústní hudební tradice, byl prováděn zpěváky, kteří se museli naučit tisíce melodií. Každá melodie má několik vlastností, z nichž jednou je, do jakého modu v rámci modálního systému patří. Pro pochopení principů vyučování chorálových melodií může být užitečné rozložit melodie na menší jednotky a analyzovat jejich vztah k modalitě. V této práci porovnáváme modely neřízené segmentace založené na Bayesovských metodách s těmi, které využívají neuronové sítě. Jejich schopnost segmentovat chorální melodie měříme námi navrženými metrikami s cílem prozkoumat vlastnosti chorálů, jak v kontextu modality, tak v kontextu řešení problému se zapamatováním si všech zpěvů. K tomuto účelu máme k dispozici dva datasety: jeden s více než třinácti tisíci antifonami a druhý s více než sedmi tisíci responsorií. Zjistili jsme, že metoda založená na Pitman-Yor procesu je pro tuto konkrétní úlohu vhodnějším modelem než BERT, zejména námi navržený podmíněný model Pitman-Yor procesu, který segmentuje každý modus samostatně. Uvádíme několik jasných argumentů, že modalita úzce souvisí se segmentací melodií. Rovněž zpochybňujeme tvrzení, že přirozená segmentace podle slov nebo slabik chorálu je z hlediska klasifikace modů nejlepší (Cornelissen et al. [2020]), a poskytujeme doposud nejlepší výsledek v úloze klasifikace modů.
[ "Vojtěch Lanz" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Text boundaries do not provide a better segmentation of Gregorian antiphons
Hranice textu neumožňují lepší segmentaci gregoriánských antifon
It has been previously proposed that syllable and word boundaries in Gregorian chant texts can be used to segment chant melodies in a more meaningful way than segmentation methods that do not take textual information into account, based on how accurately the mode of a melody can be determined from the presence of such melodic segments. This was evidenced by empirical measurements on antiphons and responsories with fully transcribed melodies available from the Cantus database. We show that for antiphons, however, this result does not hold, as in these experiments, differentiae were not removed from the transcribed melodies. With appropriate data cleaning, the modality of a melody can be determined from segments that ignore textual boundaries just as accurately, and the resulting classification scores are not significantly better than those obtained from pitch profiles. Thus, while the idea is clearly attractive, there is currently no reason to suspect that textual boundaries lead to a more meaningful segmentation of chant melodies.
Již dříve bylo navrženo, že hranice slabik a slov v textech gregoriánského chorálu mohou být použity k segmentaci zpěvních melodií smysluplnějším způsobem než segmentační metody, které neberou v úvahu textové informace, a to na základě toho, jak přesně lze z přítomnosti těchto melodických segmentů určit modus melodie. To bylo prokázáno empirickými měřeními na antifonách a responsoriích s plně transkribovanými melodiemi dostupnými z databáze Cantus. Ukázali jsme však, že u antifon tento výsledek neplatí, protože při těchto experimentech nebyly z transkribovaných melodií odstraněny diference. Při vhodném čištění dat lze modalitu melodie určit ze segmentů, které ignorují textové hranice, stejně přesně a výsledné klasifikační skóre není výrazně lepší než skóre získané z výškových profilů. Ačkoli je tedy tato myšlenka zjevně lákavá, v současné době není důvod se domnívat, že textové hranice vedou k smysluplnější segmentaci zpěvních melodií.
[ "Vojtěch Lanz", "Jan Hajič, jr." ]
https://www.semanticscholar.org/paper/7383143787f7e225b0eb4052416f897d4fc2f848/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Team Synapse @ AutoMin 2023: Leveraging BART-Based Models for Automatic Meeting Minuting
Tým Synapse @ AutoMin 2023: Využití modelů založených na BART pro automatické zápisy ze schůzek
This paper describes the approach we followed for our submission to the Second Run of the Automatic Minuting Shared Task. Our method- ology centers around employing BART-based models fine-tuned on diverse summarization corpora. The segmented meeting transcripts are fed into the models, generating summaries that are subsequently combined and formatted into the final meeting minutes.
Tento článek popisuje přístup, který jsme použili při zadávání druhého běhu sdílené úlohy automatických zápisů ze schůzek. Naše metodika se soustředí na použití modelů založených na BART a vyladěných na různých korpusech se sumarizacemi. Segmentované přepisy schůzí se vkládají do modelů a ty generují shrnutí, která jsou následně spojena a zformátována do konečného zápisu ze schůze.
[ "Kristýna Klesnilová", "Michelle Elizabeth" ]
https://www.semanticscholar.org/paper/3770b2c23e41d580a2f097f6dcb2325f1017d997/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Attitude identification in diplomatic speeches: challenges in the annotation process
Identifikace postojů v diplomatických projevech: výzvy v procesu anotace
This study provides an overview of challenges that occurred during the creation of the annotation scenario for the attitude annotation in diplomatic speeches of the UNSC. Diplomatic speeches form a very peculiar group of texts that are different from other types of discourse. The prominent characteristics of these texts are the understated tone (Stanko, 2001) and indirectness. These pragmatic features prove to be important to how diplomats express opinions, which are most frequently not of their own but of the political body they represent. It is also because of them, that the diplomatic attitudes are so particular and require their own approach in the process of annotation. The research on annotating attitudes has long been an ongoing process (Fuoli, 2018), (O’Donnell, 2013) and is generally perceived as a complex procedure not only due to elaborated annotation schemes but more so due to the lack of definitive criteria for the identification and categorization of attitudes and the other appraisal labels. Our annotation scenario followed the attitude part of the Appraisal theory (Martin and White, 2005). The various challenges in annotating the speeches such as the extent of arguments, identification of attitude in verbal forms, and complex structures, were classified, and, in part, resolved. The conclusions of this study would be helpful for anyone considering this type of attitude analysis for working with diplomatic texts.
Tato studie poskytuje přehled výzev, které se vyskytly při tvorbě anotačního scénáře pro postojovou anotaci v diplomatických projevech RB OSN. Diplomatické projevy tvoří velmi svéráznou skupinu textů, které se liší od jiných typů diskurzu. Charakteristickými rysy těchto textů jsou decentní vyznění (Stanko, 2001) a nepřímost. Tyto pragmatické rysy se ukazují jako důležité pro to, jak diplomaté vyjadřují názory, které většinou nejsou jejich vlastní, ale politického orgánu, který zastupují. I kvůli nim jsou diplomatické postoje tak osobité a vyžadují vlastní přístup v procesu anotace. Výzkum anotačních postojů je dlouhodobě probíhajícím procesem (Fuoli, 2018), (O'Donnell, 2013) a je obecně vnímán jako komplexní postup nejen díky propracovaným anotačním schématům, ale především kvůli nedostatku definitivních kritérií pro identifikace a kategorizace postojů a dalších hodnotících značek. Náš scénář anotace sledoval postojovou část teorie hodnocení (Martin a White, 2005). Různé problémy při anotaci projevů, jako je rozsah argumentů, identifikace postoje ve verbálních formách a složité struktury, byly klasifikovány a částečně vyřešeny. Závěry této studie by byly užitečné pro každého, kdo uvažuje o tomto typu analýzy postojů pro práci s diplomatickými texty.
[ "Mariia Anisimova", "Šárka Zikánová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
A picture is worth a thousand words - on Multimodal Summarization
Obrázek má cenu tisíce slov - o multimodální sumarizaci
Automatic summarization is one of the basic tasks both in Natural Language Processing – text summarization – and in Computer Vision – video summarization. Multimodal summarization connects those two fields by creating a summary based on information from different modalities. To motivate such research, it’s enough to visit any news portal: the most popular multimedia news formats are now multimodal – the reader is often presented not only with a textual article but also with a short, vivid video. To draw the attention of the reader, such video-based articles are usually presented as a short textual summary paired with an image thumbnail. In this talk, I will present a brief history of text-centric Multimodal Summarization - a formulation in which we require the textual modality to be present both in the input and in the output. I will show how the task evolved over the years and highlight what I believe to be the major challenges. In the second part, I will talk about my own experiments, focusing on pre-training and evaluation methodologies. I will also share my experience with creating a dataset based on information automatically collected from internet webpages, which shows that sometimes aiming lower may lead to a great outcome.
Automatická sumarizace je jedním ze základních úkolů jak v Natural Language Processing – sumarizace textu, tak v Computer Vision – sumarizace videa. Multimodální sumarizace spojuje tyto dva obory tím, že vytváří souhrn založený na informacích z různých modalit. Pro motivaci k takovému výzkumu stačí navštívit jakýkoli zpravodajský portál: nejpopulárnější multimediální zpravodajské formáty jsou dnes multimodální – čtenář je často prezentován nejen s textovým článkem, ale také s krátkým, živým videem. Pro upoutání pozornosti čtenáře jsou takové video-články obvykle prezentovány jako krátký textový souhrn spojený s náhledem obrázku. V tomto příspěvku představím stručnou historii textově zaměřené multimodální sumarizace – formulace, ve které požadujeme, aby textová modalita byla přítomna jak ve vstupu, tak ve výstupu. Ukážu, jak se úkol vyvíjel v průběhu let, a zdůrazním, co považuji za hlavní výzvy. V druhé části budu mluvit o svých vlastních experimentech, se zaměřením na metodiky předškolení a hodnocení. Podělím se také o své zkušenosti s vytvářením datového souboru založeného na informacích automaticky shromážděných z internetových stránek, které ukazují, že někdy míření níže může vést ke skvělému výsledku.
[ "Mateusz Krubiński" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Basic Arithmetic Properties in the Space of Language Model Prompts
Základní aritmetické vlastnosti v prostoru jazykového modelu Výzvy
Large pre-trained neural language models (LLMs) that can effectively utilize enormous amounts of unlabeled textual data have recently changed the whole field of Natural Language Processing. By utilizing prompting techniques enabled by the in-context learning capabilities, LLMs have been shown to perform on par with dedicated models trained for downstream tasks. One such task is numerical reasoning and, in particular, the ability to conduct basic arithmetic operations. The question we wish to answer is whether the basic properties of arithmetic operations, such as the commutative property, hold in the space of LLM prompts - does asking the LLM model to compute 13+37 vs 37+13 result, on average, in the same outcome? In contrast to previous works, which reported Accuracy only, we take a closer look (MAE, Pearson's R) at the error distribution to better understand the performance with regards to scaling laws.
Velké předškolené neurojazykové modely (LLM), které dokáží efektivně využívat obrovské množství neoznačených textových dat, v poslední době změnily celou oblast zpracování přirozeného jazyka. Využitím technik nápovědy, které umožňují schopnosti učení v kontextu, se ukázalo, že LLM fungují na stejné úrovni jako specializované modely trénované pro navazující úlohy. Jednou z takových úloh je numerické uvažování a zejména schopnost provádět základní aritmetické operace. Otázkou, na kterou chceme odpovědět, je, zda základní vlastnosti aritmetických operací, jako je komutativní vlastnost, drží v prostoru LLM nápověd – vede dotazování LLM modelu na výpočet 13+37 vs 37+13 v průměru ke stejnému výsledku? Na rozdíl od předchozích prací, které uváděly pouze Přesnost, se blíže podíváme (MAE, Pearsonovo R) na rozložení chyb, abychom lépe porozuměli výkonu s ohledem na škálovací zákony.
[ "Mateusz Krubiński" ]
https://www.semanticscholar.org/paper/bba47079d385bab0facf4527d5da35b7ff0a5c3d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Can Summary Evaluation Benefit from Translation Evaluation?
Může souhrnné hodnocení prospět hodnocení překladu?
Comet is a recently proposed trainable neural-based evaluation metric developed to assess the quality of Machine Translation systems. In this paper, we explore the usage of Comet for evaluating Text Summarization systems -- despite being trained on multilingual MT outputs, it performs remarkably well in monolingual settings, when predicting summarization output quality. We introduce a variant of the model -- Comes -- trained on the annotated summarization outputs that uses MT data for pre-training. We examine its performance on several datasets with human judgments collected for different notions of summary quality, covering several domains and languages.
Comet je nedávno navržená trénovatelná neurální vyhodnocovací metrika vyvinutá pro hodnocení kvality systémů strojového překladu. V tomto článku prozkoumáme použití Cometu pro vyhodnocování systémů sumarizace textu – přestože jsme byli vyškoleni na vícejazyčné výstupy MT, funguje pozoruhodně dobře v jednojazyčném prostředí, když předpovídá kvalitu výstupu sumarizace. Představujeme variantu modelu -- Comes -- trénovanou na anotovaných sumárních výstupech, která využívá MT data pro předtrénování. Zkoumáme jeho výkon na několika souborech dat s lidskými úsudky shromážděnými pro různé pojmy souhrnné kvality, které pokrývají několik domén a jazyků.
[ "Mateusz Krubiński" ]
https://www.semanticscholar.org/paper/054e70254fb2ee1c1cd9cac91096ee1b24e1eef3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Multi-Parallel Corpus of North Levantine Arabic
Multiparalelní korpus Severní Levantštiny
Low-resource Machine Translation (MT) is characterized by the scarce availability of training data and/or standardized evaluation benchmarks. In the context of Dialectal Arabic, recent works introduced several evaluation benchmarks covering both Modern Standard Arabic (MSA) and dialects, mapping, however, mostly to a single Indo-European language - English. In this work, we introduce a multi-lingual corpus consisting of 120,600 multi-parallel sentences in English, French, German, Greek, Spanish, and MSA selected from the OpenSubtitles corpus, which were manually translated into the North Levantine Arabic. By conducting a series of training and fine-tuning experiments, we explore how this novel resource can contribute to the research on Arabic MT. We make the dataset publicly available at http://hdl.handle.net/11234/1-5033 for research purposes.
Nízkozdrojový strojový překlad (MT) se vyznačuje vzácnou dostupností školicích dat a/nebo standardizovaných hodnotících měřítek. V souvislosti s dialektickou arabštinou zavedly nedávné práce několik hodnotících měřítek zahrnujících jak moderní standardní arabštinu (MSA), tak dialekty, mapující však většinou do jediného indoevropského jazyka – angličtiny. V této práci představujeme mnohojazyčný korpus skládající se ze 120 600 víceparalelních vět v angličtině, francouzštině, němčině, řečtině, španělštině a MSA vybraných z korpusu OpenSubtitles, které byly ručně přeloženy do severolevantinské arabštiny. Provedením řady školicích a dolaďovacích experimentů zkoumáme, jak může tento neotřelý zdroj přispět k výzkumu arabské MT. Datový soubor zveřejňujeme pro výzkumné účely na adrese http://hdl.handle.net/11234/1-5033.
[ "Mateusz Krubiński", "Hashem Sellat", "Shadi Saleh", "Adam Pospíšil", "Petr Zemánek", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/1d7fcf3f59481b3bef4bdf2e40d624431a29287c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
MLASK: Multimodal Summarization of Video-based News Articles
MLASK: Multimodální shrnutí zpravodajských článků založených na videu
In recent years, the pattern of news consumption has been changing. The most popular multimedia news formats are now multimodal - the reader is often presented not only with a textual article but also with a short, vivid video. To draw the attention of the reader, such video-based articles are usually presented as a short textual summary paired with an image thumbnail.In this paper, we introduce MLASK (MultimodaL Article Summarization Kit) - a new dataset of video-based news articles paired with a textual summary and a cover picture, all obtained by automatically crawling several news websites. We demonstrate how the proposed dataset can be used to model the task of multimodal summarization by training a Transformer-based neural model. We also examine the effects of pre-training when the usage of generative pre-trained language models helps to improve the model performance, but (additional) pre-training on the simpler task of text summarization yields even better results. Our experiments suggest that the benefits of pre-training and using additional modalities in the input are not orthogonal.
V posledních letech se vzorec konzumace zpráv mění. Nejoblíbenější multimediální zpravodajské formáty jsou nyní multimodální – čtenáři je často prezentován nejen textový článek, ale také krátké, živé video. Abychom upoutali pozornost čtenáře, jsou takové články založené na videu obvykle prezentovány jako krátké textové shrnutí spárované s miniaturou obrázku. V tomto článku představujeme MLASK (MultimodaL Article Summarization Kit) - nový datový soubor zpravodajských článků založených na videu. spárované s textovým shrnutím a úvodním obrázkem, vše získané automatickým procházením několika zpravodajských webů. Ukazujeme, jak lze navrhovanou datovou sadu použít k modelování úlohy multimodální sumarizace pomocí trénování neurálního modelu založeného na transformátoru. Zkoumáme také účinky předtrénování, kdy použití generativních předtrénovaných jazykových modelů pomáhá zlepšit výkon modelu, ale (dodatečné) předtrénování jednoduššího úkolu sumarizace textu přináší ještě lepší výsledky. Naše experimenty naznačují, že výhody předtréninku a použití dalších modalit ve vstupu nejsou ortogonální.
[ "Mateusz Krubiński", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/595b5c6970b65ebe81eaa5df2677da93cf8929c6/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
What is clear writing and why it makes sense. How to write clearly. A clear writing handbook for clerks.
Co je srozumitelný úřední text a proč má smysl psát srozumitelně. Jak psát srozumitelné úřední texty. Příručka srozumitelného psaní pro úředníky
This is a comprehensible writing guide for officials with many practical examples of both comprehensible and non-comprehensible texts. At the beginning, there is a motivational chapter with an overview of the foreign practice of legal and official writing focused on the client.
Toto je příručka srozumitelného psaní pro úředníky s mnoha praktickými ukázkami srozumitelných i nesrozumitelných textů. Na začátku je motivační kapitola s rozhledem po zahraniční praxi právního a úředního psaní zaměřeného na klienta.
[ "Jana Šamánková", "Silvie Cinková", "Adam Herma" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Problem of Coherence in Natural Language Explanations of Recommendations
Problém koherence ve vysvětleních doporučení v přirozeném jazyce
Providing natural language explanations for recommendations is particularly useful from the perspective of a non-expert user. Although several methods for providing such explanations have recently been proposed, we argue that an important aspect of explanation quality has been overlooked in their experimental evaluation. Specifically, the coherence between generated text and predicted rating, which is a necessary condition for an explanation to be useful, is not properly captured by currently used evaluation measures. In this paper, we highlight the issue of explanation and prediction coherence by 1) presenting results from a manual verification of explanations generated by one of the state-of-the-art approaches 2) proposing a method of automatic coherence evaluation 3) introducing a new transformer-based method that aims to produce more coherent explanations than the state-of-the-art approaches 4) performing an experimental evaluation which demonstrates that this method significantly improves the explanation coherence without affecting the other aspects of recommendation performance.
Poskytování vysvětlení v přirozeném jazyce pro doporučení je užitečné zejména z pohledu neodborného uživatele. Ačkoli bylo v poslední době navrženo několik metod pro poskytování takových vysvětlení, tvrdíme, že při jejich experimentálním hodnocení byl opomenut důležitý aspekt kvality vysvětlení. Konkrétně koherence mezi generovaným textem a předpovídaným hodnocením, která je nezbytnou podmínkou užitečnosti vysvětlení, není v současnosti používanými hodnotícími metrikami náležitě zachycena. V tomto článku upozorňujeme na problematiku koherence vysvětlení a předpovědi tím, že 1) prezentujeme výsledky manuálního ověřování vysvětlení generovaných jedním z nejmodernějších přístupů 2) navrhujeme metodu automatického hodnocení koherence 3) představujeme novou metodu založenou na transformeru, jejímž cílem je vytvářet koherentnější vysvětlení než nejmodernější přístupy 4) provádíme experimentální vyhodnocení, které ukazuje, že tato metoda výrazně zlepšuje koherenci vysvětlení, aniž by ovlivnila ostatní aspekty kvality doporučení.
[ "Jakub Raczyński", "Mateusz Lango", "Jerzy Stefanowski" ]
https://www.semanticscholar.org/paper/8395254d6f51d98c9a1914a00da282b0c8211871/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Long-form Simultaneous Speech Translation: Thesis Proposal
Simultánny preklad dlhých prejavov: Téza
Simultaneous speech translation (SST) aims to provide real-time translation of spoken language, even before the speaker finishes their sentence. Traditionally, SST has been addressed primarily by cascaded systems that decompose the task into subtasks, including speech recognition, segmentation, and machine translation. However, the advent of deep learning has sparked significant interest in end-to-end (E2E) systems. Nevertheless, a major limitation of most approaches to E2E SST reported in the current literature is that they assume that the source speech is pre-segmented into sentences, which is a significant obstacle for practical, real-world applications. This thesis proposal addresses end-to-end simultaneous speech translation, particularly in the long-form setting, i.e., without pre-segmentation. We present a survey of the latest advancements in E2E SST, assess the primary obstacles in SST and its relevance to long-form scenarios, and suggest approaches to tackle these challenges.
Cílem simultánního překladu řeči (SST) je zajistit překlad mluvené řeči v reálném čase, ještě než mluvčí dokončí větu. Tradičně se SST řeší především pomocí kaskádových systémů, které rozkládají úlohu na dílčí úkoly, včetně rozpoznávání řeči, segmentace a strojového překladu. Nástup hlubokého učení však vyvolal značný zájem o systémy typu end-to-end (E2E). Nicméně hlavním omezením většiny přístupů k E2E SST uváděných v současné literatuře je to, že předpokládají, že zdrojová řeč je předem segmentována do vět, což je pro praktické, reálné aplikace významnou překážkou. Tento návrh disertační práce se zabývá simultánním překladem řeči end-to-end, zejména v prostředí dlouhých promluv, tj. bez předběžné segmentace. Předkládáme přehled nejnovějších pokroků v E2E SST, hodnotíme hlavní překážky v SST a jejich význam pro scénáře s dlouhou formou a navrhujeme přístupy k řešení těchto problémů.
[ "Peter Polák" ]
https://www.semanticscholar.org/paper/199fdd9b64e9b519459b91666972ee511b7fbe2e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Towards Efficient Simultaneous Speech Translation: CUNI-KIT System for Simultaneous Track at IWSLT 2023
K efektivnímu simultánnímu překladu řeči: Systém CUNI-KIT pro simultánní stopu na IWSLT 2023
In this paper, we describe our submission to the Simultaneous Track at IWSLT 2023. This year, we continue with the successful setup from the last year, however, we adopt the latest methods that further improve the translation quality. Additionally, we propose a novel online policy based on CTC. We show that the proposed CTC online policy can be applied to both streaming blockwise models and offline encoder-decoder models. We observe significant improvements in quality (up to 1.1 BLEU) and the computational footprint (up to 45% relative RTF).
V tomto článku popisujeme naše přihlášení do Simultaneous Track na IWSLT 2023. V letošním roce pokračujeme v úspěšném nastavení z minulého roku, ale přijímáme nejnovější metody, které dále zlepšují kvalitu překladu. Navíc navrhujeme nové online zásady založené na CTC. Ukazujeme, že navrhovanou online zásadu CTC lze aplikovat jak na blokové streamování, tak na offline modely kodéru a dekodéru. Pozorujeme výrazné zlepšení kvality (až 1,1 BLEU) a výpočetní stopy (až 45 % relativní RTF).
[ "Peter Polák", "Danni Liu", "Ngoc-Quan Ngoc", "Jan Niehues", "Alex Waibel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f547c7ec86cbc0989e87f0e23f7e0b2cfc5259c3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Incremental Blockwise Beam Search for Simultaneous Speech Translation with Controllable Quality-Latency Tradeoff
Inkrementální dekódování pro simultánní překlad řeči s regulovatelným kompromisem mezi kvalitou a latencí
Blockwise self-attentional encoder models have recently emerged as one promising end-to-end approach to simultaneous speech translation. These models employ a blockwise beam search with hypothesis reliability scoring to determine when to wait for more input speech before translating further. However, this method maintains multiple hypotheses until the entire speech input is consumed - this scheme cannot directly show a single incremental translation to users. Further, this method lacks mechanisms for controlling the quality vs. latency tradeoff. We propose a modified incremental blockwise beam search incorporating local agreement or hold-n policies for quality-latency control. We apply our framework to models with limited and full-context encoders, with the latter demonstrating that offline models can be effectively converted to online models. Experimental results on MuST-C show 0.6-3.6 BLEU improvement without changing latency or 0.8-1.4 s latency improvement without changing quality.
Blockwise self-attentional encoder modely mají nedávno emerged jako jeden promising end-to-end approach k simultaneous speech translation. Tyto modely employ a blockwise beam hledání s hypothesis reliability scoring to determine when to wait for more input speech before translating further. However, this method maintains multiple hypotheses until entire speech input is consumed - this scheme cannot directly show a single incremental translation to users. Further, this method lacks mechanismy pro kontrolu kvality vs. latency tradeoff. We propose a modified incremental blockwise beam hledaný integrační místní agreement or hold-n policies pro quality-latency control. Jsou apply naše framework k modelům s limitovanými a plnými contextovými kodéry, s pozdější demonstrací, že offline modely mohou být efektivně konvertovány do online modelů. Experimental results on MuST-C show 0.6-3.6 BLEU improvement with changing latency nebo 0.8-1.4 s latency improvement with changing quality.
[ "Peter Polák", "Brian Yan", "Shinji Watanabe", "Alex Waibel", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/d24d60719e90e69749a75c160cb760d1d9fca44a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Long-Form End-to-End Speech Translation via Latent Alignment Segmentation
Překlad dlouhé formy řeči end-to-end pomocí segmentace latentního zarovnání
Current simultaneous speech translation models can process audio only up to a few seconds long. Contemporary datasets provide an oracle segmentation into sentences based on human-annotated transcripts and translations. However, the segmentation into sentences is not available in the real world. Current speech segmentation approaches either offer poor segmentation quality or have to trade latency for quality. In this paper, we propose a novel segmentation approach for a low-latency end-to-end speech translation. We leverage the existing speech translation encoder-decoder architecture with ST CTC and show that it can perform the segmentation task without supervision or additional parameters. To the best of our knowledge, our method is the first that allows an actual end-to-end simultaneous speech translation, as the same model is used for translation and segmentation at the same time. On a diverse set of language pairs and in- and out-of-domain data, we show that the proposed approach achieves state-of-the-art quality at no additional computational cost.
Současné modely simultánního překladu řeči dokážou zpracovat zvuk dlouhý pouze několik sekund. Současné datové sady poskytují věšteckou segmentaci na věty na základě přepisů a překladů komentovaných člověkem. Segmentace na věty však není v reálném světě k dispozici. Současné přístupy k segmentaci řeči nabízejí buď nízkou kvalitu segmentace, nebo musí vyměnit latenci za kvalitu. V tomto článku navrhujeme nový přístup segmentace pro překlad řeči od konce ke konci s nízkou latencí. Využíváme stávající architekturu enkodéru-dekodéru pro překlad řeči s ST CTC a ukazujeme, že může provádět úlohu segmentace bez dohledu nebo dodatečných parametrů. Podle našich nejlepších znalostí je naše metoda první, která umožňuje skutečný simultánní překlad řeči end-to-end, protože pro překlad a segmentaci se používá stejný model současně. Na rozmanitém souboru jazykových párů a dat v doméně i mimo ni ukazujeme, že navrhovaný přístup dosahuje nejmodernější kvality bez dodatečných výpočetních nákladů.
[ "Peter Polák", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/fdfc22b4a4a6d888a4009e4d49a6c7af6288c986/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
A Dataset and Strong Baselines for Classification of Czech News Texts
Datová sada and silné základní metody pro klasifikaci českých novinových textů
Pre-trained models for Czech Natural Language Processing are often evaluated on purely linguistic tasks (POS tagging, parsing, NER) and relatively simple classification tasks such as sentiment classification or article classification from a single news source. As an alternative, we present CZEch NEws Classification dataset (CZE-NEC), one of the largest Czech classification datasets, composed of news articles from various sources spanning over twenty years, which allows a more rigorous evaluation of such models. We define four classification tasks: news source, news category, inferred author’s gender, and day of the week. To verify the task difficulty, we conducted a human evaluation, which revealed that human performance lags behind strong machine-learning baselines built upon pre-trained transformer models. Furthermore, we show that language-specific pre-trained encoder analysis outperforms selected commercially available large-scale generative language models.
Předtrénované modely pro zpracování přirozeného jazyka (NLP) v češtině se často vyhodnocují na čistě lingvistických úlohách (POS tagging, parsing, NER) a relativně jednoduchých klasifikačních úlohách, jako je klasifikace sentimentu nebo klasifikace zdroje článků. Jako alternativu představujeme CZEch NEws Classification dataset (CZE-NEC), jeden z největších českých klasifikačních datasetů. Skládá se ze zpravodajských článků z různých zdrojů v rozpětí více než dvaceti let, který umožňuje přísnější hodnocení NLP modelů. Definujeme čtyři klasifikační úlohy: zdroj zpráv, kategorie zpráv, odvozený gender autora a den v týdnu. Abychom ověřili obtížnost úloh, provedli jsme lidské hodnocení, které odhalilo, že lidský odhad zaostává za silnými základními modely strojového učení postavenými na předem natrénovaných modelech typu Transformer. Dále jsme ukázali, že jazykově specifické předtrénované enkodéry překonávají komerčně dostupné velké generativní jazykové modely.
[ "Hynek Kydlíček", "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/5ce5e3f4ba8f77b168ecee65b8cade963099e146/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Artificial intelligence in the library
Umělá inteligence v knihovně
We cordially invite you to April's Inspiromat dedicated to the topic of AI, or artificial intelligence. We will talk about what AI actually is (and what it isn't). We will introduce you to basic concepts to get an idea of how it all actually works. In the second part we will then focus specifically on textual models, introduce how such a model works and what can be done with them (like writing a play). In the third phase we will try to outline in the form of a dialogue the possibilities and changes that the development of AI will bring not only to libraries. The guest will be Rudolf Rosa Ph.D., a researcher in the field of computational linguistics and artificial intelligence at the Institute of Applied and Formal Linguistics of MFF UK. As part of the Theiatre project and in cooperation with Švandový Theatre, he presented a full-length play for which 90% of the script was written by artificial intelligence. He is one of the members of the AI team in a context dedicated to popularization and education in the field of artificial intelligence.
Srdečně vás zveme na dubnový Inspiromat věnovaný tématu AI neboli umělé inteligence. Budeme si povídat o tom, co AI vlastně je (a co není). Seznámíme vás se základními pojmy, abyste získali představu, jak to celé vlastně funguje. V druhé části se pak zaměříme konkrétně na textové modely, představíme, jak takový model funguje a co se s nimi dá dělat (třeba napsat divadelní hra). Ve třetí fázi pak formou dialogu zkusíme nastínit možnosti a změny, které rozvoj AI přinese nejenom do knihoven. Hostem bude Rudolf Rosa Ph.D., výzkumník v oblasti komputační lingvistiky a umělé inteligence na Ústavu aplikované a formální lingvistiky MFF UK. V rámci projektu Theiatre a ve spolupráci se Švandovým divadlem uvedl celovečerní divadelní hru, ke které z 90% scénář napsala umělá inteligence. Je jedním z členů týmu AI v kontextu, který se věnuje popularizaci a vzdělávání v oblasti umělé inteligence.
[ "Miloslav Linc", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/35cab370dcbcab209d59e7b161ef025dbdd57be1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
A corpus-based study of the semantic distribution of denominal verb formation in English
Korpusová studie sémantické distribuce výrazů denominálního tvoření sloves v angličtině
The semantics of verb-deriving processes in English and, specifically, of conversion/zero-derivation and affixation has been extensively described in the literature from various theoretical and empirical approaches. In particular, some studies have proposed a methodology consisting in the manual semantic annotation of corpus concordances in order to assess the distribution of semantic categories across word-formation processes. This paper tests this methodology on a sample of 246 verbal hapaxes from the British National Corpus which were manually classified into the various semantic categories traditionally used in the literature. The results obtained are consistent with previous studies regarding the semantics of denominal verbs. Methodologically, this study shows the suitability of the method used, but also points at some of its limitations to be addressed in future research.
Sémantika slovotvorných procesů v angličtině, konkrétně konverze/derivace a afixace, byla v literatuře rozsáhle popsána z různých teoretických i empirických přístupů. Některé studie navrhly zejména metodiku spočívající v manuální sémantické anotaci korpusových konkordancí s cílem posoudit distribuci sémantických kategorií napříč slovotvornými procesy. Tento článek testuje tuto metodiku na vzorku 246 slovních hapaxů z Britského národního korpusu, které byly manuálně zařazeny do různých sémantických kategorií tradičně používaných v literatuře. Získané výsledky jsou v souladu s předchozími studiemi týkajícími se sémantiky denominálních sloves. Z metodologického hlediska tato studie ukazuje vhodnost použité metody, ale také poukazuje na některá její omezení, která je třeba v budoucím výzkumu odstranit.
[ "Ana Díaz-Negrillo", "Cristina Fernández Alcaina" ]
https://www.semanticscholar.org/paper/72e184501c8c9837bf2fd25018730fa8b9782652/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
The epistemic particle zřejmě in the light of parallel corpora
Epistemická částice zřejmě pohledem paralelního korpusu
In this paper, we analyze the meaning potential of the Czech epistemic particle zřejmě, focusing on the degree of certainty it expresses. Based on a preliminary observation, we hypothesize that, contrary to the existing dictionary treatment, there are two separate meanings of zřejmě with different degree of certainty. Our corpus study follows the assumption that comparing data from parallel corpora may be helpful in determining the fine-grained meaning of pragmatic markers, including epistemic markers. In the analysis, we investigate the epistemic features of English and Swedish translation equivalents of zřejmě, their semantic consistency and the ability of recipients to interpret the degree of certainty expressed. The corpus data show that there are two interpretative tendencies differing in the degree of certainty expressed, one of them rooted in the evidential meaning. Nevertheless, not even native speakers are fully able to distinguish between these two meaning interpretations.
Článek se zabývá významem jistotní částice zřejmě, především s ohledem na míru jistoty, kterou tento výraz vyjadřuje. Vychází přitom z předpokladu, že překladová analýza může vyjasnit významové nuance jistotních částic. Srovnání dat z paralelních korpusů (českého-anglického-švédského) naznačuje dvě tendence v užívání výrazu zřejmě, kromě významu vyjadřujícího střední jistotu se objevuje i význam vyjadřující plnou jistotu s příznakem evidenciality. Nicméně ani rodilí mluvčí se zcela neshodnou ve významové interpretaci jednotlivých užití.
[ "Jana Šindlerová", "Barbora Štěpánková", "Ingrid Lindgren Andrén" ]
https://www.semanticscholar.org/paper/be2c83ea5a63c45f0e8cfc8066b398710cff14b8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Exploring the Impact of Training Data Distribution and Subword Tokenization on Gender Bias in Machine Translation
Zkoumání dopadu distribuce školicích dat a tokenizace podslov na genderové zkreslení ve strojovém překladu
We study the effect of tokenization on gender bias in machine translation, an aspect that has been largely overlooked in previous works. Specifically, we focus on the interactions between the frequency of gendered profession names in training data, their representation in the subword tokenizer's vocabulary, and gender bias. We observe that female and non-stereotypical gender inflections of profession names (e.g., Spanish "doctora" for "female doctor") tend to be split into multiple subword tokens. Our results indicate that the imbalance of gender forms in the model's training corpus is a major factor contributing to gender bias and has a greater impact than subword splitting. We show that analyzing subword splits provides good estimates of gender-form imbalance in the training data and can be used even when the corpus is not publicly available. We also demonstrate that fine-tuning just the token embedding layer can decrease the gap in gender prediction accuracy between female and male forms without impairing the translation quality.
Studujeme vliv tokenizace na genderovou předpojatost ve strojovém překladu, což je aspekt, který byl v předchozích dílech do značné míry přehlížen. Konkrétně se zaměřujeme na interakce mezi frekvencí genderových názvů profesí v tréninkových datech, jejich zastoupením ve slovní zásobě podslova tokenizátora a genderovou předpojatostí. Pozorujeme, že ženské a nestereotypické rodové přechylování názvů povolání (např. španělské „doctora“ pro „doktorka“) má tendenci být rozděleno do více podslov. Naše výsledky naznačují, že nerovnováha genderových forem v modelovém tréninkovém korpusu je hlavním faktorem přispívajícím k genderové zaujatosti a má větší dopad než dělení podslov. Ukazujeme, že analýza rozdělení podslov poskytuje dobré odhady genderové nerovnováhy v trénovacích datech a lze ji použít, i když korpus není veřejně dostupný. Ukazujeme také, že jemné doladění vrstvy pro vkládání tokenů může snížit rozdíl v přesnosti predikce pohlaví mezi ženskými a mužskými formami, aniž by se zhoršila kvalita překladu.
[ "Bar Iluz", "Tomasz Limisiewicz", "Gabriel Stanovsky", "David Mareček" ]
https://www.semanticscholar.org/paper/6693b31ba94069901313e11b3a9f138eb5ab777d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Forms and Functions: Implicitness of Discourse Relations
Formy a funkce: Implicitnost diskurzních vztahů
The lecture deals with the analysis of the causes of inter-annotator disagreement in implicit discourse relations in Czech and the relationship between the explicitness / implicitness of discourse relations and other linguistic features, such as sentence structure and the semantics of individual discourse relations.
Přednáška se zabývá analýzou příčin mezianotátorské neshody u implicitních diskurzních vztahů v češtině a vztahem mezi explicitností / implicitností diskurzních vztahů a dalšími jazykovými rysy, jako je věttná stavba a sémantika jednotlivých diskurzních vztahů.
[ "Šárka Zikánová" ]
https://www.semanticscholar.org/paper/c5961c4470383c4491df26bd958983e4fc39710a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Forms and functions: Implicitness of discourse relations
Formy a funkce: implicitnost diskurzních vztahů
The invited lecture discusses inter-annotator agreement in implicit discourse relations and traces the relationship between semantics of discourse relations and their way of expression.
Zvaná přednáška rozebírá mezianotátorskou shodu u implicitních diskurzních vztahů a sleduje relaci mezi sémantikou diskurzních vztahů a jejich způsobem vyjádření.
[ "Šárka Zikánová" ]
https://www.semanticscholar.org/paper/c5961c4470383c4491df26bd958983e4fc39710a/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Individual language understanding as a challenge for computational linguistics
Individuální porozumění jazyku jako výzva pro počítačovou lingvistiku
Currently, we are witnessing a sharp increase in the number of available digital language resources, the marking of which focuses on various linguistic phenomena (lemmatization, morphology, syntax, named entities, error types, rhetorical text structure, etc.). Although part of the tagging processes is performed automatically, human interpretation is also an essential component of tagging, e.g. to check the automatic processes. Until now, when creating manual tagging, it has been usual in computer linguistics to strive for the so-called gold standard, i.e. to create one tagging concept that is perceived as basic based on several tagging variants from several people. This gold standard then serves as reference data for further text processing. Unity in tagging (the so-called inter-annotator agreement rate) is also understood as a reflection of data quality – the more annotators agree, the better the tagging is considered to be. However, in specific marking tasks, especially at higher language levels, it is becoming more and more difficult to achieve high inter-annotator agreement. One of the causes of these difficulties is the individual understanding of the language by individual annotators. The variability of possible—and fully justified—interpretations makes it difficult to establish a gold standard, which has substantial methodological implications for a number of tasks in computational linguistics. This opens up a space for re-evaluating the concept of standard data; important impulses for computational linguistics in this context are provided by psycholinguistics.
V současné době jsme svědky prudkého nárůstu množství dostupných digitálních jazykových zdrojů, jejichž značkování se zaměřuje na nejrůznější jazykové jevy (lemmatizace, morfologie, syntax, pojmenované entity, typy chyb, rétorická struktura textu ad.). I když se část značkovacích procesů provádí automaticky, je podstatnou složkou značkování také interpretace prováděná lidmi, např. pro kontrolu automatických procesů. Při vytváření ručního značkování bylo dosud v počítačové lingvistice obvyklé usilovat o tzv. zlatý standard, tedy vytvořit na základě několika variant značkování od více lidí jeden značkovací koncept, který je vnímán jako základní. Tento zlatý standard pak slouží jako referenční data pro další zpracování textů. Jednota ve značkování (tzv. míra mezianotátorské shody) se také pojímá jako odraz kvality dat – čím více se anotátoři shodují, tím se značkování považuje za lepší. V konkrétních značkovacích úkolech zejména na vyšších jazykových rovinách se však čím dál častěji ukazuje, že je obtížné dosáhnout vysoké mezianotátorské shody. Jednou z příčin těchto obtíží je individuální porozumění jazyku u jednotlivých anotátorů. Variabilita možných – a plně oprávněných – interpretací znesnadňuje stanovení zlatého standardu, což má podstatné metodologické důsledky pro řadu úkolů počítačové lingvistiky. Otevírá se tu prostor pro přehodnocení konceptu standardních dat; důležité impulsy pro počítačovou lingvistiku v tomto kontextu pak přináší psycholingvistika.
[ "Šárka Zikánová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Assessing the Featural Organisation of Paradigms with Distributional Methods
Posouzení charakteru organizace paradigmat pomocí distribučních metod
In this paper, we apply distributional methods to Czech data to compare the predictions of two views of inflectional paradigms, as systems of orthogonal morphosyntactic feature oppositions, or as systems of multilateral contrasts between pairs of morphologically related words, not necessarily reducible to orthogonal features. We define two predictive tasks that probe what it means for two pairs of paradigm cells to contrast in the same features: in the first, we train a classifier to discriminate between two paradigm cells; in the second, we train a family of models to predict the vector of the word in one cell from that of the word in another cell. By varying the choice of training and test data, we show that (i) a model trained on data that contrast in a manner orthogonal to its test data performs on average at chance level, while (ii) a model trained on data that contrast in a manner parallel to its test data performs on average better than chance but still worse than a model trained on the same pair of cell used for testing. This is incompatible with the predictions of a reductive view of paradigms as systems of feature contrasts.
V tomto článku aplikujeme distribuční metody na česká data ke srovnání predikcí dvou pohledů na flektivní paradigmata, a to jako buď systémy ortogonálních opozic morfo-syntaktických rysů, nebo jako systémy multilaterálních kontrastů mezi dvojicemi morfologicky příbuzných slov, které nemusí být nutně redukovatelné na ortogonální rysy. Definujeme dvě prediktivní úlohy, které zjišťují, co to znamená, když dva páry buněk paradigmatu kontrastují ve stejných rysech: v první trénujeme klasifikátor, aby rozlišoval mezi dvěma buňkami paradigmatu; ve druhé trénujeme rodinu modelů pro predikci vektoru slova v jedné buňce z vektoru slova v jiné buňce. Změnou výběru trénovacích a testovacích dat ukazujeme, že (i) model trénovaný na datech, která kontrastují způsobem ortogonálním k jeho testovacím datům, funguje v průměru na úrovni náhody, zatímco (ii) model trénovaný na datech, která kontrastují způsobem paralelnosti s jeho testovacími daty, funguje v průměru lépe než náhoda, ale stále hůře než model trénovaný na stejném páru buněk použitém pro testování. To je neslučitelné s předpověďmi reduktivního pohledu na paradigmata jako systémy kontrastů rysů.
[ "Olivier Bonami", "Lukáš Kyjánek", "Marine Wauquier" ]
https://www.semanticscholar.org/paper/83c97950ae883bc944ae2897b8c7fcc40e6073fb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Team Iterate @ AutoMin 2023 - Experiments with Iterative Minuting
Team Iterate @ AutoMin 2023 - Experimenty s iterativně vytvářenými zápisky
This report describes the development of our system for automatic minuting created for the AutoMin 2023 Task A. As a baseline, we utilize a system based on the BART encoder-decoder model paired with a preprocessing pipeline similar to the one introduced by the winning solutions at AutoMin 2021. We then further explore the possibilities for iterative summarization by constructing an iterative minuting dataset from the provided data, finetuning on it and feeding the model previously generated minutes. We also experiment with adding more context by utilizing the Longformer encoder-decoder model and finetuning it on the SAMSum dataset. Our submitted solution is of the baseline approach, since we were unable to match its performance with our iterative variants. With the baseline, we achieve a ROUGE-1 score of 0.368 on the ELITR minuting corpus development set. We finally explore the performance of Vicuna 13B quantized language model for summarization.
Tato zpráva popisuje vývoj našeho systému pro automatické vytváření zápisků z jednání sestaveného pro AutoMin 2023 Task A. Jako základní scénář využíváme systém založený na modelu enkodéru-dekodéru BART s naším předzpracováním podobným tomu, které bylo představeno vítěznými řešeními na AutoMin 2021. Dále zkoumáme možnosti iterativní sumarizace vytvořením iterativního pohledu na poskytnutá data, finetuningem na něm a vložením dříve generovaných zápisků do modelu. Experimentujeme také s přidáním dalších souvislostí využitím modelu enkodéru-dekodéru Longformer a finetuningem na datovém souboru SAMSum. Pro účast v soutěži nakonec volíme základní přístup, protože jsme nebyli schopni sladit jeho výkon s našimi iterativními variantami. Se základním scénářem dosahujeme skóre ROUGE-1 0,368 na vývojovém souboru korpusu ELITR Minuting Corpus. Nakonec zkoumáme výkon kvantovaného jazykového modelu Vicuna 13B pro sumarizaci.
[ "František Kmječ", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/8df11d714298cefedd87f561ce22be56fb6768df/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Epistemic Marker určitě in the Light of Corpus Data
Epistemická částice určitě ve světle korpusových dat
The paper presents a pilot study for a research project on epistemic modality and/or evidentiality markers in Czech. The study focuses on the expression "určitě". Although this marker is typically considered to signal high certainty, the dictionary of standard Czech (Slovník spisovné češtiny, SSČ) also offers an alternative meaning of probability, indicating a lower degree of certainty. We use parallel data from the InterCorp v15 corpus to determine whether the probability meaning can be identified unequivocally in real language data and whether it correlates with specific translation equivalents, linguistic features, or lexical context. Based on our findings, we propose an alternative method for distinguishing between different shades of meaning based on the communicative functions of the utterances, and we draw conclusions regarding the relevance of individual grammatical and lexical clues in context for future annotations.
Článek je pilotní studií v rámci projektu zaměřeného na epistemickou modalitu a evidencialitu v češtině. Částice "určitě" je obvykle chápána jako výraz vyjadřující vysokou míru jistoty, ve Slovníku spisovné češtiny se však objevuje i s významem vyjadřujícím střední míru jistoty. S využitím dat z paralaleního korpusu InterCorp v15 jsme se pokusili zjistit, zda lze v kontextu identifikovat oba jistotní významy, a to za pomoci překladových ekvivalentů, jazykové intuice rodilých mluvčích a anotace jazykových rysů v lexikálním kontextu. Na základě provedených analýz navrhujeme alternativní metodu pro rozlišování významových odstínů podle komunikačních funkcí výpovědí a vyvozujeme závěry ohledně relevance jednotlivých gramatických a lexikálních rysů v kontextu pro budoucí anotaci.
[ "Barbora Štěpánková", "Jana Šindlerová", "Lucie Poláková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
ÚFAL CorPipe at CRAC 2023: Larger Context Improves Multilingual Coreference Resolution
ÚFAL CorPipe na CRAC 2023: Větší kontext pomáhá při rozpoznávání koreference ve více jazycích
We present CorPipe, the winning entry to the CRAC 2023 Shared Task on Multilingual Coreference Resolution. Our system is an improved version of our earlier multilingual coreference pipeline, and it surpasses other participants by a large margin of 4.5 percent points. CorPipe first performs mention detection, followed by coreference linking via an antecedent-maximization approach on the retrieved spans. Both tasks are trained jointly on all available corpora using a shared pretrained language model. Our main improvements comprise inputs larger than 512 subwords and changing the mention decoding to support ensembling. The source code is available at https://github.com/ufal/crac2023-corpipe.
Představujeme CorPipe, vítězný systém z CRAC 2023 Shared Task on Multilingual Coreference Resolution. CorPipe je vylepšenou verzí našeho dřívějšího vícejazyčného koreferenčního systému a překonává ostatní účastníky s velkým náskokem 4,5 procentního bodu. Náš systém nejprve rozpoznává koreferenční zmínky a poté předpovídá koferenční odkazy na získaných úsecích. Obě úlohy jsou trénovány společně na všech dostupných korpusech pomocí sdíleného předtrénovaného jazykového modelu. Naše hlavní vylepšení zahrnují vstupy delší než 512 podslov a změnu dekódování podporující ensembling. Zdrojový kód je k dispozici na adrese https://github.com/ufal/crac2023-corpipe.
[ "Milan Straka" ]
https://www.semanticscholar.org/paper/00000ce4295c23238331e463aca6cbbe2f51abda/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
FINDINGS OF THE IWSLT 2023 EVALUATION CAMPAIGN
Výsledky evaluační kampaně IWSLT 2023
This paper reports on the shared tasks organized by the 20th IWSLT Conference. The shared tasks address 9 scientific challenges in spoken language translation: simultaneous and offline translation, automatic subtitling and dubbing, speech-to-speech translation, multilingual, dialect and low-resource speech translation, and formality control. The shared tasks attracted a total of 38 submissions by 31 teams. The growing interest towards spoken language translation is also witnessed by the constantly increasing number of shared task organizers and contributors to the overview paper, almost evenly distributed across industry and academia.
Tento dokument informuje o sdílených úkolech organizovaných 20. konferencí IWSLT. Sdílené úkoly řeší 9 vědeckých výzev v mluveném překladu: simultánní a offline překlad, automatické titulky a dabing, překlad řeči do řeči, vícejazyčný, dialektový a nízkozdrojový překlad řeči a kontrola formalit. Sdílené úkoly přilákaly celkem 38 příspěvků od 31 týmů. Rostoucí zájem o překlady do mluveného jazyka je také svědkem neustále se zvyšujícího počtu organizátorů sdílených úkolů a přispěvatelů do přehledu, téměř rovnoměrně distribuovaných napříč průmyslem a akademickou sférou.
[ "Milind Agarwal", "Sweta Agrawal", "Antonios Anastasopoulos", "Luisa Bentivogli", "Ondřej Bojar", "Claudia Borg", "Marine Carpuat", "Roldano Cattoni", "Mauro Cettolo", "Mingda Chen", "William Chen", "Khalid Choukri", "Alexandra Chronopoulou", "Thierry Declerck", "Qianqian Dong", "Kevin Duh", "Yannick Estève", "Marcello Federico", "Souhir Gahbiche", "Barry Haddow", "Benjamin Hsu", "Phu Mon Htut", "Hirofumi Inaguma", "Dávid Javorský", "John Judge", "Yasumasa Kano", "Tom Ko", "Rishu Kumar", "Pengwei Li", "Xutai Ma", "Prashant Mathur", "Evgeny Matusov", "Paul McNamee", "John McCrae", "Kenton Murray", "Maria Nadejde", "Satoshi Nakamura", "Matteo Negri", "Ha Nguyen", "Jan Niehues", "Xing Niu", "Atul Kr. Ojha", "John Ortega", "Proyag Pal", "Juan Pino", "Lonneke van der Plas", "Peter Polák", "Elijah Rippeth", "Elizabeth Salesky", "Jiatong Shi", "Matthias Sperber", "Sebastian Stüker", "Katsuhito Sudoh", "Yun Tang", "Brian Thompson", "Kevin Tran", "Marco Turchi", "Alex Waibel", "Mingxuan Wang", "Shinji Watanabe", "Rodolfo Zevallos" ]
https://www.semanticscholar.org/paper/f7e995c3cae465963ecaa8c9b4ce8b9b4323a71b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Better Translation + Split and Generate for Multilingual RDF-to-Text (WebNLG 2023)
Lepší překlad + rozdělení a generování pro vícejazyčný převod RDF na text (WebNLG 2023)
This paper presents system descriptions of our submitted outputs for WebNLG Challenge 2023. We use mT5 in multi-task and multilingual settings to generate more fluent and reliable verbalizations of the given RDF triples. Furthermore, we introduce a partial decoding technique to produce more elaborate yet simplified outputs. Additionally, we demonstrate the significance of employing better translation systems in creating training data.
Tento článek představuje popisy systémů pro námi předložené výstupy v soutěži WebNLG Challenge 2023. Používáme mT5 ve víceúlohovém a vícejazyčném prostředí k vytváření plynulejších a spolehlivějších verbalizací zadaných trojic RDF. Dále zavádíme techniku částečného dekódování pro tvorbu propracovanějších, ale zjednodušených výstupů. Kromě toho demonstrujeme význam využití lepších překladových systémů při vytváření trénovacích dat.
[ "Nalin Kumar", "Saad Obaid ul Islam", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/522bdd481db17fdb579d8a228e468c2692ab2aef/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Genre Transfer in NMT: Creating Synthetic Spoken Parallel Sentences using Written Parallel Data
Přenos žánrů v NMT: vytváření syntetických mluvených paralelních vět pomocí psaných paralelních dat
Text style transfer (TST) aims to control attributes in a given text without changing the content. The matter gets complicated when the boundary separating two styles gets blurred. We can notice similar difficulties in the case of parallel datasets in spoken and written genres. Genuine spoken features like filler words and repetitions in the existing spoken genre parallel datasets are often cleaned during transcription and translation, making the texts closer to written datasets. This poses several problems for spoken genre-specific tasks like simultaneous speech translation. This paper seeks to address the challenge of improving spoken language translations. We start by creating a genre classifier for individual sentences and then try two approaches for data augmentation using written examples: (1) a novel method that involves assembling and disassembling spoken and written neural machine translation (NMT) models, and (2) a rule-based method to inject spoken features. Though the observed results for (1) are not promising, we get some interesting insights into the solution. The model proposed in (1) fine-tuned on the synthesized data from (2) produces naturally looking spoken translations for written→spoken genre transfer in En-Hi translation systems. We use this system to produce a second-stage En-Hi synthetic corpus, which however lacks appropriate alignments of explicit spoken features across the languages. For the final evaluation, we fine-tune Hi-En spoken translation systems on the synthesized parallel corpora. We observe that the parallel corpus synthesized using our rule-based method produces the best results.
Cílem přenosu stylu textu (TST) je ovládat atributy v daném textu, aniž by se měnil jeho obsah. Komplikovanější tato problematika je v případě, že se hranice oddělující dva styly stírá. Podobných potíží si můžeme všimnout v případě paralelních souborů dat v mluvených a psaných žánrech. Skutečné mluvené rysy, jako jsou výplňová slova a např. opakování v existujících paralelních datech mluvených žánrů, jsou často při přepisu vyčištěny. To představuje několik problémů pro úlohy specifické pro mluvené žánry, jako je simultánní překlad mluvené řeči. Tento článek se snaží řešit problém překladu mluveného jazyka. Začneme vytvořením žánrového klasifikátoru pro jednotlivé věty a poté vyzkoušíme dva přístupy pro rozšíření dat pomocí psaných příkladů: (1) novou metodu, která zahrnuje sestavování a rozkládání mluvených a psaných příkladů pomocí modelů neuronového strojového překladu (NMT) a (2) metodu založenou na pravidlech pro vkládání mluvených rysů. Model navržený v bodě (1) vyladěný na syntetizovaných datech z (2) vytváří přirozeně vypadající mluvené překlady pro psaný→mluvený žánrový převod v překladových systémech En-Hi. Pomocí tohoto systému vytváříme druhý stupeň syntetického korpusu En-Hi, který však postrádá vhodné zarovnání explicitních mluvených rysů napříč jazyky. Pozorujeme, že paralelní korpus syntetizovaný naší metodou založenou na pravidlech poskytuje nejlepší výsledky.
[ "Nalin Kumar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/94e53b2a47d7ac77ed88ff04ba663bc7a88cf986/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Multimodal Shannon Game with Images
Multimodální hra Shannon s obrázky
The Shannon game has long been used as a thought experiment in linguistics and NLP, asking participants to guess the next letter in a sentence based on its preceding context. We extend the game by introducing an optional extra modality in the form of image information. To investigate the impact of multimodal information in this game, we use human participants and a language model (LM, GPT-2). We show that the addition of image information improves both self-reported confidence and accuracy for both humans and LM. Certain word classes, such as nouns and determiners, benefit more from the additional modality information. The priming effect in both humans and the LM becomes more apparent as the context size (extra modality information + sentence context) increases. These findings highlight the potential of multimodal information in improving language understanding and modeling.
Hra Shannon je již dlouho používána jako myšlenkový experiment v lingvistice a NLP, který po účastnících požaduje, aby odhadli další písmeno ve větě na základě předchozího kontextu. Rozšiřujeme hru zavedením volitelné extra modality ve formě obrazové informace. K prozkoumání dopadu multimodálních informací v této hře používáme lidské účastníky a jazykový model (LM, GPT-2). Ukazujeme, že přidání obrazové informace zlepšuje sebejistotu a přesnost jak u lidí, tak u LM. Určité slovní třídy, jako podstatná jména a determinanty, těží více z dodatečné informace o modalitě. Primitivní efekt u lidí i u LM se stává zřetelnějším s rostoucí velikostí kontextu (extra informace o modalitě + kontext věty). Tato zjištění zdůrazňují potenciál multimodálních informací při zlepšování porozumění jazyku a modelování.
[ "Sunit Bhattacharya" ]
https://www.semanticscholar.org/paper/e0d667314eb87456ec9598b94dc6cfc66426c188/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
EMMT: A simultaneous eye-tracking, 4-electrode EEG and audio corpus for multi-modal reading and translation scenarios
EMMT: simultánní eye-tracking a EEG se čtyřmi elektrodami a zvukový korpus pro multimodální čtení a sledování překladatelských scénářů
We present the Eyetracked Multi-Modal Translation (EMMT) corpus, a dataset containing monocular eye movement recordings, audio and 4-electrode electroencephalogram (EEG) data of 43 participants. The objective was to collect cognitive signals as responses of participants engaged in a number of language intensive tasks involving different text-image stimuli settings when translating from English to Czech. Each participant was exposed to 32 text-image stimuli pairs and asked to (1) read the English sentence, (2) translate it into Czech, (3) consult the image, (4) translate again, either updating or repeating the previous translation. The text stimuli consisted of 200 unique sentences with 616 unique words coupled with 200 unique images as the visual stimuli. The recordings were collected over a two week period and all the participants included in the study were Czech natives with strong English skills. Due to the nature of the tasks involved in the study and the relatively large number of participants involved, the corpus is well suited for research in Translation Process Studies, Cognitive Sciences among other disciplines.
Představujeme korpus EMMT (Eyetracked Multi-Modal Translation), který obsahuje záznamy monokulárních očních pohybů, zvukové záznamy a data ze 4elektrodového elektroencefalogramu (EEG) 43 účastníků. Cílem bylo shromáždit kognitivní signály jako odpovědi účastníků zpracovávajících řadu jazykově náročných úkolů za různých podmínek týkajících se textových a obrazových podnětů při překladu z angličtiny do češtiny. Každý účastník zpracoval 32 dvojic textových a obrazových podnětů a byl požádán, aby (1) přečetl anglickou větu, (2) přeložil ji do češtiny, (3) konzultoval obrázek, (4) větu znovu přeložil, přičemž buď aktualizoval, nebo zopakoval předchozí překlad. Textové podněty se skládaly z 200 unikátních vět se 616 unikátními slovy ve spojení s 200 unikátními obrázky jako vizuálními podněty. Nahrávky byly shromažďovány po dobu dvou týdnů a všichni účastníci zahrnutí do studie byli rodilí Češi s dobrou znalostí angličtiny. Vzhledem k povaze úkolů zahrnutých do studie a relativně velkému počtu zapojených účastníků je korpus vhodný mimo jiné pro výzkum v oblasti studia překladatelských procesů, kognitivních věd a dalších oborů.
[ "Sunit Bhattacharya", "Věra Kloudová", "Vilém Zouhar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/2e788ef8b3ca21c5831b2c49eab78540c137f5d2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Unveiling Multilinguality in Transformer Models: Exploring Language Specificity in Feed-Forward Networks
Odhalení mnohojazyčnosti v modelech transformátorů: zkoumání jazykové specifičnosti v sítích s posuvem vpřed
Recent research suggests that the feed-forward module within Transformers can be viewed as a collection of key-value memories, where the keys learn to capture specific patterns from the input based on the training examples. The val- ues then combine the output from the ‘memo- ries’ of the keys to generate predictions about the next token. This leads to an incremental process of prediction that gradually converges towards the final token choice near the output layers. This interesting perspective raises questions about how multilingual models might lever- age this mechanism. Specifically, for autore- gressive models trained on two or more lan- guages, do all neurons (across layers) respond equally to all languages? No! Our hypothe- sis centers around the notion that during pre- training, certain model parameters learn strong language-specific features, while others learn more language-agnostic (shared across lan- guages) features. To validate this, we con- duct experiments utilizing parallel corpora of two languages that the model was initially pre- trained on. Our findings reveal that the layers closest to the network’s input or output tend to exhibit more language-specific behaviour com- pared to the layers in the middle.
Nedávné výzkumy naznačují, že zpětná vazba modul v rámci Transformers lze zobrazit jako kolekci klíčových-hodnotových pamětí, kde klíče naučit zachytit konkrétní vzory z vstup založený na příkladech školení. Val- ues pak kombinovat výstup z „memo- ries’ klíčů generovat předpovědi o další token. To vede k inkrementální proces predikce, který se postupně sbližuje směrem ke konečnému výběru tokenu v blízkosti výstupu vrstvy. Tento zajímavý pohled vyvolává otázky o tom, jak vícejazyčné modely mohou páčit- tento mechanismus stárnout. Konkrétně pro autore- gressive modely trénované na dvou nebo více lan- guages, reagují všechny neurony (napříč vrstvami) stejně do všech jazyků? Ne! Naše hypotéza- sis center kolem představy, že během pre- trénink, některé parametry modelu se učí silně jazykově specifické rysy, zatímco jiní se učí více jazykově-agnostické (sdílené přes lan- guages) rysy. Pro potvrzení tohoto, jsme con- Pokusy potrubí s využitím paralelních korpusů dvou jazyků, na kterých byl model zpočátku pre- trénován. Naše zjištění odhalují, že vrstvy nejblíže vstupu nebo výstupu sítě mají tendenci vykazovat jazykově specifické chování com- pared na vrstvy uprostřed.
[ "Sunit Bhattacharya", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/3841840b786a387d18a3ddfc80c9360162b4949c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Stroop Effect in Multi-Modal Sight Translation
Stroopův efekt v multimodálním překladu zraku
This study investigates the human translation process from English to Czech in a multi-modal scenario (images) using reaction times. We make a distinction between ambiguous and unambiguous sentences where in the former, more information would be needed in order to make a proper translation (e.g. gender of the subject). Simultaneously, we also provide visual aid to help in disambiguation, which is necessary for the ambiguous sentences. We confirm that ambiguous sentences take longer to translate and the provision of disambiguating visual aid slows the translation process. When provided with an unrelated visual aid, humans are able to recognize and spend less time on it but still significantly more than in other conditions. These findings are a clear manifestation of the Stroop effect (longer processing times for incongruent combinations).
Tato studie zkoumá proces lidského překladu z angličtiny do češtiny v multimodálním scénáři (obrázcích) s využitím reakčních časů. Rozlišujeme mezi nejednoznačnými a jednoznačnými větami, kde by v prvním případě bylo pro správný překlad potřeba více informací (např. rod předmětu). Zároveň poskytujeme i názornou pomůcku, která pomáhá při jednoznačnosti, která je u nejednoznačných vět nezbytná. Potvrzujeme, že překlad nejednoznačných vět trvá déle a poskytnutí jednoznačné vizuální pomůcky proces překladu zpomaluje. Když je jim poskytnuta nesouvisející vizuální pomůcka, lidé jsou schopni ji rozpoznat a strávit na ní méně času, ale stále výrazně více než v jiných podmínkách. Tyto nálezy jsou jasným projevem Stroopova efektu (delší doby zpracování u nekongruentních kombinací).
[ "Sunit Bhattacharya", "Vilém Zouhar", "Věra Kloudová", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a6a81cc04065581b461d543462b4f35f5eeb0b5e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Multimodal Shannon Game with Images
Multimodální hra Shannon s obrázky
In the Shannon game, the goal is to guess the next letter in a sentence based on the previous context. It has since become a widely known thought experiment on which concepts in psycholinguistics, computational linguistics and natural language processing are based. We extend this game by including an optional extra modality in the form of images and run an experiment on human participants. We find that the presence of an image greatly improves users' confidence and accuracy accross all POS. This includes determiners (a, an, the), which should otherwise be predicted solely from the previous (left) context of the sentence.
Ve hře Shannon je cílem uhodnout další písmeno ve větě na základě předchozího kontextu. Od té doby se stal široce známým myšlenkovým experimentem, na kterém jsou založeny koncepty v psycholingvistice, počítačové lingvistice a zpracování přirozeného jazyka. Tuto hru rozšiřujeme o volitelnou extra modalitu ve formě obrázků a provádíme experiment na lidských účastnících. Zjistili jsme, že přítomnost obrázku výrazně zvyšuje důvěru a přesnost uživatelů ve všech POS. To zahrnuje determinanty (a, an, the), které by jinak měly být predikovány výhradně z předchozího (levého) kontextu věty.
[ "Sunit Bhattacharya", "Vilém Zouhar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/e0d667314eb87456ec9598b94dc6cfc66426c188/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
ÚFAL Submission for SIGTYP Supervised Cognate Detection Task
ÚFAL Podání pro SIGTYP supervizovaný úkol detekce příbuzných
In this work, I present ÚFAL submission for the supervised task of detecting cognates and derivatives. Cognates are word pairs in different languages sharing the origin in earlier attested forms in ancestral language, while derivatives come directly from another language. For the task, I developed gradient boosted tree classifier trained on linguistic and statistical features. The solution came first from two delivered systems with an 87% F1 score on the test split. This write-up gives an insight into the system and shows the importance of using linguistic features and character-level statistics for the task.
V této práci uvádím zadání ÚFAL pro řízený úkol detekce příbuzných a odvozenin. Příbuzné jsou slovní páry v různých jazycích, které sdílejí původ v dřívějších ověřených formách v jazyce předků, zatímco odvozeniny pocházejí přímo z jiného jazyka. Pro tento úkol jsem vyvinul gradientem zesílený stromový klasifikátor trénovaný na lingvistických a statistických vlastnostech. Řešení vzešlo ze dvou dodaných systémů s 87% skóre F1 na testovacím rozdělení. Tento zápis poskytuje náhled do systému a ukazuje důležitost používání jazykových funkcí a statistik na úrovni znaků pro daný úkol.
[ "Tomasz Limisiewicz" ]
https://www.semanticscholar.org/paper/bf1c9c518f9bf6ab61db2695f102794164e3176b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
You Can Have Your Data and Balance It Too: Towards Balanced and Efficient Multilingual Models
Můžete mít svá data a také je vyvážit: Směrem k vyváženým a efektivním vícejazyčným modelům
Multilingual models have been widely used for the cross-lingual transfer to low-resource languages. However, the performance on these languages is hindered by their under-representation in the pretraining data. To alleviate this problem, we propose a novel multilingual training technique based on teacher-student knowledge distillation. In this setting, we utilize monolingual teacher models optimized for their language. We use those teachers along with balanced (sub-sampled) data to distill the teachers’ knowledge into a single multilingual student. Our method outperforms standard training methods in low-resource languages and retains performance on high-resource languages while using the same amount of data. If applied widely, our approach can increase the representation of low-resource languages in NLP systems.
Vícejazyčné modely byly široce používány pro mezijazyčný převod do jazyků s nízkými zdroji. Výkonu těchto jazyků však brání jejich nedostatečné zastoupení v datech předtrénování. Abychom tento problém zmírnili, navrhujeme novou vícejazyčnou školicí techniku založenou na destilaci znalostí učitele a studenta. V tomto prostředí využíváme jednojazyčné modely učitelů optimalizované pro jejich jazyk. Tyto učitele používáme spolu s vyváženými (subvzorkovanými) údaji k destilaci znalostí učitelů do jednoho vícejazyčného studenta. Naše metoda překonává standardní tréninkové metody v jazycích s nízkými zdroji a zachovává výkon v jazycích s vysokými zdroji při použití stejného množství dat. Pokud bude náš přístup aplikován široce, může zvýšit zastoupení jazyků s nízkými zdroji v systémech NLP.
[ "Tomasz Limisiewicz", "Dan Malkin", "Gabriel Stanovsky" ]
https://www.semanticscholar.org/paper/2231b5e00fa1f8f4b222089fe4bb64a95970b59a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Tokenization Impacts Multilingual Language Modeling: Assessing Vocabulary Allocation and Overlap Across Languages
Dopady tokenizace na vícejazyčné jazykové modelování: Posouzení alokace slovní zásoby a překrývání mezi jazyky
Multilingual language models have recently gained attention as a promising solution for representing multiple languages in a single model. In this paper, we propose new criteria to evaluate the quality of lexical representation and vocabulary overlap observed in sub-word tokenizers.Our findings show that the overlap of vocabulary across languages can be actually detrimental to certain downstream tasks (POS, dependency tree labeling). In contrast, NER and sentence-level tasks (cross-lingual retrieval, NLI) benefit from sharing vocabulary. We also observe that the coverage of the language-specific tokens in the multilingual vocabulary significantly impacts the word-level tasks. Our study offers a deeper understanding of the role of tokenizers in multilingual language models and guidelines for future model developers to choose the most suitable tokenizer for their specific application before undertaking costly model pre-training.
Vícejazyčné jazykové modely nedávno získaly pozornost jako slibné řešení pro reprezentaci více jazyků v jediném modelu. V tomto článku navrhujeme nová kritéria pro hodnocení kvality lexikální reprezentace a překrývání slovní zásoby pozorované v tokenizérech podslov. Naše zjištění ukazují, že překrývání slovní zásoby mezi jazyky může být ve skutečnosti škodlivé pro určité následné úkoly (POS, označování stromem závislostí) . Naproti tomu úkoly NER a úkoly na úrovni vět (mezijazyčné vyhledávání, NLI) těží ze sdílení slovní zásoby. Pozorujeme také, že pokrytí jazykově specifických tokenů ve vícejazyčné slovní zásobě významně ovlivňuje úkoly na úrovni slov. Naše studie nabízí hlubší pochopení role tokenizérů ve vícejazyčných jazykových modelech a pokyny pro budoucí vývojáře modelů, aby si vybrali nejvhodnější tokenizér pro jejich konkrétní aplikaci, než se pustí do nákladného předtrénování modelu.
[ "Tomasz Limisiewicz", "Jiří Balhar", "David Mareček" ]
https://www.semanticscholar.org/paper/5e07cb357ea8078af34c6e9154a0c746af3a4d9e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Connectives with both Arguments External: A Survey on Czech
Konektory s oběma externími argumenty: sonda v češtině
This paper investigates discourse connectives whose position in a text deviates from the usual setting - namely connectives that occur in neither of the two arguments - and as such present a challenge for discourse parsers.
Článek se věnuje textovým konektorům, jejichž pozice v textu se liší od obvyklých pozic spojek a textově-propojovacích částic a adverbií. Jsou to takové konektory, které se nevyskytují ani v jednom z textových segmentů, které propojují - a jako takové představují výzvu pro automatickou analýzu diskurzu.
[ "Lucie Poláková", "Jiří Mírovský" ]
https://www.semanticscholar.org/paper/12bd010f17d15b1c9f493bf7ae3325f9edf5a58c/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Czech RST Discourse Treebank 1.0
Czech RST Discourse Treebank 1.0
The Czech RST Discourse Treebank 1.0 (CzRST-DT 1.0) is a dataset of 54 Czech journalistic texts manually annotated using the Rhetorical Structure Theory (RST). Each text document in the treebank is represented as a single tree-like structure, the nodes (discourse units) are interconnected through hierarchical rhetorical relations.
Czech RST Discourse Treebank 1.0 (CzRST-DT 1.0) je soubor 54 českých publicistických textů ručně anotovaných v rámci Reorie rétorické struktury (RST). Každý dokument v treebanku je reprezentován jako jediná spojitá stromová struktura, uzly (jednotky diskurzu) jsou vzájemně propojeny hierarchickými rétorickými vztahy.
[ "Lucie Poláková", "Šárka Zikánová", "Jiří Mírovský", "Eva Hajičová" ]
https://www.semanticscholar.org/paper/c61ecbc52a549ac92c73d9ce83a9a1e2255216a2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Boosting Unsupervised Machine Translation with Pseudo-Parallel Data
Vylepšení nesupervizovaného strojového překladu pomocí pseudoparalelních dat
Even with the latest developments in deep learning and large-scale language modeling, the task of machine translation (MT) of low-resource languages remains a challenge. Neural MT systems can be trained in an unsupervised way without any translation resources but the quality lags behind, especially in truly low-resource conditions. We propose a training strategy that relies on pseudo-parallel sentence pairs mined from monolingual corpora in addition to synthetic sentence pairs back-translated from monolingual corpora. We experiment with different training schedules and reach an improvement of up to 14.5 BLEU points (English to Ukrainian) over a baseline trained on back-translated data only.
I přes nejnovější pokroky v hlubokém učení a trénování velkých jazykových modelech, strojového překlad z nízkozdrojových jazyků zůstává výzvou. Systémy neuronového strojového překladu lze trénovat nesupervizovaně, aniž by byly k dispozici jakékoli překladové zdroje, ale kvalita překladu není dostačující, zejména v podmínkách skutečně nízkozdrojových jazyků. Navrhujeme trénovací strategii, která spočívá v použití pseudoparalelních větných dvojic nalezených v monolingválních korpusech. Provádíme experimenty s různými tréninkovými plány a dosahujeme zlepšení až o 14,5 bodů BLEU (z angličtiny do ukrajinštiny) oproti základnímu modelu trénovanému pouze na zpětně přeložených datech.
[ "Ivana Kvapilíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/e6e7f595b90c2036bbb1c3198b47081c4bf1921c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Low-Resource Machine Translation Systems for Indic Languages
Nízkozdrojové systémy strojového překladu pro indické jazyky
We present the submission of the CUNI team to the WMT23 shared task in translation between English and Assamese, Khasi, Mizo, and Manipuri. All our systems were pretrained on the task of multilingual masked language modelling and denoising auto-encoding. Our primary systems for translation into English were further pretrained for multilingual MT in all four language directions and fine-tuned on the limited parallel data available for each language pair separately. We used online back-translation for data augmentation. The same systems were submitted as contrastive for translation out of English where the multilingual MT pretraining step seemed to harm the translation performance. Other contrastive systems used additional pseudo-parallel data mined from monolingual corpora.
Představujeme příspěvek týmu CUNI do soutěžní úlohy WMT23 v překladu mezi angličtinou a asámštinou, khásíjštinou, mizo a manipurštinou. Všechny naše systémy byly předtrénovány na úkolu multilingválního modelování jazyka a odstraňování šumu. Naše primární systémy pro překlad do angličtiny byly dále předtrénovány pro vícejazyčný strojový překlad ve všech čtyřech směrech a doladěny na omezeném množství paralelních dat dostupných pro každý jazykový pár zvlášť. Pro zvýšení množství trénovacích dat jsme použili zpětný překlad (back-translation). Stejné systémy byly odeslány jako kontrastní pro překlad z angličtiny, kde se zdálo, že krok předtrénování vícejazyčného strojového překladu škodí. Ostatní kontrastní systémy využívaly navíc pseudoparalelní data získaná z monolingválních korpusů.
[ "Ivana Kvapilíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/b4ab261687ea3fc4bde27f7317921b57f88993c5/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Mind the Labels: Describing Relations in Knowledge Graphs With Pretrained Models
Na popiscích záleží: Popisování relací ve znalostních grafech pomocí předtrénovaných modelů
Pretrained language models (PLMs) for data-to-text (D2T) generation can use human-readable data labels such as column headings, keys, or relation names to generalize to out-of-domain examples. However, the models are well-known in producing semantically inaccurate outputs if these labels are ambiguous or incomplete, which is often the case in D2T datasets. In this paper, we expose this issue on the task of descibing a relation between two entities. For our experiments, we collect a novel dataset for verbalizing a diverse set of 1,522 unique relations from three large-scale knowledge graphs (Wikidata, DBPedia, YAGO). We find that although PLMs for D2T generation expectedly fail on unclear cases, models trained with a large variety of relation labels are surprisingly robust in verbalizing novel, unseen relations. We argue that using data with a diverse set of clear and meaningful labels is key to training D2T generation systems capable of generalizing to novel domains.
Předtrénované jazykové modely pro generování textu z dat mohou pro zobecnění na příklady z jiných domén používat lidsky čitelné popisky dat, jako jsou záhlaví sloupců, klíče nebo názvy relací. Je však známo, že tyto modely vytvářejí sémanticky nepřesné výstupy, pokud jsou tyto popisky nejednoznačné nebo neúplné, což je častý případ datových sad pro generování textu z dat. V tomto článku tento problém odhalujeme na úloze popisu vztahu mezi dvěma entitami. Pro naše experimenty shromažďujeme novou datovou sadu pro verbalizaci 1 522 unikátních vztahů ze tří rozsáhlých znalostních grafů (Wikidata, DBPedia, YAGO). Zjistili jsme, že ačkoli PLM pro generování D2T očekávaně selhávají v nejasných případech, modely natrénované s velkým množstvím značek vztahů jsou překvapivě robustní při verbalizaci nových, neznámých vztahů. Tvrdíme, že používání dat s různorodou sadou jasných a smysluplných štítků je klíčem k trénování systémů pro generování textu z dat, které jsou schopny generalizovat na nové domény.
[ "Zdeněk Kasner", "Ioannis Konstas", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/1459db606c56cf762c0034c069d70493fa52a650/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
TabGenie: A Toolkit for Table-to-Text Generation
TabGenie: Sada nástrojů pro generování textu z tabulek
Heterogenity of data-to-text generation datasets limits the research on data-to-text generation systems. We present TabGenie - a toolkit which enables researchers to explore, preprocess, and analyze a variety of data-to-text generation datasets through the unified framework of table-to-text generation. In TabGenie, all inputs are represented as tables with associated metadata. The tables can be explored through a web interface, which also provides an interactive mode for debugging table-to-text generation, facilitates side-by-side comparison of generated system outputs, and allows easy exports for manual analysis. Furthermore, TabGenie is equipped with command line processing tools and Python bindings for unified dataset loading and processing. We release TabGenie as a PyPI package and provide its open-source code and a live demo at https://github.com/kasnerz/tabgenie.
Heterogenita souborů dat pro generování dat na text omezuje výzkum systémů pro generování dat na text. Představujeme TabGenie - sadu nástrojů, která umožňuje výzkumníkům zkoumat, předzpracovávat a analyzovat různé datové sady pro generování dat na text prostřednictvím jednotného rámce generování dat z tabulky na text. V TabGenie jsou všechny vstupy reprezentovány jako tabulky s přidruženými metadaty. Tabulky lze zkoumat prostřednictvím webového rozhraní, které rovněž poskytuje interaktivní režim pro ladění generování tabulky na text, usnadňuje vzájemné porovnávání výstupů generovaného systému a umožňuje snadný export pro manuální analýzu. TabGenie je navíc vybaven nástroji pro zpracování z příkazového řádku a vazbami na Python pro jednotné načítání a zpracování datových sad. TabGenie uvolňujeme jako balíček PyPI a poskytujeme jeho kód s otevřeným zdrojovým kódem a živou ukázku na adrese https://github.com/kasnerz/tabgenie.
[ "Zdeněk Kasner", "Ekaterina Garanina", "Ondřej Plátek", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/386f30238bb790cdc3f1a806f666e427b04324b0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Critic-Driven Decoding for Mitigating Hallucinations in Data-to-text Generation
Dekódování řízené kritiky pro zmírnění halucinací při generování dat do textu
Hallucination of text ungrounded in the input is a well-known problem in neural data-to-text generation. Many methods have been proposed to mitigate it, but they typically require altering model architecture or collecting additional data, and thus cannot be easily applied to an existing model. In this paper, we explore a new way to mitigate hallucinations by combining the probabilistic output of a generator language model (LM) with the output of a special “text critic” classifier, which guides the generation by assessing the match between the input data and the text generated so far. Our method does not need any changes to the underlying LM’s architecture or training procedure and can thus be combined with any model and decoding operating on word probabilities. The critic does not need any additional training data, using the base LM’s training data and synthetic negative examples. Our experimental results show that our method improves over the baseline on the WebNLG and OpenDialKG benchmarks
Halucinace textu, který není podložen vstupem, je dobře známým problémem při neuronovém generování textu z dat. Bylo navrženo mnoho metod k jeho zmírnění, ale obvykle vyžadují změnu architektury modelu nebo sběr dalších dat, a proto je nelze snadno aplikovat na stávající model. V tomto článku zkoumáme nový způsob zmírnění halucinací kombinací pravděpodobnostního výstupu generativního jazykového modelu (LM) s výstupem speciálního klasifikátoru "textového kritika", který řídí generování na základě posouzení shody mezi vstupními daty a dosud vygenerovaným textem. Naše metoda nepotřebuje žádné změny v architektuře základního LM ani v trénovacím postupu, a lze ji tedy kombinovat s jakýmkoli modelem a dekódováním pracujícím s pravděpodobnostmi slov. Kritik nepotřebuje žádná další trénovací data, používá trénovací data základního LM a syntetické negativní příklady. Naše experimentální výsledky ukazují, že naše metoda je lepší než baseline na benchmarcích WebNLG a OpenDialKG.
[ "Mateusz Lango", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/7a0081f6464de0ce95b71137b76bd2aa773b6b32/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
CUNI Submission to MRL 2023 Shared Task on Multi-lingual Multi-task Information Retrieval
Systém Univerzity Karlovy pro MRL 2023 Shared Task on Multi-lingual Multi-task Information Retrieval
We present the Charles University system for the MRL 2023 Shared Task on Multi-lingual Multi-task Information Retrieval. The goal of the shared task was to develop systems for named entity recognition and question answering in several under-represented languages. Our solutions to both subtasks rely on the translate-test approach. We first translate the unlabeled examples into English using a multilingual machine translation model. Then, we run inference on the translated data using a strong task-specific model. Finally, we project the labeled data back into the original language. To keep the inferred tags on the correct positions in the original language, we propose a method based on scoring the candidate positions using a label-sensitive translation model. In both settings, we experiment with finetuning the classification models on the translated data. However, due to a domain mismatch between the development data and the shared task validation and test sets, the finetuned models could not outperform our baselines.
Představujeme systém Univerzity Karlovy pro MRL 2023 Shared Task on Multi-lingual Multi-task Information Retrieval. Cílem sdíleného úkolu bylo vyvinout systémy pro rozpoznávání pojmenovaných entit a odpovídání na otázky v několika málo zastoupených jazycích. Naše řešení obou dílčích úkolů spočívají v překladu testovacích dat. Nejprve automaticky přeložíme nezpracovaná data do angličtiny vícejazyčným modelem. Poté použijeme silný, pro danou úlohu specifický model trénovaný na Angličtině. Nakonec promítneme klasifikovaná data zpět do původního jazyka. Abychom uchovali odvozené značky na správných pozicích v původním jazyce, navrhujeme metodu založenou na hodnocení kandidátských pozic pomocí modelu překladu citlivého na označení. V obou nastaveních experimentujeme s doladěním klasifikačních modelů na přeložených datech. Kvůli nesouladu domény mezi vývojovými daty a sdílenými sadami ověřování úloh a testů však vyladěné modely nepřekonaly výsledky našich základních experimentů.
[ "Jindřich Helcl", "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/4cb08da422f93a464f1bb4449022b444eed1b083/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Is a Prestigious Job the same as a Prestigious Country? A Case Study on Multilingual Sentence Embeddings and European Countries
Je prestižní zaměstnání to samé jako prestižní země? Případová studie vícejazyčných větných embedingů a evropských zemí
We study how multilingual sentence representations capture European countries and occupations and how this differs across European languages. We prompt the models with templated sentences that we machine-translate into 12 European languages and analyze the most prominent dimensions in the embeddings. Our analysis reveals that the most prominent feature in the embedding is the geopolitical distinction between Eastern and Western Europe and the country's economic strength in terms of GDP. When prompted specifically for job prestige, the embedding space clearly distinguishes high and low-prestige jobs. The occupational dimension is uncorrelated with the most dominant country dimensions in three out of four studied models. The exception is a small distilled model that exhibits a connection between occupational prestige and country of origin, which is a potential source of nationality-based discrimination. Our findings are consistent across languages.
Zkoumáme, jak vícejazyčné reprezentace vět zachycují evropské země a povolání a jak se to liší v jednotlivých evropských jazycích. Promptujeme modely pomocí šablonovitých vět, které strojově překládáme do 12 evropských jazyků, a analyzujeme nejvýraznější dimenze v reprezentacích. Naše analýza ukazuje, že nejvýraznějším rysem v embeddingu je geopolitické rozlišení mezi východní a západní Evropou a ekonomická síla země z hlediska HDP. Při dotazování konkrétně na prestiž zaměstnání, reprezentace jasně rozlišují zaměstnání s vysokou a nízkou prestiží. Dimenze povolání nekoreluje s nejdominantnějšími dimenzemi zemí ve třech ze čtyř zkoumaných modelů. Výjimkou je malý destilovaný model, který vykazuje souvislost mezi prestiží povolání a zemí původu, což je potenciální zdroj diskriminace na základě národnosti. Naše zjištění jsou konzistentní napříč jazyky.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/b84d486fa01c3918e9a19a072a2dcc8133aa6d22/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Large Language Models: Second Paradigm Change in Multilingual NLP within five years?
Velké jazykové modely: Druhá změna paradigmatu v mezijazykovém NLP za posledních 5 let?
Less than five years after the invention of masked language modeling changed the mainstream methodology natural language processing (NLP), we are experiencing another paradigm change. Large generative language models (LLMs) with prompt engineering and in-context learning drastically reduce the amount of labeled data needed for NLP and change how we formulate tasks. In monolingual setups, many of the tricks from the previous time work well with LLMs, however, in cross-lingual tasks, it does not seem to be the case. In this talk, we will discuss this unusual situation and speculate what it means for not only our future research.
Necelých pět let poté, co vynález maskovaného modelování jazyka změnil hlavní proud zpracování přirozeného jazyka (NLP), zažíváme další změnu paradigmatu. Velké generativní jazykové modely (LLM) s prompt engineeringem a učením v kontextu drasticky snižují množství anotovaných dat potřebných pro NLP a mění způsob, jakým formulujeme úlohy. Pro jednojazyčné ulohy funguje mnoho triků z dřívější doby dobře, nicméně v mezijazykových úlohách tomu tak není. V této přednášce budeme diskutovat o této neobvyklé situaci a spekulovat, co to znamená nejen pro náš budoucí výzkum.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/86685874f77b6f2f14e54a3b8065ffdb5a22ee1a/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Moral Values in Language Models across Langauges
Morální hodnoty v jazykových modelech napříč jazyky
The talk introduced the basic typology of language models in the first part. The second part summarized our study "Speaking Multiple Languages Affects the Moral Bias of Language Models" published in Findings of ACL this year.
Přednáška v první části popsala základní typologii jazykových modelů. V druhé části popisovala naši studii "Speaking Multiple Languages Affects the Moral Bias of Language Models", která vyšla ve Findings of ACL v tomto roce.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/8ea24b1dbb3e690ebc64543c03f0552a6c1fb49d/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Neural Language Models: Is this the Artificial Intelligence?
Neuronové jazykové modely: To už je ta umělá inteligence?
A talk summarizing the basics of large language models and their recent development.
Přednáška shrnující fungování velkých jazykových modelů a jejich nedávný vývoj.
[ "Jindřich Libovický" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
From machine learning to language models
Od strojového učení k jazykovým modelům
The talk introduced basic machine learning concepts and how we got from basic machine learning to large language models.
Přednáška představila základní koncepty strojového učení a jak se od nich dospělo k velkým jazykovým modelů.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/9405cc0d6169988371b2755e573cc28650d14dfe/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Why do the big language models know Czech, Slovak, German... even though nobody teaches them?
Proč umí velké jazykové modely česky, slovensky, německy..., i když je to pořádně nikdo neučí?
The lecture introduced the basic concepts of large language models. The next part discussed where the models' multilingual capabilities come from and how well the models work across languages.
Přednáška představila základní koncepty velkých jazykových modelů. V další části se věnovala tomu, kde se berou vícejazyčné schopnosti modelů a jak dobře fungují modely napříč jazyky.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/7b0fc02c5069a7597374e2826d94d888eac75f87/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Large language models: What does large and language mean here?
Velké jazykové modely: Co znamená velké a co jazykové?
The talk introduced large language models: their training and application, and related research conducted at ÚFAL MFF UK.
Přednáška představila velké jazykové modely: metody trénování, jejich využí a s nimi související výzkum na ÚFAL MFF UK.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/7d722ec75cf4cde30156e71fffec6f8f08f91600/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2023
Panel diskussion: Large language models in Czech and Slovak
Panelová diskuse: Velké jazykomodely české a slovenské
The panel discussion focused on the functioning of the current major language models for Czech and Slovak. The panelists were, besides Jindřich Libovický from ÚFAL MFF UK, also representatives of Czech and Slovak companies (Seznam.cz, Gerulata Technologies, Mediaboard), who shared with the audience their experiences with Czech and Slovak language models.
Panelová diskuse se věnovala fungování současných velkých jazykových modelů pro češtinu a slovenštinu. Panelisté byli kromě Jindřich Libovického z ÚFAL MFF UK také zástupci českých a slovenských firem (Seznam.cz, Gerulata Technologies, Mediaboard), kteří sdíleli s posluchači svoje zkušenosti s češtinou a slovenštinou v jazykovéch modelech.
[ "Jindřich Libovický", "Jakub Náplava", "Petr Šimeček", "Filip Uhlárik" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Morphological complexity of verbs across the frequency spectrum in Czech, English, German and Spanish
Morfologická komplexita sloves napříč frekvenčním spektrem v češtine, angličtině, němčině a španělštině
In this paper, we use corpus data and data from lexical resources to examine the relationship between the complexity of verbs’ morphological structure and their frequency in four different languages. The analysis shows that morphological complexity is not evenly distributed across the frequency spectrum and its distribution is dependent on the language and its morphological characteristics. Morphological complexity has been a focus of research in typology (Stump 2017, Berdicevskis et al. 2018, Çöltekin & Rama 2022) using measures based mainly on inflectional morphology (e.g., mean size of paradigm, morphological feature entropy). In contrast, we focus on the complexity of basic forms in the lexicon – whether they contain only the root (and possibly inflectonal affixes), or also derivatonal affixes and/or multiple roots. With decreasing token frequency, the complexity of the verbs’ morphematic structure and the number of verbs sharing the same root is expected to grow. We analyze the verbal lexicon in Czech, English, German and Spanish. As data for the analysis, we use verb lists extracted from corpora (Čermák et al. 2000, BNC Consortium 2007, Geyken 2007, Real Academia Española 2014) which, despite some language-specific decisions in lemmatization and tagging, are comparable in size (1000 million) and genre composition.
V tomto příspěvku využíváme korpusová data a data z lexikálních zdrojů ke zkoumání vztahu mezi složitostí morfematické struktury sloves a jejich frekvencí ve čtyřech různých jazycích. Analýza ukazuje, že morfologická složitost není rovnoměrně rozložena v celém frekvenčním spektru a její rozložení závisí na jazyce a jeho morfologických charakteristikách. Morfologická komplexita byla předmětem výzkumu v typologii (Stump 2017, Berdicevskis et al. 2018, Çöltekin & Rama 2022), přičemž byly používány míry založené především na flektivní morfologii (např. průměrná velikost paradigmatu, entropie morfologických rysů). My se naopak zaměřujeme na komplexnost základních forem sloves ve slovní zásobě - zda obsahují pouze kořen (a případně flektivní afixy), nebo také derivační afixy a/nebo více kořenů. S klesající frekvencí tokenů se očekává, že složitost morfematické struktury sloves a počet sloves sdílejících stejný kořen poroste. Analyzujeme slovesné lexikum v češtině, angličtině, němčině a španělštině. Jako data pro analýzu používáme seznamy sloves získané z korpusů (Čermák et al. 2000, BNC Consortium 2007, Geyken 2007, Real Academia Española 2014), které jsou i přes některá jazykově specifická rozhodnutí při lemmatizaci a tagování srovnatelné co do velikosti (1000 milionů) i žánrového složení.
[ "Hana Hledíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Barriers and enabling factors for error analysis in NLG research
Překážky a podpůrné faktory pro analýzu chyb ve výzkumu NLG
Earlier research has shown that few studies in Natural Language Generation (NLG) evaluate their system outputs using an error analysis, despite known limitations of automatic evaluation metrics and human ratings. This position paper takes the stance that error analyses should be encouraged, and discusses several ways to do so. This paper is not just based on our shared experience as authors, but we also distributed a survey as a means of public consultation. We provide an overview of existing barriers to carry out error analyses, and proposes changes to improve error reporting in the NLG literature.
Dřívější výzkum ukázal, že jen málo studií v oblasti generování přirozeného jazyka (Natural Language Generation - NLG) hodnotí výstupy svých systémů pomocí analýzy chyb, a to navzdory známým omezením automatických hodnotících metrik a lidských hodnocení. Tento poziční článek zastává stanovisko, že analýzu chyb je třeba podporovat, a diskutuje několik způsobů, jak toho dosáhnout. Tento článek není založen pouze na našich společných zkušenostech jako autorů, ale také jsme rozeslali průzkum jako prostředek veřejné konzultace. Poskytujeme přehled stávajících překážek pro provádění chybových analýz a navrhujeme změny ke zlepšení reportování chyb v literatuře NLG.
[ "Emiel van Miltenburg", "Miruna Clinciu", "Ondřej Dušek", "Dimitra Gkatzia", "Stephanie Inglis", "Leo Leppänen", "Saad Mahamood", "Stephanie Schoch", "Craig Thomson", "Luou Wen" ]
https://www.semanticscholar.org/paper/fecd5b5e3eb1dfb78a0b23b364a10f59a486a3b6/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Role of Compounds in Human vs. Machine Translation Quality
Role složenin v kvalitě lidského a strojového překladu
We focus on the production of German compounds in English-to-German manual and automatic translation. On the example of WMT21 news translation test set, we observe that even the best MT systems produce much fewer compounds compared to three independent manual translations. Despite this striking difference, we observe that this insufficiency is not apparent in manual evaluation methods that target the overall translation quality (DA and MQM). Simple automatic methods like BLEU somewhat surprisingly provide a better indication of this quality aspect. Our manual analysis of system outputs, including our freshly trained Transformer models, confirms that current deep neural systems operating at the level of subword units are capable of constructing novel words, including novel compounds. This effect however cannot be measured using static dictionaries of compounds such as GermaNet. German compounds thus pose an interesting challenge for future development of MT systems.
Zaměřujeme se na tvorbu německých složenin v ručním a automatickém překladu z angličtiny do němčiny. Na příkladu testovací sady pro překlad zpráv WMT21 pozorujeme, že i nejlepší MT systémy produkují mnohem méně složenin ve srovnání se třemi nezávislými ručními překlady. Navzdory tomuto markantnímu rozdílu pozorujeme, že tato nedostatečnost není patrná u metod manuálního hodnocení, které se zaměřují na celkovou kvalitu překladu (DA a MQM). Jednoduché automatické metody, jako je BLEU, poněkud překvapivě poskytují lepší ukazatel tohoto aspektu kvality. Naše manuální analýza výstupů systému, včetně čerstvě natrénovaného modelu, potvrzuje, že současné hluboké neuronové systémy pracující na úrovni dílčích slovních jednotek jsou schopny konstruovat nová slova, včetně nových složenin. Tento efekt však nelze měřit pomocí statických slovníků složenin, jako je GermaNet. Německé složeniny tak představují zajímavou výzvu pro budoucí vývoj MT systémů.
[ "Kristýna Neumannová", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/b53a4251ec14d97f2a7ea88f528a3c8f01289bf4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Workflow and Metadata Challenges in the ParlaMint Project: Insights from Building the ParlaMint-UA Corpus
Workflow a metadata výzvy v projektu parlamint: nahlédnutí na tvorbu korpusu ParlaMint-UA
The speeches in ParlaMint corpora of parliamentary proceedings are marked by their speaker, and the speakers are then paired with various metadata, also with their time-delimited affiliations with political parties or parliamentary groups. These are stored separately, and are also associated with further information. This paper discusses the addition of metadata on political parties and parliamentary groups, encoding their political position on various issues, in particular their categorisation on the left-to-right political spectrum. The paper explains our sources for this information, the process of data collection, and its encoding in the corpora. This additional metadata should be of interest to parliamentary data research, while the methodology developed could be used to add further metadata to the ParlaMint corpora.
Projevy v korpusu ParlaMint parlamentních jednání jsou označeny jejich mluvčím a mluvčí jsou pak spárováni s různými metadaty, také s jejich časově ohraničenou příslušností k politickým stranám nebo parlamentním skupinám. Ta jsou uložena odděleně a jsou také spojena s dalšími informacemi. Tato práce pojednává o doplnění metadat o politických stranách a parlamentních skupinách, kódování jejich politického postoje k různým otázkám, zejména jejich kategorizaci na levo-pravém politickém spektru. Práce vysvětluje naše zdroje pro tyto informace, proces sběru dat a jejich kódování v korpusu. Tato dodatečná metadata by měla být zajímavá pro parlamentní výzkum dat, zatímco vyvinutá metodika by mohla být použita pro doplnění dalších metadat do korpusu ParlaMint.
[ "Anna Kryvenko", "Matyáš Kopp" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Charles Translator for Ukraine
Překladač Charles Translator for Ukraine
The lecture will present the Czech-Ukrainian translation service Charles Translator for Ukraine developed within two weeks in March 2022.
Přednáška představí česko-ukrajinský překladač Charles Translator for Ukraine vyvinutý během dvou týdnů v březnu 2022.
[ "Martin Popel" ]
https://www.semanticscholar.org/paper/7fc4983eb7366cde9a12767647062891e76203b4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Functional Relevance of Probed Information: A Case Study
Funkční význam probovaných informací
Recent studies have shown that transformer models like BERT rely on number information encoded in their representations of sentences’ subjects and head verbs when performing subject-verb agreement. However, probing experiments suggest that subject number is also encoded in the representations of all words in such sentences. In this paper, we use causal interventions to show that BERT only uses the subject plurality information encoded in its representations of the subject and words that agree with it in number. We also demonstrate that current probing metrics are unable to determine which words’ representations contain functionally relevant information. This both provides a revised view of subject-verb agreement in language models, and suggests potential pitfalls for current probe usage and evaluation.
Nedávné studie ukázaly, že modely transformátorů, jako je BERT, spoléhají na číselné informace zakódované v jejich reprezentacích předmětů vět a hlavových sloves při provádění shody předmět-sloveso. Nicméně, sondovací experimenty naznačují, že číslo předmětu je také zakódováno v reprezentacích všech slov v takových větách. V tomto článku používáme kauzální intervence, abychom ukázali, že BERT používá pouze informace o pluralitě předmětu zakódované ve svých reprezentacích předmětu a slov, která s ním v počtu souhlasí. Ukazujeme také, že současné měřicí metriky nejsou schopny určit, která reprezentace slov obsahuje funkčně relevantní informace. To poskytuje revidovaný pohled na shodu předmětu a slovesa v jazykových modelech a naznačuje potenciální úskalí pro současné použití a hodnocení sond.
[ "Michael Hanna", "Roberto Zamparelli", "David Mareček" ]
https://www.semanticscholar.org/paper/c095cb3c28ba6eb4bd90ed8bee3460bfc2f10a19/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Learning capabilities in Transformer Neural Networks
Schopnosti učení v transformerových neuronových sítích
Although the contemporary neural networks, inspired by biological neurons, were able to reach human-like performance on many tasks in recent years, their optimization (learning) process is still very far from the one observed in humans. This thesis investigates various aspects of learning in the current state-of-the-art Transformer neural networks, the dominant architecture in the current neural language processing. Firstly, we measure the level of generalization in Transformers using several probing experiments based on the idea of adversarial evaluation. Secondly, we explore their potential for incremental learning when combined with regularization using the elastic weight consolidation approach. Lastly, we propose a modular extension of the existing Transformer architecture enabling subnetwork selection conditioned on the intermediate hidden layer outputs and analyze the attributes of this network modularization. We investigate our hypotheses mainly within the scope of neural machine translation and multilingual translation showing the limitations of the original Transformer and the elastic weights consolidation regularization while presenting promising results of the novel modular Transformer architecture.
Přestože současné neuronové sítě, inspirované biologickými neurony, byly v posledních letech schopny dosáhnout lidské úrovně na mnoha úlohách, proces jejich optimalizace (učení) je stále velmi odlišný od procesů pozorovaných u lidí. Tato práce zkoumá různé aspekty učení současných neuronových sítí Transformer, převládající architektury pro zpracování přirozeného jazyka. V první části zkoumáme úroveň generalizace v Transformerech pomocí analytických experimentů založených na myšlence adversariální evaluace. V části druhé pak zkoumáme jejich potenciál pro kontinuální učení s použitím regularizace založené na elastické konsolidaci vah. V závěru práce navrhujeme modulární rozšíření stávající sítě Transformer umožňující výběr podsítí podmíněný zpracovaným vstupem spolu s demonstrací vlastností této síťové modularizace. Naše hypotézy testujeme především v kontextu neuronového strojového překladu a vícejazyčného překladu, přičemž naměřené výsledky odhalují limity původního Transformeru i metody regularizace pomocí elastické konsolidace vah. Navíc prezentujeme slibné výsledky navržené modulární architektury Transformeru.
[ "Dušan Variš" ]
https://www.semanticscholar.org/paper/251a35509f5ad3a03bc1cbf837b4d419cc5f2c66/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Semantic Accuracy in Natural Language Generation
Sémantická přesnost při generování přirozeného jazyka
A presentation for incoming Master's students in the LCT program. In the first part, I introduced selected interesting research projects at the Institute of Formal and Applied Linguistics. In the second part I presented my research in the area of semantic accuracy in natural language generation.
Prezentace pro nastupující studenty magisterského programu LCT. V první části prezentace jsem uvedla vybrané zajímavé výzkumní projekty na ÚFAL MFF. V druhé části jsem představila svůj výzkum v oblasti sémantické přesnosti při generování přirozeného jazyka.
[ "Patrícia Schmidtová" ]
https://www.semanticscholar.org/paper/4a4be7d754e8938b3d05140558d9d3f74f257c95/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Semantic Accuracy in Natural Language Generation: A Thesis Proposal
Sémantická přesnost při generování přirozeného jazyka: teze disertace
With the fast-growing popularity of current large pre-trained language models (LLMs), it is necessary to dedicate efforts to making them more reliable. In this thesis proposal, we aim to improve the reliability of natural language generation systems (NLG) by researching the semantic accuracy of their outputs. We look at this problem from the outside (evaluation) and from the inside (interpretability). We propose a novel method for evaluating semantic accuracy and discuss the importance of working towards a unified and objective benchmark for NLG metrics. We also review interpretability approaches which could help us pinpoint the sources of inaccuracies within the models and explore potential mitigation strategies.
S rychle rostoucí popularitou současných velkých předtrénovaných jazykových modelů (LLM) je nutné věnovat úsilí tomu, aby byly spolehlivější. V tomto návrhu disertační práce si klademe za cíl zlepšit spolehlivost systémů generování přirozeného jazyka (NLG) zkoumáním sémantické přesnosti jejich výstupů. Na tento problém se díváme zvenčí (evaluace) a zevnitř (interpretabilita). Navrhujeme novou metodu pro hodnocení sémantické přesnosti a diskutujeme o důležitosti výzkumu směřujícímu k jednotnému a objektivnímu srovnávání automatických NLG metrik. Také přezkoumáváme přístupy z interpretability, které by nám mohly pomoci určit zdroje nepřesností v rámci modelů a prozkoumat možné strategie pro zmírnění těchto nepřesností.
[ "Patrícia Schmidtová" ]
https://www.semanticscholar.org/paper/4a4be7d754e8938b3d05140558d9d3f74f257c95/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Semantic Textual Similarity: An NLP-focused comprehensive Survey
Semantics is a central concept to natural language understanding. A qualitative measure to perceive language semantics is to measure the similarity between texts. Semantic Textual Similarity finds applications in almost all major areas of Natural Language Processing (NLP) including textual entailment, summarization, machine translation, etc. Despite major progress in the recent years, especially with the intrusion of deep learning in NLP, mea- suring semantic textual similarity, especially for longer texts, is still a chal- lenging and open research problem. The ambiguous nature of language makes semantic similarity more challenging and difficult to model. It is trivial to produce examples of sentence pairs which are superficially similar but bear a very different meaning and vice-versa. To address this problem, several type of methods have been proposed over the years which span from traditional knowledge-based methods to recent ones relying on deep neural networks and large volumes of that data. Here in this work, we present a comprehensive sys- tematic review of the various semantic similarity techniques. We emphasize the various paradigms of semantic similarity measurement and resources available to aid further research on this crucial topic. Our systematic literature review would aid the reader to know about the evolution of semantic similarity techniques, the latest state-of-the-art methods, datasets to work-upon, challenges and hence identify the research gaps.
jen anglický abstrakt k dispozici
[ "Muskaan Singh", "Tirthankar Ghosal", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/b41a93901915035e3eacc1ee4ffddb053c746a42/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
The Unbearable Lightness of Morph Classification
Nesnesitelná lehkost klasifikace morfů
In light of the recent push for the creation and unification of large morphologically annotated resources, there is a call for (preferably language-independent, low-resource) methods of morph classification. This paper reports on a pilot experiment on morph classification of the Czech language. We have performed two experiments - root morph recognition and complete morph classification. By exploiting simple quantitative methods and - in some cases - available Czech morphological resources, we have achieved morph-level precision of respectively 96.7 % and 88.3 %.
V souvislosti s nově vznikajícími morfologicky anotovanými datovými zdroji vzniká poptávka po metodách (ideálně jazykově nezávislých a nenáročných na trénovací data) schopných klasifikovat morfy. V tomto článku shrnujeme experiment s klasifikací českých morfů. Experiment byl realizován ve dvou verzích, rozpoznávání pouze kořenových morfů a kompletní klasifikace. Dosažená úspěšnost na úrovni morfů byla 96,7 %, respektive 88,3 %.
[ "Vojtěch John", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/37883062f4b9cb44085fc7112de3265502f15c10/
null
null
null
null
null
null
null
null
null
null
null
null
en
2023
Identification of root morphs in morphologically segmented data
Rozpoznávání kořenových morfů v morfologicky segmentovaných datech
As a result of the ongoing push for unification, extension and integration of morphological resources, need arises for reliable low-resource morph classification, especially root identification. The paper reports on our experiments with multiple root identification methods with various degrees of supervision, tested on several Indo-European languages, showing, among others, that given morphological segmentation, surprisingly good root identification can be achieved using simple unsupervised statistical methods, the main bottlenecks being compounding and homomorphy resolution.
V rámci standardizace a rozšiřování datových zdrojů pro morfologii vzniká potřeba spolehlivých metod pro klasifikaci morfů, zejména pro rozpoznávání kořenů. Článek shrnuji naše experimenty s různými metodami, s různým stupněm supervize. Vyhodnocení jsme provedli na několika indoevropských jazycích. Mimo jiné se ukázalo, že k překvapivě dobrým výsledkům vedou neřízené statistické metody. Problematickými tématy při rozpoznávání kořenových morfů zůstává skládání slov a homomorfie.
[ "Vojtěch John", "Magda Ševčíková", "Zdeněk Žabokrtský" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Proceedings of the 23rd Annual Meeting of the Special Interest Group on Discourse and Dialogue
Sborník příspěvků z 23. výročního zasedání Zvláštní zájmové skupiny pro diskurz a dialog
The SIGDIAL conference is a premier publication venue for research in discourse and dialogue. This year the conference is organized as a hybrid event with both in-person and remote participation on September 7-9, 2022, at Heriot-Watt University, Edinburgh, Scotland, and is hosted by the Interaction Lab and the National Robotarium.
Konference SIGDIAL je předním publikačním fórem pro výzkum diskurzu a dialogu. Letos je konference pořádána jako hybridní akce s osobní i vzdálenou účastí ve dnech 7.-9. září 2022 na Heriot-Watt University ve skotském Edinburghu a hostí ji Interaction Lab a National Robotarium.
[ "Oliver Lemon", "Dilek Hakkani-Tur", "Junyi Jessy Li", "Arash Ashrafzadeh", "Daniel Hernández Garcia", "Malihe Alikhani", "David Vandyke", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/d083a71f5ae8be7e2a6042903e81604e4958de7d/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Novelty Detection: A Perspective from Natural Language Processing
Detekce novosti: Pohled ze strany zpracování přiřozeného jazyka
The quest for new information is an inborn human trait and has always been quintessential for human survival and progress. Novelty drives curiosity, which in turn drives innovation. In Natural Language Processing (NLP), Novelty Detection refers to finding text that has some new information to offer with respect to whatever is earlier seen or known. With the exponential growth of information all across the Web, there is an accompanying menace of redundancy. A considerable portion of the Web contents are duplicates, and we need efficient mechanisms to retain new information and filter out redundant information. However, detecting redundancy at the semantic level and identifying novel text is not straightforward because the text may have less lexical overlap yet convey the same information. On top of that, non-novel/redundant information in a document may have assimilated from multiple source documents, not just one. The problem surmounts when the subject of the discourse is documents, and numerous prior documents need to be processed to ascertain the novelty/non-novelty of the current one in concern. In this work, we build upon our earlier investigations for document-level novelty detection and present a comprehensive account of our efforts toward the problem. We explore the role of pre-trained Textual Entailment (TE) models to deal with multiple source contexts and present the outcome of our current investigations. We argue that a multipremise entailment task is one close approximation toward identifying semantic-level non-novelty. Our recent approach either performs comparably or achieves significant improvement over the latest reported results on several datasets and across several related tasks (paraphrasing, plagiarism, rewrite). We critically analyze our performance with respect to the existing state of the art and show the superiority and promise of our approach for future investigations. We also present our enhanced dataset TAP-DLND 2.0 and several baselines to the community for further research on document-level novelty detection.
Článek kriticky analyzuje současné metody detekce novosti a propaguje metodu textového vyplývání zahrnující více premis.
[ "Tirthankar Ghosal", "Tanik Saikh", "Tameesh Biswas", "Asif Ekbal", "Pushpak Bhattacharyya" ]
https://www.semanticscholar.org/paper/13e6e04cdafdca76ecf1447734f75bdbe7ea4086/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Semi-supervised learning in Optical Music Recognition
Automatické rozpoznávání notových zápisů s využitím neanotovaných dat
Optical music recognition (OMR) is a niche subfield of computer vision, where some labeled datasets exist, but there is an order of magnitude more unlabeled data available. Recent advances in the field happened largely thanks to the adoption of deep learning. However, such neural networks are trained using labeled data only. Semi-supervised learning is a set of techniques that aim to incorporate unlabeled data during training to produce more capable models. We have modified a state-of-the-art object detection archi- tecture and designed a semi-supervised training scheme to utilize unlabeled data. These modifications have successfully allowed us to train the architecture in an unsupervised setting, and our semi-supervised experiments indicate improvements to training stability and reduced overfitting.
Optické rozpoznávání notových zápisů je úzký podobor počítačového vidění, který sice disponuje určitým množstvím anotovaných datasetů, nicméně má k dispozici řádově větší množství neanotovaných dat. Tento obor se v poslední době vyvíjí zejména díky aplikaci hlubokého učení, ale na trénování neuronových sítí se zatím používají pouze anotovaná data. Semi-supervised learning je podoblast strojového učení, zbývající se sou- časným učením z anotovaných a neanotovaných dat. Cílem je získat lepší modely, než kdybychom trénovali pouze z anotovaných dat. V této práci jsme upravili existující ar- chitekturu, používanou pro detekci hudebních symbolů, a navrhli jsme způsob, jakým ji trénovat v semi-supervised režimu. Upravená architektura je schopná učit se reprezentace i z neanotovaných dat a ve srovnání se svojí původní variantou má stabilnější trénování.
[ "Jiří Mayer" ]
https://www.semanticscholar.org/paper/4dd813f738729aa590e324c9b2176395ffb76d69/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Obstacles with Synthesizing Training Data for OMR
Překážky při syntéze trénovacích dat pro optické rozpoznávání notopisů
Training with synthetic data has been successfully used in many domains of deep learning where authentic training data is scarce. Optical Music Recognition (OMR), especially recognition of handwritten music, greatly benefits from training on synthetic data too. In this paper, we explore the challenges of synthesizing images of sheets of music for training deep learning OMR models and compare such synthesis to the process of digital music engraving. We also contrast that with the architecture of our synthesizer prototype, which was used to achieve state-ofthe-art results by training on the synthetic images only.
Generování syntetických dat je metoda, jak řešit nedostatek trénovacích dat, která se již osvědčila v mnoha doménách hlubokého učení. Pro optické rozpoznávání notopisů, obzvláště ručně psaných, můžeme tuto metodu aplikovat také. V tomto článku prozkoumáváme překážky spojené se syntézou obrázků notopisů pro trénování hlubokých neuronových sítí na jejich rozpoznávání. Proces syntézy také porovnáváme s tradičním sázením notopisů pro účely tisku. Jako ukázkový příklad popisujeme architekturu našeho syntezátoru, se kterým se nám podařilo dosáhnout velmi dobrých výsledků díky trénování pouze na jeho syntetických datech.
[ "Jiří Mayer", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/7a78c7337ae0f754a50318621a49b53792fc8e35/
null
null
null
null
null
null
null
null
null
null
null
null
fr
2022
Conjunctions as Means of Textual Cohesion in Czech of Non-Native Speakers
Spojky jako prostředky textové koheze v češtině nerodilých mluvčích
The article analyzes the way conjunctions are used in texts. More specifically, it explores whether texts of different genres written by non-native speakers of Czech differ in the number and type of conjunctions used as basic means of textual cohesion. The results of the research demonstrate that the frequency of conjunctions is related to the character of the selected stylistic procedures. More complex texts (in terms of text construction and organization), such as argumentation and narration, contain a higher number of conjunctions than descriptive and informative texts.
Článek analyzuje způsob užívání spojek v textech, resp. odpovídá na otázku, zda se texty různých žánrů psané nerodilými mluvčími češtiny liší v počtu a druhu používaných spojek jako základních prostředků textové koheze. Výsledky výzkumu ukázaly, že frekvence výskytu spojek souvisí s charakterem vybraných stylových postupů. Složitější postupy (z hlediska výstavby a organizace textu), jako je úvaha a vyprávění, obsahují vyšší počet spojek než postupy popisný a informační.
[ "Kateřina Rysová", "Magdaléna Rysová", "Eva Hajičová" ]
null
L’utilisation des conjonctions comme outil de cohésion textuelle dans le tchèque de locuteurs non-natifs
Dans cet article, nous nous sommes consacrés à l’étude des modalités d’utilisation des conjonctions dans différents textes. Plus précisément nous nous sommes demandé si des textes relevant de différents genres rédigés en tchèque par des non-natifs diffèrent dans l’utilisation, en nombre et en nature, des conjonctions utilisées comme outils primaires de la cohésion textuelle. Les résultats de notre étude montrent que la fréquence des occurrences des conjonctions dépend du procédé compositionnel appliqué dans le texte. Les procédés plus complexes (du point de vue de leur construction et de l’organisation du texte), comme les procédés argumentatif et narratif, présentent un plus grand nombre de conjonctions que les types descriptif et informatif.
null
null
null
null
null
null
null
null
null
null
en
2022
The Seventh Workshop on Search-Oriented Conversational Artificial Intelligence (SCAI'22)
Sedmý workshop o konverzační umělé inteligenci orientované na vyhledávání (SCAI'22)
The goal of the seventh edition of SCAI (https://scai.info) is to bring together and further grow a community of researchers and practitioners interested in conversational systems for information access. The previous iterations of the workshop already demonstrated the breadth and multidisciplinarity inherent in the design and development of conversational search agents. The proposed shift from traditional web search to search interfaces enabled via human-like dialogue leads to a number of challenges, and although such challenges have received more attention in the recent years, there are many pending research questions that should be addressed by the information retrieval community and can largely benefit from a collaboration with other research fields, such as natural language processing, machine learning, human-computer interaction and dialogue systems. This workshop is intended as a platform enabling a continuous discussion of the major research challenges that surround the design of search-oriented conversational systems. This year, participants have the opportunity to meet in person and have more in-depth interactive discussions with a full-day onsite workshop.
Cílem sedmého ročníku SCAI (https://scai.info) je sdružit a dále rozvíjet komunitu výzkumníků a odborníků z praxe, kteří se zajímají o konverzační systémy pro přístup k informacím. Již předchozí opakování workshopu ukázala šíři a multidisciplinaritu, která je vlastní návrhu a vývoji konverzačních vyhledávacích agentů. Navrhovaný přechod od tradičního vyhledávání na webu k vyhledávacím rozhraním používajícím dialog podobný lidskému vede k řadě výzev, a přestože se těmto výzvám v posledních letech věnuje větší pozornost, existuje mnoho nevyřešených výzkumných otázek, kterými by se měla zabývat komunita zaměřená na vyhledávání informací a které mohou do značné míry těžit ze spolupráce s dalšími výzkumnými obory, jako je zpracování přirozeného jazyka, strojové učení, interakce člověka s počítačem a dialogové systémy. Tento workshop je zamýšlen jako platforma umožňující průběžnou diskusi o hlavních výzkumných výzvách, které provázejí návrh konverzačních systémů orientovaných na vyhledávání. Letos mají účastníci možnost osobního setkání a hlubší interaktivní diskuse díky celodennímu workshopu na místě.
[ "Gustavo Penha", "Svitlana Vakulenko", "Ondřej Dušek", "Leigh Clark", "Vaishali Pal", "Vaibhav Adlakha" ]
https://www.semanticscholar.org/paper/78960216bb42d7c0a450896f62276fc6526a2c26/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Corpora and Technologies in Translation
Korpusy a technologie v překladu
The aim of this talk is to describe the use that M.A. and Ph.D. students at the Institute of Translation Studies, Charles University, Faculty of Arts, make of text corpora, tools and technologies not as translation resources but as objects of their M.A. and Ph.D. theses research. First, the definitions of the terms text corpus, tool and technology used in the study are reviewed. Then M.A. and Ph.D. theses using corpora, tools and technologies are described. The study analyses the extent to which students employ the above-mentioned resources in their theses as research objects, and which topics they cover. Special attention is paid to the use of machine translation and to the theses researched in cooperation with the Institute of Formal and Applied Linguistics, Charles University, Faculty of Mathematics and Physics.
Cílem přednášky je popsat, jak studenti magisterského a doktorského studia na Ústavu translatologie FF UK využívají textové korpusy, nástroje a technologie nikoli jako překladatelské zdroje, ale jako objekty výzkumu svých magisterských a doktorských prací. Nejprve je uveden přehled definic pojmů textový korpus, nástroj a technologie, které jsou ve studii používány. Poté jsou popsány magisterské a doktorské práce využívající korpusy, nástroje a technologie. Studie analyzuje, do jaké míry studenti využívají výše uvedené zdroje ve svých pracích jako objekty výzkumu a jaká témata pokrývají. Zvláštní pozornost je věnována využití strojového překladu a diplomovým pracím řešeným ve spolupráci s Ústavem formální a aplikované lingvistiky Matematicko-fyzikální fakulty Univerzity Karlovy.
[ "Věra Kloudová" ]
https://www.semanticscholar.org/paper/004a9bc9a13af6e278f45944005ba7ddab110af3/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Machine and human translation: options and limitations
Možnosti a meze strojového a lidského překladu
The talk focuses on the differences between human and machine translation in the English - Czech direction, points out the principles of machine translation and the possibilities of its use. Using examples, it presents typical mistakes of human translators and machine translators, and compares the output of several machine translators. It focuses on news texts, but also examples of literary texts.
Příspěvek se zaměřuje na rozdíly mezi lidským a strojovým překladem ve směru angličtina - čeština, poukazuje na principy fungování strojového překladu a možnosti jeho využití. Na ukázkách představuje typické chyby lidských překladatelů a strojových překaldačů, srovnává výstupy z několika strojových překladačů. Zaměřuje se na zpravodajské texty, ale ukázkově i na texty literární.
[ "Věra Kloudová" ]
https://www.semanticscholar.org/paper/0936609f2f099f4273c4cb94a4718cbf5247be63/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
What could (or maybe should) MT researchers know about translation (theory)?
Co by badatelé z oblasti MT mohli (nebo možná měli) vědět o (teorii) překladu?
Translation Studies (TS) and MT research have many common goals, the most important among them being the study of translation between two or more languages: be it human or machine translation. However, exchange between the two disciplines has been rather rare so far. In TS, we have been making use of technologies, the integration of advanced quantitative research methodologies, and MT outputs in recent years, e.g., for post-editing research. Similarly, MT could benefit from what has been explored and what has played an important role in TS in the past decades. The talk will focus on several key phenomena and basic approaches and theories that TS works with: 1. a concept of functional translation theory, e.g., how different types of texts differ and how their translation for different purposes varies, 2. typical features of translational language as a linguistic variant (what is „translationese“?), 3. potential sources of translation difficulties: what should (not only) MT researchers be aware of, and 4. translation quality, evaluation, and criticism in TS.
Translatologie (TS) a výzkum MT mají mnoho společných cílů, z nichž nejdůležitější je studium překladu mezi dvěma nebo více jazyky: ať už jde o lidský nebo strojový překlad. Interakce mezi oběma disciplínami však byla dosud spíše vzácná. V TS v posledních letech využíváme technologie, integraci pokročilých kvantitativních výzkumných metodik a výstupy MT, např. pro výzkum posteditace. Stejně tak by MT mohl těžit z toho, co bylo prozkoumáno a co hrálo důležitou roli v TS v minulých desetiletích. Přednáška se zaměří na několik klíčových jevů a základních přístupů a teorií, s nimiž TS pracuje: 1. pojetí teorie funkčního překladu, např. jak se liší různé typy textů a jak se liší jejich překlad pro různé účely, 2. typické rysy překladatelštiny, 3. potenciální zdroje překladatelských obtíží: čeho by si měli být (nejen) výzkumníci MT vědomi, a 4. kvalita překladu, hodnocení a kritika v TS.
[ "Věra Kloudová" ]
https://www.semanticscholar.org/paper/f32c858ca5036587a919be473ee2018a2d41476b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
A Comparison of Professional and Student Performance in Simultaneous Interpreting as a Basis for Further Research in Automatic Simultaneous Speech Translation
Srovnání profesionálních a studentských výkonů v simultánním tlumočení jako základ pro další výzkum v oblasti automatického simultánního překladu mluvené řeči
Automatic simultaneous speech translation is a process of translating speech to text by a system in real-time. We believe that the quality of such systems can be further increased by incorporating linguistic features and strategies observed in human interpreting. Therefore, we propose an analysis of various types of translation departures in human simultaneous interpretation (SI), investigating and comparing them between professional and student interpreters. We present a pilot study focusing on the analysis of two audit speeches. Both speeches were remotely interpreted by an M. A. student of interpreting (with at least two semesters of SI) from the Institute of Translation Studies, Faculty of Arts, Charles University, and a professional interpreter (with at least 10 years of experience). The remote SI was performed in the direction English-to-Czech (from B language to A language). All interpreters were given the topic of both speeches and keywords in advance. Our research concerns the quality of interpreting in the sense of transferring the content of the original speech. We employ the taxonomy of translation departures designed by Barik (1971) describing omissions, additions, substitutions and semantic errors, albeit with some adaptations and extensions, especially concerning grammar errors and formal defects (Kopczyński 1980). We plan to have these and other types of speeches interpreted by more students and professionals so that we can conduct a larger study and make our results more comparable. Our intention for future research is to explore the differences in types of translation departures in human SI and automatic simultaneous speech translation.
Automatický simultánní překlad mluvené řeči je proces překladu mluvené řeči do textu pomocí překladače v reálném čase. Domníváme se, že kvalitu těchto systémů lze dále zvýšit začleněním jazykových vlastností a strategií pozorovaných při lidském tlumočení. Proto navrhujeme analýzu různých typů posunů při překladu v lidském simultánním tlumočení (SI) a zkoumáme a porovnáváme je mezi profesionálními tlumočníky a studenty. Předkládáme pilotní studii zaměřenou na analýzu dvou projevů z oblasti auditu. Oba projevy byly tlumočeny na dálku studentem magisterského oboru tlumočnictví (s minimálně dvěma semestry simultánního tlumočení) z Ústavu translatologie Filozofické fakulty Univerzity Karlovy a profesionálním tlumočníkem (s minimálně desetiletou praxí). Simultánní tlumočení na dálku probíhalo ve směru angličtina-čeština (z jazyka B do jazyka A). Všichni tlumočníci dostali předem témata obou projevů a klíčová slova. Náš výzkum se týká kvality tlumočení ve smyslu přenosu obsahu původního projevu. Používáme typologii posunů v překladu navrženou Barikem (1971) popisující vynechávky, doplnění, záměny a sémantické chyby, i když s některými úpravami a rozšířeními, zejména pokud jde o gramatické chyby a formální nedostatky (Kopczyński 1980). Plánujeme, že tyto a další typy projevů necháme tlumočit více studenty a odborníky, abychom mohli provést rozsáhlejší studii a naše výsledky byly srovnatelnější. Naším záměrem do budoucna je prozkoumat rozdíly v typech posunů v překladu při lidském simultánním tlumočení a automatickém simultánním překladu řeči.
[ "Věra Kloudová", "Petra Vavroušová Mračková", "Dávid Javorský", "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Prosodic Phrasing of Good Speakers in English and Czech
Prozodické členění u dobrých mluvčích v angličtině a češtině
Prosodic patterning is known to affect the impression that speakers make on their listeners. This study explores prosodic phrasing in good public speakers of American English and Czech. Czech is a West Slavic language whose intonation is reported to be flatter and prosodic phrases longer than in English. We analyzed prosodic characteristics of 10 speakers of Czech and American English who appeared in TED Talks, assuming such appearance to be a mark of a “good speaker.” Our objective was to see whether prosodic phrasing will be more similar in these public speeches between the two languages. We measured the length of prosodic phrases, speech rate in each phrase, and pitch range and melodic variability in the entire phrase, as well as in its pre-nuclear and nuclear portion. The number of syllables per phrase was higher in Czech than in English, although phrases were generally very short in both languages. The melodic indicators confirm smaller melodic variability in Czech even in publicly performed TED Talks. Overall, our results show that there are differences between Czech and English prosodic phrasing in good public speakers but that the genre also affects phrasing. Prosodic rendition—especially prosodic phrase length and melodic variability—is therefore a vital, albeit somewhat language-specific aspect of speech performance which public speakers should pay close attention to, both in their native language and in foreign languages.
Je známo, že vrozce prozodického členění ovlivňují dojem, kterým mluvčí působí na posluchače. Tato studie zkoumá prozodické frázování u dobrých veřejných řečníků americké angličtiny a češtiny. Čeština je západoslovanský jazyk, jehož intonace je údajně plošší a prozodické fráze delší než v angličtině. Analyzovali jsme prozodické charakteristiky deseti mluvčích češtiny a americké angličtiny, kteří vystoupili na konferenci TED Talks, přičemž jsme předpokládali, že takové vystoupení je znakem "dobrého řečníka". Naším cílem bylo zjistit, zda si prozodické frázování bude v těchto veřejných projevech mezi oběma jazyky podobnější. Měřili jsme délku prozodických frází, tempo řeči v jednotlivých frázích a tónový rozsah a melodickou variabilitu v celé frázi i v její předjaderné a jaderné části. Počet slabik v jedné frázi byl v češtině vyšší než v angličtině, ačkoli fráze byly v obou jazycích obecně velmi krátké. Melodické ukazatele potvrzují menší melodickou variabilitu v češtině i ve veřejných projevech. Celkově naše výsledky ukazují, že mezi českým a anglickým prozodickým frázováním u dobrých řečníků existují rozdíly, ale že frázování ovlivňuje i žánr. Prozodické ztvárnění - zejména délka prozodických frází a melodická variabilita - je tedy důležitým, i když do jisté míry jazykově specifickým aspektem řečového výkonu, kterému by veřejní mluvčí měli věnovat velkou pozornost, a to jak ve svém rodném jazyce, tak v jazycích cizích.
[ "Radek Skarnitzl", "Hana Hledíková" ]
https://www.semanticscholar.org/paper/73520d5fae9f870463ecc326bab317bd2e09289f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
The SIGMORPHON 2022 Shared Task on Morpheme Segmentation
Morfematická segmentace jako soutěžní úloha při SIGMORPHON 2022
The SIGMORPHON 2022 shared task on morpheme segmentation challenged systems to decompose a word into a sequence of morphemes and covered most types of morphology: compounds, derivations, and inflections. Subtask 1, word-level morpheme segmentation, covered 5 million words in 9 languages (Czech, English, Spanish, Hungarian, French, Italian, Russian, Latin, Mongolian) and received 13 system submissions from 7 teams and the best system averaged 97.29% F1 score across all languages, ranging English (93.84%) to Latin (99.38%). Subtask 2, sentence-level morpheme segmentation, covered 18,735 sentences in 3 languages (Czech, English, Mongolian), received 10 system submissions from 3 teams, and the best systems outperformed all three state-of-the-art subword tokenization methods (BPE, ULM, Morfessor2) by 30.71% absolute. To facilitate error analysis and support any type of future studies, we released all system predictions, the evaluation script, and all gold standard datasets.
Cílem systémů účastnících se v morfosegmentační úloze při workshopu SIGMORPHON 2022 bylo rozdělit slovo na sekvenci morfémů a pokrýt přitom většinu morfologických procesů (inflexi, derivaci a skládání). Podúloha 1 byla zaměřená na rozdělování 5 miliónů slov v 9 jazycích (čeština, angličtina, španělština, maďarština, francouzština, italština, ruština, latina, mongolština). Zúčastnilo se 13 systémů od 7 týmů, přičemž nejlepší systém dosáhl průměrné úspěšnosti 97.29% F1, s rozsahem hodnot od 93.84% pro angličtinu po 99.38% pro latinu. Druhý podúkol byl zaměřený na segmentaci slov ve větném kontextu, celkam 18.735 vět pro tři jazyky (čeština, angličtina, mongolština). Zúčastnilo se 10 systémů od 3 týmů. Nejlepší systémy překročily dosavadní nejlepší metody od 30.71 % absolutně. Pro zjednodušení chybové analýzy a přípravu budoucích studií jsme všechny predikce zveřejnili.
[ "Khuyagbaatar Batsuren", "Gábor Bella", "Aryaman Arora", "Viktor Martinovic", "Kyle Gorman", "Zdeněk Žabokrtský", "Amarsanaa Ganbold", "Šárka Dohnalová", "Magda Ševčíková", "Kateřina Pelegrinová", "Fausto Giunchiglia", "Ryan Cotterell", "Ekaterina Vylomova" ]
https://www.semanticscholar.org/paper/9ccad0208b50042d8378b77700146a98bd22ea3f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Multi-Source Speech Translation
Vícezdrojový překlad řeči
Prezentation about ÚFAL projects and PhD project.
Prezentace o projektech na ÚFALu a PhD projektu Multi-Source Speech Translation pro mgr. studenty na LCT Summer School 30.8.2022, délka 15 minut.
[ "Dominik Macháček" ]
https://www.semanticscholar.org/paper/99da6b1175e0fee8c92a4ea4eaf4a2f4e4ccf3f0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Simultaneous Multi-Source Speech Translation
Simultánní vícezdrojový překlad řeči
One-hour presentation about simultaneous multi-source speech translation, Continuos Rating as human evaluation of SimST and correlation with MT metrics.
Hodinová prezentace o vícezdrojovém simultánním překladu řeči, evaluaci Continuous Rating a korelaci s MT metrikami.
[ "Dominik Macháček" ]
https://www.semanticscholar.org/paper/302b03cc77ed518405161a22beac71d1ac9bb232/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Annotation of Dramatic Situations in Theater Play Scripts
Anotace dramatických situací v divadelních scénářích
We defined 58 dramatic situations and annotated them in 19 play scripts. Then we selected only 5 well-recognized dramatic situations and annotated further 33 play scripts. In this version of the data, we release only play scripts that can be freely distributed, which is 9 play scripts. One play is annotated independently by three annotators.
Definovali jsme 58 dramatických situací a anotovali je v 19 divadelních scénářích. Poté jsme vybrali pouze 5 dobře známých dramatických situací a okomentovali dalších 33 herních scénářů. V této verzi dat vydáváme pouze herní skripty, které lze volně šířit, což je 9 herních skriptů. Jedna hra je anotována nezávisle třemi anotátory.
[ "David Mareček", "Marie Nováková", "Klára Vosecká", "Josef Doležal", "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Permeation
Prostoupení
We present the script of the theatre play Permeation (Prostoupení), which was written by artificial intelligence within the THEaiTRE project.
Představujeme scénář divadelní hry Permeation (Prostoupení), kterou napsala umělá inteligence v rámci projektu THEaiTRE.
[ "2.0 THEaiTRobot", "Josef Doležal", "Klára Vosecká", "Tomáš Musil", "David Mareček", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/47368bf9ecbe783da94c86e19a935d3aa8766f54/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Can a robot wite a theatre play?
Může robot napsat divadelní hru?
Can artificial intelligence replace writers, playwrights, screenwriters? How did the world's first play written by artificial intelligence come to be? How did the play presented in Prague's Švanda Theatre receive audiences and critics? What are the limits of artificial intelligence in creating works of art? And is it art? We will talk about this in Zátiší on Radio 1 with Tomáš Studeník, the initiator and manager of the project “TheAItre, can a robot write a play?”, and Rudolf Rosa, an expert on artificial intelligence.
Dokáže umělá inteligence nahradit spisovatele, autory divadelních her, scénáristy? Jak vznikala první divadelní hra na světě napsaná umělou inteligencí? Jak hru uvedenou v pražském Švandově divadle přijali diváci a kritici? Jaké jsou limity umělé inteligence při tvorbě uměleckých děl? A jedná se vůbec o umění? O tom si v Zátiší na Radiu 1 budeme povídat s Tomášem Studeníkem, iniciátorem a manažerem projektu “TheAItre, může robot napsat divadelní hru?”, a Rudolfem Rosou, expertem na umělou inteligenci.
[ "Aleš Vojíř", "Tomáš Studeník", "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
End-to-end neural dialogue systems
End-to-end dialogové systémy - kde leží budoucnost konverzačního AI?
A brief introduction to neural language models for task-oriented dialogue (with a focus on our recent experiments).
Stručný úvod do neuronových jazykových modelů pro dialog zaměřený na úkoly (se zaměřením na naše nedávné experimenty).
[ "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/d0839b9e64d95e72cedb245b58053db791d9ba98/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Large Neural Language Models for Data-to-text Generation
Velké neuronové jazykové modely pro generování textu z dat
Current research state-of-the-art in automatic data-to-text generation, a major task in natural language generation, is dominated by large language models based on the Transformer neural network architecture. These models are capable of producing lifelike, natural texts; however, they are hard to control and often do not adhere to the input data, omitting important content or producing "hallucinated" text which is not grounded in the input data. In this talk, I will first show the basic operation principles of the large language models. I will then detail our experiments aiming at higher accuracy of generated text in two ways: (1) improving accuracy of the generating language models themselves, (2) automatically detecting errors in generated texts.
Současnému stavu výzkumu v oblasti automatického generování dat na text, což je hlavní úloha při generování přirozeného jazyka, dominují velké jazykové modely založené na architektuře neuronových sítí Transformer. Tyto modely jsou schopny vytvářet realistické, přirozené texty; jsou však obtížně kontrolovatelné a často se nedrží vstupních dat, vynechávají důležitý obsah nebo vytvářejí "halucinovaný" text, který nemá oporu ve vstupních datech. V této přednášce nejprve ukážu základní principy fungování velkých jazykových modelů. Poté podrobně popíši naše experimenty zaměřené na vyšší přesnost generovaného textu, a to dvěma způsoby: (1) zlepšením přesnosti samotných generujících jazykových modelů, (2) automatickou detekcí chyb v generovaných textech.
[ "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/cfb35212e3afc6951ea6db943b3fc23f578a4f77/
null
null
null
null
null
null
null
null
null
null
null
null