annotations_creators:
- crowdsourced
language_creators:
- crowdsourced
language:
- ru
license:
- apache-2.0
multilinguality:
- monolingual
size_categories:
- 1K<n<10k
task_categories:
- text-generation
task_ids:
- automatic-spelling-correction
pretty_name: Russian Spellcheck Benchmark
language_bcp47:
- ru-RU
tags:
- spellcheck
- russian
Dataset Card for [Russian Spellcheck Benchmark]
Table of Contents
- Table of Contents
- Dataset Description
- Dataset Structure
- Dataset Creation
- Considerations for Using the Data
- Additional Information
Dataset Description
- Repository: # TODO: insert link to SpellKit may be?
- Paper: # TODO: insert paper to Dialog / EMNLP paper
- Point of Contact: nikita.martynov.98@list.ru
Dataset Summary
Spellcheck Benchmark includes four datasets, each of which consists of pairs of sentences in Russian language. Each pair embodies sentence, which may contain spelling errors, and its corresponding correction. Datasets were gathered from various sources and domains including social networks, internet blogs, github commits, medical anamnesis, literature, news, reviews and more.
All datasets were passed through two-stage manual labeling pipeline. The correction of a sentence is defined by an agreement of at least two human annotators. Manual labeling scheme accounts for jargonisms, collocations and common language, hence in some cases it encourages annotators not to amend a word in favor of preserving style of a text.
Supported Tasks and Leaderboards
- Task: automatic spelling correction.
- Metrics: https://www.dialog-21.ru/media/3427/sorokinaaetal.pdf.
Languages
Russian.
Dataset Structure
Data Instances
RUSpellRU
- Size of downloaded dataset files: # TODO
- Size of the generated dataset: # TODO
- Total amount of disk used: # TODO
An example of "train" / "test" looks as follows
{
"source": "очень классная тетка ктобы что не говорил.",
"correction": "очень классная тетка кто бы что ни говорил",
}
MultidomainGold
- Size of downloaded dataset files: # TODO
- Size of the generated dataset: # TODO
- Total amount of disk used: # TODO
An example of "test" looks as follows
{
"source": "Ну что могу сказать... Я заказала 2 вязанных платья: за 1000 руб (у др продавца) и это ща 1200. Это платье- голимая синтетика (в том платье в составе была шерсть). Это платье как очень плохая резинка. На свои параметры (83-60-85) я заказала С . Пока одевала/снимала - оно в горловине растянулось. Помимо этого в этом платье я выгляжу ну очень тоской. У меня вес 43 кг на 165 см роста. Кстати, продавец отправлял платье очень долго. Я пыталась отказаться от заказа, но он постоянно отклонял мой запрос. В общем не советую.",
"correction": "Ну что могу сказать... Я заказала 2 вязаных платья: за 1000 руб (у др продавца) и это ща 1200. Это платье- голимая синтетика (в том платье в составе была шерсть). Это платье как очень плохая резинка. На свои параметры (83-60-85) я заказала С . Пока надевала/снимала - оно в горловине растянулось. Помимо этого в этом платье я выгляжу ну очень доской. У меня вес 43 кг на 165 см роста. Кстати, продавец отправлял платье очень долго. Я пыталась отказаться от заказа, но он постоянно отклонял мой запрос. В общем не советую.",
"domain": "reviews",
}
MedSpellcheck
- Size of downloaded dataset files: # TODO
- Size of the generated dataset: # TODO
- Total amount of disk used: # TODO
An example of "test" looks as follows
{
# TO DO
}
GitHubTypoCorpusRu
- Size of downloaded dataset files: # TODO
- Size of the generated dataset: # TODO
- Total amount of disk used: # TODO
An example of "test" looks as follows
{
"source": "## Запросы и ответа содержат заголовки",
"correction": "## Запросы и ответы содержат заголовки",
}
Data Fields
RUSpellRU
source
: astring
featurecorrection
: astring
feature
MultidomainGold
source
: astring
featurecorrection
: astring
featuredomain
: astring
feature
MedSpellcheck
source
: astring
featurecorrection
: astring
feature
GitHubTypoCorpusRu
source
: astring
featurecorrection
: astring
feature
Data Splits
RUSpellRU
train | test | |
---|---|---|
RUSpellRU | 2000 | 2008 |
MultidomainGold
train | test | |
---|---|---|
web | 386 | 756 |
news | 361 | 245 |
social_media | 430 | 200 |
reviews | 584 | 586 |
subtitles | 1810 | 1810 |
strategic_documents | - | 250 |
literature | - | 260 |
MedSpellcheck
| |test| |---|---:|---:| |MedSpellcheck|2000|
GitHubTypoCorpusRu
| |test| |---|---:|---:| |GitHubTypoCorpusRu|1136|
Dataset Creation
Curation Rationale
[More Information Needed]
Source Data
Initial Data Collection and Normalization
[More Information Needed]
Who are the source language producers?
[More Information Needed]
Annotations
Annotation process
[More Information Needed]
Who are the annotators?
[More Information Needed]
Personal and Sensitive Information
[More Information Needed]
Considerations for Using the Data
Social Impact of Dataset
[More Information Needed]
Discussion of Biases
[More Information Needed]
Other Known Limitations
[More Information Needed]
Additional Information
Dataset Curators
[More Information Needed]
Licensing Information
[More Information Needed]
Citation Information
[More Information Needed]