File size: 5,273 Bytes
ab32d58
9858815
 
ab32d58
9858815
 
 
 
 
6cdd0f7
 
 
 
 
 
9858815
 
6cdd0f7
9858815
 
 
 
 
 
 
 
 
 
 
ab32d58
bb75cac
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ac6d670
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
706912d
 
 
771d84a
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
---
language:
- brx
license: mit
size_categories:
- 100K<n<1M
task_categories:
- text-generation
pretty_name: bodo-monolingual
dataset_info:
  features:
  - name: text
    dtype: string
  splits:
  - name: train
    num_bytes: 130783128
    num_examples: 474703
  - name: test
    num_bytes: 4109084
    num_examples: 14890
  download_size: 51159931
  dataset_size: 134892212
configs:
- config_name: default
  data_files:
  - split: train
    path: data/train-*
  - split: test
    path: data/test-*
---



```
# First Install datasets library

pip install datasets


from datasets import load_dataset

train = load_dataset("alayaran/bodo-monolingual-dataset", "unshuffled_deduplicated_no", split="train")
test = load_dataset("alayaran/bodo-monolingual-dataset", "unshuffled_deduplicated_no", split="test")

# print the first five entries from the dataset array of trai and test set
print(train['text'][:5])
["मदि सरकारा जारिमिनारि हाबाफारि मावफूंदों ,  1  कौटि नख'राव दैनि कानेक्सन होबाय",
"दिल्ली / जयपुर ,  14  आगस्ट : गाहाय मन्थ्रि नरेन्द्र मदिनि नख'रफ्रोमबो दैनि सिमांखौ जाफुहोनो थाखाय मिरुआरि दै बिफाना बोसोरसेनि खम समावनो
1  कौटि नख'रफोराव लोंग्रा दैनि कानेक्सन होनानै जारिमिनारि खामानि मावबाय ।", "करना बेरामनि गेजेरजोंबो दै बिफाना हादतनि  1  कौटि नख'रफोरखौ नलि कानेक्सनजों सरजाबनाय ।",
'अदेबानि मिरुआरि दै मन्थ्रि गजेन्द्र सिं शेखावतआ खौरां होनाय बायदिब्ला खम समनि गेजेराव एसेबां गिदिर जाफुसारनाया गासै राइज्योफोर आरो मिरुजों खुंजानाय राइज्योफोरनि गेजेरजों नाजानायखौ फोरमायो ।',
"बेनि गेजेरजों थांनाय बृहस्पतिबारखालि शेखावतआ बु़ङोदि , आनलक -  1  जागायजेन्नायनिफ्राय बिसोर सानफ्रोमबो  1  लाखनिक्रुइ बांसिन नख'रफोरनो नलि कानेक्शन होगासिनो दङ ।"]

print(test['text'][:5])
['श्बयम बिथांखिनि सिङाव राइज्योनि सा  2  लाख लाइमोनफोरनो राइज्यो सरकारआ  50  रोजा रां होगोनः हिमन्त',
"गुवाहाटी ,  5  सेप्तेम्बर :  2017  -  2018  माइथायनि बाजेटआव फोसावनाय जादोंमोन स्वामी बिबेकानन्द आसाम इयुथ इम्पावारमेन्ट यजना सुंद'यै श्बयमखौ ।",
'बे बिथांखिखौ फिन फोथांफिन्नो सरकारआ बे समाव गोनांथार राहा लादों ।', 'जायनि थाखाय बे बिथांखिनि मुडाव आसाम सरकारआ गासै  1000  कौटि रां बाहायगोन ।',
'बे बिथांखिनि सिङाव राइज्योनि सा  2  लाख सेंग्रा - सिख्ला लाइमोनफोरनो नोगोद  50  रोजा रां होनायनि हाबाफारि लादों ।']
```

# Use with training scripts
In order to use this dataset along with other models you can use as the following

```
# cd transformers/examples/pytorch/language-modelling
python run_mlm.py \
    --output_dir="./bodo-roberta-base" \
    --model_type="roberta" \
    --do_train \
    --do_eval \
    --config_name="alayaran/bodo-roberta-base" \
    --tokenizer_name="alayaran/bodo-roberta-base" \
    --dataset_name="alayaran/bodo-monolingual-dataset" \ # <--- This is the dataset
    --max_seq_length="128" \
    --weight_decay="0.01" \
    --per_device_train_batch_size="128" \
    --per_device_eval_batch_size="128" \
    --learning_rate="3e-4" \
    --warmup_steps="1000" \
    --overwrite_output_dir \
    --num_train_epochs="18" \
    --adam_beta1="0.9" \
    --adam_beta2="0.98" \
    --logging_steps="500" \
    --save_steps="2500" \
    --eval_steps="2500" \
    --push_to_hub

```

# Ownership
I do not claim any ownership of the data shared here. The data is mostly from TDIL, and some texts are crawled using Bodo News Crawlers. All copyrights belong to the respective owners. This data is shared for research purposes only.