m3hrdadfi commited on
Commit
9d99e6c
1 Parent(s): 2364031

Hello xlmr-qa

Browse files
README.md ADDED
@@ -0,0 +1,145 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - fa
4
+ - multilingual
5
+ tags:
6
+ - question-answering
7
+ - xlm-roberta
8
+ - roberta
9
+ - squad
10
+ datasets:
11
+ - SajjadAyoubi/persian_qa
12
+ metrics:
13
+ - squad_v2
14
+ widgets:
15
+ - text: "نام دیگر شب یلدا؟"
16
+ context: "شب یَلدا یا شب چلّه یکی از کهن‌ترین جشن‌های ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیم‌کرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته می‌شود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانی‌است."
17
+ - text: "کهن تریج جشن ایرانی‌ها چه است؟"
18
+ context: "شب یَلدا یا شب چلّه یکی از کهن‌ترین جشن‌های ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیم‌کرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته می‌شود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانی‌است."
19
+ - text: "شب یلدا مصادف با چه پدیده‌ای است؟"
20
+ context: "شب یَلدا یا شب چلّه یکی از کهن‌ترین جشن‌های ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیم‌کرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته می‌شود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانی‌است."
21
+ model-index:
22
+ - name: XLM-RoBERTa large for QA (PersianQA - 🇮🇷)
23
+ results:
24
+ - task:
25
+ type: question-answering
26
+ name: Question Answering
27
+ dataset:
28
+ type: SajjadAyoubi/persian_qa
29
+ name: PersianQA
30
+ args: fa
31
+ metrics:
32
+ - type: squad_v2
33
+ value: 83.46
34
+ name: Eval F1
35
+ args: max_order
36
+ - type: squad_v2
37
+ value: 66.88
38
+ name: Eval Exact
39
+ args: max_order
40
+ ---
41
+
42
+ # XLM-RoBERTa large for QA (PersianQA - 🇮🇷)
43
+
44
+ This model is a fine-tuned version of [xlm-roberta-large](https://huggingface.co/xlm-roberta-large) on the [PersianQA](https://github.com/sajjjadayobi/PersianQA) dataset.
45
+
46
+
47
+
48
+ ## Hyperparameters
49
+
50
+ The following hyperparameters were used during training:
51
+ - learning_rate: 2e-05
52
+ - train_batch_size: 8
53
+ - eval_batch_size: 8
54
+ - seed: 42
55
+ - gradient_accumulation_steps: 4
56
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
57
+ - lr_scheduler_type: linear
58
+ - lr_scheduler_warmup_ratio: 0.1
59
+ - num_epochs: 20.0
60
+ - mixed_precision_training: Native AMP
61
+
62
+ ## Performance
63
+
64
+ Evaluation results on the eval set with the official [eval script](https://worksheets.codalab.org/rest/bundles/0x6b567e1cf2e041ec80d7098f031c5c9e/contents/blob/).
65
+
66
+ ### Evalset
67
+
68
+ ```text
69
+ "HasAns_exact": 58.678955453149,
70
+ "HasAns_f1": 82.3746683591845,
71
+ "HasAns_total": 651,
72
+ "NoAns_exact": 86.02150537634408,
73
+ "NoAns_f1": 86.02150537634408,
74
+ "NoAns_total": 279,
75
+ "exact": 66.88172043010752,
76
+ "f1": 83.46871946433232,
77
+ "total": 930
78
+ ```
79
+
80
+
81
+ ## Usage
82
+
83
+ ```python
84
+ from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
85
+
86
+ model_name_or_path = "m3hrdadfi/xlmr-large-qa-fa"
87
+ nlp = pipeline('question-answering', model=model_name_or_path, tokenizer=model_name_or_path)
88
+
89
+ context = """
90
+ شب یَلدا یا شب چلّه یکی از کهن‌ترین جشن‌های ایرانی است.
91
+ در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها
92
+ در نیم‌کرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته می‌شود.
93
+ نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانی‌است.
94
+ """
95
+ # Translation [EN]
96
+ # context = [
97
+ # Yalda night or Cheleh night is one of the oldest Iranian celebrations.
98
+ # The festival celebrates the longest night of the year, followed by longer days in the Northern Hemisphere,
99
+ # which coincides with the Winter Revolution.
100
+ # Another name for this night is "Chelleh", because holding this celebration is an Iranian ritual.
101
+ # ]
102
+
103
+
104
+ questions = [
105
+ "نام دیگر شب یلدا؟",
106
+ "کهن تریج جشن ایرانی‌ها چه است؟",
107
+ "شب یلدا مصادف با چه پدیده‌ای است؟"
108
+ ]
109
+ # Translation [EN]
110
+ # questions = [
111
+ # Another name for Yalda night?
112
+ # What is the ancient tradition of Iranian celebration?
113
+ # What phenomenon does Yalda night coincide with?
114
+ # ]
115
+
116
+
117
+ kwargs = {}
118
+
119
+ for question in questions:
120
+ r = nlp(question=question, context=context, **kwargs)
121
+ answer = " ".join([token.strip() for token in r["answer"].strip().split() if token.strip()])
122
+ print(f"{question} {answer}")
123
+ ```
124
+
125
+ **Output**
126
+
127
+ ```text
128
+ نام دیگر شب یلدا؟ «چِلّه»
129
+ کهن تریج جشن ایرانی‌ها چه است؟ شب یَلدا یا شب چلّه
130
+ شب یلدا مصادف با چه پدیده‌ای است؟ انقلاب زمستانی
131
+
132
+ # Translation [EN]
133
+ # Another name for Yalda night? Cheleh night
134
+ # What is the ancient tradition of Iranian celebration? Yalda night or Chele night
135
+ # What phenomenon does Yalda night coincide with? Winter revolution
136
+ ```
137
+
138
+ ## Authors
139
+ - [Mehrdad Farahani](https://github.com/m3hrdadfi)
140
+
141
+ ## Framework versions
142
+ - Transformers 4.12.0.dev0
143
+ - Pytorch 1.9.1+cu111
144
+ - Datasets 1.12.1
145
+ - Tokenizers 0.10.3
config.json ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaForQuestionAnswering"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "gradient_checkpointing": false,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "language": "english",
16
+ "layer_norm_eps": 1e-05,
17
+ "max_position_embeddings": 514,
18
+ "model_type": "xlm-roberta",
19
+ "name": "XLMRoberta",
20
+ "num_attention_heads": 16,
21
+ "num_hidden_layers": 24,
22
+ "output_past": true,
23
+ "pad_token_id": 1,
24
+ "position_embedding_type": "absolute",
25
+ "torch_dtype": "float32",
26
+ "transformers_version": "4.12.0.dev0",
27
+ "type_vocab_size": 1,
28
+ "use_cache": true,
29
+ "vocab_size": 250002
30
+ }
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8fd9336bc9ceec6d02aa59bba1409b5e6ece5b65c1f8dae04b0f6a68ecb67188
3
+ size 2235534897
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"bos_token": "<s>", "eos_token": "</s>", "unk_token": "<unk>", "sep_token": "</s>", "pad_token": "<pad>", "cls_token": "<s>", "mask_token": "<mask>"}
tf_model.h5 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:652c622186154fd1acce515688c6f48bcc3837cd5bd8197b20ddf0e34a624bd5
3
+ size 2235922536
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"bos_token": "<s>", "eos_token": "</s>", "sep_token": "</s>", "cls_token": "<s>", "unk_token": "<unk>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "do_lower_case": false, "model_max_length": 512, "special_tokens_map_file": "germanQA/saved_models/xlm-roberta-large-squad2/special_tokens_map.json", "full_tokenizer_file": null, "name_or_path": "deepset/xlm-roberta-large-squad2", "sp_model_kwargs": {}, "tokenizer_class": "XLMRobertaTokenizer"}