Hello xlmr-qa
Browse files- README.md +145 -0
- config.json +30 -0
- pytorch_model.bin +3 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +1 -0
- tf_model.h5 +3 -0
- tokenizer.json +0 -0
- tokenizer_config.json +1 -0
README.md
ADDED
@@ -0,0 +1,145 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language:
|
3 |
+
- fa
|
4 |
+
- multilingual
|
5 |
+
tags:
|
6 |
+
- question-answering
|
7 |
+
- xlm-roberta
|
8 |
+
- roberta
|
9 |
+
- squad
|
10 |
+
datasets:
|
11 |
+
- SajjadAyoubi/persian_qa
|
12 |
+
metrics:
|
13 |
+
- squad_v2
|
14 |
+
widgets:
|
15 |
+
- text: "نام دیگر شب یلدا؟"
|
16 |
+
context: "شب یَلدا یا شب چلّه یکی از کهنترین جشنهای ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیمکرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته میشود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانیاست."
|
17 |
+
- text: "کهن تریج جشن ایرانیها چه است؟"
|
18 |
+
context: "شب یَلدا یا شب چلّه یکی از کهنترین جشنهای ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیمکرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته میشود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانیاست."
|
19 |
+
- text: "شب یلدا مصادف با چه پدیدهای است؟"
|
20 |
+
context: "شب یَلدا یا شب چلّه یکی از کهنترین جشنهای ایرانی است. در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها در نیمکرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته میشود. نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانیاست."
|
21 |
+
model-index:
|
22 |
+
- name: XLM-RoBERTa large for QA (PersianQA - 🇮🇷)
|
23 |
+
results:
|
24 |
+
- task:
|
25 |
+
type: question-answering
|
26 |
+
name: Question Answering
|
27 |
+
dataset:
|
28 |
+
type: SajjadAyoubi/persian_qa
|
29 |
+
name: PersianQA
|
30 |
+
args: fa
|
31 |
+
metrics:
|
32 |
+
- type: squad_v2
|
33 |
+
value: 83.46
|
34 |
+
name: Eval F1
|
35 |
+
args: max_order
|
36 |
+
- type: squad_v2
|
37 |
+
value: 66.88
|
38 |
+
name: Eval Exact
|
39 |
+
args: max_order
|
40 |
+
---
|
41 |
+
|
42 |
+
# XLM-RoBERTa large for QA (PersianQA - 🇮🇷)
|
43 |
+
|
44 |
+
This model is a fine-tuned version of [xlm-roberta-large](https://huggingface.co/xlm-roberta-large) on the [PersianQA](https://github.com/sajjjadayobi/PersianQA) dataset.
|
45 |
+
|
46 |
+
|
47 |
+
|
48 |
+
## Hyperparameters
|
49 |
+
|
50 |
+
The following hyperparameters were used during training:
|
51 |
+
- learning_rate: 2e-05
|
52 |
+
- train_batch_size: 8
|
53 |
+
- eval_batch_size: 8
|
54 |
+
- seed: 42
|
55 |
+
- gradient_accumulation_steps: 4
|
56 |
+
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
|
57 |
+
- lr_scheduler_type: linear
|
58 |
+
- lr_scheduler_warmup_ratio: 0.1
|
59 |
+
- num_epochs: 20.0
|
60 |
+
- mixed_precision_training: Native AMP
|
61 |
+
|
62 |
+
## Performance
|
63 |
+
|
64 |
+
Evaluation results on the eval set with the official [eval script](https://worksheets.codalab.org/rest/bundles/0x6b567e1cf2e041ec80d7098f031c5c9e/contents/blob/).
|
65 |
+
|
66 |
+
### Evalset
|
67 |
+
|
68 |
+
```text
|
69 |
+
"HasAns_exact": 58.678955453149,
|
70 |
+
"HasAns_f1": 82.3746683591845,
|
71 |
+
"HasAns_total": 651,
|
72 |
+
"NoAns_exact": 86.02150537634408,
|
73 |
+
"NoAns_f1": 86.02150537634408,
|
74 |
+
"NoAns_total": 279,
|
75 |
+
"exact": 66.88172043010752,
|
76 |
+
"f1": 83.46871946433232,
|
77 |
+
"total": 930
|
78 |
+
```
|
79 |
+
|
80 |
+
|
81 |
+
## Usage
|
82 |
+
|
83 |
+
```python
|
84 |
+
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
|
85 |
+
|
86 |
+
model_name_or_path = "m3hrdadfi/xlmr-large-qa-fa"
|
87 |
+
nlp = pipeline('question-answering', model=model_name_or_path, tokenizer=model_name_or_path)
|
88 |
+
|
89 |
+
context = """
|
90 |
+
شب یَلدا یا شب چلّه یکی از کهنترین جشنهای ایرانی است.
|
91 |
+
در این جشن، طی شدن بلندترین شب سال و به دنبال آن بلندتر شدن طول روزها
|
92 |
+
در نیمکرهٔ شمالی، که مصادف با انقلاب زمستانی است، گرامی داشته میشود.
|
93 |
+
نام دیگر این شب «چِلّه» است، زیرا برگزاری این جشن، یک آیین ایرانیاست.
|
94 |
+
"""
|
95 |
+
# Translation [EN]
|
96 |
+
# context = [
|
97 |
+
# Yalda night or Cheleh night is one of the oldest Iranian celebrations.
|
98 |
+
# The festival celebrates the longest night of the year, followed by longer days in the Northern Hemisphere,
|
99 |
+
# which coincides with the Winter Revolution.
|
100 |
+
# Another name for this night is "Chelleh", because holding this celebration is an Iranian ritual.
|
101 |
+
# ]
|
102 |
+
|
103 |
+
|
104 |
+
questions = [
|
105 |
+
"نام دیگر شب یلدا؟",
|
106 |
+
"کهن تریج جشن ایرانیها چه است؟",
|
107 |
+
"شب یلدا مصادف با چه پدیدهای است؟"
|
108 |
+
]
|
109 |
+
# Translation [EN]
|
110 |
+
# questions = [
|
111 |
+
# Another name for Yalda night?
|
112 |
+
# What is the ancient tradition of Iranian celebration?
|
113 |
+
# What phenomenon does Yalda night coincide with?
|
114 |
+
# ]
|
115 |
+
|
116 |
+
|
117 |
+
kwargs = {}
|
118 |
+
|
119 |
+
for question in questions:
|
120 |
+
r = nlp(question=question, context=context, **kwargs)
|
121 |
+
answer = " ".join([token.strip() for token in r["answer"].strip().split() if token.strip()])
|
122 |
+
print(f"{question} {answer}")
|
123 |
+
```
|
124 |
+
|
125 |
+
**Output**
|
126 |
+
|
127 |
+
```text
|
128 |
+
نام دیگر شب یلدا؟ «چِلّه»
|
129 |
+
کهن تریج جشن ایرانیها چه است؟ شب یَلدا یا شب چلّه
|
130 |
+
شب یلدا مصادف با چه پدیدهای است؟ انقلاب زمستانی
|
131 |
+
|
132 |
+
# Translation [EN]
|
133 |
+
# Another name for Yalda night? Cheleh night
|
134 |
+
# What is the ancient tradition of Iranian celebration? Yalda night or Chele night
|
135 |
+
# What phenomenon does Yalda night coincide with? Winter revolution
|
136 |
+
```
|
137 |
+
|
138 |
+
## Authors
|
139 |
+
- [Mehrdad Farahani](https://github.com/m3hrdadfi)
|
140 |
+
|
141 |
+
## Framework versions
|
142 |
+
- Transformers 4.12.0.dev0
|
143 |
+
- Pytorch 1.9.1+cu111
|
144 |
+
- Datasets 1.12.1
|
145 |
+
- Tokenizers 0.10.3
|
config.json
ADDED
@@ -0,0 +1,30 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"XLMRobertaForQuestionAnswering"
|
4 |
+
],
|
5 |
+
"attention_probs_dropout_prob": 0.1,
|
6 |
+
"bos_token_id": 0,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"eos_token_id": 2,
|
9 |
+
"gradient_checkpointing": false,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"language": "english",
|
16 |
+
"layer_norm_eps": 1e-05,
|
17 |
+
"max_position_embeddings": 514,
|
18 |
+
"model_type": "xlm-roberta",
|
19 |
+
"name": "XLMRoberta",
|
20 |
+
"num_attention_heads": 16,
|
21 |
+
"num_hidden_layers": 24,
|
22 |
+
"output_past": true,
|
23 |
+
"pad_token_id": 1,
|
24 |
+
"position_embedding_type": "absolute",
|
25 |
+
"torch_dtype": "float32",
|
26 |
+
"transformers_version": "4.12.0.dev0",
|
27 |
+
"type_vocab_size": 1,
|
28 |
+
"use_cache": true,
|
29 |
+
"vocab_size": 250002
|
30 |
+
}
|
pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:8fd9336bc9ceec6d02aa59bba1409b5e6ece5b65c1f8dae04b0f6a68ecb67188
|
3 |
+
size 2235534897
|
sentencepiece.bpe.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
3 |
+
size 5069051
|
special_tokens_map.json
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
{"bos_token": "<s>", "eos_token": "</s>", "unk_token": "<unk>", "sep_token": "</s>", "pad_token": "<pad>", "cls_token": "<s>", "mask_token": "<mask>"}
|
tf_model.h5
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:652c622186154fd1acce515688c6f48bcc3837cd5bd8197b20ddf0e34a624bd5
|
3 |
+
size 2235922536
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
{"bos_token": "<s>", "eos_token": "</s>", "sep_token": "</s>", "cls_token": "<s>", "unk_token": "<unk>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "do_lower_case": false, "model_max_length": 512, "special_tokens_map_file": "germanQA/saved_models/xlm-roberta-large-squad2/special_tokens_map.json", "full_tokenizer_file": null, "name_or_path": "deepset/xlm-roberta-large-squad2", "sp_model_kwargs": {}, "tokenizer_class": "XLMRobertaTokenizer"}
|