trained with chimera_qa
Browse files- README.md +12 -16
- config.json +2 -2
- pytorch_model.bin +2 -2
- tokenizer.json +0 -0
- tokenizer_config.json +1 -1
- training_args.bin +2 -2
README.md
CHANGED
@@ -3,24 +3,20 @@ widget:
|
|
3 |
- text: "สวนกุหลาบเป็นโรงเรียนอะไร"
|
4 |
context: "โรงเรียนสวนกุหลาบวิทยาลัย (Suankularb Wittayalai School) (อักษรย่อ : ส.ก. / S.K.) เป็นโรงเรียนชายล้วน ระดับชั้นมัธยมศึกษาขนาดใหญ่พิเศษ สังกัดสำนักงานเขตพื้นที่การศึกษามัธยมศึกษาเขต 1 สำนักงานคณะกรรมการการศึกษาขั้นพื้นฐาน (ชื่อเดิม: กรมสามัญศึกษา) กระทรวงศึกษาธิการ ก่อตั้งโดย พระบาทสมเด็จพระจุลจอมเกล้าเจ้าอยู่หัว ได้รับการสถาปนาขึ้นในวันที่ 8 มีนาคม พ.ศ. 2424 (ขณะนั้นนับวันที่ 1 เมษายน เป็นวันขึ้นปีใหม่ เมื่อนับอย่างสากลถือเป็น พ.ศ. 2425) โดยเป็นโรงเรียนรัฐบาลแห่งแรกของประเทศไทย"
|
5 |
---
|
|
|
6 |
|
7 |
-
|
8 |
-
|
9 |
-
Finetuning `wangchanberta-base-wiki-20210520-spm` with the training set of `iapp_wiki_qa_squad`, `thaiqa`, `xquad` (removed examples which have cosine similarity with validation and test examples over 0.8). Benchmarks shared on [wandb](https://wandb.ai/cstorm125/wangchanberta-qa) using validation and test sets of `iapp_wiki_qa_squad`.
|
10 |
-
Trained with [thai2transformers](https://github.com/vistec-AI/thai2transformers/blob/dev/scripts/downstream/train_question_answering_lm_finetuning.py). Combined benchmark datasets downloadable at [vistec-ai/thai2transformers](https://github.com/vistec-AI/thai2transformers/releases/tag/qa-v0.2).
|
11 |
|
12 |
Run with:
|
13 |
```
|
14 |
-
export
|
15 |
-
|
16 |
-
|
17 |
-
|
18 |
-
--
|
19 |
-
--
|
20 |
-
--
|
21 |
-
--
|
22 |
-
--log_dir $MODEL_NAME-finetune-iapp_thaiqa_xquad-log \\
|
23 |
-
--model_max_length 400 \\
|
24 |
-
--pad_on_right \\
|
25 |
--fp16
|
26 |
-
```
|
3 |
- text: "สวนกุหลาบเป็นโรงเรียนอะไร"
|
4 |
context: "โรงเรียนสวนกุหลาบวิทยาลัย (Suankularb Wittayalai School) (อักษรย่อ : ส.ก. / S.K.) เป็นโรงเรียนชายล้วน ระดับชั้นมัธยมศึกษาขนาดใหญ่พิเศษ สังกัดสำนักงานเขตพื้นที่การศึกษามัธยมศึกษาเขต 1 สำนักงานคณะกรรมการการศึกษาขั้นพื้นฐาน (ชื่อเดิม: กรมสามัญศึกษา) กระทรวงศึกษาธิการ ก่อตั้งโดย พระบาทสมเด็จพระจุลจอมเกล้าเจ้าอยู่หัว ได้รับการสถาปนาขึ้นในวันที่ 8 มีนาคม พ.ศ. 2424 (ขณะนั้นนับวันที่ 1 เมษายน เป็นวันขึ้นปีใหม่ เมื่อนับอย่างสากลถือเป็น พ.ศ. 2425) โดยเป็นโรงเรียนรัฐบาลแห่งแรกของประเทศไทย"
|
5 |
---
|
6 |
+
# wangchanberta-base-wiki-20210520-spm-finetune-qa
|
7 |
|
8 |
+
Finetuning `airesearchth/wangchanberta-base-wiki-20210520-spmd` with the training set of `iapp_wiki_qa_squad`, `thaiqa_squad`, and `nsc_qa` (removed examples which have cosine similarity with validation and test examples over 0.8; contexts of the latter two are trimmed to be around 300 `newmm` words). Benchmarks shared on [wandb](https://wandb.ai/cstorm125/wangchanberta-qa) using validation and test sets of `iapp_wiki_qa_squad`.
|
9 |
+
Trained with [thai2transformers](https://github.com/vistec-AI/thai2transformers/blob/dev/scripts/downstream/train_question_answering_lm_finetuning.py).
|
|
|
|
|
10 |
|
11 |
Run with:
|
12 |
```
|
13 |
+
export MODEL_NAME=airesearchth/wangchanberta-base-wiki-20210520-news-spm
|
14 |
+
CUDA_LAUNCH_BLOCKING=1 python train_question_answering_lm_finetuning.py \
|
15 |
+
--model_name $MODEL_NAME \
|
16 |
+
--dataset_name chimera_qa \
|
17 |
+
--output_dir $MODEL_NAME-finetune-chimera_qa-model \
|
18 |
+
--log_dir $MODEL_NAME-finetune-chimera_qa-log \
|
19 |
+
--model_max_length 400 \
|
20 |
+
--pad_on_right \
|
|
|
|
|
|
|
21 |
--fp16
|
22 |
+
```
|
config.json
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
{
|
2 |
-
"_name_or_path": "airesearchth/wangchanberta-base-wiki-20210520-spm
|
3 |
"architectures": [
|
4 |
"CamembertForQuestionAnswering"
|
5 |
],
|
@@ -20,7 +20,7 @@
|
|
20 |
"num_hidden_layers": 12,
|
21 |
"pad_token_id": 1,
|
22 |
"position_embedding_type": "absolute",
|
23 |
-
"transformers_version": "4.
|
24 |
"type_vocab_size": 1,
|
25 |
"use_cache": true,
|
26 |
"vocab_size": 24005
|
1 |
{
|
2 |
+
"_name_or_path": "airesearchth/wangchanberta-base-wiki-20210520-spm",
|
3 |
"architectures": [
|
4 |
"CamembertForQuestionAnswering"
|
5 |
],
|
20 |
"num_hidden_layers": 12,
|
21 |
"pad_token_id": 1,
|
22 |
"position_embedding_type": "absolute",
|
23 |
+
"transformers_version": "4.8.2",
|
24 |
"type_vocab_size": 1,
|
25 |
"use_cache": true,
|
26 |
"vocab_size": 24005
|
pytorch_model.bin
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:09f08c02c24bc62b8508bf7f67b82b1267ba1105eb63870369fba0da2b30a9f5
|
3 |
+
size 415634097
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
tokenizer_config.json
CHANGED
@@ -1 +1 @@
|
|
1 |
-
{"bos_token": "<s>", "eos_token": "</s>", "sep_token": "</s>", "cls_token": "<s>", "unk_token": "<unk>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "additional_special_tokens": ["<s>NOTUSED", "</s>NOTUSED", "▁"], "model_max_length": 400, "special_tokens_map_file": null, "name_or_path": "airesearchth/wangchanberta-base-wiki-20210520-spm"}
|
1 |
+
{"bos_token": "<s>", "eos_token": "</s>", "sep_token": "</s>", "cls_token": "<s>", "unk_token": "<unk>", "pad_token": "<pad>", "mask_token": {"content": "<mask>", "single_word": false, "lstrip": true, "rstrip": false, "normalized": true, "__type": "AddedToken"}, "additional_special_tokens": ["<s>NOTUSED", "</s>NOTUSED", "▁"], "model_max_length": 400, "special_tokens_map_file": null, "name_or_path": "airesearchth/wangchanberta-base-wiki-20210520-spm", "sp_model_kwargs": {}, "tokenizer_class": "CamembertTokenizer"}
|
training_args.bin
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e2cd051ec42c1a7a3a6dd835351ff2946b4ba1f0214d0d37522d15f1c46a59f4
|
3 |
+
size 2799
|