asahi417 commited on
Commit
330f02d
1 Parent(s): 6ef64f5

model update

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -21,7 +21,7 @@ widget:
21
  - text: "<hl> 원테이크 촬영 <hl> 이기 때문에 한 사람이 실수를 하면 처음부터 다시 찍어야 하는 상황이 발생한다."
22
  example_title: "Question Generation Example 3"
23
  model-index:
24
- - name: lmqg/mt5-base-koquad
25
  results:
26
  - task:
27
  name: Text2text Generation
@@ -48,7 +48,7 @@ model-index:
48
  value: 83.36
49
  ---
50
 
51
- # Model Card of `lmqg/mt5-base-koquad`
52
  This model is fine-tuned version of [google/mt5-base](https://huggingface.co/google/mt5-base) for question generation task on the [lmqg/qg_koquad](https://huggingface.co/datasets/lmqg/qg_koquad) (dataset_name: default) via [`lmqg`](https://github.com/asahi417/lm-question-generation).
53
 
54
 
@@ -66,7 +66,7 @@ This model is fine-tuned version of [google/mt5-base](https://huggingface.co/goo
66
  from lmqg import TransformersQG
67
 
68
  # initialize model
69
- model = TransformersQG(language="ko", model="lmqg/mt5-base-koquad")
70
 
71
  # model prediction
72
  questions = model.generate_q(list_context="1990년 영화 《 남부군 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.", list_answer="남부군")
@@ -77,7 +77,7 @@ questions = model.generate_q(list_context="1990년 영화 《 남부군 》에
77
  ```python
78
  from transformers import pipeline
79
 
80
- pipe = pipeline("text2text-generation", "lmqg/mt5-base-koquad")
81
  output = pipe("1990년 영화 《 <hl> 남부군 <hl> 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.")
82
 
83
  ```
@@ -85,7 +85,7 @@ output = pipe("1990년 영화 《 <hl> 남부군 <hl> 》에서 단역으로 영
85
  ## Evaluation
86
 
87
 
88
- - ***Metric (Question Generation)***: [raw metric file](https://huggingface.co/lmqg/mt5-base-koquad/raw/main/eval/metric.first.sentence.paragraph_answer.question.lmqg_qg_koquad.default.json)
89
 
90
  | | Score | Type | Dataset |
91
  |:-----------|--------:|:--------|:-----------------------------------------------------------------|
@@ -119,7 +119,7 @@ The following hyperparameters were used during fine-tuning:
119
  - gradient_accumulation_steps: 16
120
  - label_smoothing: 0.15
121
 
122
- The full configuration can be found at [fine-tuning config file](https://huggingface.co/lmqg/mt5-base-koquad/raw/main/trainer_config.json).
123
 
124
  ## Citation
125
  ```
 
21
  - text: "<hl> 원테이크 촬영 <hl> 이기 때문에 한 사람이 실수를 하면 처음부터 다시 찍어야 하는 상황이 발생한다."
22
  example_title: "Question Generation Example 3"
23
  model-index:
24
+ - name: lmqg/mt5-base-koquad-qg
25
  results:
26
  - task:
27
  name: Text2text Generation
 
48
  value: 83.36
49
  ---
50
 
51
+ # Model Card of `lmqg/mt5-base-koquad-qg`
52
  This model is fine-tuned version of [google/mt5-base](https://huggingface.co/google/mt5-base) for question generation task on the [lmqg/qg_koquad](https://huggingface.co/datasets/lmqg/qg_koquad) (dataset_name: default) via [`lmqg`](https://github.com/asahi417/lm-question-generation).
53
 
54
 
 
66
  from lmqg import TransformersQG
67
 
68
  # initialize model
69
+ model = TransformersQG(language="ko", model="lmqg/mt5-base-koquad-qg")
70
 
71
  # model prediction
72
  questions = model.generate_q(list_context="1990년 영화 《 남부군 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.", list_answer="남부군")
 
77
  ```python
78
  from transformers import pipeline
79
 
80
+ pipe = pipeline("text2text-generation", "lmqg/mt5-base-koquad-qg")
81
  output = pipe("1990년 영화 《 <hl> 남부군 <hl> 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.")
82
 
83
  ```
 
85
  ## Evaluation
86
 
87
 
88
+ - ***Metric (Question Generation)***: [raw metric file](https://huggingface.co/lmqg/mt5-base-koquad-qg/raw/main/eval/metric.first.sentence.paragraph_answer.question.lmqg_qg_koquad.default.json)
89
 
90
  | | Score | Type | Dataset |
91
  |:-----------|--------:|:--------|:-----------------------------------------------------------------|
 
119
  - gradient_accumulation_steps: 16
120
  - label_smoothing: 0.15
121
 
122
+ The full configuration can be found at [fine-tuning config file](https://huggingface.co/lmqg/mt5-base-koquad-qg/raw/main/trainer_config.json).
123
 
124
  ## Citation
125
  ```