Model Card of vocabtrimmer/mt5-small-trimmed-ko-5000-koquad-qa
This model is fine-tuned version of vocabtrimmer/mt5-small-trimmed-ko-5000 for question answering task on the lmqg/qg_koquad (dataset_name: default) via lmqg
.
Overview
- Language model: vocabtrimmer/mt5-small-trimmed-ko-5000
- Language: ko
- Training data: lmqg/qg_koquad (default)
- Online Demo: https://autoqg.net/
- Repository: https://github.com/asahi417/lm-question-generation
- Paper: https://arxiv.org/abs/2210.03992
Usage
- With
lmqg
from lmqg import TransformersQG
# initialize model
model = TransformersQG(language="ko", model="vocabtrimmer/mt5-small-trimmed-ko-5000-koquad-qa")
# model prediction
answers = model.answer_q(list_question="매드 클라운이 참가해 큰 화제를 모았던 프로그램은?", list_context=" 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")
- With
transformers
from transformers import pipeline
pipe = pipeline("text2text-generation", "vocabtrimmer/mt5-small-trimmed-ko-5000-koquad-qa")
output = pipe("question: 매드 클라운이 참가해 큰 화제를 모았던 프로그램은?, context: 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")
Evaluation
- Metric (Question Answering): raw metric file
Score | Type | Dataset | |
---|---|---|---|
AnswerExactMatch | 72.6 | default | lmqg/qg_koquad |
AnswerF1Score | 79.45 | default | lmqg/qg_koquad |
BERTScore | 97.06 | default | lmqg/qg_koquad |
Bleu_1 | 68.42 | default | lmqg/qg_koquad |
Bleu_2 | 59.18 | default | lmqg/qg_koquad |
Bleu_3 | 48.22 | default | lmqg/qg_koquad |
Bleu_4 | 34.35 | default | lmqg/qg_koquad |
METEOR | 54.02 | default | lmqg/qg_koquad |
MoverScore | 91.72 | default | lmqg/qg_koquad |
ROUGE_L | 74.95 | default | lmqg/qg_koquad |
Training hyperparameters
The following hyperparameters were used during fine-tuning:
- dataset_path: lmqg/qg_koquad
- dataset_name: default
- input_types: ['paragraph_question']
- output_types: ['answer']
- prefix_types: None
- model: vocabtrimmer/mt5-small-trimmed-ko-5000
- max_length: 512
- max_length_output: 32
- epoch: 13
- batch: 32
- lr: 0.001
- fp16: False
- random_seed: 1
- gradient_accumulation_steps: 2
- label_smoothing: 0.15
The full configuration can be found at fine-tuning config file.
Citation
@inproceedings{ushio-etal-2022-generative,
title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
author = "Ushio, Asahi and
Alva-Manchego, Fernando and
Camacho-Collados, Jose",
booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2022",
address = "Abu Dhabi, U.A.E.",
publisher = "Association for Computational Linguistics",
}
- Downloads last month
- 8
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Dataset used to train vocabtrimmer/mt5-small-trimmed-ko-5000-koquad-qa
Evaluation results
- BLEU4 (Question Answering) on lmqg/qg_koquadself-reported34.350
- ROUGE-L (Question Answering) on lmqg/qg_koquadself-reported74.950
- METEOR (Question Answering) on lmqg/qg_koquadself-reported54.020
- BERTScore (Question Answering) on lmqg/qg_koquadself-reported97.060
- MoverScore (Question Answering) on lmqg/qg_koquadself-reported91.720
- AnswerF1Score (Question Answering) on lmqg/qg_koquadself-reported79.450
- AnswerExactMatch (Question Answering) on lmqg/qg_koquadself-reported72.600