Edit model card

Model Card of vocabtrimmer/mt5-small-trimmed-ko-15000-koquad-qa

This model is fine-tuned version of ckpts/mt5-small-trimmed-ko-15000 for question answering task on the lmqg/qg_koquad (dataset_name: default) via lmqg.

Overview

Usage

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ko", model="vocabtrimmer/mt5-small-trimmed-ko-15000-koquad-qa")

# model prediction
answers = model.answer_q(list_question="매드 클라운이 참가해 큰 화제를 모았던 프로그램은?", list_context=" 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")
  • With transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "vocabtrimmer/mt5-small-trimmed-ko-15000-koquad-qa")
output = pipe("question: 매드 클라운이 참가해 큰 화제를 모았던 프로그램은?, context: 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")

Evaluation

Score Type Dataset
AnswerExactMatch 76.41 default lmqg/qg_koquad
AnswerF1Score 82.66 default lmqg/qg_koquad
BERTScore 97.44 default lmqg/qg_koquad
Bleu_1 71.78 default lmqg/qg_koquad
Bleu_2 62.64 default lmqg/qg_koquad
Bleu_3 50.82 default lmqg/qg_koquad
Bleu_4 35.71 default lmqg/qg_koquad
METEOR 56.74 default lmqg/qg_koquad
MoverScore 92.81 default lmqg/qg_koquad
ROUGE_L 78.59 default lmqg/qg_koquad

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_koquad
  • dataset_name: default
  • input_types: ['paragraph_question']
  • output_types: ['answer']
  • prefix_types: None
  • model: ckpts/mt5-small-trimmed-ko-15000
  • max_length: 512
  • max_length_output: 32
  • epoch: 10
  • batch: 64
  • lr: 0.001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 1
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}
Downloads last month
9

Dataset used to train vocabtrimmer/mt5-small-trimmed-ko-15000-koquad-qa

Evaluation results

  • BLEU4 (Question Answering) on lmqg/qg_koquad
    self-reported
    35.710
  • ROUGE-L (Question Answering) on lmqg/qg_koquad
    self-reported
    78.590
  • METEOR (Question Answering) on lmqg/qg_koquad
    self-reported
    56.740
  • BERTScore (Question Answering) on lmqg/qg_koquad
    self-reported
    97.440
  • MoverScore (Question Answering) on lmqg/qg_koquad
    self-reported
    92.810
  • AnswerF1Score (Question Answering) on lmqg/qg_koquad
    self-reported
    82.660
  • AnswerExactMatch (Question Answering) on lmqg/qg_koquad
    self-reported
    76.410