Edit model card

Model Card of vocabtrimmer/mt5-small-trimmed-ja-15000-jaquad-qa

This model is fine-tuned version of vocabtrimmer/mt5-small-trimmed-ja-15000 for question answering task on the lmqg/qg_jaquad (dataset_name: default) via lmqg.

Overview

Usage

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ja", model="vocabtrimmer/mt5-small-trimmed-ja-15000-jaquad-qa")

# model prediction
answers = model.answer_q(list_question="新型車両として6000系が構想されたのは、製造費用のほか、どんな費用を抑えるためだったの?", list_context=" 三多摩地区開発による沿線人口の増加、相模原線延伸による多摩ニュータウン乗り入れ、都営地下鉄10号線(現都営地下鉄新宿線、以下新宿線と表記する)乗入構想により、京王線の利用客増加が見込まれ、相当数の車両を準備する必要に迫られるなか、製造費用、保守費用を抑えた新型車両として6000系が構想された。新宿線建設に際してはすでに1号線(後の浅草線)を1,435mm軌間で開業させていた東京都は京成電鉄と1号線との乗り入れにあたり京成電鉄の路線を1,372mmから1,435mmに改軌させた事例や、1,372mm軌間の特殊性から運輸省(当時、2001年から国土交通省)と共に京王にも改軌を求めたが、改軌工事中の輸送力確保が困難なことを理由に改軌しないことで決着している。")
  • With transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "vocabtrimmer/mt5-small-trimmed-ja-15000-jaquad-qa")
output = pipe("question: 新型車両として6000系が構想されたのは、製造費用のほか、どんな費用を抑えるためだったの?, context: 三多摩地区開発による沿線人口の増加、相模原線延伸による多摩ニュータウン乗り入れ、都営地下鉄10号線(現都営地下鉄新宿線、以下新宿線と表記する)乗入構想により、京王線の利用客増加が見込まれ、相当数の車両を準備する必要に迫られるなか、製造費用、保守費用を抑えた新型車両として6000系が構想された。新宿線建設に際してはすでに1号線(後の浅草線)を1,435mm軌間で開業させていた東京都は京成電鉄と1号線との乗り入れにあたり京成電鉄の路線を1,372mmから1,435mmに改軌させた事例や、1,372mm軌間の特殊性から運輸省(当時、2001年から国土交通省)と共に京王にも改軌を求めたが、改軌工事中の輸送力確保が困難なことを理由に改軌しないことで決着している。")

Evaluation

Score Type Dataset
AnswerExactMatch 61.31 default lmqg/qg_jaquad
AnswerF1Score 61.31 default lmqg/qg_jaquad
BERTScore 95.61 default lmqg/qg_jaquad
Bleu_1 55.83 default lmqg/qg_jaquad
Bleu_2 0 default lmqg/qg_jaquad
Bleu_3 0 default lmqg/qg_jaquad
Bleu_4 0 default lmqg/qg_jaquad
METEOR 47.05 default lmqg/qg_jaquad
MoverScore 86.97 default lmqg/qg_jaquad
ROUGE_L 58.25 default lmqg/qg_jaquad

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_jaquad
  • dataset_name: default
  • input_types: ['paragraph_question']
  • output_types: ['answer']
  • prefix_types: None
  • model: vocabtrimmer/mt5-small-trimmed-ja-15000
  • max_length: 512
  • max_length_output: 32
  • epoch: 17
  • batch: 32
  • lr: 0.0005
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 2
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}
Downloads last month
4
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train vocabtrimmer/mt5-small-trimmed-ja-15000-jaquad-qa

Evaluation results

  • BLEU4 (Question Answering) on lmqg/qg_jaquad
    self-reported
    0.000
  • ROUGE-L (Question Answering) on lmqg/qg_jaquad
    self-reported
    58.250
  • METEOR (Question Answering) on lmqg/qg_jaquad
    self-reported
    47.050
  • BERTScore (Question Answering) on lmqg/qg_jaquad
    self-reported
    95.610
  • MoverScore (Question Answering) on lmqg/qg_jaquad
    self-reported
    86.970
  • AnswerF1Score (Question Answering) on lmqg/qg_jaquad
    self-reported
    61.310
  • AnswerExactMatch (Question Answering) on lmqg/qg_jaquad
    self-reported
    61.310