asahi417's picture
model update
d6c7195
|
raw
history blame
8.48 kB
metadata
license: cc-by-4.0
metrics:
  - bleu4
  - meteor
  - rouge-l
  - bertscore
  - moverscore
language: it
datasets:
  - lmqg/qg_itquad
pipeline_tag: text2text-generation
tags:
  - question generation
  - answer extraction
widget:
  - text: >-
      generate question: <hl> Dopo il 1971 <hl> , l' OPEC ha tardato ad adeguare
      i prezzi per riflettere tale deprezzamento.
    example_title: Question Generation Example 1
  - text: >-
      generate question: L' individuazione del petrolio e lo sviluppo di nuovi
      giacimenti richiedeva in genere <hl> da cinque a dieci anni <hl> prima di
      una produzione significativa.
    example_title: Question Generation Example 2
  - text: >-
      generate question: il <hl> Giappone <hl> è stato il paese più dipendente
      dal petrolio arabo.
    example_title: Question Generation Example 3
  - text: >-
      <hl> Il 6 ottobre 1973 , la Siria e l' Egitto, con il sostegno di altre
      nazioni arabe, lanciarono un attacco a sorpresa su Israele, su Yom Kippur.
      <hl> Questo rinnovo delle ostilità nel conflitto arabo-israeliano ha
      liberato la pressione economica sottostante sui prezzi del petrolio. All'
      epoca, l' Iran era il secondo esportatore mondiale di petrolio e un vicino
      alleato degli Stati Uniti. Settimane più tardi, lo scià d' Iran ha detto
      in un' intervista: Naturalmente[il prezzo del petrolio] sta andando a
      salire Certamente! E come! Avete[Paesi occidentali] aumentato il prezzo
      del grano che ci vendete del 300 per cento, e lo stesso per zucchero e
      cemento.
    example_title: Answer Extraction Example 1
  - text: >-
      <hl> Furono introdotti autocarri compatti, come la Toyota Hilux e il
      Datsun Truck, seguiti dal camion Mazda (venduto come il Ford Courier), e
      l' Isuzu costruito Chevrolet LUV. <hl> Mitsubishi rebranded il suo Forte
      come Dodge D-50 pochi anni dopo la crisi petrolifera. Mazda, Mitsubishi e
      Isuzu avevano partnership congiunte rispettivamente con Ford, Chrysler e
      GM. In seguito i produttori americani introdussero le loro sostituzioni
      nazionali (Ford Ranger, Dodge Dakota e la Chevrolet S10/GMC S-15), ponendo
      fine alla loro politica di importazione vincolata.
    example_title: Answer Extraction Example 2
model-index:
  - name: lmqg/mt5-small-itquad-multitask
    results:
      - task:
          name: Text2text Generation
          type: text2text-generation
        dataset:
          name: lmqg/qg_itquad
          type: default
          args: default
        metrics:
          - name: BLEU4
            type: bleu4
            value: 0.07247588693912974
          - name: ROUGE-L
            type: rouge-l
            value: 0.2183840870793931
          - name: METEOR
            type: meteor
            value: 0.17495288244686244
          - name: BERTScore
            type: bertscore
            value: 0.8061110932516495
          - name: MoverScore
            type: moverscore
            value: 0.5662580131358668
          - name: QAAlignedF1Score (BERTScore)
            type: qa_aligned_f1_score_bertscore
            value: 0.8201168562166311
          - name: QAAlignedRecall (BERTScore)
            type: qa_aligned_recall_bertscore
            value: 0.8293064683621632
          - name: QAAlignedPrecision (BERTScore)
            type: qa_aligned_precision_bertscore
            value: 0.8115697991577736
          - name: QAAlignedF1Score (MoverScore)
            type: qa_aligned_f1_score_moverscore
            value: 0.5608720507831051
          - name: QAAlignedRecall (MoverScore)
            type: qa_aligned_recall_moverscore
            value: 0.5655273951343827
          - name: QAAlignedPrecision (MoverScore)
            type: qa_aligned_precision_moverscore
            value: 0.5567033660535845

Model Card of lmqg/mt5-small-itquad-multitask

This model is fine-tuned version of google/mt5-small for question generation task on the lmqg/qg_itquad (dataset_name: default) via lmqg. This model is fine-tuned on the answer extraction task as well as the question generation.

Please cite our paper if you use the model (https://arxiv.org/abs/2210.03992).


@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}

Overview

Usage


from lmqg import TransformersQG
# initialize model
model = TransformersQG(language='it', model='lmqg/mt5-small-itquad-multitask')
# model prediction
question_answer = model.generate_qa("Dopo il 1971 , l' OPEC ha tardato ad adeguare i prezzi per riflettere tale deprezzamento.")
  • With transformers

from transformers import pipeline
# initialize model
pipe = pipeline("text2text-generation", 'lmqg/mt5-small-itquad-multitask')
# answer extraction
answer = pipe('extract answers: <hl> Il 6 ottobre 1973 , la Siria e l' Egitto, con il sostegno di altre nazioni arabe, lanciarono un attacco a sorpresa su Israele, su Yom Kippur. <hl> Questo rinnovo delle ostilità nel conflitto arabo-israeliano ha liberato la pressione economica sottostante sui prezzi del petrolio. All' epoca, l' Iran era il secondo esportatore mondiale di petrolio e un vicino alleato degli Stati Uniti. Settimane più tardi, lo scià d' Iran ha detto in un' intervista: Naturalmente[il prezzo del petrolio] sta andando a salire Certamente! E come! Avete[Paesi occidentali] aumentato il prezzo del grano che ci vendete del 300 per cento, e lo stesso per zucchero e cemento.')
# question generation
question = pipe('generate question: <hl> Dopo il 1971 <hl> , l' OPEC ha tardato ad adeguare i prezzi per riflettere tale deprezzamento.')

Evaluation Metrics

Metrics

Dataset Type BLEU4 ROUGE-L METEOR BERTScore MoverScore Link
lmqg/qg_itquad default 0.072 0.218 0.175 0.806 0.566 link

Metrics (QAG)

Dataset Type QA Aligned F1 Score (BERTScore) QA Aligned F1 Score (MoverScore) Link
lmqg/qg_itquad default 0.82 0.561 link

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_itquad
  • dataset_name: default
  • input_types: ['paragraph_answer', 'paragraph_sentence']
  • output_types: ['question', 'answer']
  • prefix_types: ['qg', 'ae']
  • model: google/mt5-small
  • max_length: 512
  • max_length_output: 32
  • epoch: 13
  • batch: 16
  • lr: 0.001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 4
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation


@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}