asahi417's picture
commit files to HF hub
8c1836a
metadata
license: cc-by-4.0
metrics:
  - bleu4
  - meteor
  - rouge-l
  - bertscore
  - moverscore
language: fr
datasets:
  - lmqg/qg_frquad
pipeline_tag: text2text-generation
tags:
  - question answering
widget:
  - text: >-
      question: En quelle année a-t-on trouvé trace d'un haut fourneau
      similaire?, context: Cette technologie ne disparaît qu'au début du XXe
      siècle. On retrouve vers 1900 un haut fourneau similaire dans le Bulacan,
      aux Philippines. Plus tard encore, le « haut fourneau dans la cour » prôné
      par Mao Zedong pendant le Grand Bond en avant est de ce type. L'expérience
      n'est un échec technique que dans les régions où le savoir-faire n'existe
      pas, ou a disparu.
    example_title: Question Answering Example 1
  - text: >-
      question: Comment appelle-t-on la Guerre de 14-18 ?, context: Ce black dog
      peut être lié à des évènements traumatisants issus du monde extérieur,
      tels que son renvoi de l'Amirauté après la catastrophe des Dardanelles,
      lors de la Grande Guerre de 14-18, ou son rejet par l'électorat en juillet
      1945. On sait également que dans ces deux cas, la guérison, certes lente
      et douloureuse et jamais complète ni définitive, se fera grâce à la
      peinture. D'un autre côté, étant donnés les symptômes de ce mal que
      Churchill éprouvait de plus en plus, il ne pouvait rien moins qu'être
      purement associé à de telles causes extrinsèques, ce qui correspond au
      profil classique de la dépression majeure unipolaire ou bipolaire.
    example_title: Question Answering Example 2
model-index:
  - name: vocabtrimmer/mt5-small-trimmed-fr-15000-frquad-qa
    results:
      - task:
          name: Text2text Generation
          type: text2text-generation
        dataset:
          name: lmqg/qg_frquad
          type: default
          args: default
        metrics:
          - name: BLEU4 (Question Answering)
            type: bleu4_question_answering
            value: 17.12
          - name: ROUGE-L (Question Answering)
            type: rouge_l_question_answering
            value: 27.44
          - name: METEOR (Question Answering)
            type: meteor_question_answering
            value: 21.75
          - name: BERTScore (Question Answering)
            type: bertscore_question_answering
            value: 88.56
          - name: MoverScore (Question Answering)
            type: moverscore_question_answering
            value: 70.15
          - name: AnswerF1Score (Question Answering)
            type: answer_f1_score__question_answering
            value: 43.25
          - name: AnswerExactMatch (Question Answering)
            type: answer_exact_match_question_answering
            value: 26.88

Model Card of vocabtrimmer/mt5-small-trimmed-fr-15000-frquad-qa

This model is fine-tuned version of ckpts/mt5-small-trimmed-fr-15000 for question answering task on the lmqg/qg_frquad (dataset_name: default) via lmqg.

Overview

Usage

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="fr", model="vocabtrimmer/mt5-small-trimmed-fr-15000-frquad-qa")

# model prediction
answers = model.answer_q(list_question="En quelle année a-t-on trouvé trace d'un haut fourneau similaire?", list_context=" Cette technologie ne disparaît qu'au début du XXe siècle. On retrouve vers 1900 un haut fourneau similaire dans le Bulacan, aux Philippines. Plus tard encore, le « haut fourneau dans la cour » prôné par Mao Zedong pendant le Grand Bond en avant est de ce type. L'expérience n'est un échec technique que dans les régions où le savoir-faire n'existe pas, ou a disparu.")
  • With transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "vocabtrimmer/mt5-small-trimmed-fr-15000-frquad-qa")
output = pipe("question: En quelle année a-t-on trouvé trace d'un haut fourneau similaire?, context: Cette technologie ne disparaît qu'au début du XXe siècle. On retrouve vers 1900 un haut fourneau similaire dans le Bulacan, aux Philippines. Plus tard encore, le « haut fourneau dans la cour » prôné par Mao Zedong pendant le Grand Bond en avant est de ce type. L'expérience n'est un échec technique que dans les régions où le savoir-faire n'existe pas, ou a disparu.")

Evaluation

Score Type Dataset
AnswerExactMatch 26.88 default lmqg/qg_frquad
AnswerF1Score 43.25 default lmqg/qg_frquad
BERTScore 88.56 default lmqg/qg_frquad
Bleu_1 25.9 default lmqg/qg_frquad
Bleu_2 22.1 default lmqg/qg_frquad
Bleu_3 19.45 default lmqg/qg_frquad
Bleu_4 17.12 default lmqg/qg_frquad
METEOR 21.75 default lmqg/qg_frquad
MoverScore 70.15 default lmqg/qg_frquad
ROUGE_L 27.44 default lmqg/qg_frquad

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_frquad
  • dataset_name: default
  • input_types: ['paragraph_question']
  • output_types: ['answer']
  • prefix_types: None
  • model: ckpts/mt5-small-trimmed-fr-15000
  • max_length: 512
  • max_length_output: 32
  • epoch: 26
  • batch: 32
  • lr: 0.001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 4
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}