|
--- |
|
language: |
|
- fr |
|
license: mit |
|
size_categories: |
|
- 10K<n<100K |
|
task_categories: |
|
- text-generation |
|
--- |
|
|
|
# piaf_fr_prompt_question_generation_with_answer_and_context |
|
## Summary |
|
|
|
**piaf_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**](). |
|
It contains **48,069** rows that can be used for a question-generation (with answer and context) |
|
task. |
|
The original data (without prompts) comes from the dataset [PIAF](https://huggingface.co/datasets/etalab-ia/piaf) and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset. |
|
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al. |
|
|
|
|
|
## Prompts used |
|
### List |
|
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement. |
|
|
|
``` |
|
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :', |
|
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"', |
|
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'" |
|
``` |
|
|
|
# Splits |
|
- train with 48,069 samples |
|
- no valid and test splits in the original data |
|
|
|
|
|
# How to use? |
|
``` |
|
from datasets import load_dataset |
|
dataset = load_dataset("CATIE-AQ/piaf_fr_prompt_question_generation_with_answer_and_context") |
|
``` |
|
|
|
|
|
# Citation |
|
## Original data |
|
> @InProceedings{keraron-EtAl:2020:LREC, |
|
author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo}, |
|
title = {Project PIAF: Building a Native French Question-Answering Dataset}, |
|
booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference}, |
|
month = {May}, |
|
year = {2020}, |
|
address = {Marseille, France}, |
|
publisher = {European Language Resources Association}, |
|
pages = {5483--5492}, |
|
url = {https://www.aclweb.org/anthology/2020.lrec-1.673} |
|
} |
|
|
|
|
|
|
|
|
|
## This Dataset |
|
|
|
|
|
|
|
## License |
|
MIT |