language:
- fr
license: mit
size_categories:
- 100K<n<1M
task_categories:
- text-generation
tags:
- DFP
- french prompts
annotations_creators:
- found
language_creators:
- found
multilinguality:
- monolingual
source_datasets:
- piaf
piaf_fr_prompt_question_generation_with_answer
Summary
piaf_fr_prompt_question_generation_with_answer is a subset of the Dataset of French Prompts (DFP).
It contains 387,408 rows that can be used for a question-generation (with answer) task.
The original data (without prompts) comes from the dataset PIAF and was augmented by questions in SQUAD 2.0 format in the FrenchQA dataset.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the xP3 dataset by Muennighoff et al.
Prompts used
List
22 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
'Quelle question donnerait la réponse suivante ? Réponse : "'+answer+'";\nQuestion :',
'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante . \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurait pu être posée pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question aurais-tu pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Quelle question auriez-vous pu poser pour obtenir la réponse suivante. \n Réponse : "'+answer+'";\n Question :',
'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question : ',
'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question
Splits
train
with 387,408 samples- no
valid
split - no
test
split
How to use?
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/piaf_fr_prompt_question_generation_with_answer")
Citation
Original data
@InProceedings{keraron-EtAl:2020:LREC, author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo}, title = {Project PIAF: Building a Native French Question-Answering Dataset}, booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference}, month = {May}, year = {2020}, address = {Marseille, France}, publisher = {European Language Resources Association}, pages = {5483--5492}, url = {https://www.aclweb.org/anthology/2020.lrec-1.673} }
This Dataset
License
MIT