bourdoiscatie commited on
Commit
ac67125
1 Parent(s): 963ff7a

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +83 -0
README.md ADDED
@@ -0,0 +1,83 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - fr
4
+ license: mit
5
+ size_categories:
6
+ - 10K<n<100K
7
+ task_categories:
8
+ - text-generation
9
+ ---
10
+
11
+ # piaf_fr_prompt_question_generation_with_answer_and_context
12
+ ## Summary
13
+
14
+ **piaf_fr_prompt_question_generation_with_answer_and_context** is a subset of the [**Dataset of French Prompts (DFP)**]().
15
+ It contains **48,069** rows that can be used for a question-generation (with answer and context)
16
+ task.
17
+ The original data (without prompts) comes from the dataset [PIAF](https://huggingface.co/datasets/etalab-ia/piaf) and was augmented by questions in SQUAD 2.0 format in the [FrenchQA]( https://huggingface.co/datasets/CATIE-AQ/frenchQA) dataset.
18
+ A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
19
+
20
+
21
+ ## Prompts used
22
+ ### List
23
+ 21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
24
+
25
+ ```
26
+ 'Déterminer la question qui aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
27
+ 'Détermine la question que tu aurais pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
28
+ 'Déterminez la question que vous auriez pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
29
+ 'Quelle question aurait pu être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
30
+ 'Quelle question aurais-tu pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
31
+ 'Quelle question auriez-vous pu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
32
+ 'Quelle question peut être posée pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
33
+ 'Quelle question peux-tu poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
34
+ 'Quelle question pouvez-vous poser pour obtenir la réponse suivante dans le contexte donné. \n Contexte : "'+context+'";\n Réponse : "'+answer+'";\n Question :',
35
+ 'Sachant la réponse suivante : "'+answer+'"\n Générer une bonne question pour le texte suivant : "'+context+'"',
36
+ 'Sachant la réponse suivante : "'+answer+'"\n Génère une bonne question pour le texte suivant : "'+context+'"',
37
+ 'Sachant la réponse suivante : "'+answer+'"\n Générez une bonne question pour le texte suivant : "'+context+'"',
38
+ 'Sachant la réponse suivante : "'+answer+'"\n Trouver une bonne question pour le texte suivant : "'+context+'"',
39
+ 'Sachant la réponse suivante : "'+answer+'"\n Trouves une bonne question pour le texte suivant : "'+context+'"',
40
+ 'Sachant la réponse suivante : "'+answer+'"\n Trouvez une bonne question pour le texte suivant : "'+context+'"',
41
+ 'Sachant la réponse suivante : "'+answer+'"\n Créer une bonne question pour le texte suivant : "'+context+'"',
42
+ 'Sachant la réponse suivante : "'+answer+'"\n Crée trouver une bonne question pour le texte suivant : "'+context+'"',
43
+ 'Sachant la réponse suivante : "'+answer+'"\n Créez trouver une bonne question pour le texte suivant : "'+context+'"',
44
+ 'Sachant la réponse suivante : "'+answer+'"\n Ecrire une bonne question pour le texte suivant : "'+context+'"',
45
+ 'Sachant la réponse suivante : "'+answer+'"\n Ecris une bonne question pour le texte suivant : "'+context+'"',
46
+ 'Sachant la réponse suivante : "'+answer+'"\n Ecrivez une bonne question pour le texte suivant : "'+context+'"
47
+ ```
48
+
49
+ # Splits
50
+ - train with 48,069 samples
51
+ - no valid and test splits in the original data
52
+
53
+
54
+ # How to use?
55
+ ```
56
+ from datasets import load_dataset
57
+ dataset = load_dataset("CATIE-AQ/piaf_fr_prompt_question_generation_with_answer_and_context")
58
+ ```
59
+
60
+
61
+ # Citation
62
+ ## Original data
63
+ > @InProceedings{keraron-EtAl:2020:LREC,
64
+ author = {Keraron, Rachel and Lancrenon, Guillaume and Bras, Mathilde and Allary, Frédéric and Moyse, Gilles and Scialom, Thomas and Soriano-Morales, Edmundo-Pavel and Staiano, Jacopo},
65
+ title = {Project PIAF: Building a Native French Question-Answering Dataset},
66
+ booktitle = {Proceedings of The 12th Language Resources and Evaluation Conference},
67
+ month = {May},
68
+ year = {2020},
69
+ address = {Marseille, France},
70
+ publisher = {European Language Resources Association},
71
+ pages = {5483--5492},
72
+ url = {https://www.aclweb.org/anthology/2020.lrec-1.673}
73
+ }
74
+
75
+
76
+
77
+
78
+ ## This Dataset
79
+
80
+
81
+
82
+ ## License
83
+ MIT