File size: 4,538 Bytes
6bfb681
 
 
 
 
 
 
 
 
 
fc7a1c9
 
 
 
 
 
 
 
 
 
6bfb681
 
806bbed
6bfb681
 
fc7a1c9
 
 
6bfb681
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
fc7a1c9
 
 
6bfb681
 
 
 
 
806bbed
6bfb681
 
 
 
681fbe8
 
 
 
 
 
 
 
 
 
 
 
6bfb681
 
681fbe8
 
 
 
 
 
 
 
6bfb681
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
---
language:
- fr
license: lgpl
size_categories:
- 10K<n<100K
task_categories:
- token-classification
tags:
- pos
- DFP
- french prompts
annotations_creators:
- found
language_creators:
- found
multilinguality:
- monolingual
source_datasets:
- universal_dependencies_fr_sequoia
---

# universal_dependencies_fr_sequoia_fr_prompt_pos
## Summary

**universal_dependencies_fr_sequoia_fr_prompt_pos** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).  
It contains **27,804** rows that can be used for a part-of-speech task.  
The original data (without prompts) comes from the dataset [universal_dependencies](https://huggingface.co/datasets/universal_dependencies) where only the French sequoia split has been kept.  
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.


## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.

```
'Extraire les classes des mots du texte suivant : '+text,  
'Extrais les classes des mots du texte suivant : '+text,  
'Extrayez les classes des mots du texte suivant : '+text,  
'Isoler les classes des mots du texte suivant : '+text,  
'Isole les classes des mots du texte suivant : '+text,  
'Isolez les classes des mots du texte suivant : '+text,  
'Dégager les classes des mots dans le texte : '+text,  
'Dégage les classes des mots dans le texte : '+text,  
'Dégagez les classes des mots dans le texte : '+text,  
'Générer les classes des mots issues du texte suivant : '+text,  
'Génère les classes des mots issues du texte suivant : '+text,  
'Générez les classes des mots issues du texte suivant : '+text,  
'Trouver les classes des mots du texte : '+text,  
'Trouve les classes des mots du texte : '+text,  
'Trouvez les classes des mots du texte : '+text,  
'Repérer les classes des mots présentes dans le texte suivant : '+text,  
'Repère les classes des mots présentes dans le texte suivant : '+text,  
'Repérez les classes des mots présentes dans le texte suivant : '+text,  
'Indiquer les classes des mots du texte :'+text,  
'Indique les classes des mots du texte : '+text,  
'Indiquez les classes des mots du texte : '+text
```

### Features used in the prompts
In the prompt list above, `text` and `targets` have been constructed from:
```
fr_sequoia = load_dataset('universal_dependencies', 'fr_sequoia')  
# text
fr_sequoia['train']['tokens'] = list(map(lambda i: ' '.join(fr_sequoia['train']['tokens'][i]), range(len(fr_sequoia['train']['tokens']))))
# targets
fr_sequoia['train']['upos'] = list(map(lambda x: x.replace("[","").replace("]","").replace('17','AUX').replace('16','VERB').replace('15','INTJ').replace('14','ADV').replace('13','_').replace('12','X').replace('11','PRON').replace('10','PROPN').replace('9','CCONJ').replace('8','DET').replace('7','PART').replace('6','ADJ').replace('5','SCONJ').replace('4','SYM').replace('3','NUM').replace('2','ADP').replace('1','PUNCT').replace('0','NOUN'), map(str,fr_sequoia['train']['upos'])))
```



# Splits
- `train` with 9,576 samples
- `valid` with 8,652 samples
- `test` with 9,576 samples


# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/universal_dependencies_fr_sequoia_fr_prompt_pos")
```

# Citation
## Original data
> @inproceedings{candito:hal-00698938,
  TITLE = {{Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical}},
  AUTHOR = {Candito, Marie and Seddah, Djam{\'e}},
  URL = {https://inria.hal.science/hal-00698938},
  BOOKTITLE = {{TALN 2012 - 19e conf{\'e}rence sur le Traitement Automatique des Langues Naturelles}},
  ADDRESS = {Grenoble, France},
  YEAR = {2012},
  MONTH = Jun,
  PDF = {https://inria.hal.science/hal-00698938/file/canditoseddah-taln2012-final.pdf},
  HAL_ID = {hal-00698938},
  HAL_VERSION = {v1},
}

## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,  
	author       = { {Centre Aquitain des Technologies de l'Information et Electroniques} },  
	title        = { DFP (Revision 1d24c09) },  
	year         = 2023,  
	url          = { https://huggingface.co/datasets/CATIE-AQ/DFP },  
	doi          = { 10.57967/hf/1200 },  
	publisher    = { Hugging Face }  
}



## License
LGPL-LR