File size: 4,705 Bytes
17b8484
 
 
 
 
 
1016b26
17b8484
 
 
 
be20479
 
 
 
 
 
 
 
 
 
17b8484
 
 
 
 
be20479
 
 
17b8484
 
 
 
 
 
 
 
aed3f63
17b8484
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
be20479
 
 
 
17b8484
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4cebfa1
 
 
 
 
 
 
 
17b8484
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
---
language:
- fr
license:
- unknown
size_categories:
- 1M<n<10M
task_categories:
- token-classification
tags:
- ner
- DFP
- french prompts
annotations_creators:
- found
language_creators:
- found
multilinguality:
- monolingual
source_datasets:
- multinerd
---

# multinerd_fr_prompt_ner
## Summary

**multinerd_fr_prompt_ner** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).  
It contains **3,699,885** rows that can be used for a name entity recognition task.  
The original data (without prompts) comes from the dataset [multinerd](https://huggingface.co/datasets/tner/multinerd) by Tedeschi et al. where only the French part has been kept.  
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.


## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.

```
'Extraire les entités nommées du texte suivant : '+text,
'Extrais les entitées nommées du texte suivant : '+text,
'Extrayez les entitées nommées du texte suivant : '+text,
'Isoler les entitées nommées du texte suivant : '+text,
'Isole les entitées nommées du texte suivant : '+text,
'Isolez les entitées nommées du texte suivant : '+text,
'Dégager des entitées nommées dans le texte : '+text,
'Dégage des entitées nommées dans le texte : '+text,
'Dégagez des entitées nommées dans le texte : '+text,
'Générer des entitées nommées issues du texte suivant : '+text,
'Génère des entitées nommées issues du texte suivant : '+text,
'Générez des entitées nommées issues du texte suivant : '+text,
'Trouver les entitées nommées du texte : '+text,
'Trouve les entitées nommées du texte : '+text,
'Trouvez les entitées nommées du texte : '+text,
'Repérer les entitées nommées présentes dans le texte suivant : '+text,
'Repère les entitées nommées présentes dans le texte suivant : '+text,
'Repérez les entitées nommées présentes dans le texte suivant : '+text,
'Indiquer les entitées nommées du texte :'+text,
'Indique les entitées nommées du texte : '+text,
'Indiquez les entitées nommées du texte : '+text
```

### Features used in the prompts
In the prompt list above, `text` and `targets` have been constructed from:
```
multinerd = load_dataset('tner/multinerd','fr') 
multinerd['test']['tokens'] = list(map(lambda i: ' '.join(multinerd['test']['tokens'][i]), range(len(multinerd['test']['tokens']))))
multinerd['test']['tags'] = list(map(lambda x: x.replace("[","").replace("]","").replace('10','O').replace('11','O').replace('12','O').replace('13','O').replace('14','O').replace('15','O').replace('16','O').replace('17','O').replace('18','O').replace('19','O').replace('20','O').replace('21','O').replace('22','O').replace('23','O').replace('24','O').replace('25','O').replace('26','O').replace('27','O').replace('28','O').replace('29','O').replace('30','O').replace('31','O').replace('32','O').replace('33','O').replace('34','O').replace('0','O').replace('1','B-PER').replace('2','I-PER').replace('3','B-LOC').replace('4','I-LOC').replace('5','B-ORG').replace('6','I-ORG').replace('7','O').replace('8','O').replace('9','O'), map(str, multinerd['test']['tags'])))
```



# Splits
- `train` with 3,699,885 samples
- no `valid` split
- no `test` split



# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/multinerd_fr_prompt_ner")
```

# Citation
## Original data
> @inproceedings{tedeschi-navigli-2022-multinerd,
    title = "{M}ulti{NERD}: A Multilingual, Multi-Genre and Fine-Grained Dataset for Named Entity Recognition (and Disambiguation)",
    author = "Tedeschi, Simone  and Navigli, Roberto",
    booktitle = "Findings of the Association for Computational Linguistics: NAACL 2022",
    month = jul,
    year = "2022",
    address = "Seattle, United States",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/2022.findings-naacl.60",
    doi = "10.18653/v1/2022.findings-naacl.60",
    pages = "801--812",
}


## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,  
	author       = { {Centre Aquitain des Technologies de l'Information et Electroniques} },  
	title        = { DFP (Revision 1d24c09) },  
	year         = 2023,  
	url          = { https://huggingface.co/datasets/CATIE-AQ/DFP },  
	doi          = { 10.57967/hf/1200 },  
	publisher    = { Hugging Face }  
}



## License
Unknow