File size: 5,628 Bytes
232470e
05ea209
 
232470e
05ea209
 
 
6a69ba3
 
05ea209
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
232470e
 
 
05ea209
 
35c4c81
05ea209
232470e
 
 
 
 
 
 
 
d3a5b70
232470e
 
 
d3a5b70
 
 
 
 
 
 
 
 
 
232470e
 
 
d3a5b70
 
 
 
 
 
 
 
 
232470e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
---
license: cc-by-4.0
base_model: NazaGara/NER-fine-tuned-BETO
tags:
- generated_from_trainer
datasets:
- conll2002
language:
- es
metrics:
- precision
- recall
- f1
- accuracy
model-index:
- name: NER-finetuning-BETO
  results:
  - task:
      name: Token Classification
      type: token-classification
    dataset:
      name: conll2002
      type: conll2002
      config: es
      split: validation
      args: es
    metrics:
    - name: Precision
      type: precision
      value: 0.8773
    - name: Recall
      type: recall
      value: 0.8761
    - name: F1
      type: f1
      value: 0.8767
    - name: Accuracy
      type: accuracy
      value: 0.9812
---

# NER-finetuned-BETO
Este es un modelo fine-tuned de [NazaGara/NER-fine-tuned-BETO](https://huggingface.co/NazaGara/NER-fine-tuned-BETO) con el dataset conll2002.
Los resultados fueron los siguientes:

- Loss: 0.2820
- Precision: 0.8773
- Recall: 0.8761
- F1: 0.8767
- Accuracy: 0.9812


## Model description

Es un modelo de secuencias basado en BETO para la tarea de etiquetado de secuencias (NER - Named Entity Recognition) y ajustado (fine-tuned). Utiliza transformadores para identificar y clasificar entidades nombradas en el texto.

## Intended uses & limitations

### Intented uses:

- Reconocimiento de entidades nombradas en textos en espa帽ol.
- Aplicaciones en procesamiento de lenguaje natural para extraer informaci贸n estructurada de documentos no estructurados.

### Limitations:

- El modelo puede tener un rendimiento reducido en textos que contienen lenguaje coloquial o jerga.
- Su precisi贸n depende en gran medida de la calidad y diversidad de los datos de entrenamiento.
- El modelo puede no generalizar bien a dominios o contextos muy diferentes de los datos de entrenamiento.

## Training and evaluation data

### Training Data:

- El modelo fue entrenado utilizando un conjunto de datos etiquetado con entidades nombradas en espa帽ol.
- Los datos de entrenamiento contienen diversos ejemplos de texto con diferentes tipos de entidades, como nombres de personas, organizaciones, y ubicaciones.

### Evaluation Data:

- Los datos de evaluaci贸n se seleccionaron para medir el rendimiento del modelo en un conjunto de prueba diverso y representativo.
- Los resultados de la evaluaci贸n incluyen m茅tricas como precisi贸n, recall, F1-score y accuracy.

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:

- eval_strategy="steps",
- eval_steps=250,
- save_strategy="epoch",
- learning_rate=3e-5,
- num_train_epochs=20,
- per_device_train_batch_size=12,
- weight_decay=0.1,


### Training results

[13880 / 13880, Epoch 20/20]

| Step | Training Loss | Validation Loss |
|:-------:|:---------------:|:-----------------:|
| 250     | No log          | 0.155875          |
| 500     | 0.063300        | 0.149275          |
| 750     | 0.063300        | 0.149796          |
| 1000    | 0.041700        | 0.157160          |
| 1250    | 0.041700        | 0.159034          |
| 1500    | 0.032700        | 0.178371          |
| 1750    | 0.032700        | 0.188239          |
| 2000    | 0.024100        | 0.174550          |
| 2250    | 0.024100        | 0.177991          |
| 2500    | 0.021200        | 0.196993          |
| 2750    | 0.017200        | 0.171864          |
| 3000    | 0.014200        | 0.221017          |
| 3250    | 0.014200        | 0.188359          |
| 3500    | 0.013500        | 0.202872          |
| 3750    | 0.012900        | 0.216551          |
| 4000    | 0.012300        | 0.210710          |
| 4250    | 0.010100        | 0.226150          |
| 4500    | 0.007200        | 0.211124          |
| 4750    | 0.007200        | 0.233601          |
| 5000    | 0.006400        | 0.240447          |
| 5250    | 0.006400        | 0.218564          |
| 5500    | 0.006200        | 0.220331          |
| 5750    | 0.006200        | 0.237083          |
| 6000    | 0.004700        | 0.243056          |
| 6250    | 0.004700        | 0.240422          |
| 6500    | 0.004700        | 0.250421          |
| 6750    | 0.004500        | 0.258444          |
| 7000    | 0.004500        | 0.245971          |
| 7250    | 0.004500        | 0.256681          |
| 7500    | 0.003500        | 0.246265          |
| 7750    | 0.003500        | 0.256869          |
| 8000    | 0.002900        | 0.255373          |
| 8250    | 0.002900        | 0.251113          |
| 8500    | 0.002800        | 0.264475          |
| 8750    | 0.002800        | 0.260816          |
| 9000    | 0.003100        | 0.285076          |
| 9250    | 0.003100        | 0.275611          |
| 9500    | 0.002700        | 0.284239          |
| 9750    | 0.002700        | 0.285485          |
| 10000   | 0.002400        | 0.292293          |
| 10250   | 0.002400        | 0.274808          |
| 10500   | 0.002000        | 0.288339          |
| 10750   | 0.002000        | 0.285888          |
| 11000   | 0.001700        | 0.296517          |
| 11250   | 0.001700        | 0.284072          |
| 11500   | 0.001800        | 0.285594          |
| 11750   | 0.001800        | 0.283680          |
| 12000   | 0.001900        | 0.282890          |
| 12250   | 0.001900        | 0.279963          |
| 12500   | 0.001700        | 0.280620          |
| 12750   | 0.001700        | 0.280996          |
| 13000   | 0.001400        | 0.279926          |
| 13250   | 0.001400        | 0.282571          |
| 13500   | 0.001300        | 0.282674          |
| 13750   | 0.001300        | 0.282024          |


### Framework versions

- Transformers 4.40.2
- Pytorch 2.2.1+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1