Edit model card
YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

BERT-finetuned-ner-BM

Este modelo es un finetuning de BERT base sobre el dataset conll2002. Este modelo logra los siguientes resultados sobre el conjunto de testeo:

Loss:  0.115
Precision: 0.8105
Recall: 0.838
F1: 0.824
Accuracy: 0.9792

Descripción

CoNLL2002 es el conjunto de datos español de la Tarea Compartida CoNLL-2002 (Tjong Kim Sang, 2002). El conjunto de datos está anotado con cuatro tipos de entidades nombradas (personas, ubicaciones, organizaciones y otras entidades diversas) formateadas en el formato estándar Beginning-Inside-Outside (BIO). El corpus consta de 8.324 sentencias de tren con 19.400 entidades nombradas, 1.916 sentencias de desarrollo con 4.568 entidades nombradas y 1.518 sentencias de prueba con 3.644 entidades nombradas. Training and evaluation data

El modelo fue entrenado con una TPU 4 de Google Colab a 5 épocas y con un batch-size de 8 y 4 para training y evaluation respectivamente y evaluado con F1-score por cada una de las épocas.

Hiperparámetro

learning_rate=2e-5,
per_device_train_batch_size=4,
per_device_eval_batch_size=8,
num_train_epochs=5,
weight_decay=0.1,
max_grad_norm=1.0,
adam_epsilon=1e-8,
save_total_limit=2,
load_best_model_at_end=True,
push_to_hub=True,
metric_for_best_model="f1",

Framework versions

Transformers 4.41.1
Pytorch 2.3.0+cu118
Datasets 2.19.1
Tokenizers 0.19.1
Downloads last month
7
Safetensors
Model size
108M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.