--- language: es license: apache-2.0 tags: - generated_from_trainer - es - text-classification - acoso - twitter - cyberbullying datasets: - hackathon-pln-es/Dataset-Acoso-Twitter-Es metrics: - accuracy widget: - text: Que horrible como la farándula chilena siempre se encargaba de dejar mal a las mujeres. Un asco - text: Hay que ser bien menestra para amenazar a una mujer con una llave de ruedas. Viendo como se viste no me queda ninguna duda - text: más centrados en tener una sociedad reprimida y sumisa que en estudiar y elaborar políticas de protección hacia las personas de mayor riesgo ante el virus. base_model: mrm8488/distilroberta-finetuned-tweets-hate-speech model-index: - name: Detección de acoso en Twitter results: [] --- # Detección de acoso en Twitter Español This model is a fine-tuned version of [mrm8488/distilroberta-finetuned-tweets-hate-speech](https://huggingface.co/mrm8488/distilroberta-finetuned-tweets-hate-speech) on [hackathon-pln-es/Dataset-Acoso-Twitter-Es](https://huggingface.co/datasets/hackathon-pln-es/Dataset-Acoso-Twitter-Es). It achieves the following results on the evaluation set: - Loss: 0.1628 - Accuracy: 0.9167 # UNL: Universidad Nacional de Loja ## Miembros del equipo: - Anderson Quizhpe
- Luis Negrón
- David Pacheco
- Bryan Requenes
- Paul Pasaca ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 16 - eval_batch_size: 16 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - lr_scheduler_warmup_steps: 500 - num_epochs: 5 ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | |:-------------:|:-----:|:----:|:---------------:|:--------:| | 0.6732 | 1.0 | 27 | 0.3797 | 0.875 | | 0.5537 | 2.0 | 54 | 0.3242 | 0.9167 | | 0.5218 | 3.0 | 81 | 0.2879 | 0.9167 | | 0.509 | 4.0 | 108 | 0.2606 | 0.9167 | | 0.4196 | 5.0 | 135 | 0.1628 | 0.9167 | ### Framework versions - Transformers 4.17.0 - Pytorch 1.10.0+cu111 - Datasets 2.0.0 - Tokenizers 0.11.6