--- tags: - generated_from_trainer metrics: - precision - recall - f1 - accuracy model-index: - name: bert-swe-skills-ner results: [] widget: - text: "Du är legitimerad grundskolelärare med aktuell behörighet. Personliga egenskaper: För att lyckas och trivas hos oss behöver du ha god förmåga att samarbeta, vara lyhörd och ha lätt för att sätta dig in i andra människors perspektiv. Du behöver vara trygg i dig själv, stabil och ha god självinsikt. Det är viktigt i rollen att du har en väl utvecklad pedagogisk förmåga. Du har god förståelse för hur barn och ungdomar tar till sig kunskap och om olika förutsättningar för lärande. Det är också viktigt att du är flexibel och lätt kan anpassa dig till ändrade omständigheter i verksamheten." --- --- # bert-swe-skills-ner This model is a fine-tuned version of [RJuro/bert-swe-skills-ner](https://huggingface.co/RJuro/bert-swe-skills-ner) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.0486 - Precision: 0.8194 - Recall: 0.8710 - F1: 0.8444 - Accuracy: 0.9856 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - num_epochs: 5 ### Training results | Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy | |:-------------:|:-----:|:----:|:---------------:|:---------:|:------:|:------:|:--------:| | No log | 1.0 | 39 | 0.1509 | 0.5872 | 0.6636 | 0.6231 | 0.9492 | | No log | 2.0 | 78 | 0.1069 | 0.6750 | 0.7544 | 0.7125 | 0.9660 | | No log | 3.0 | 117 | 0.0688 | 0.7692 | 0.8050 | 0.7867 | 0.9785 | | No log | 4.0 | 156 | 0.0529 | 0.8239 | 0.8452 | 0.8344 | 0.9842 | | No log | 5.0 | 195 | 0.0486 | 0.8194 | 0.8710 | 0.8444 | 0.9856 | ### Framework versions - Transformers 4.28.1 - Pytorch 2.0.0+cu118 - Datasets 2.11.0 - Tokenizers 0.13.3