saattrupdan's picture
Librarian Bot: Add base_model information to model (#2)
70db169
---
language:
- da
license: mit
tags:
- generated_from_trainer
widget:
- text: Hvem handler artiklen om?
context: 'Forfatter og musiker Flemming Quist Møller er død i en alder af 79 år.
Den folkekære kunstner faldt om ved morgenbordet med en blodprop i hjertet i mandags.
Det kunne forfatterens søn, Carl Quist-Møller, bekræfte over for TV 2 Lorry.-
Han faldt om i det hus i Taarbæk, hvor han er vokset op og også har boet de sidste
år af sit liv. Han blev lagt i koma på Rigshospitalet. Her har vi siddet omkring
ham i en uge, siger Carl Quist-Møller til mediet.MindeordI mange år var Flemming
Quist Møller en del af bandet Bazaar sammen med Peter Bastian, Anders Koppel og
Mehmet Ozan.Anders Koppel er tydeligt rørt over vennens død, da Ekstra Bladet
rækker ud til ham mandag aften.- Det er en stor del af mit liv, der er forsvundet
med Flemmings liv, det er klart. Vi har spillet sammen i 37 år, siger han og fortsætter:-
Jeg vil mest huske ham for hans ukonventionelle tilgang til alting. Flemming havde
et meget stærkt blik for det autentiske og ærlige. Han var ikke bundet af normer
-tværtimod, hvis han så en norm, hvor noget skulle gøres på en bestemt måde, så
flygtede han eller prøvede at springe det i stumper og stykker.Ifølge den danske
musiker og komponist er netop følgende ord rammende for Flemming Quist Møller:
Original, vidende, kompromisløs og humoristisk.'
base_model: xlm-roberta-base
model-index:
- name: xlmr-base-texas-squad-da
results: []
---
# TExAS-SQuAD-da
This model is a fine-tuned version of [xlm-roberta-base](https://huggingface.co/xlm-roberta-base) on the TExAS-SQuAD-da dataset.
It achieves the following results on the evaluation set:
- Exact match: 63.96%
- F1-score: 68.40%
In comparison, the `jacobshein/danish-bert-botxo-qa-squad` model achieves 30.37% EM and 37.15% F1.
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:-----:|:-----:|:---------------:|
| 1.6438 | 1.0 | 4183 | 1.4711 |
| 1.4079 | 2.0 | 8366 | 1.4356 |
| 1.2532 | 3.0 | 12549 | 1.4509 |
### Framework versions
- Transformers 4.12.2
- Pytorch 1.8.1+cu101
- Datasets 1.12.1
- Tokenizers 0.10.3