File size: 4,053 Bytes
3c6af8a
2cdf74d
1bea949
2cdf74d
 
6c21295
2cdf74d
 
 
 
 
3c6af8a
 
2cdf74d
 
 
 
 
 
 
 
 
 
 
9960650
2cdf74d
 
 
9960650
2cdf74d
 
 
9960650
 
 
 
 
2cdf74d
c254ed4
 
 
 
 
 
 
 
 
 
f8e01ee
3c6af8a
2cdf74d
9960650
2cdf74d
9960650
f1849e8
2cdf74d
 
3c6af8a
 
f1849e8
3c6af8a
 
 
 
 
 
83ab60e
c287791
 
3c6af8a
c287791
3c6af8a
 
 
16d5256
3c6af8a
 
 
 
c287791
 
9960650
 
 
 
c287791
3c6af8a
c287791
3c6af8a
83ab60e
c287791
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
---
language: sv
license: mit
datasets:
- Gabriel/cnn_daily_swe
tags:
- summarization

widget:
- text: "En kronologi av bombningar och försök bombattacker i det brittiska fastlandet sedan 1970-talet:. Polisen stänger gatorna runt Haymarket, i Londons livliga teaterdistrikt. 29 juni 2007: Polisen desarmerar en bomb bestående av 200 liter bränsle, gasflaskor och spikar som hittats i en övergiven bil i Haymarket i centrala London. En andra bil fylld med gas och spikar befanns senare ha parkerats bara några hundra meter från den första, innan den bogserades bort av trafikvakter i början av fredagen för att bryta parkeringsrestriktioner. Polisen säger att två fordon är tydligt kopplade. 21 juli 2005: Två veckor efter de dödliga 7/7 bombningarna påstås fyra män ha försökt genomföra en andra våg av attacker mot Londons transportnät vid tre tunnelbanestationer i London och ombord på en buss. Men deras påstådda ryggsäcksbomber exploderar inte. 7 juli 2005: Fyra självmordsbombare detonerar sig själva ombord på tre underjordiska tåg och en buss i en morgon rusningstid attack mot Londons transportnät, döda 52 människor och skada omkring 700 fler. Al-Qaida tar på sig ansvaret i ett videouttalande."
      
model-index:
- name: bart-base-cnn-swe
  results:
    - task: 
        type: summarization
        name: summarization
      dataset:
        name: Gabriel/cnn_daily_swe
        type: Gabriel/cnn_daily_swe
        split: validation
      metrics:
           - name: Validation ROGUE-1
             type: rouge-1
             value: 22.2046
             verified: true
           - name: Validation ROGUE-2
             type: rouge-2
             value: 10.4332
             verified: true
           - name: Validation ROGUE-L
             type: rouge-l
             value: 18.1753
             verified: true
           - name: Validation ROGUE-L-SUM
             type: rouge-l-sum
             value: 20.846
             verified: true
             
train-eval-index:
- config: Gabriel--xsum_swe
  task: summarization
  task_id: summarization
  splits:
    eval_split: train
  col_mapping:
    document: text
    summary: target
---

# bart-base-cnn-swe
This model is a W.I.P

## Model description
BART is a transformer encoder-encoder (seq2seq) model with a bidirectional (BERT-like) encoder and an autoregressive (GPT-like) decoder. BART is pre-trained by (1) corrupting text with an arbitrary noising function, and (2) learning a model to reconstruct the original text. This model is a fine-tuned version of [KBLab/bart-base-swedish-cased](https://huggingface.co/KBLab/bart-base-swedish-cased) on the [Gabriel/bart-base-cnn-swe](https://huggingface.co/datasets/Gabriel/cnn_daily_swe) dataset and can be used for summarization tasks.


## Intended uses & limitations

This model should only be used to fine-tune further on and summarization tasks.

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 16
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 2*2 = 4
- mixed_precision_training: Native AMP

### Training results

| Training Loss | Epoch | Step  | Validation Loss | Rouge1  | Rouge2  | Rougel  | Rougelsum | Gen Len |
|:-------------:|:-----:|:-----:|:---------------:|:-------:|:-------:|:-------:|:---------:|:-------:|
| 2.2349        | 1.0   | 17944 | 2.0643          | 21.9564 | 10.2133 | 17.9958 | 20.6502   | 19.9992 |
| 2.0726        | 2.0   | 35888 | 2.0253          | 22.0568 | 10.3302 | 18.0648 | 20.7482   | 19.9996 |
| 1.8658        | 3.0   | 53832 | 2.0333          | 22.0871 | 10.2902 | 18.0577 | 20.7082   | 19.998  |
| 1.8121        | 4.0   | 71776 | 1.9759          | 22.2046 | 10.4332 | 18.1753 | 20.846    | 19.9971 |


### Framework versions

- Transformers 4.22.1
- Pytorch 1.12.1+cu113
- Datasets 2.4.0
- Tokenizers 0.12.1