bart-base-cnn-swe / README.md
Gabriel's picture
Update README.md
2cdf74d
|
raw
history blame
3.69 kB
metadata
language: sv
license: mit
datasets:
  - Gabriel/cnn_daily_swe
tags:
  - summarization
widget:
  - text: >-
      En kronologi av bombningar och försök bombattacker i det brittiska
      fastlandet sedan 1970-talet:. Polisen stänger gatorna runt Haymarket, i
      Londons livliga teaterdistrikt. 29 juni 2007: Polisen desarmerar en bomb
      bestående av 200 liter bränsle, gasflaskor och spikar som hittats i en
      övergiven bil i Haymarket i centrala London. En andra bil fylld med gas
      och spikar befanns senare ha parkerats bara några hundra meter från den
      första, innan den bogserades bort av trafikvakter i början av fredagen för
      att bryta parkeringsrestriktioner. Polisen säger att två fordon är tydligt
      kopplade. 21 juli 2005: Två veckor efter de dödliga 7/7 bombningarna
      påstås fyra män ha försökt genomföra en andra våg av attacker mot Londons
      transportnät vid tre tunnelbanestationer i London och ombord på en buss.
      Men deras påstådda ryggsäcksbomber exploderar inte. 7 juli 2005: Fyra
      självmordsbombare detonerar sig själva ombord på tre underjordiska tåg och
      en buss i en morgon rusningstid attack mot Londons transportnät, döda 52
      människor och skada omkring 700 fler. Al-Qaida tar på sig ansvaret i ett
      videouttalande.
model-index:
  - name: bart-base-cnn-swe
    results:
      - task:
          type: summarization
          name: summarization
        dataset:
          name: Gabriel/cnn_daily_swe
          type: Gabriel/cnn_daily_swe
          split: validation
        metrics:
          - name: Validation ROGUE-1
            type: rouge-1
            value: 21.7291
            verified: true
          - name: Validation ROGUE-2
            type: rouge-2
            value: 10.0209
            verified: true
          - name: Validation ROGUE-L
            type: rouge-l
            value: 17.775
            verified: true

bart-base-cnn-swe

WORK IN PROGRESS!

    1. Further fine-tune on checkpoint with cnn-daily-swe.
    1. Further fine-tune on xsum-swe.
    1. Lastly fine-tune on smaller domain dataset.

This model is a fine-tuned version of KBLab/bart-base-swedish-cased on the Gabriel/bart-base-cnn-swe dataset.

bart-base-cnn-swe

This model is a fine-tuned version of Gabriel/bart-base-cnn-swe on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 1.9759
  • Rouge1: 22.2046
  • Rouge2: 10.4332
  • Rougel: 18.1753
  • Rougelsum: 20.846
  • Gen Len: 19.9971

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 2
  • total_train_batch_size: 16
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 2
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Rouge1 Rouge2 Rougel Rougelsum Gen Len
1.8658 1.0 17944 2.0333 22.0871 10.2902 18.0577 20.7082 19.998
1.8121 2.0 35888 1.9759 22.2046 10.4332 18.1753 20.846 19.9971

Framework versions

  • Transformers 4.22.1
  • Pytorch 1.12.1+cu113
  • Datasets 2.4.0
  • Tokenizers 0.12.1