Gabriel's picture
Add verifyToken field to verify evaluation results are produced by Hugging Face's automatic model evaluator (#1)
9b280fa
|
raw
history blame
5.62 kB
metadata
language: sv
license: mit
tags:
  - summarization
datasets:
  - Gabriel/xsum_swe
widget:
  - text: >-
      Jordan Hill, Bretagne Covington och Tesfaye Cooper, alla 18, och Tanishia
      Covington, 24, dök upp i en Chicagodomstol på fredag. De fyra har åtalats
      för hatbrott och grov kidnappning och misshandel, bland annat. En
      insamling på nätet till deras offer har hittills samlat in $51.000
      (=42.500 pund). Domare Maria Kuriakos Ciesil förnekade borgen och frågade:
      Var fanns din anständighetskänsla? Åklagarna berättade för domstolen att
      misshandeln började i en skåpbil och fortsatte i ett hus, där de
      misstänkta påstås ha tvingat det 18-åriga vita offret, som lider av
      schizofreni och problem med uppmärksamhetsbrist, att dricka toalettvatten
      och kyssa golvet. Polisen hävdar att skåpbilen tidigare stals av Mr Hill,
      som också anklagas för att ha krävt 300 dollar av offrets mor medan de
      höll honom fången, enligt Chicago Tribune. Rätten fick också veta att de
      misstänkta stoppade en strumpa i munnen, tejpade igen munnen och band
      händerna med ett bälte. I en video gjord för Facebook Live som har setts
      miljontals gånger, kan angriparna höras göra nedsättande uttalanden mot
      vita människor och Donald Trump. Offret hade släppts av på en McDonalds
      för att träffa Mr Hill - som var en av hans vänner - den 31 december. Han
      hittades av en polis tisdagen den 3 januari, en dag efter att han anmäldes
      saknad av sina föräldrar. Åklagarna säger att de misstänkta möter två
      hatbrott räknas, en på grund av offrets ras och den andra på grund av hans
      funktionshinder.
inference:
  parameters:
    temperature: 0.7
    min_length: 30
    max_length: 120
train-eval-index:
  - config: Gabriel--xsum_swe
    task: summarization
    task_id: summarization
    splits:
      eval_split: test
    col_mapping:
      document: text
      summary: target
co2_eq_emissions:
  emissions: 0.0334
  source: Google Colab
  training_type: fine-tuning
  geographical_location: Fredericia, Denmark
  hardware_used: Tesla P100-PCIE-16GB
model-index:
  - name: bart-base-cnn-xsum-swe
    results:
      - task:
          type: summarization
          name: summarization
        dataset:
          name: Gabriel/xsum_swe
          type: Gabriel/xsum_swe
          split: validation
        metrics:
          - type: rouge-1
            value: 30.9467
            name: Validation ROGUE-1.
            verified: true
            verifyToken: >-
              eyJhbGciOiJFZERTQSIsInR5cCI6IkpXVCJ9.eyJoYXNoIjoiNWJmOWRhNjgzNjNhY2U3Y2VjY2Y0MzU3MmQyNzVlNzE0NmZjY2YxM2EzZmUxMzA3YTQ1MjU0ZGI3ZjU2OTllNCIsInZlcnNpb24iOjF9.vs305ofbXaHXU-APAdgvvMjJgI7Eb2xpNih3yt9lgFzG5EhDmVm2la62vLgiW_ypvc3v-95CFw2RDvX4GjqQDA
          - type: rouge-2
            value: 12.2589
            name: Validation ROGUE-2
            verified: true
            verifyToken: >-
              eyJhbGciOiJFZERTQSIsInR5cCI6IkpXVCJ9.eyJoYXNoIjoiNGI4NzFhZDBjZmJhYmFhMmYwZTQ3ZTdkYTY3OWU1MDk2MDNjNDAyODg3Yzc2YjY0MmE1ZGZlYjIyODdiYTZjZCIsInZlcnNpb24iOjF9.Xm9uAyUR_QsOKtw7GM0J6jduoL1-qUVra07cpIGQve8au8T8r94pzvb_r5f5YFKioa1rsG8fT8xCHecV2yPjAg
          - type: rouge-l
            value: 25.4487
            name: Validation ROGUE-L
            verified: true
            verifyToken: >-
              eyJhbGciOiJFZERTQSIsInR5cCI6IkpXVCJ9.eyJoYXNoIjoiNDdmMjEyNDRhODI5MWJmNGYyMGRiMzlkOGMwODIyZjgyNDg2M2NjMTAwZTlkYWVkZjUxNjRmNzgzZWU0MGMyNCIsInZlcnNpb24iOjF9.Wx0RQwcx4-rJ2K3EG-RwWxvfTpSYii-DW2Wi9TTre6HkByDHNImzesP7sPJ3AcIoHZzt1kw30652nUpmMW5zDg
          - type: rouge-l-sum
            value: 25.4792
            name: Validation ROGUE-L-SUM
            verified: true
            verifyToken: >-
              eyJhbGciOiJFZERTQSIsInR5cCI6IkpXVCJ9.eyJoYXNoIjoiNTFiMDE5YThmNGM5YjMwNThkNzQ1MWUzMGFjNmNiNzE0ZWU0N2I2OTk0MTU4YzkwNzhlNzkzZjI0MjcxNTQ4OSIsInZlcnNpb24iOjF9.uU9p925R6K3m9w-SrfTFb7pbXEfP8T38tsOG9iKiLiLPexQ1sJTTold1oTTWiYOs8oDBIqF1w2eRit4Q7U90Dg

bart-base-cnn-xsum-swe

This model is a fine-tuned version of Gabriel/bart-base-cnn-swe on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 2.1027
  • Rouge1: 30.9467
  • Rouge2: 12.2589
  • Rougel: 25.4487
  • Rougelsum: 25.4792
  • Gen Len: 19.7379

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 4e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • gradient_accumulation_steps: 2
  • total_train_batch_size: 32
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 500
  • num_epochs: 4
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Rouge1 Rouge2 Rougel Rougelsum Gen Len
2.3076 1.0 6375 2.1986 29.7041 10.9883 24.2149 24.2406 19.7193
2.0733 2.0 12750 2.1246 30.4521 11.8107 24.9519 24.9745 19.6592
1.8933 3.0 19125 2.0989 30.9407 12.2682 25.4135 25.4378 19.7195
1.777 4.0 25500 2.1027 30.9467 12.2589 25.4487 25.4792 19.7379

Framework versions

  • Transformers 4.22.2
  • Pytorch 1.12.1+cu113
  • Datasets 2.5.1
  • Tokenizers 0.12.1