pengold's picture
Update README.md
f911e76
metadata
license: cc-by-4.0
base_model: pengold/t5-vietnamese-summarization
tags:
  - summarization
metrics:
  - rouge
model-index:
  - name: t5-vietnamese-summarization
    results: []
inference:
  parameters:
    min_length: 5
    max_length: 150
widget:
  - text: >-
      summarize: Thảo luận phiên chuyên đề 2 về năng suất lao động tại Diễn đàn
      Kinh tế - Xã hội 2023 ngày 19/9, Chuyên gia Kinh tế quốc tế Jonathan
      Pincus (Tổ chức phát triển Liên hợp quốc tại Việt Nam) nói việc tăng năng
      suất lao động cần nhìn nhận trong quá trình dài hơi thay vì trong giai
      đoạn ngắn. Rất khó để một quốc gia có thể tăng trưởng năng suất nhanh
      trong một giai đoạn dài, đó chính là bẫy năng suất trung bình, ông Pincus
      đúc rút, gọi đây là mối đe dọa lớn.
    example_title: Example 1
  - text: >-
      summarize: Đây là nỗ lực của chính phủ nhằm giảm đi cơn sốt trên
      thị trường chứng khoán. Quyết định này có tác động ngay lập
      tức. Chỉ số chính của thị trường chứng khoán Thượng Hải khi
      đóng cửa giảm 281.8 điểm, ở mức 4053.1. Một số phân tích gia nói
      việc cổ phiếu sụt giá cũng chỉ mang tính tạm thời mà thôi. Ngân
      hàng Thế giới giờ đây dự đoán nền kinh tế Trung Quốc sẽ tăng
      10.4% trong năm nay. Lúc trước, Ngân hàng Thế giới dự đoán kinh tế
      Trung Quốc sẽ tăng 9.6% trong năm 2007. Với việc Bắc Kinh đưa ra
      hành động nhằm giảm nhiệt thị trường chứng khoán vào hôm thứ
      Tư, thuế đối với cổ phiếu giao dịch giờ đây tăng từ 0.1% lên 0.3%.
      Tính đến phiên đóng cửa vào hôm thứ Ba, chỉ số cổ phiếu Thượng
      Hải đã tăng 62% trong năm nay, và có giá trị tăng gấp bốn lần kể
      từ đầu năm 2006. Ông Thomas Gruener từ Landesbank Berlin nói: “Hành
      động này có thể tạo ra việc điều chỉnh giá nhưng nhìn chung
      chúng tôi không cho là xu hướng sẽ thay đổi”. Tuy nhiên, việc cổ
      phiếu Thượng Hải sụt giá có thể sẽ tác động tới tâm lý của
      các thị trường chứng khoán châu Âu. Thế nên các chỉ số chứng
      khoán tại châu Âu khi mở cửa hôm thứ Tư đều hạ.
    example_title: Example 2
language:
  - vi
pipeline_tag: summarization

t5-vietnamese-summarization

This model is a fine-tuned version of pengold/t5-vietnamese-summarization on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 4.6288
  • Rouge1: 0.4728
  • Rouge2: 0.1669
  • Rougel: 0.3049
  • Rougelsum: 0.3049
  • Gen Len: 18.7458

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 70

Training results

Training Loss Epoch Step Validation Loss Rouge1 Rouge2 Rougel Rougelsum Gen Len
5.2487 1.0 2007 5.0028 0.4671 0.1595 0.2994 0.2994 18.7618
5.217 2.0 4014 4.9802 0.4639 0.1569 0.2984 0.2983 18.7747
5.2191 3.0 6021 4.9685 0.4644 0.1594 0.2989 0.2989 18.7613
5.2254 4.0 8028 4.9477 0.4648 0.1586 0.2988 0.2987 18.7458
5.1735 5.0 10035 4.9366 0.4654 0.1593 0.2988 0.2987 18.761
5.1735 6.0 12042 4.9214 0.4676 0.1611 0.3004 0.3004 18.78
5.1653 7.0 14049 4.9095 0.4681 0.1616 0.3007 0.3007 18.7523
5.1154 8.0 16056 4.8971 0.4664 0.1598 0.3002 0.3001 18.7655
5.1232 9.0 18063 4.8882 0.4683 0.1612 0.3008 0.3008 18.761
5.0995 10.0 20070 4.8758 0.4709 0.1618 0.3021 0.302 18.7518
5.1012 11.0 22077 4.8689 0.4685 0.1616 0.3011 0.3009 18.7665
5.0916 12.0 24084 4.8486 0.4695 0.1623 0.3024 0.3023 18.7655
5.0559 13.0 26091 4.8409 0.4699 0.1631 0.3024 0.3023 18.7849
5.0633 14.0 28098 4.8326 0.4705 0.1613 0.302 0.302 18.7583
5.0335 15.0 30105 4.8243 0.4696 0.1612 0.3023 0.3022 18.7638
5.0271 16.0 32112 4.8046 0.4691 0.1618 0.3022 0.3022 18.7518
5.0045 17.0 34119 4.8060 0.4708 0.1629 0.3029 0.3028 18.7568
5.0072 18.0 36126 4.7945 0.4702 0.1633 0.3024 0.3023 18.776
4.9954 19.0 38133 4.7894 0.47 0.1639 0.3022 0.3021 18.7785
4.9994 20.0 40140 4.7773 0.4692 0.1625 0.3028 0.3027 18.7623
4.953 21.0 42147 4.7641 0.4682 0.162 0.3015 0.3014 18.757
4.9526 22.0 44154 4.7600 0.4703 0.1626 0.3023 0.3023 18.7625
4.9571 23.0 46161 4.7592 0.4698 0.1627 0.3025 0.3025 18.781
4.9324 24.0 48168 4.7511 0.4697 0.1631 0.3022 0.3021 18.769
4.9323 25.0 50175 4.7433 0.4723 0.1649 0.304 0.3039 18.7757
4.9381 26.0 52182 4.7378 0.4703 0.1629 0.3026 0.3026 18.7782
4.9288 27.0 54189 4.7454 0.4709 0.1627 0.3026 0.3026 18.7777
4.9131 28.0 56196 4.7222 0.471 0.1652 0.3037 0.3037 18.782
4.9005 29.0 58203 4.7241 0.4719 0.1638 0.3039 0.3038 18.778
4.9051 30.0 60210 4.7225 0.4715 0.1647 0.3037 0.3036 18.7668
4.8816 31.0 62217 4.7181 0.4701 0.1631 0.3029 0.3029 18.7416
4.8687 32.0 64224 4.7061 0.4705 0.1643 0.3032 0.3031 18.7625
4.8935 33.0 66231 4.7063 0.4697 0.1632 0.3028 0.3028 18.7458
4.88 34.0 68238 4.6984 0.471 0.164 0.3039 0.3039 18.7663
4.8473 35.0 70245 4.6934 0.4699 0.1636 0.3034 0.3033 18.7531
4.8613 36.0 72252 4.6863 0.4705 0.1631 0.303 0.303 18.7797
4.8491 37.0 74259 4.6847 0.4703 0.1638 0.3037 0.3037 18.78
4.8239 38.0 76266 4.6804 0.4707 0.1632 0.3032 0.3032 18.7802
4.8767 39.0 78273 4.6788 0.4703 0.1637 0.3027 0.3026 18.7446
4.8402 40.0 80280 4.6700 0.4699 0.1633 0.3028 0.3028 18.7516
4.8261 41.0 82287 4.6660 0.4699 0.1633 0.3029 0.3028 18.7369
4.8193 42.0 84294 4.6693 0.4711 0.1654 0.3039 0.3038 18.7421
4.8161 43.0 86301 4.6636 0.4707 0.1642 0.303 0.303 18.7595
4.832 44.0 88308 4.6619 0.4708 0.1646 0.3036 0.3035 18.7423
4.8304 45.0 90315 4.6575 0.4711 0.1651 0.3038 0.3037 18.7354
4.7958 46.0 92322 4.6543 0.4711 0.165 0.3032 0.3032 18.7189
4.804 47.0 94329 4.6541 0.4711 0.1656 0.3037 0.3036 18.7396
4.7968 48.0 96336 4.6495 0.4709 0.165 0.3034 0.3034 18.7411
4.7912 49.0 98343 4.6471 0.4718 0.1655 0.3041 0.3042 18.7361
4.7721 50.0 100350 4.6469 0.4723 0.1667 0.3047 0.3047 18.7309
4.7828 51.0 102357 4.6476 0.4712 0.1656 0.3044 0.3045 18.7446
4.7934 52.0 104364 4.6453 0.4707 0.1645 0.3035 0.3035 18.7329
4.7724 53.0 106371 4.6425 0.4715 0.1657 0.304 0.304 18.7403
4.7804 54.0 108378 4.6362 0.4711 0.1658 0.3041 0.3041 18.7488
4.792 55.0 110385 4.6363 0.4706 0.1653 0.3038 0.3038 18.7281
4.7528 56.0 112392 4.6357 0.4724 0.1667 0.3044 0.3044 18.7463
4.7849 57.0 114399 4.6346 0.472 0.1661 0.3041 0.304 18.7431
4.7618 58.0 116406 4.6332 0.472 0.167 0.3046 0.3046 18.7336
4.7841 59.0 118413 4.6287 0.4716 0.1664 0.3043 0.3043 18.7369
4.7764 60.0 120420 4.6316 0.473 0.1666 0.3048 0.3047 18.7548
4.7504 61.0 122427 4.6276 0.4721 0.1671 0.3043 0.3044 18.7371
4.7629 62.0 124434 4.6250 0.4726 0.167 0.3046 0.3046 18.76
4.7764 63.0 126441 4.6264 0.4725 0.1666 0.3044 0.3044 18.7446
4.7524 64.0 128448 4.6275 0.4719 0.166 0.3041 0.3041 18.7428
4.7641 65.0 130455 4.6288 0.4728 0.1669 0.3049 0.3049 18.7458

Framework versions

  • Transformers 4.33.2
  • Pytorch 2.0.1+cu117
  • Datasets 2.14.5
  • Tokenizers 0.13.3