pengold's picture
Update README.md
a52e79e
---
license: apache-2.0
base_model: t5-small
tags:
- summarization
- generated_from_trainer
metrics:
- rouge
model-index:
- name: t5-vietnamese-summarization
results: []
language:
- vi
pipeline_tag: summarization
widget:
- text: Theo Bộ trưởng Thông tin Truyền thông, mục tiêu của công nghệ số, trong đó trí tuệ nhân tạo, để người dân giàu có, hạnh phúc hơn. "Các công nghệ số, nhất là trí tuệ nhân tạo, phải được sử dụng một cách đúng đắn, có đạo đức để hướng tới thực hiện những mục tiêu vì con người", Bộ trưởng Nguyễn Mạnh Hùng phát biểu tại Diễn đàn quốc gia phát triển kinh tế số hội số lần thứ nhất, tổ chức tại Nam Định sáng 14/9. Chủ đề của diễn đàn "Đưa nền tảng số đến từng hộ gia đình". Theo Bộ trưởng, đây cũng mục tiêu cách làm của Việt Nam trong chuyển đổi số. "Đó là mỗi gia đình, mỗi người dân được tiếp cận với công nghệ số và được tham gia và thụ hưởng lợi ích từ chuyển đổi số", ông nói.
example_title: Example 1
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# t5-vietnamese-summarization
This model is a fine-tuned version of [t5-small](https://huggingface.co/t5-small) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 6.7088
- Rouge1: 0.3594
- Rouge2: 0.1038
- Rougel: 0.2326
- Rougelsum: 0.2333
- Gen Len: 17.614
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4
### Training results
| Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
|:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:---------:|:-------:|
| No log | 1.0 | 282 | 6.8323 | 0.23 | 0.0659 | 0.1532 | 0.1533 | 17.146 |
| 7.1083 | 2.0 | 564 | 6.7612 | 0.3211 | 0.0944 | 0.2101 | 0.2103 | 16.972 |
| 7.1083 | 3.0 | 846 | 6.7147 | 0.3473 | 0.1015 | 0.2266 | 0.2272 | 17.276 |
| 6.9522 | 4.0 | 1128 | 6.7088 | 0.3594 | 0.1038 | 0.2326 | 0.2333 | 17.614 |
### Framework versions
- Transformers 4.33.2
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3