--- license: apache-2.0 base_model: t5-small tags: - summarization - generated_from_trainer metrics: - rouge model-index: - name: t5-vietnamese-summarization results: [] language: - vi pipeline_tag: summarization widget: - text: Theo Bộ trưởng Thông tin và Truyền thông, mục tiêu của công nghệ số, trong đó có trí tuệ nhân tạo, là để người dân giàu có, hạnh phúc hơn. "Các công nghệ số, nhất là trí tuệ nhân tạo, phải được sử dụng một cách đúng đắn, có đạo đức để hướng tới thực hiện những mục tiêu vì con người", Bộ trưởng Nguyễn Mạnh Hùng phát biểu tại Diễn đàn quốc gia phát triển kinh tế số và xã hội số lần thứ nhất, tổ chức tại Nam Định sáng 14/9. Chủ đề của diễn đàn là "Đưa nền tảng số đến từng hộ gia đình". Theo Bộ trưởng, đây cũng là mục tiêu và cách làm của Việt Nam trong chuyển đổi số. "Đó là mỗi gia đình, mỗi người dân được tiếp cận với công nghệ số và được tham gia và thụ hưởng lợi ích từ chuyển đổi số", ông nói. example_title: Example 1 --- # t5-vietnamese-summarization This model is a fine-tuned version of [t5-small](https://huggingface.co/t5-small) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 6.7088 - Rouge1: 0.3594 - Rouge2: 0.1038 - Rougel: 0.2326 - Rougelsum: 0.2333 - Gen Len: 17.614 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 16 - eval_batch_size: 16 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - num_epochs: 4 ### Training results | Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len | |:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:---------:|:-------:| | No log | 1.0 | 282 | 6.8323 | 0.23 | 0.0659 | 0.1532 | 0.1533 | 17.146 | | 7.1083 | 2.0 | 564 | 6.7612 | 0.3211 | 0.0944 | 0.2101 | 0.2103 | 16.972 | | 7.1083 | 3.0 | 846 | 6.7147 | 0.3473 | 0.1015 | 0.2266 | 0.2272 | 17.276 | | 6.9522 | 4.0 | 1128 | 6.7088 | 0.3594 | 0.1038 | 0.2326 | 0.2333 | 17.614 | ### Framework versions - Transformers 4.33.2 - Pytorch 2.0.1+cu118 - Datasets 2.14.5 - Tokenizers 0.13.3