File size: 2,898 Bytes
0e9ce0b
 
 
 
26b980f
0e9ce0b
 
 
 
 
 
26b980f
 
8706274
a52e79e
 
 
0e9ce0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
26b980f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
---
license: apache-2.0
base_model: t5-small
tags:
- summarization
- generated_from_trainer
metrics:
- rouge
model-index:
- name: t5-vietnamese-summarization
  results: []
language:
- vi
pipeline_tag: summarization
widget:
- text: Theo Bộ trưởng Thông tin  Truyền thông, mục tiêu của công nghệ số, trong đó  trí tuệ nhân tạo,  để người dân giàu có, hạnh phúc hơn. "Các công nghệ số, nhất là trí tuệ nhân tạo, phải được sử dụng một cách đúng đắn, có đạo đức để hướng tới thực hiện những mục tiêu vì con người", Bộ trưởng Nguyễn Mạnh Hùng phát biểu tại Diễn đàn quốc gia phát triển kinh tế số   hội số lần thứ nhất, tổ chức tại Nam Định sáng 14/9. Chủ đề của diễn đàn  "Đưa nền tảng số đến từng hộ gia đình". Theo Bộ trưởng, đây cũng  mục tiêu  cách làm của Việt Nam trong chuyển đổi số. "Đó là mỗi gia đình, mỗi người dân được tiếp cận với công nghệ số và được tham gia và thụ hưởng lợi ích từ chuyển đổi số", ông nói.
  example_title: Example 1
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# t5-vietnamese-summarization

This model is a fine-tuned version of [t5-small](https://huggingface.co/t5-small) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 6.7088
- Rouge1: 0.3594
- Rouge2: 0.1038
- Rougel: 0.2326
- Rougelsum: 0.2333
- Gen Len: 17.614

## Model description

More information needed

## Intended uses & limitations

More information needed

## Training and evaluation data

More information needed

## Training procedure

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4

### Training results

| Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
|:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:------:|:---------:|:-------:|
| No log        | 1.0   | 282  | 6.8323          | 0.23   | 0.0659 | 0.1532 | 0.1533    | 17.146  |
| 7.1083        | 2.0   | 564  | 6.7612          | 0.3211 | 0.0944 | 0.2101 | 0.2103    | 16.972  |
| 7.1083        | 3.0   | 846  | 6.7147          | 0.3473 | 0.1015 | 0.2266 | 0.2272    | 17.276  |
| 6.9522        | 4.0   | 1128 | 6.7088          | 0.3594 | 0.1038 | 0.2326 | 0.2333    | 17.614  |


### Framework versions

- Transformers 4.33.2
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3