File size: 2,551 Bytes
714962b
b3b04ae
 
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
714962b
b3b04ae
 
 
 
 
 
 
 
 
 
714962b
b3b04ae
714962b
b3b04ae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
714962b
b3b04ae
714962b
 
 
 
b3b04ae
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58

- Perda (Loss): 0.0398
- Precisão (Accuracy): 0.9882

## Descrição do Modelo

Mais informações são necessárias para entender completamente a descrição deste modelo.

## Usos Previstos e Limitações

Mais informações são necessárias para entender completamente os usos previstos e as limitações específicas deste modelo.

## Dados de Treinamento e Avaliação

Mais informações são necessárias para entender os detalhes dos conjuntos de dados utilizados no treinamento e avaliação deste modelo.

## Procedimento de Treinamento

### Hiperparâmetros de Treinamento

Durante o treinamento, os seguintes hiperparâmetros foram utilizados:

- Taxa de Aprendizado (learning_rate): 5e-05
- Tamanho do Lote de Treinamento (train_batch_size): 16
- Tamanho do Lote de Avaliação (eval_batch_size): 16
- Semente (seed): 42
- Acumulação de Gradientes (gradient_accumulation_steps): 2
- Tamanho Total do Lote de Treinamento (total_train_batch_size): 32
- Otimizador: Adam com betas=(0.9, 0.999) e epsilon=1e-08
- Tipo de Programador de Taxa de Aprendizado (lr_scheduler_type): Linear
- Proporção de Aquecimento do Programador de Taxa de Aprendizado (lr_scheduler_warmup_ratio): 0.9
- Número de Épocas (num_epochs): 14

### Resultados do Treinamento

| Perda de Treinamento | Época | Passo | Precisão | Perda de Validação |
|:--------------------:|:-----:|:----:|:--------:|:-------------------:|
| 0.5059               | 1.0   | 199  | 0.9001   | 0.4826              |
| 0.2533               | 2.0   | 398  | 0.9515   | 0.2124              |
| 0.2358               | 3.0   | 597  | 0.9538   | 0.1543              |
| 0.2584               | 4.0   | 796  | 0.9642   | 0.1136              |
| 0.1085               | 5.0   | 995  | 0.9746   | 0.0891              |
| 0.1007               | 6.0   | 1194 | 0.9769   | 0.0725              |
| 0.1463               | 7.0   | 1393 | 0.9840   | 0.0541              |
| 0.3564               | 8.0   | 1592 | 0.9802   | 0.0880              |
| 0.0957               | 9.0   | 1791 | 0.9656   | 0.1375              |
| 0.1481               | 10.0  | 1990 | 0.0511   | 0.9873              |
| 0.1536               | 11.0  | 2189 | 0.0827   | 0.9713              |
| 0.0458               | 12.0  | 2388 | 0.0398   | 0.9882              |
| 0.4956               | 13.0  | 2587 | 0.3474   | 0.8643              |
| 0.0801               | 14.0  | 2786 | 0.0850   | 0.9797              |

### Versões das Frameworks

- Transformers 4.31.0
- Pytorch 2.0.1+cu118
- Datasets 2.13.1
- Tokenizers 0.13.3