DHEIVER commited on
Commit
b3b04ae
1 Parent(s): 1194549

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +40 -58
README.md CHANGED
@@ -1,76 +1,58 @@
1
- ---
2
- license: apache-2.0
3
- base_model: facebook/convnextv2-large-1k-224
4
- tags:
5
- - generated_from_trainer
6
- metrics:
7
- - accuracy
8
- model-index:
9
- - name: convnextv2-large-1k-224-finetuned-BreastCancer-Classification-BreakHis-AH-60-20-20-Shuffled
10
- results: []
11
- ---
12
 
13
- <!-- This model card has been generated automatically according to the information the Trainer had access to. You
14
- should probably proofread and complete it, then remove this comment. -->
15
 
16
- # convnextv2-large-1k-224-finetuned-BreastCancer-Classification-BreakHis-AH-60-20-20-Shuffled
17
 
18
- This model is a fine-tuned version of [facebook/convnextv2-large-1k-224](https://huggingface.co/facebook/convnextv2-large-1k-224) on the None dataset.
19
- It achieves the following results on the evaluation set:
20
- - Loss: 0.0398
21
- - Accuracy: 0.9882
22
 
23
- ## Model description
24
 
25
- More information needed
26
 
27
- ## Intended uses & limitations
28
 
29
- More information needed
30
 
31
- ## Training and evaluation data
32
 
33
- More information needed
34
 
35
- ## Training procedure
36
 
37
- ### Training hyperparameters
 
 
 
 
 
 
 
 
 
38
 
39
- The following hyperparameters were used during training:
40
- - learning_rate: 5e-05
41
- - train_batch_size: 16
42
- - eval_batch_size: 16
43
- - seed: 42
44
- - gradient_accumulation_steps: 2
45
- - total_train_batch_size: 32
46
- - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
47
- - lr_scheduler_type: linear
48
- - lr_scheduler_warmup_ratio: 0.9
49
- - num_epochs: 14
50
 
51
- ### Training results
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
52
 
53
- | Training Loss | Epoch | Step | Accuracy | Validation Loss |
54
- |:-------------:|:-----:|:----:|:--------:|:---------------:|
55
- | 0.5059 | 1.0 | 199 | 0.9001 | 0.4826 |
56
- | 0.2533 | 2.0 | 398 | 0.9515 | 0.2124 |
57
- | 0.2358 | 3.0 | 597 | 0.9538 | 0.1543 |
58
- | 0.2584 | 4.0 | 796 | 0.9642 | 0.1136 |
59
- | 0.1085 | 5.0 | 995 | 0.9746 | 0.0891 |
60
- | 0.1007 | 6.0 | 1194 | 0.9769 | 0.0725 |
61
- | 0.1463 | 7.0 | 1393 | 0.9840 | 0.0541 |
62
- | 0.3564 | 8.0 | 1592 | 0.9802 | 0.0880 |
63
- | 0.0957 | 9.0 | 1791 | 0.9656 | 0.1375 |
64
- | 0.1481 | 10.0 | 1990 | 0.0511 | 0.9873 |
65
- | 0.1536 | 11.0 | 2189 | 0.0827 | 0.9713 |
66
- | 0.0458 | 12.0 | 2388 | 0.0398 | 0.9882 |
67
- | 0.4956 | 13.0 | 2587 | 0.3474 | 0.8643 |
68
- | 0.0801 | 14.0 | 2786 | 0.0850 | 0.9797 |
69
-
70
-
71
- ### Framework versions
72
 
73
  - Transformers 4.31.0
74
  - Pytorch 2.0.1+cu118
75
  - Datasets 2.13.1
76
- - Tokenizers 0.13.3
 
 
 
 
 
 
 
 
 
 
 
 
1
 
2
+ - Perda (Loss): 0.0398
3
+ - Precisão (Accuracy): 0.9882
4
 
5
+ ## Descrição do Modelo
6
 
7
+ Mais informações são necessárias para entender completamente a descrição deste modelo.
 
 
 
8
 
9
+ ## Usos Previstos e Limitações
10
 
11
+ Mais informações são necessárias para entender completamente os usos previstos e as limitações específicas deste modelo.
12
 
13
+ ## Dados de Treinamento e Avaliação
14
 
15
+ Mais informações são necessárias para entender os detalhes dos conjuntos de dados utilizados no treinamento e avaliação deste modelo.
16
 
17
+ ## Procedimento de Treinamento
18
 
19
+ ### Hiperparâmetros de Treinamento
20
 
21
+ Durante o treinamento, os seguintes hiperparâmetros foram utilizados:
22
 
23
+ - Taxa de Aprendizado (learning_rate): 5e-05
24
+ - Tamanho do Lote de Treinamento (train_batch_size): 16
25
+ - Tamanho do Lote de Avaliação (eval_batch_size): 16
26
+ - Semente (seed): 42
27
+ - Acumulação de Gradientes (gradient_accumulation_steps): 2
28
+ - Tamanho Total do Lote de Treinamento (total_train_batch_size): 32
29
+ - Otimizador: Adam com betas=(0.9, 0.999) e epsilon=1e-08
30
+ - Tipo de Programador de Taxa de Aprendizado (lr_scheduler_type): Linear
31
+ - Proporção de Aquecimento do Programador de Taxa de Aprendizado (lr_scheduler_warmup_ratio): 0.9
32
+ - Número de Épocas (num_epochs): 14
33
 
34
+ ### Resultados do Treinamento
 
 
 
 
 
 
 
 
 
 
35
 
36
+ | Perda de Treinamento | Época | Passo | Precisão | Perda de Validação |
37
+ |:--------------------:|:-----:|:----:|:--------:|:-------------------:|
38
+ | 0.5059 | 1.0 | 199 | 0.9001 | 0.4826 |
39
+ | 0.2533 | 2.0 | 398 | 0.9515 | 0.2124 |
40
+ | 0.2358 | 3.0 | 597 | 0.9538 | 0.1543 |
41
+ | 0.2584 | 4.0 | 796 | 0.9642 | 0.1136 |
42
+ | 0.1085 | 5.0 | 995 | 0.9746 | 0.0891 |
43
+ | 0.1007 | 6.0 | 1194 | 0.9769 | 0.0725 |
44
+ | 0.1463 | 7.0 | 1393 | 0.9840 | 0.0541 |
45
+ | 0.3564 | 8.0 | 1592 | 0.9802 | 0.0880 |
46
+ | 0.0957 | 9.0 | 1791 | 0.9656 | 0.1375 |
47
+ | 0.1481 | 10.0 | 1990 | 0.0511 | 0.9873 |
48
+ | 0.1536 | 11.0 | 2189 | 0.0827 | 0.9713 |
49
+ | 0.0458 | 12.0 | 2388 | 0.0398 | 0.9882 |
50
+ | 0.4956 | 13.0 | 2587 | 0.3474 | 0.8643 |
51
+ | 0.0801 | 14.0 | 2786 | 0.0850 | 0.9797 |
52
 
53
+ ### Versões das Frameworks
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
54
 
55
  - Transformers 4.31.0
56
  - Pytorch 2.0.1+cu118
57
  - Datasets 2.13.1
58
+ - Tokenizers 0.13.3