Edit model card

Descripci贸n do modelo

Modelo de (~) 125M de par谩metros, adestrado e afinado desde cero, usando un dataset en galego de 305MB obtido da wikipedia en galego.

No contexto da Resoluci贸n do 22 de decembro de 2021 da Secretar铆a Xeral de Educaci贸n e Formaci贸n Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovaci贸n tecnol贸xica ou cient铆fica e proxectos de innovaci贸n did谩ctica no 谩mbito da formaci贸n profesional en centros p煤blicos dependentes da Conseller铆a de Cultura, Educaci贸n e Universidade, baixo o nome de "Creaci贸n dun modelo de linguaxe adestrado previamente mediante t茅cnicas de autoatenci贸n para explorar arquitecturas que permitan o seu uso en soluci贸ns de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial"

Usos e limitaci贸ns

Este modelo foi creado con fins pedag贸xicos e de investigaci贸n.

Hiperpar谩metros de entrenamiento

  • learning_rate: 1e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 32
  • total_train_batch_size: 256
  • optimizer: Adam with betas=(0.1,0.9) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 15

Training results

Training Loss Epoch Step Validation Loss
3.6976 0.22 1500 2.2866
2.3057 0.43 3000 1.9276
... ... ... ...
1.1982 14.25 99000 1.0601
1.196 14.47 100500 1.0554
1.1971 14.69 102000 1.0538
1.1954 14.9 103500 1.0613

Versiones de los frameworks

  • Transformers 4.24.0
  • Pytorch 1.13.1
  • Datasets 2.6.1
  • Tokenizers 0.11.0
Downloads last month
2