Edit model card

Descripci贸n do modelo

Modelo de (~) 67M de par谩metros, adestrado e afinado desde cero, usando un dataset en galego de 305MB obtido da wikipedia en galego.

No contexto da Resoluci贸n do 22 de decembro de 2021 da Secretar铆a Xeral de Educaci贸n e Formaci贸n Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovaci贸n tecnol贸xica ou cient铆fica e proxectos de innovaci贸n did谩ctica no 谩mbito da formaci贸n profesional en centros p煤blicos dependentes da Conseller铆a de Cultura, Educaci贸n e Universidade, baixo o nome de "Creaci贸n dun modelo de linguaxe adestrado previamente mediante t茅cnicas de autoatenci贸n para explorar arquitecturas que permitan o seu uso en soluci贸ns de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial"

Usos e limitaci贸ns

Este modelo foi creado con fins pedag贸xicos e de investigaci贸n.

Hyperparametros de entrenamento

  • learning_rate: 1e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 32
  • total_train_batch_size: 256
  • optimizer: Adam with betas=(0.08113086280077723,0.8857246592117177) and epsilon=5.264065162059701e-07
  • lr_scheduler_type: linear
  • num_epochs: 15

Resultados

  • Loss: 1.6262

Versi贸ns

  • Transformers 4.24.0
  • Pytorch 1.13.1
  • Datasets 2.6.1
  • Tokenizers 0.11.0
Downloads last month
1