--- model-index: - name: bert-fromscratch-galician-tiny results: [] license: apache-2.0 language: - gl --- ## Descripción do modelo Modelo de (~) 67M de parámetros, adestrado e afinado desde cero, usando un dataset en galego de 305MB obtido da wikipedia en galego. No contexto da Resolución do 22 de decembro de 2021 da Secretaría Xeral de Educación e Formación Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovación tecnolóxica ou científica e proxectos de innovación didáctica no ámbito da formación profesional en centros públicos dependentes da Consellería de Cultura, Educación e Universidade, baixo o nome de "Creación dun modelo de linguaxe adestrado previamente mediante técnicas de autoatención para explorar arquitecturas que permitan o seu uso en solucións de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial" ## Usos e limitacións Este modelo foi creado con fins pedagóxicos e de investigación. ## Hyperparametros de entrenamento - learning_rate: 1e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 32 - total_train_batch_size: 256 - optimizer: Adam with betas=(0.08113086280077723,0.8857246592117177) and epsilon=5.264065162059701e-07 - lr_scheduler_type: linear - num_epochs: 15 ### Resultados - Loss: 1.6262 ### Versións - Transformers 4.24.0 - Pytorch 1.13.1 - Datasets 2.6.1 - Tokenizers 0.11.0