--- tags: - generated_from_trainer model-index: - name: bert-fromscratch-galician-large results: [] --- ## Descripción do modelo Modelo de (~) 125M de parámetros, adestrado e afinado desde cero, usando un dataset en galego de 305MB obtido da wikipedia en galego. No contexto da Resolución do 22 de decembro de 2021 da Secretaría Xeral de Educación e Formación Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovación tecnolóxica ou científica e proxectos de innovación didáctica no ámbito da formación profesional en centros públicos dependentes da Consellería de Cultura, Educación e Universidade, baixo o nome de "Creación dun modelo de linguaxe adestrado previamente mediante técnicas de autoatención para explorar arquitecturas que permitan o seu uso en solucións de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial" ## Usos e limitacións Este modelo foi creado con fins pedagóxicos e de investigación. ### Hiperparámetros de entrenamiento - learning_rate: 1e-05 - train_batch_size: 8 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 32 - total_train_batch_size: 256 - optimizer: Adam with betas=(0.1,0.9) and epsilon=1e-08 - lr_scheduler_type: linear - num_epochs: 15 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:-----:|:------:|:---------------:| | 3.6976 | 0.22 | 1500 | 2.2866 | | 2.3057 | 0.43 | 3000 | 1.9276 | ... ... ... ... | 1.1982 | 14.25 | 99000 | 1.0601 | | 1.196 | 14.47 | 100500 | 1.0554 | | 1.1971 | 14.69 | 102000 | 1.0538 | | 1.1954 | 14.9 | 103500 | 1.0613 | ### Versiones de los frameworks - Transformers 4.24.0 - Pytorch 1.13.1 - Datasets 2.6.1 - Tokenizers 0.11.0