|
--- |
|
license: agpl-3.0 |
|
language: |
|
- gl |
|
library_name: transformers |
|
pipeline_tag: fill-mask |
|
--- |
|
|
|
POR COMPLETAR! |
|
|
|
Modelo de 110M de par谩metros, adestrado e afinado desde un modelo preentrenado (GPT2-Spanish), usando un dataset en galego de 525 MB obtido da wikipedia en galego. |
|
|
|
No contexto da Resoluci贸n do 22 de decembro de 2021 da Secretar铆a Xeral de Educaci贸n e Formaci贸n Profesional pola que se convocan premios para o desenvolvemento de proxectos de innovaci贸n tecnol贸xica ou cient铆fica e proxectos de innovaci贸n did谩ctica no 谩mbito da formaci贸n profesional en centros p煤blicos dependentes da Conseller铆a de Cultura, Educaci贸n e Universidade, baixo o nome de "Creaci贸n dun modelo de linguaxe adestrado previamente mediante t茅cnicas de autoatenci贸n para explorar arquitecturas que permitan o seu uso en soluci贸ns de procesamento da linguaxe natural en galego tanto na docencia como na contorna empresarial" |