--- datasets: - hackathon-pln-es/neutral-es language: - es metrics: - bleu - sacrebleu pipeline_tag: translation tags: - mbart-50 --- # mbart-neutralization mbart-neutralization es un modelo preentrenado Sequence-to-Sequence que utiliza mBART-50. El objectivo es traducir a lenguaje neutral los textos de entrada. ## Usos y limitaciones Este modelo ha sido desarrollado para la asignatura de traducción automática del master de procesamiento del lenguaje e inteligencia artificial.