itama / README.md
mariagrandury's picture
Add YAML metadata (#1)
25f3e14
---
datasets:
- hackathon-pln-es/ITAMA-DataSet
language:
- es
library_name: transformers
pipeline_tag: question-answering
---
# Generación de respuestas a preguntas AMA para profesiones
El modelo presentando a continuación se ha generado a partir del [dataset de preguntas AMA desde Reddit (ITAMA-DataSet)](https://huggingface.co/datasets/hackathon-pln-es/ITAMA-DataSet). En especial, se pueden realizar preguntas sobre las siguientes profesiones: `medico`, `psicologo`, `ciencias`, `ingeniero`, `profesor`, `jefe` y `abogado`.
# Modo de uso
Al ser un modelo generado a partir de mT5, es necesario incluir como prefijo la profesión y luego la sentencia de la forma:
```
<profesion>: <pregunta>
```
## Algunos ejemplos de preguntas:
| Texto de entrada | Texto generado |
|-------------------------------------------------------|----------------|
| ingeniero: qué es lo que más te gusta de tu trabajo? | Es el lenguaje del tráfico, lo que mas me gusta es el conocimiento de programación. Lo que mas me gusta es la idea de qué diseñar un modelo |
| psicologo: qué es lo que más te gusta de tu trabajo? | Una que lo que más me gusta de verdad es que la persona que se siente tener en serio problemas y de ansiedad, siempre es común que los psicólogos tengan que estar presente para tener en cuenta que no pueden hacerlo bien a la gente |
| abogado: cuanto dinero ganas al año? | No gano tanto dinero que gano, pero si de hecho gano minimo 40 mil pesos al mes. |
| ciencias: cuando dinero ganas al año? | No gano ahí mucho más de un año. |
| medico: cuando dinero ganas al año? | No gano dinero, gano minimo 40 dlrs x hora (minimo tengo 12-18 y tengo unos 34 dlr) |
| profesor: cuando dinero ganas al año? | Literalmente cuando son almuerzos y minimo y no tenes idea |
| jefe: qué me recomiendas hacer? | Actividades placentales, hacer ejercicios y enfrentar a las emergencias |
# Parámetros usados en el entrenamiento
```
model_args.num_train_epochs = 10
model_args.overwrite_output_dir = True
model_args.fp16 = False
model_args.use_multiprocessing = False
model_args.use_multiprocessing_for_evaluation = False
model_args.use_multiprocessed_decoding = False
model_args.learning_rate=0.001
model_args.train_batch_size = 8
model_args.eval_batch_size = 8
model_args.adafactor_beta1 = 0
model_args.length_penalty=1.5
model_args.max_length=100
model_args.max_seq_length = 100
```