--- datasets: - hackathon-pln-es/ITAMA-DataSet language: - es library_name: transformers pipeline_tag: question-answering --- # Generación de respuestas a preguntas AMA para profesiones El modelo presentando a continuación se ha generado a partir del [dataset de preguntas AMA desde Reddit (ITAMA-DataSet)](https://huggingface.co/datasets/hackathon-pln-es/ITAMA-DataSet). En especial, se pueden realizar preguntas sobre las siguientes profesiones: `medico`, `psicologo`, `ciencias`, `ingeniero`, `profesor`, `jefe` y `abogado`. # Modo de uso Al ser un modelo generado a partir de mT5, es necesario incluir como prefijo la profesión y luego la sentencia de la forma: ``` : ``` ## Algunos ejemplos de preguntas: | Texto de entrada | Texto generado | |-------------------------------------------------------|----------------| | ingeniero: qué es lo que más te gusta de tu trabajo? | Es el lenguaje del tráfico, lo que mas me gusta es el conocimiento de programación. Lo que mas me gusta es la idea de qué diseñar un modelo | | psicologo: qué es lo que más te gusta de tu trabajo? | Una que lo que más me gusta de verdad es que la persona que se siente tener en serio problemas y de ansiedad, siempre es común que los psicólogos tengan que estar presente para tener en cuenta que no pueden hacerlo bien a la gente | | abogado: cuanto dinero ganas al año? | No gano tanto dinero que gano, pero si de hecho gano minimo 40 mil pesos al mes. | | ciencias: cuando dinero ganas al año? | No gano ahí mucho más de un año. | | medico: cuando dinero ganas al año? | No gano dinero, gano minimo 40 dlrs x hora (minimo tengo 12-18 y tengo unos 34 dlr) | | profesor: cuando dinero ganas al año? | Literalmente cuando son almuerzos y minimo y no tenes idea | | jefe: qué me recomiendas hacer? | Actividades placentales, hacer ejercicios y enfrentar a las emergencias | # Parámetros usados en el entrenamiento ``` model_args.num_train_epochs = 10 model_args.overwrite_output_dir = True model_args.fp16 = False model_args.use_multiprocessing = False model_args.use_multiprocessing_for_evaluation = False model_args.use_multiprocessed_decoding = False model_args.learning_rate=0.001 model_args.train_batch_size = 8 model_args.eval_batch_size = 8 model_args.adafactor_beta1 = 0 model_args.length_penalty=1.5 model_args.max_length=100 model_args.max_seq_length = 100 ```