Spaces:
Runtime error
Runtime error
jcmachicao
commited on
Commit
•
e75324c
1
Parent(s):
88ffa88
Update app.py
Browse files
app.py
CHANGED
@@ -20,6 +20,7 @@ st.write('Texto ejemplo que puedes copiar y pegar en el casillero de abajo: ', t
|
|
20 |
|
21 |
texto = st.text_area('Cargue un texto de hasta 5 hojas, 1500 palabras, ó 15000 caracteres: ', height=200)
|
22 |
|
|
|
23 |
preg_1 = st.text_input('Pregunta 1', '¿Cuál es el problema?')
|
24 |
preg_2 = st.text_input('Pregunta 2', '¿Quienes son los responsables?')
|
25 |
preg_3 = st.text_input('Pregunta 3', '¿Cómo se podría resolver el problema?')
|
@@ -28,10 +29,10 @@ pregs = [preg_1, preg_2, preg_3]
|
|
28 |
|
29 |
boton_preg = st.button('Enviar preguntas')
|
30 |
|
31 |
-
st.write('Procesando texto ', texto[0:100], '...')
|
32 |
-
|
33 |
if boton_preg:
|
34 |
|
|
|
|
|
35 |
tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es")
|
36 |
modelo_qa = AutoModelForQuestionAnswering.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es")
|
37 |
preguntas = pipeline('question-answering', model=modelo_qa, tokenizer=tokenizer)
|
|
|
20 |
|
21 |
texto = st.text_area('Cargue un texto de hasta 5 hojas, 1500 palabras, ó 15000 caracteres: ', height=200)
|
22 |
|
23 |
+
st.write('También puedes modificar las preguntas.')
|
24 |
preg_1 = st.text_input('Pregunta 1', '¿Cuál es el problema?')
|
25 |
preg_2 = st.text_input('Pregunta 2', '¿Quienes son los responsables?')
|
26 |
preg_3 = st.text_input('Pregunta 3', '¿Cómo se podría resolver el problema?')
|
|
|
29 |
|
30 |
boton_preg = st.button('Enviar preguntas')
|
31 |
|
|
|
|
|
32 |
if boton_preg:
|
33 |
|
34 |
+
st.write('Procesando texto ', texto[0:100], '...')
|
35 |
+
|
36 |
tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es")
|
37 |
modelo_qa = AutoModelForQuestionAnswering.from_pretrained("mrm8488/bert-base-spanish-wwm-cased-finetuned-spa-squad2-es")
|
38 |
preguntas = pipeline('question-answering', model=modelo_qa, tokenizer=tokenizer)
|