Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -48,7 +48,7 @@ stopping_criteria = ListOfTokensStoppingCriteria(tokenizer, stop_tokens)
|
|
48 |
# Añade tu criterio de parada a una StoppingCriteriaList
|
49 |
stopping_criteria_list = StoppingCriteriaList([stopping_criteria])
|
50 |
|
51 |
-
def generate_text(prompt, context, max_length=2100):
|
52 |
prompt=prompt.replace("\n", "").replace("¿","").replace("?","")
|
53 |
input_text = f'''<bos><start_of_turn>system\n{context}?<end_of_turn><start_of_turn>user\n{prompt}<end_of_turn><start_of_turn>model\n'''
|
54 |
inputs = tokenizer.encode(input_text, return_tensors="pt", add_special_tokens=False).to("cuda:0")
|
@@ -62,28 +62,28 @@ def generate_text(prompt, context, max_length=2100):
|
|
62 |
outputs = model.generate(generation_config=generation_config, input_ids=inputs, stopping_criteria=stopping_criteria_list,)
|
63 |
return tokenizer.decode(outputs[0], skip_special_tokens=False) #True
|
64 |
|
65 |
-
def mostrar_respuesta(pregunta, contexto):
|
66 |
try:
|
67 |
-
res= generate_text(pregunta, contexto, max_length=700)
|
68 |
return str(res)
|
69 |
except Exception as e:
|
70 |
return str(e)
|
71 |
|
72 |
# Ejemplos de preguntas
|
73 |
mis_ejemplos = [
|
74 |
-
["¿Dime el
|
75 |
-
["¿Dime el
|
76 |
-
["¿Dime
|
77 |
["¿Dime el valor nutricional de la tortilla de patatas?", "Cocinero español"],
|
78 |
|
79 |
]
|
80 |
|
81 |
iface = gr.Interface(
|
82 |
fn=mostrar_respuesta,
|
83 |
-
inputs=[gr.Textbox(label="Pregunta"), gr.Textbox(label="Contexto", value="
|
84 |
-
outputs=[gr.Textbox(label="Respuesta", lines=
|
85 |
title="ComeBien",
|
86 |
-
description="Introduce tu pregunta sobre recetas de cocina.",
|
87 |
examples=mis_ejemplos,
|
88 |
)
|
89 |
|
|
|
48 |
# Añade tu criterio de parada a una StoppingCriteriaList
|
49 |
stopping_criteria_list = StoppingCriteriaList([stopping_criteria])
|
50 |
|
51 |
+
def generate_text(prompt, context, model, tokenizer, max_length=2100):
|
52 |
prompt=prompt.replace("\n", "").replace("¿","").replace("?","")
|
53 |
input_text = f'''<bos><start_of_turn>system\n{context}?<end_of_turn><start_of_turn>user\n{prompt}<end_of_turn><start_of_turn>model\n'''
|
54 |
inputs = tokenizer.encode(input_text, return_tensors="pt", add_special_tokens=False).to("cuda:0")
|
|
|
62 |
outputs = model.generate(generation_config=generation_config, input_ids=inputs, stopping_criteria=stopping_criteria_list,)
|
63 |
return tokenizer.decode(outputs[0], skip_special_tokens=False) #True
|
64 |
|
65 |
+
def mostrar_respuesta(pregunta, contexto, model, tokenizer):
|
66 |
try:
|
67 |
+
res= generate_text(pregunta, contexto, model, tokenizer, max_length=700)
|
68 |
return str(res)
|
69 |
except Exception as e:
|
70 |
return str(e)
|
71 |
|
72 |
# Ejemplos de preguntas
|
73 |
mis_ejemplos = [
|
74 |
+
["¿Dime el nivel de calorías de la tortilla de patatas?", "Cocinero español"],
|
75 |
+
["¿Dime el nivel de grasas del ceviche?", "Cocinero peruano"],
|
76 |
+
["¿Dime la cantidad de fibra de los frijoles?", "Cocinero de México"],
|
77 |
["¿Dime el valor nutricional de la tortilla de patatas?", "Cocinero español"],
|
78 |
|
79 |
]
|
80 |
|
81 |
iface = gr.Interface(
|
82 |
fn=mostrar_respuesta,
|
83 |
+
inputs=[gr.Textbox(label="Pregunta"), gr.Textbox(label="Contexto", value="Eres un agente experto en nutrición y cocina."),],
|
84 |
+
outputs=[gr.Textbox(label="Respuesta", lines=6),],
|
85 |
title="ComeBien",
|
86 |
+
description="Introduce tu pregunta sobre nutrición y recetas de cocina.",
|
87 |
examples=mis_ejemplos,
|
88 |
)
|
89 |
|