Fankrit10 commited on
Commit
87485e6
1 Parent(s): 2e60214
Files changed (1) hide show
  1. app.py +24 -0
app.py ADDED
@@ -0,0 +1,24 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from transformers import AutoModelForCausalLM, AutoTokenizer
3
+
4
+ # Cargar el modelo desde el espacio en Hugging Face
5
+ model_name = "tiiuae/falcon-7b-instruct"
6
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
7
+ model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)
8
+
9
+ def generate_text(prompt):
10
+ inputs = tokenizer(prompt, return_tensors="pt", max_length=200, truncation=True)
11
+ outputs = model.generate(**inputs)
12
+ generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
13
+ return generated_text
14
+
15
+ iface = gr.Interface(
16
+ fn=generate_text,
17
+ inputs=gr.inputs.Textbox(),
18
+ outputs=gr.outputs.Textbox(),
19
+ live=True, # Configura live=True para que la generación de texto sea en tiempo real
20
+ interpretation="default", # Cambia la interpretación del texto a "default"
21
+ layout="vertical", # Cambia el diseño de la interfaz a vertical
22
+ )
23
+
24
+ iface.launch()