JuanCabs commited on
Commit
2d751cb
verified
1 Parent(s): ec02098

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -7
app.py CHANGED
@@ -1,10 +1,11 @@
1
- from transformers import AutoTokenizer, AutoModelForCausalLM
 
2
  import torch
3
 
4
  # Cargar el tokenizer del modelo base
5
  tokenizer = AutoTokenizer.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit")
6
 
7
- # Cargar el modelo base
8
  model = AutoModelForCausalLM.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit",
9
  load_in_4bit=True,
10
  device_map="auto")
@@ -12,13 +13,18 @@ model = AutoModelForCausalLM.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit
12
  # Cargar el adaptador LoRA
13
  model.load_adapter("JuanCabs/lapepav1", source="hf")
14
 
15
- # Prueba de generaci贸n de texto
16
  def generar_respuesta(prompt):
17
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
18
  outputs = model.generate(**inputs, max_length=100)
19
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
20
 
21
- # Ejemplo de uso
22
- prompt = "驴C贸mo ser谩 el futuro de la inteligencia artificial?"
23
- respuesta = generar_respuesta(prompt)
24
- print(respuesta)
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import torch
4
 
5
  # Cargar el tokenizer del modelo base
6
  tokenizer = AutoTokenizer.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit")
7
 
8
+ # Cargar el modelo base con soporte de 4 bits
9
  model = AutoModelForCausalLM.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit",
10
  load_in_4bit=True,
11
  device_map="auto")
 
13
  # Cargar el adaptador LoRA
14
  model.load_adapter("JuanCabs/lapepav1", source="hf")
15
 
16
+ # Funci贸n para generar texto con el modelo
17
  def generar_respuesta(prompt):
18
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
19
  outputs = model.generate(**inputs, max_length=100)
20
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
21
 
22
+ # Crear la interfaz de Gradio
23
+ interface = gr.Interface(fn=generar_respuesta, inputs="text", outputs="text",
24
+ title="Generaci贸n de Texto con Lora y Llama 3.1",
25
+ description="Introduce un texto y genera una respuesta usando un modelo con LoRA.")
26
+
27
+ # Lanzar la aplicaci贸n en Hugging Face Spaces
28
+ if __name__ == "__main__":
29
+ interface.launch()
30
+