Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -5,9 +5,13 @@ from transformers import AutoModelForCausalLM, AutoTokenizer
|
|
| 5 |
# 🔹 Modelo seleccionado
|
| 6 |
MODEL_NAME = "EleutherAI/gpt-neo-2.7B"
|
| 7 |
|
| 8 |
-
# 🔹 Cargar modelo y tokenizador
|
| 9 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
|
| 10 |
-
model = AutoModelForCausalLM.from_pretrained(
|
|
|
|
|
|
|
|
|
|
|
|
|
| 11 |
|
| 12 |
# 🔒 Clave secreta para evitar uso no autorizado
|
| 13 |
SECRET_KEY = "MI_CLAVE_SUPER_SECRETA"
|
|
@@ -18,7 +22,7 @@ def reformular_texto(frase, clave):
|
|
| 18 |
return "🔴 Acceso denegado."
|
| 19 |
|
| 20 |
prompt = f"Reescribe esta frase con mejor gramática en español: {frase}"
|
| 21 |
-
inputs = tokenizer(prompt, return_tensors="pt", truncation=True, padding=True).to(
|
| 22 |
|
| 23 |
with torch.no_grad():
|
| 24 |
outputs = model.generate(inputs.input_ids, max_length=50, temperature=0.7, top_k=50)
|
|
@@ -36,4 +40,3 @@ iface = gr.Interface(
|
|
| 36 |
|
| 37 |
if __name__ == "__main__":
|
| 38 |
iface.launch()
|
| 39 |
-
|
|
|
|
| 5 |
# 🔹 Modelo seleccionado
|
| 6 |
MODEL_NAME = "EleutherAI/gpt-neo-2.7B"
|
| 7 |
|
| 8 |
+
# 🔹 Cargar modelo y tokenizador con soporte para `accelerate`
|
| 9 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
|
| 10 |
+
model = AutoModelForCausalLM.from_pretrained(
|
| 11 |
+
MODEL_NAME,
|
| 12 |
+
torch_dtype=torch.float16,
|
| 13 |
+
device_map="auto"
|
| 14 |
+
)
|
| 15 |
|
| 16 |
# 🔒 Clave secreta para evitar uso no autorizado
|
| 17 |
SECRET_KEY = "MI_CLAVE_SUPER_SECRETA"
|
|
|
|
| 22 |
return "🔴 Acceso denegado."
|
| 23 |
|
| 24 |
prompt = f"Reescribe esta frase con mejor gramática en español: {frase}"
|
| 25 |
+
inputs = tokenizer(prompt, return_tensors="pt", truncation=True, padding=True).to(model.device)
|
| 26 |
|
| 27 |
with torch.no_grad():
|
| 28 |
outputs = model.generate(inputs.input_ids, max_length=50, temperature=0.7, top_k=50)
|
|
|
|
| 40 |
|
| 41 |
if __name__ == "__main__":
|
| 42 |
iface.launch()
|
|
|