ChatBot / app.py
Blandskron's picture
Update app.py
2deffa7 verified
from transformers import AutoModelForCausalLM, AutoTokenizer
import gradio as gr
# Cargar modelo y tokenizador desde Hugging Face Hub
repo_id = "Blandskron/ModelChatBot"
try:
model = AutoModelForCausalLM.from_pretrained(
repo_id,
ignore_mismatched_sizes=True
)
tokenizer = AutoTokenizer.from_pretrained(repo_id)
except Exception as e:
print(f"Error al cargar el modelo: {e}")
print("Aseg煤rate de que el repositorio contiene todos los archivos necesarios.")
exit(1)
# Funci贸n para generar respuestas
def responder(pregunta):
inputs = tokenizer(pregunta, return_tensors="pt")
outputs = model.generate(**inputs, max_length=50)
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
return respuesta
# Crear interfaz
iface = gr.Interface(
fn=responder,
inputs="text",
outputs="text",
title="Chatbot de Tecnolog铆a",
description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas."
)
iface.launch()