Spaces:
Running
Running
from transformers import AutoModelForCausalLM, AutoTokenizer | |
import gradio as gr | |
# Cargar modelo y tokenizador desde Hugging Face Hub | |
repo_id = "Blandskron/ModelChatBot" | |
try: | |
model = AutoModelForCausalLM.from_pretrained( | |
repo_id, | |
ignore_mismatched_sizes=True | |
) | |
tokenizer = AutoTokenizer.from_pretrained(repo_id) | |
except Exception as e: | |
print(f"Error al cargar el modelo: {e}") | |
print("Aseg煤rate de que el repositorio contiene todos los archivos necesarios.") | |
exit(1) | |
# Funci贸n para generar respuestas | |
def responder(pregunta): | |
inputs = tokenizer(pregunta, return_tensors="pt") | |
outputs = model.generate(**inputs, max_length=50) | |
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
return respuesta | |
# Crear interfaz | |
iface = gr.Interface( | |
fn=responder, | |
inputs="text", | |
outputs="text", | |
title="Chatbot de Tecnolog铆a", | |
description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas." | |
) | |
iface.launch() |