from transformers import AutoModelForCausalLM, AutoTokenizer import gradio as gr # Cargar modelo y tokenizador desde Hugging Face Hub repo_id = "Blandskron/ModelChatBot" try: model = AutoModelForCausalLM.from_pretrained( repo_id, ignore_mismatched_sizes=True ) tokenizer = AutoTokenizer.from_pretrained(repo_id) except Exception as e: print(f"Error al cargar el modelo: {e}") print("Asegúrate de que el repositorio contiene todos los archivos necesarios.") exit(1) # Función para generar respuestas def responder(pregunta): inputs = tokenizer(pregunta, return_tensors="pt") outputs = model.generate(**inputs, max_length=50) respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True) return respuesta # Crear interfaz iface = gr.Interface( fn=responder, inputs="text", outputs="text", title="Chatbot de Tecnología", description="Pregúntame sobre programación, hardware, software y tendencias tecnológicas." ) iface.launch()