pregadmin / app.py
Biophin's picture
Upload app.py
5bfe5ec verified
from transformers import AutoTokenizer, AutoModelForCausalLM
import gradio as gr
# Ruta del archivo de texto plano
file_path = "/texto_plano.txt" # Asegúrate de cargar este archivo en Colab
# Cargar el texto plano
try:
with open(file_path, 'r', encoding='utf-8') as file:
context_data = file.read()
print("Texto cargado correctamente.")
except FileNotFoundError:
print(f"El archivo {file_path} no se encuentra. Verifica la ruta y vuelve a intentarlo.")
context_data = "" # Evitar errores si el archivo no se encuentra
if context_data:
print(f"Context data cargado: {context_data[:100]}...") # Mostrar una parte del texto cargado
# Cargar el modelo bigscience/bloomz-560m
print("Cargando el modelo bigscience/bloomz-560m...")
model_name = "bigscience/bloomz-560m"
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=False)
model = AutoModelForCausalLM.from_pretrained(model_name) # Cambiamos a AutoModelForCausalLM
print("Modelo bigscience/bloomz-560m cargado correctamente.")
# Función para responder preguntas
def answer_question(question):
input_text = f"Pregunta: {question}\nContexto: {context_data}"
inputs = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(inputs, max_length=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
return f"Pregunta: {question}\nRespuesta: {response}"
# Interfaz con Gradio
def answer_question_interface(question):
return answer_question(question)
interface = gr.Interface(
fn=answer_question_interface,
inputs="text",
outputs="text",
title="QA - bigscience/bloomz-560m",
description="Haz preguntas abiertas sobre el contenido narrativo."
)
interface.launch()