Spaces:
Sleeping
Sleeping
# Instalar bibliotecas en requirements.txt (sin usar `!` en el código de app.py): | |
# transformers | |
# gradio | |
# torch | |
from transformers import pipeline | |
import gradio as gr | |
# Configuración del modelo de respuesta a preguntas | |
qa_pipeline = pipeline("question-answering", model="deepset/bert-base-cased-squad2") | |
# Función para procesar la pregunta | |
def responder(pregunta): | |
# Definir el contexto en el que el modelo busca la respuesta | |
contexto = """ | |
Francia es un país cuyo capital es París. Fue fundada hace varios siglos y es famosa por su cultura, | |
arte, gastronomía y historia. París, la capital, es conocida por monumentos como la Torre Eiffel, | |
el Museo del Louvre, y por ser una de las ciudades más visitadas del mundo. | |
""" | |
respuesta = qa_pipeline(question=pregunta, context=contexto) | |
return respuesta['answer'] | |
# Interfaz gráfica de usuario usando Gradio | |
iface = gr.Interface( | |
fn=responder, | |
inputs="text", | |
outputs="text", | |
title="Chatbot de Respuestas Rápidas", | |
description="Pregunta lo que quieras, y te responderé con información específica." | |
) | |
# Ejecutar la aplicación | |
if __name__ == "__main__": | |
iface.launch() | |