# Instalar bibliotecas en requirements.txt (sin usar `!` en el código de app.py): # transformers # gradio # torch from transformers import pipeline import gradio as gr # Configuración del modelo de respuesta a preguntas qa_pipeline = pipeline("question-answering", model="deepset/bert-base-cased-squad2") # Función para procesar la pregunta def responder(pregunta): # Definir el contexto en el que el modelo busca la respuesta contexto = """ Francia es un país cuyo capital es París. Fue fundada hace varios siglos y es famosa por su cultura, arte, gastronomía y historia. París, la capital, es conocida por monumentos como la Torre Eiffel, el Museo del Louvre, y por ser una de las ciudades más visitadas del mundo. """ respuesta = qa_pipeline(question=pregunta, context=contexto) return respuesta['answer'] # Interfaz gráfica de usuario usando Gradio iface = gr.Interface( fn=responder, inputs="text", outputs="text", title="Chatbot de Respuestas Rápidas", description="Pregunta lo que quieras, y te responderé con información específica." ) # Ejecutar la aplicación if __name__ == "__main__": iface.launch()