YuvriXp324 commited on
Commit
d3c0be1
1 Parent(s): 66e416b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -24
app.py CHANGED
@@ -1,7 +1,4 @@
1
- # Primero, instalamos las bibliotecas necesarias
2
- # NOTA: No uses el signo "!" en Hugging Face, ya que eso genera un error.
3
- # Si usas Hugging Face Spaces, las dependencias se instalan desde el archivo requirements.txt.
4
- # Asegúrate de tener este archivo con las líneas:
5
  # transformers
6
  # gradio
7
  # torch
@@ -9,34 +6,28 @@
9
  from transformers import pipeline
10
  import gradio as gr
11
 
12
- # Configuración del modelo de lenguaje: distilgpt2 para respuestas rápidas y concisas
13
- chatbot = pipeline(
14
- "text-generation",
15
- model="distilgpt2", # Usa "distilgpt2" para respuestas rápidas
16
- max_length=50,
17
- pad_token_id=50256,
18
- temperature=0.5, # Baja aleatoriedad para respuestas más coherentes
19
- top_k=50
20
- )
21
 
22
- # Definimos la función para manejar la pregunta y limpiar la respuesta
23
  def responder(pregunta):
24
- # Generamos la respuesta con el modelo
25
- respuesta = chatbot(pregunta, max_length=50, num_return_sequences=1)
26
- respuesta_texto = respuesta[0]['generated_text']
27
-
28
- # Limpiamos la respuesta para eliminar repeticiones
29
- respuesta_texto = respuesta_texto.split(".")[0] + "."
30
-
31
- return respuesta_texto
 
32
 
33
  # Interfaz gráfica de usuario usando Gradio
34
  iface = gr.Interface(
35
  fn=responder,
36
  inputs="text",
37
  outputs="text",
38
- title="Chatbot AI",
39
- description="Hazme cualquier pregunta, y te responderé como un asistente de IA."
40
  )
41
 
42
  # Ejecutar la aplicación
 
1
+ # Instalar bibliotecas en requirements.txt (sin usar `!` en el código de app.py):
 
 
 
2
  # transformers
3
  # gradio
4
  # torch
 
6
  from transformers import pipeline
7
  import gradio as gr
8
 
9
+ # Configuración del modelo de respuesta a preguntas
10
+ qa_pipeline = pipeline("question-answering", model="deepset/bert-base-cased-squad2")
 
 
 
 
 
 
 
11
 
12
+ # Función para procesar la pregunta
13
  def responder(pregunta):
14
+ # Definir el contexto en el que el modelo busca la respuesta
15
+ contexto = """
16
+ Francia es un país cuyo capital es París. Fue fundada hace varios siglos y es famosa por su cultura,
17
+ arte, gastronomía y historia. París, la capital, es conocida por monumentos como la Torre Eiffel,
18
+ el Museo del Louvre, y por ser una de las ciudades más visitadas del mundo.
19
+ """
20
+
21
+ respuesta = qa_pipeline(question=pregunta, context=contexto)
22
+ return respuesta['answer']
23
 
24
  # Interfaz gráfica de usuario usando Gradio
25
  iface = gr.Interface(
26
  fn=responder,
27
  inputs="text",
28
  outputs="text",
29
+ title="Chatbot de Respuestas Rápidas",
30
+ description="Pregunta lo que quieras, y te responderé con información específica."
31
  )
32
 
33
  # Ejecutar la aplicación