INIFanalitica commited on
Commit
17dcde5
1 Parent(s): d4dacf8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -25
app.py CHANGED
@@ -18,26 +18,11 @@ def generate_gemini_content(prompt, model_name='gemini-pro-vision', image=None):
18
  response = model.generate_content([prompt, image])
19
  return response
20
 
21
- # Function to handle errors and display appropriate messages
22
- def handle_errors(error_message, error_flag):
23
- if "text must be a valid text with maximum 5000 character" in error_message and not error_flag:
24
- error_response = ("La pregunta que está realizando puede que vaya en contra de las políticas de Google Bard e INIF. "
25
- "Por favor, reformule su pregunta sin temas no permitidos o pregunte algo diferente. "
26
- "Para más información consulte: https://policies.google.com/terms/generative-ai/use-policy "
27
- "o www.inif.com.co/laura-chatbot/use-policy")
28
- st.error(error_response)
29
- error_flag = True # Set the error_flag to True after displaying the error message
30
- return error_response
31
- else:
32
- error_response = f"Error: {error_message}\nDisculpa, soy una inteligencia artificial que aún se encuentra en desarrollo y está en fase alfa. En este momento no puedo responder a tu pregunta adecuadamente, pero en el futuro seré capaz de hacerlo."
33
- st.error(error_response)
34
- return error_response
35
-
36
  # Streamlit app
37
  def main():
38
  st.set_page_config(page_title="Laura Chatbot - INIF", page_icon="🤖")
39
  st.title("Laura Chatbot - INIF")
40
- st.sidebar.title("Configuración de Gemini")
41
 
42
  # Configurar la API key de Gemini (reemplazar con tu clave de API de Gemini)
43
  genai.configure(api_key='AIzaSyA4k6JoFNZsf8L1ixLMMRjEMoBPns5SHZk')
@@ -101,15 +86,14 @@ def main():
101
  st.warning("No se encontraron candidatos en la respuesta.")
102
  else:
103
  # Otros modelos Gemini seleccionados
104
- try:
105
- response = get_response(user_input)
106
- res_text = ""
107
- for chunk in response:
108
- res_text += chunk.text
109
- st.markdown(f"Assistant: {to_markdown(res_text)}")
110
- messages.append({"role": "model", "parts": [res_text]})
111
- except Exception as e:
112
- handle_errors(str(e), False)
113
 
114
  # Actualizar historial de mensajes en la sesión de Streamlit
115
  st.session_state["messages"] = messages
 
18
  response = model.generate_content([prompt, image])
19
  return response
20
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
21
  # Streamlit app
22
  def main():
23
  st.set_page_config(page_title="Laura Chatbot - INIF", page_icon="🤖")
24
  st.title("Laura Chatbot - INIF")
25
+ st.sidebar.title("Configuración de Laura")
26
 
27
  # Configurar la API key de Gemini (reemplazar con tu clave de API de Gemini)
28
  genai.configure(api_key='AIzaSyA4k6JoFNZsf8L1ixLMMRjEMoBPns5SHZk')
 
86
  st.warning("No se encontraron candidatos en la respuesta.")
87
  else:
88
  # Otros modelos Gemini seleccionados
89
+ response = get_response(user_input)
90
+
91
+ # Mostrar respuesta del modelo solo una vez
92
+ res_text = ""
93
+ for chunk in response:
94
+ res_text += chunk.text
95
+ st.markdown(f"Assistant: {to_markdown(res_text)}")
96
+ messages.append({"role": "model", "parts": [res_text]})
 
97
 
98
  # Actualizar historial de mensajes en la sesión de Streamlit
99
  st.session_state["messages"] = messages