Anne31415 commited on
Commit
1e4efde
1 Parent(s): 236555b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +22 -10
app.py CHANGED
@@ -114,14 +114,28 @@ def load_chatbot():
114
  standard_prompt = "Schreibe immer höflich und auf Deutsch und frage immer nach Jahren, wenn keines explizit angegeben ist. "
115
  return load_qa_chain(llm=OpenAI(model_name="gpt-3.5-turbo-instruct", prompt=standard_prompt), chain_type="stuff")
116
 
 
117
  def ask_bot(query):
118
  chain = load_chatbot()
119
- # Kombiniere die Standardanweisung mit der Benutzeranfrage
120
- full_query = chain.standard_prompt + query
121
- response = chain.run(full_query)
 
 
 
 
 
 
 
 
 
 
 
 
122
  return response
123
 
124
 
 
125
  def display_chat_history(chat_history):
126
  for chat in chat_history:
127
  background_color = "#ffeecf" if chat[2] == "new" else "#ffeecf" if chat[0] == "User" else "#ffeecf"
@@ -250,20 +264,18 @@ def page1():
250
 
251
  # Start timing
252
  start_time = time.time()
253
-
254
  with st.spinner('Bot is thinking...'):
255
  chain = load_chatbot()
256
- docs = VectorStore.similarity_search(query=query, k=5)
257
-
258
- # Kombiniere den standardmäßigen Prompt mit der Benutzeranfrage
259
- full_query = chain.llm.prompt + " " + query # Achte darauf, wie der Prompt und die Benutzeranfrage kombiniert werden
260
 
261
  with get_openai_callback() as cb:
262
  # Übergib die kombinierte Anfrage an die run-Funktion
263
  response = chain.run(input_documents=docs, question=full_query)
264
  response = handle_no_answer(response) # Verarbeite die Antwort durch die neue Funktion
265
-
266
-
267
 
268
 
269
  # Stop timing
 
114
  standard_prompt = "Schreibe immer höflich und auf Deutsch und frage immer nach Jahren, wenn keines explizit angegeben ist. "
115
  return load_qa_chain(llm=OpenAI(model_name="gpt-3.5-turbo-instruct", prompt=standard_prompt), chain_type="stuff")
116
 
117
+
118
  def ask_bot(query):
119
  chain = load_chatbot()
120
+
121
+ # Definiere hier den standardmäßigen Prompt
122
+ standard_prompt = "Schreibe immer höflich und auf Deutsch und frage immer nach Jahren, wenn keines explizit angegeben ist. "
123
+
124
+ # Kombiniere den standardmäßigen Prompt mit der Benutzeranfrage
125
+ full_query = standard_prompt + query
126
+
127
+ # Suche nach den ähnlichsten Dokumenten
128
+ docs = VectorStore.similarity_search(query=full_query, k=5)
129
+
130
+ with get_openai_callback() as cb:
131
+ # Übergib die kombinierte Anfrage an die run-Funktion
132
+ response = chain.run(input_documents=docs, question=full_query)
133
+ response = handle_no_answer(response) # Verarbeite die Antwort durch die neue Funktion
134
+
135
  return response
136
 
137
 
138
+
139
  def display_chat_history(chat_history):
140
  for chat in chat_history:
141
  background_color = "#ffeecf" if chat[2] == "new" else "#ffeecf" if chat[0] == "User" else "#ffeecf"
 
264
 
265
  # Start timing
266
  start_time = time.time()
267
+
268
  with st.spinner('Bot is thinking...'):
269
  chain = load_chatbot()
270
+ full_query = ask_bot(query) # Hier wird die Funktion ask_bot aufgerufen
271
+ docs = VectorStore.similarity_search(query=full_query, k=5)
 
 
272
 
273
  with get_openai_callback() as cb:
274
  # Übergib die kombinierte Anfrage an die run-Funktion
275
  response = chain.run(input_documents=docs, question=full_query)
276
  response = handle_no_answer(response) # Verarbeite die Antwort durch die neue Funktion
277
+
278
+
279
 
280
 
281
  # Stop timing