allinaigc commited on
Commit
d26c87a
1 Parent(s): 6643c92

Upload 2 files

Browse files
Files changed (2) hide show
  1. app.py +6 -4
  2. langchain_KB.py +5 -5
app.py CHANGED
@@ -3,10 +3,12 @@
3
  1. 总共有三个区块:知识库回答,应用来源,相关问题。
4
  1. 在Huggingface的API上部署了一个在线BGE的模型,用于回答问题。OpenAI的Emebedding或者Langchain的Embedding都不可以用(会报错: self.d)。
5
 
 
 
6
 
7
  """
8
 
9
- ##TODO: 1. 建立一个upload file的模块。
10
 
11
  # -*- coding: utf-8 -*-
12
  import requests
@@ -347,7 +349,7 @@ def main():
347
  # with st.expander(label='**查询企业内部知识库**', expanded=True):
348
  with col1:
349
  KB_mode = True
350
- user_input = st.text_input(label='**🧭 大模型数据库对话区**', placeholder='请输入您的问题', label_visibility='visible')
351
  if user_input:
352
  ## 非stream输出,原始状态,不需要改变api.py中的内容。
353
  # with st.status('检索中...', expanded=True, state='running') as status:
@@ -357,8 +359,8 @@ def main():
357
  # import rag_reponse_001
358
  # clear_all()
359
  # response = rag_reponse_001.rag_response(user_input=user_input, k=5) ## working.
360
- print('user_input:', user_input)
361
- response, source = rag_reponse_002.rag_response(user_input=user_input, k=3)
362
  print('llm response:', response)
363
  sim_prompt = f"""你需要根据以下的问题来提出5个可能的后续问题{user_input}
364
  """
 
3
  1. 总共有三个区块:知识库回答,应用来源,相关问题。
4
  1. 在Huggingface的API上部署了一个在线BGE的模型,用于回答问题。OpenAI的Emebedding或者Langchain的Embedding都不可以用(会报错: self.d)。
5
 
6
+ 注意事项:
7
+ 1. langchain_KB.py中的代码是用来构建本地知识库的,里面的embeddings需要与rag_response_002.py中的embeddings一致。否则会出错!
8
 
9
  """
10
 
11
+ ##TODO:
12
 
13
  # -*- coding: utf-8 -*-
14
  import requests
 
349
  # with st.expander(label='**查询企业内部知识库**', expanded=True):
350
  with col1:
351
  KB_mode = True
352
+ user_input = st.text_input(label='**📶 大模型数据库对话区**', placeholder='请输入您的问题', label_visibility='visible')
353
  if user_input:
354
  ## 非stream输出,原始状态,不需要改变api.py中的内容。
355
  # with st.status('检索中...', expanded=True, state='running') as status:
 
359
  # import rag_reponse_001
360
  # clear_all()
361
  # response = rag_reponse_001.rag_response(user_input=user_input, k=5) ## working.
362
+ # print('user_input:', user_input)
363
+ response, source = rag_reponse_002.rag_response(username=username, user_input=user_input, k=3)
364
  print('llm response:', response)
365
  sim_prompt = f"""你需要根据以下的问题来提出5个可能的后续问题{user_input}
366
  """
langchain_KB.py CHANGED
@@ -74,11 +74,11 @@ def langchain_localKB_construct(filepath, username):
74
  docs = CharacterTextSplitter(chunk_size=1000, chunk_overlap=200).split_documents(docs)
75
 
76
  ## 创建向量数据库
77
- # embedding_model_name = 'GanymedeNil/text2vec-large-chinese'
78
- # embeddings = HuggingFaceEmbeddings(model_name=embedding_model_name) ## 这里是联网情况下连接huggingface后使用。
79
- from langchain.embeddings.openai import OpenAIEmbeddings
80
- embeddings = OpenAIEmbeddings(disallowed_special=()) ## 可能需要更新了。
81
- print('langchain embeddings:', embeddings)
82
 
83
  vector_store = FAISS.from_documents(docs, embeddings)
84
  # print(vector_store)
 
74
  docs = CharacterTextSplitter(chunk_size=1000, chunk_overlap=200).split_documents(docs)
75
 
76
  ## 创建向量数据库
77
+ embedding_model_name = 'BAAI/bge-large-zh-v1.5'
78
+ embeddings = HuggingFaceEmbeddings(model_name=embedding_model_name) ## 这里是联网情况下连接huggingface后使用。
79
+ # from langchain.embeddings.openai import OpenAIEmbeddings
80
+ # embeddings = OpenAIEmbeddings(disallowed_special=()) ## 可能需要更新了。
81
+ # print('langchain embeddings:', embeddings)
82
 
83
  vector_store = FAISS.from_documents(docs, embeddings)
84
  # print(vector_store)