qingxu99 commited on
Commit
4065d6e
1 Parent(s): 7d14de7
crazy_functional.py CHANGED
@@ -207,6 +207,15 @@ def get_crazy_functions():
207
  "Function": HotReload(解析任意code项目)
208
  },
209
  })
210
-
 
 
 
 
 
 
 
 
 
211
  ###################### 第n组插件 ###########################
212
  return function_plugins
 
207
  "Function": HotReload(解析任意code项目)
208
  },
209
  })
210
+ from crazy_functions.询问多个大语言模型 import 同时问询_指定模型
211
+ function_plugins.update({
212
+ "询问多个GPT模型(手动指定询问哪些模型)": {
213
+ "Color": "stop",
214
+ "AsButton": False,
215
+ "AdvancedArgs": True, # 调用时,唤起高级参数输入区(默认False)
216
+ "ArgsReminder": "支持任意数量的llm接口,用&符号分隔。例如chatglm&gpt-3.5-turbo&api2d-gpt-4", # 高级参数输入区的显示提示
217
+ "Function": HotReload(同时问询_指定模型)
218
+ },
219
+ })
220
  ###################### 第n组插件 ###########################
221
  return function_plugins
crazy_functions/询问多个大语言模型.py CHANGED
@@ -25,6 +25,35 @@ def 同时问询(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt
25
  retry_times_at_unknown_error=0
26
  )
27
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
28
  history.append(txt)
29
  history.append(gpt_say)
30
  yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 界面更新
 
25
  retry_times_at_unknown_error=0
26
  )
27
 
28
+ history.append(txt)
29
+ history.append(gpt_say)
30
+ yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 界面更新
31
+
32
+
33
+ @CatchException
34
+ def 同时问询_指定模型(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
35
+ """
36
+ txt 输入栏用户输入的文本,例如需要翻译的一段话,再例如一个包含了待处理文件的路径
37
+ llm_kwargs gpt模型参数,如温度和top_p等,一般原样传递下去就行
38
+ plugin_kwargs 插件模型的参数,如温度和top_p等,一般原样传递下去就行
39
+ chatbot 聊天显示框的句柄,用于显示给用户
40
+ history 聊天历史,前情提要
41
+ system_prompt 给gpt的静默提醒
42
+ web_port 当前软件运行的端口号
43
+ """
44
+ history = [] # 清空历史,以免输入溢出
45
+ chatbot.append((txt, "正在同时咨询ChatGPT和ChatGLM……"))
46
+ yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 由于请求gpt需要一段时间,我们先及时地做一次界面更新
47
+
48
+ # llm_kwargs['llm_model'] = 'chatglm&gpt-3.5-turbo&api2d-gpt-3.5-turbo' # 支持任意数量的llm接口,用&符号分隔
49
+ llm_kwargs['llm_model'] = plugin_kwargs.get("advanced_arg", 'chatglm&gpt-3.5-turbo') # 'chatglm&gpt-3.5-turbo' # 支持任意数量的llm接口,用&符号分隔
50
+ gpt_say = yield from request_gpt_model_in_new_thread_with_ui_alive(
51
+ inputs=txt, inputs_show_user=txt,
52
+ llm_kwargs=llm_kwargs, chatbot=chatbot, history=history,
53
+ sys_prompt=system_prompt,
54
+ retry_times_at_unknown_error=0
55
+ )
56
+
57
  history.append(txt)
58
  history.append(gpt_say)
59
  yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 界面更新
version CHANGED
@@ -1,5 +1,5 @@
1
  {
2
- "version": 3.15,
3
  "show_feature": true,
4
- "new_feature": "添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM和GPT-4 <-> 改进架构,支持与多个LLM模型同时对话 <-> 添加支持API2D(国内,可支持gpt4)"
5
  }
 
1
  {
2
+ "version": 3.2,
3
  "show_feature": true,
4
+ "new_feature": "现函数插件可读取高级参数(解读任意语言代码+同时询问任意的LLM组合)<-> 添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM和GPT-4 <-> 改进架构,支持与多个LLM模型同时对话 <-> 添加支持API2D(国内,可支持gpt4)"
5
  }