qingxu99 commited on
Commit
dbd8a80
2 Parent(s): 6c17f3e 730940b

Merge branch 'master' of github.com:binary-husky/chatgpt_academic

Browse files
Files changed (4) hide show
  1. README.md +5 -4
  2. check_proxy.py +5 -3
  3. docs/Dockerfile+ChatGLM +4 -2
  4. version +1 -1
README.md CHANGED
@@ -30,7 +30,7 @@ If you like this project, please give it a Star. If you've come up with more use
30
  模块化设计 | 支持自定义强大的[函数插件](https://github.com/binary-husky/chatgpt_academic/tree/master/crazy_functions),插件支持[热更新](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
31
  [自我程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] [一键读懂](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)本项目的源代码
32
  [程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] 一键可以剖析其他Python/C/C++/Java/Lua/...项目树
33
- 读论文、翻译论文 | [函数插件] 一键解读latex/pdf论文全文并生成摘要
34
  Latex全文[翻译](https://www.bilibili.com/video/BV1nk4y1Y7Js/)、[润色](https://www.bilibili.com/video/BV1FT411H7c5/) | [函数插件] 一键翻译或润色latex论文
35
  批量注释生成 | [函数插件] 一键批量生成函数注释
36
  Markdown[中英互译](https://www.bilibili.com/video/BV1yo4y157jV/) | [函数插件] 看到上面5种语言的[README](https://github.com/binary-husky/chatgpt_academic/blob/master/docs/README_EN.md)了吗?
@@ -38,12 +38,12 @@ chat分析报告生成 | [函数插件] 运行后自动生成总结汇报
38
  [PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
39
  [Arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
40
  [谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你[写relatedworks](https://www.bilibili.com/video/BV1GP411U7Az/)
41
- 互联网信息聚合+GPT | [函数插件] 一键让GPT先从互联网获取信息,再回答问题,让信息永不过时
42
  公式/图片/表格显示 | 可以同时显示公式的[tex形式和渲染形式](https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png),支持公式、代码高亮
43
  多线程函数插件支持 | 支持多线调用chatgpt,一键处理[海量文本](https://www.bilibili.com/video/BV1FT411H7c5/)或程序
44
  启动暗色gradio[主题](https://github.com/binary-husky/chatgpt_academic/issues/173) | 在浏览器url后面添加```/?__dark-theme=true```可以切换dark主题
45
  [多LLM模型](https://www.bilibili.com/video/BV1wT411p7yf)支持,[API2D](https://api2d.com/)接口支持 | 同时被GPT3.5、GPT4和[清华ChatGLM](https://github.com/THUDM/ChatGLM-6B)伺候的感觉一定会很不错吧?
46
- 更多LLM模型接入 | 新加入Newbing测试接口(新必应AI)
47
  …… | ……
48
 
49
  </div>
@@ -99,7 +99,7 @@ cd chatgpt_academic
99
 
100
  3. 安装依赖
101
  ```sh
102
- # (选择I: 如熟悉python)推荐
103
  python -m pip install -r requirements.txt
104
  # 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
105
 
@@ -196,6 +196,7 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
196
 
197
 
198
  ## 版本:
 
199
  - version 3.4(Todo): 完善chatglm本地大模型的多线支持
200
  - version 3.3: +互联网信息综合功能
201
  - version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)
 
30
  模块化设计 | 支持自定义强大的[函数插件](https://github.com/binary-husky/chatgpt_academic/tree/master/crazy_functions),插件支持[热更新](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
31
  [自我程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] [一键读懂](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)本项目的源代码
32
  [程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] 一键可以剖析其他Python/C/C++/Java/Lua/...项目树
33
+ 读论文、[翻译](https://www.bilibili.com/video/BV1KT411x7Wn)论文 | [函数插件] 一键解读latex/pdf论文全文并生成摘要
34
  Latex全文[翻译](https://www.bilibili.com/video/BV1nk4y1Y7Js/)、[润色](https://www.bilibili.com/video/BV1FT411H7c5/) | [函数插件] 一键翻译或润色latex论文
35
  批量注释生成 | [函数插件] 一键批量生成函数注释
36
  Markdown[中英互译](https://www.bilibili.com/video/BV1yo4y157jV/) | [函数插件] 看到上面5种语言的[README](https://github.com/binary-husky/chatgpt_academic/blob/master/docs/README_EN.md)了吗?
 
38
  [PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
39
  [Arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
40
  [谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你[写relatedworks](https://www.bilibili.com/video/BV1GP411U7Az/)
41
+ 互联网信息聚合+GPT | [函数插件] 一键[让GPT先从互联网获取信息](https://www.bilibili.com/video/BV1om4y127ck),再回答问题,让信息永不过时
42
  公式/图片/表格显示 | 可以同时显示公式的[tex形式和渲染形式](https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png),支持公式、代码高亮
43
  多线程函数插件支持 | 支持多线调用chatgpt,一键处理[海量文本](https://www.bilibili.com/video/BV1FT411H7c5/)或程序
44
  启动暗色gradio[主题](https://github.com/binary-husky/chatgpt_academic/issues/173) | 在浏览器url后面添加```/?__dark-theme=true```可以切换dark主题
45
  [多LLM模型](https://www.bilibili.com/video/BV1wT411p7yf)支持,[API2D](https://api2d.com/)接口支持 | 同时被GPT3.5、GPT4和[清华ChatGLM](https://github.com/THUDM/ChatGLM-6B)伺候的感觉一定会很不错吧?
46
+ 更多LLM模型接入,支持[huggingface部署](https://huggingface.co/spaces/qingxu98/gpt-academic) | 新加入Newbing测试接口(新必应AI)
47
  …… | ……
48
 
49
  </div>
 
99
 
100
  3. 安装依赖
101
  ```sh
102
+ # (选择I: 如熟悉python)(python版本3.9以上,越新越好)
103
  python -m pip install -r requirements.txt
104
  # 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
105
 
 
196
 
197
 
198
  ## 版本:
199
+ - version 3.5(Todo): 使用自然语言调用本项目的所有函数插件(高优先级)
200
  - version 3.4(Todo): 完善chatglm本地大模型的多线支持
201
  - version 3.3: +互联网信息综合功能
202
  - version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)
check_proxy.py CHANGED
@@ -56,22 +56,24 @@ def patch_and_restart(path):
56
  """
57
  一键更新协议:覆盖和重启
58
  """
59
- import distutils
60
  import shutil
61
  import os
62
  import sys
63
  import time
 
64
  from colorful import print亮黄, print亮绿, print亮红
65
  # if not using config_private, move origin config.py as config_private.py
66
  if not os.path.exists('config_private.py'):
67
  print亮黄('由于您没有设置config_private.py私密配置,现将您的现有配置移动至config_private.py以防止配置丢失,',
68
  '另外您可以随时在history子文件夹下找回旧版的程序。')
69
  shutil.copyfile('config.py', 'config_private.py')
70
- distutils.dir_util.copy_tree(path+'/chatgpt_academic-master', './')
71
- import subprocess
72
  print亮绿('代码已经更新,即将更新pip包依赖……')
73
  for i in reversed(range(5)): time.sleep(1); print(i)
74
  try:
 
75
  subprocess.check_call([sys.executable, '-m', 'pip', 'install', '-r', 'requirements.txt'])
76
  except:
77
  print亮红('pip包依赖安装出现问题,需要手动安装新增的依赖库 `python -m pip install -r requirements.txt`,然后在用常规的`python main.py`的方式启动。')
 
56
  """
57
  一键更新协议:覆盖和重启
58
  """
59
+ from distutils import dir_util
60
  import shutil
61
  import os
62
  import sys
63
  import time
64
+ import glob
65
  from colorful import print亮黄, print亮绿, print亮红
66
  # if not using config_private, move origin config.py as config_private.py
67
  if not os.path.exists('config_private.py'):
68
  print亮黄('由于您没有设置config_private.py私密配置,现将您的现有配置移动至config_private.py以防止配置丢失,',
69
  '另外您可以随时在history子文件夹下找回旧版的程序。')
70
  shutil.copyfile('config.py', 'config_private.py')
71
+ path_new_version = glob.glob(path + '/*-master')[0]
72
+ dir_util.copy_tree(path_new_version, './')
73
  print亮绿('代码已经更新,即将更新pip包依赖……')
74
  for i in reversed(range(5)): time.sleep(1); print(i)
75
  try:
76
+ import subprocess
77
  subprocess.check_call([sys.executable, '-m', 'pip', 'install', '-r', 'requirements.txt'])
78
  except:
79
  print亮红('pip包依赖安装出现问题,需要手动安装新增的依赖库 `python -m pip install -r requirements.txt`,然后在用常规的`python main.py`的方式启动。')
docs/Dockerfile+ChatGLM CHANGED
@@ -1,6 +1,6 @@
1
  # How to build | 如何构建: docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
2
- # How to run | 如何运行 (1) 直接运行(选择0号GPU): docker run --rm -it --net=host --gpus="0" gpt-academic
3
- # How to run | 如何运行 (2) 我想运行之前进容器做一些调整: docker run --rm -it --net=host --gpus="0" gpt-academic bash
4
 
5
  # 从NVIDIA源,从而支持显卡运损(检查宿主的nvidia-smi中的cuda版本必须>=11.3)
6
  FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
@@ -14,6 +14,7 @@ RUN apt-get install -y git python python3 python-dev python3-dev --fix-missing
14
  RUN $useProxyNetwork curl cip.cc
15
  RUN sed -i '$ d' /etc/proxychains.conf
16
  RUN sed -i '$ d' /etc/proxychains.conf
 
17
  RUN echo "socks5 127.0.0.1 10880" >> /etc/proxychains.conf
18
  ARG useProxyNetwork=proxychains
19
  # # comment out above if you do not need proxy network | 如果不需要翻墙 - 从此行向上删除
@@ -49,6 +50,7 @@ RUN python3 -c 'from check_proxy import warm_up_modules; warm_up_modules()'
49
  # 可同时填写多个API-KEY,支持openai的key和api2d的key共存,用英文逗号分割,例如API_KEY = "sk-openaikey1,fkxxxx-api2dkey2,........"
50
  # LLM_MODEL 是选择初始的模型
51
  # LOCAL_MODEL_DEVICE 是选择chatglm等本地模型运行的设备,可选 cpu 和 cuda
 
52
  RUN echo ' \n\
53
  API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx,fkxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \n\
54
  USE_PROXY = True \n\
 
1
  # How to build | 如何构建: docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
2
+ # How to run | (1) 我想直接一键运行(选择0号GPU): docker run --rm -it --net=host --gpus \"device=0\" gpt-academic
3
+ # How to run | (2) 我想运行之前进容器做一些调整(选择1号GPU): docker run --rm -it --net=host --gpus \"device=1\" gpt-academic bash
4
 
5
  # 从NVIDIA源,从而支持显卡运损(检查宿主的nvidia-smi中的cuda版本必须>=11.3)
6
  FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
 
14
  RUN $useProxyNetwork curl cip.cc
15
  RUN sed -i '$ d' /etc/proxychains.conf
16
  RUN sed -i '$ d' /etc/proxychains.conf
17
+ # 在这里填写主机的代理协议(用于从github拉取代码)
18
  RUN echo "socks5 127.0.0.1 10880" >> /etc/proxychains.conf
19
  ARG useProxyNetwork=proxychains
20
  # # comment out above if you do not need proxy network | 如果不需要翻墙 - 从此行向上删除
 
50
  # 可同时填写多个API-KEY,支持openai的key和api2d的key共存,用英文逗号分割,例如API_KEY = "sk-openaikey1,fkxxxx-api2dkey2,........"
51
  # LLM_MODEL 是选择初始的模型
52
  # LOCAL_MODEL_DEVICE 是选择chatglm等本地模型运行的设备,可选 cpu 和 cuda
53
+ # [说明: 以下内容与`config.py`一一对应,请查阅config.py来完成一下配置的填写]
54
  RUN echo ' \n\
55
  API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx,fkxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \n\
56
  USE_PROXY = True \n\
version CHANGED
@@ -1,5 +1,5 @@
1
  {
2
  "version": 3.31,
3
  "show_feature": true,
4
- "new_feature": "ChatGLM加线程锁提高并发稳定性 <-> 支持NewBing <-> Markdown翻译功能支持直接输入Readme文件网址 <-> 保存对话功能 <-> 解读任意语言代码+同时询问任意的LLM组合 <-> 添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM"
5
  }
 
1
  {
2
  "version": 3.31,
3
  "show_feature": true,
4
+ "new_feature": "我们发现了自动更新模块的BUG,此次更新可能需要您手动到Github下载新版程序并覆盖 <-> ChatGLM加线程锁提高并发稳定性 <-> 支持NewBing <-> Markdown翻译功能支持直接输入Readme文件网址 <-> 保存对话功能 <-> 解读任意语言代码+同时询问任意的LLM组合 <-> 添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM"
5
  }