Spaces:
Build error
Build error
Merge branch 'master' of github.com:binary-husky/chatgpt_academic
Browse files- README.md +5 -4
- check_proxy.py +5 -3
- docs/Dockerfile+ChatGLM +4 -2
- version +1 -1
README.md
CHANGED
@@ -30,7 +30,7 @@ If you like this project, please give it a Star. If you've come up with more use
|
|
30 |
模块化设计 | 支持自定义强大的[函数插件](https://github.com/binary-husky/chatgpt_academic/tree/master/crazy_functions),插件支持[热更新](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
|
31 |
[自我程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] [一键读懂](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)本项目的源代码
|
32 |
[程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] 一键可以剖析其他Python/C/C++/Java/Lua/...项目树
|
33 |
-
|
34 |
Latex全文[翻译](https://www.bilibili.com/video/BV1nk4y1Y7Js/)、[润色](https://www.bilibili.com/video/BV1FT411H7c5/) | [函数插件] 一键翻译或润色latex论文
|
35 |
批量注释生成 | [函数插件] 一键批量生成函数注释
|
36 |
Markdown[中英互译](https://www.bilibili.com/video/BV1yo4y157jV/) | [函数插件] 看到上面5种语言的[README](https://github.com/binary-husky/chatgpt_academic/blob/master/docs/README_EN.md)了吗?
|
@@ -38,12 +38,12 @@ chat分析报告生成 | [函数插件] 运行后自动生成总结汇报
|
|
38 |
[PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
|
39 |
[Arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
|
40 |
[谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你[写relatedworks](https://www.bilibili.com/video/BV1GP411U7Az/)
|
41 |
-
互联网信息聚合+GPT | [函数插件]
|
42 |
公式/图片/表格显示 | 可以同时显示公式的[tex形式和渲染形式](https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png),支持公式、代码高亮
|
43 |
多线程函数插件支持 | 支持多线调用chatgpt,一键处理[海量文本](https://www.bilibili.com/video/BV1FT411H7c5/)或程序
|
44 |
启动暗色gradio[主题](https://github.com/binary-husky/chatgpt_academic/issues/173) | 在浏览器url后面添加```/?__dark-theme=true```可以切换dark主题
|
45 |
[多LLM模型](https://www.bilibili.com/video/BV1wT411p7yf)支持,[API2D](https://api2d.com/)接口支持 | 同时被GPT3.5、GPT4和[清华ChatGLM](https://github.com/THUDM/ChatGLM-6B)伺候的感觉一定会很不错吧?
|
46 |
-
更多LLM
|
47 |
…… | ……
|
48 |
|
49 |
</div>
|
@@ -99,7 +99,7 @@ cd chatgpt_academic
|
|
99 |
|
100 |
3. 安装依赖
|
101 |
```sh
|
102 |
-
# (选择I: 如熟悉python
|
103 |
python -m pip install -r requirements.txt
|
104 |
# 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
|
105 |
|
@@ -196,6 +196,7 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
|
|
196 |
|
197 |
|
198 |
## 版本:
|
|
|
199 |
- version 3.4(Todo): 完善chatglm本地大模型的多线支持
|
200 |
- version 3.3: +互联网信息综合功能
|
201 |
- version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)
|
|
|
30 |
模块化设计 | 支持自定义强大的[函数插件](https://github.com/binary-husky/chatgpt_academic/tree/master/crazy_functions),插件支持[热更新](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
|
31 |
[自我程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] [一键读懂](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)本项目的源代码
|
32 |
[程序剖析](https://www.bilibili.com/video/BV1cj411A7VW) | [函数插件] 一键可以剖析其他Python/C/C++/Java/Lua/...项目树
|
33 |
+
读论文、[翻译](https://www.bilibili.com/video/BV1KT411x7Wn)论文 | [函数插件] 一键解读latex/pdf论文全文并生成摘要
|
34 |
Latex全文[翻译](https://www.bilibili.com/video/BV1nk4y1Y7Js/)、[润色](https://www.bilibili.com/video/BV1FT411H7c5/) | [函数插件] 一键翻译或润色latex论文
|
35 |
批量注释生成 | [函数插件] 一键批量生成函数注释
|
36 |
Markdown[中英互译](https://www.bilibili.com/video/BV1yo4y157jV/) | [函数插件] 看到上面5种语言的[README](https://github.com/binary-husky/chatgpt_academic/blob/master/docs/README_EN.md)了吗?
|
|
|
38 |
[PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
|
39 |
[Arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
|
40 |
[谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你[写relatedworks](https://www.bilibili.com/video/BV1GP411U7Az/)
|
41 |
+
互联网信息聚合+GPT | [函数插件] 一键[让GPT先从互联网获取信息](https://www.bilibili.com/video/BV1om4y127ck),再回答问题,让信息永不过时
|
42 |
公式/图片/表格显示 | 可以同时显示公式的[tex形式和渲染形式](https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png),支持公式、代码高亮
|
43 |
多线程函数插件支持 | 支持多线调用chatgpt,一键处理[海量文本](https://www.bilibili.com/video/BV1FT411H7c5/)或程序
|
44 |
启动暗色gradio[主题](https://github.com/binary-husky/chatgpt_academic/issues/173) | 在浏览器url后面添加```/?__dark-theme=true```可以切换dark主题
|
45 |
[多LLM模型](https://www.bilibili.com/video/BV1wT411p7yf)支持,[API2D](https://api2d.com/)接口支持 | 同时被GPT3.5、GPT4和[清华ChatGLM](https://github.com/THUDM/ChatGLM-6B)伺候的感觉一定会很不错吧?
|
46 |
+
更多LLM模型接入,支持[huggingface部署](https://huggingface.co/spaces/qingxu98/gpt-academic) | 新加入Newbing测试接口(新必应AI)
|
47 |
…… | ……
|
48 |
|
49 |
</div>
|
|
|
99 |
|
100 |
3. 安装依赖
|
101 |
```sh
|
102 |
+
# (选择I: 如熟悉python)(python版本3.9以上,越新越好)
|
103 |
python -m pip install -r requirements.txt
|
104 |
# 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
|
105 |
|
|
|
196 |
|
197 |
|
198 |
## 版本:
|
199 |
+
- version 3.5(Todo): 使用自然语言调用本项目的所有函数插件(高优先级)
|
200 |
- version 3.4(Todo): 完善chatglm本地大模型的多线支持
|
201 |
- version 3.3: +互联网信息综合功能
|
202 |
- version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合)
|
check_proxy.py
CHANGED
@@ -56,22 +56,24 @@ def patch_and_restart(path):
|
|
56 |
"""
|
57 |
一键更新协议:覆盖和重启
|
58 |
"""
|
59 |
-
import
|
60 |
import shutil
|
61 |
import os
|
62 |
import sys
|
63 |
import time
|
|
|
64 |
from colorful import print亮黄, print亮绿, print亮红
|
65 |
# if not using config_private, move origin config.py as config_private.py
|
66 |
if not os.path.exists('config_private.py'):
|
67 |
print亮黄('由于您没有设置config_private.py私密配置,现将您的现有配置移动至config_private.py以防止配置丢失,',
|
68 |
'另外您可以随时在history子文件夹下找回旧版的程序。')
|
69 |
shutil.copyfile('config.py', 'config_private.py')
|
70 |
-
|
71 |
-
|
72 |
print亮绿('代码已经更新,即将更新pip包依赖……')
|
73 |
for i in reversed(range(5)): time.sleep(1); print(i)
|
74 |
try:
|
|
|
75 |
subprocess.check_call([sys.executable, '-m', 'pip', 'install', '-r', 'requirements.txt'])
|
76 |
except:
|
77 |
print亮红('pip包依赖安装出现问题,需要手动安装新增的依赖库 `python -m pip install -r requirements.txt`,然后在用常规的`python main.py`的方式启动。')
|
|
|
56 |
"""
|
57 |
一键更新协议:覆盖和重启
|
58 |
"""
|
59 |
+
from distutils import dir_util
|
60 |
import shutil
|
61 |
import os
|
62 |
import sys
|
63 |
import time
|
64 |
+
import glob
|
65 |
from colorful import print亮黄, print亮绿, print亮红
|
66 |
# if not using config_private, move origin config.py as config_private.py
|
67 |
if not os.path.exists('config_private.py'):
|
68 |
print亮黄('由于您没有设置config_private.py私密配置,现将您的现有配置移动至config_private.py以防止配置丢失,',
|
69 |
'另外您可以随时在history子文件夹下找回旧版的程序。')
|
70 |
shutil.copyfile('config.py', 'config_private.py')
|
71 |
+
path_new_version = glob.glob(path + '/*-master')[0]
|
72 |
+
dir_util.copy_tree(path_new_version, './')
|
73 |
print亮绿('代码已经更新,即将更新pip包依赖……')
|
74 |
for i in reversed(range(5)): time.sleep(1); print(i)
|
75 |
try:
|
76 |
+
import subprocess
|
77 |
subprocess.check_call([sys.executable, '-m', 'pip', 'install', '-r', 'requirements.txt'])
|
78 |
except:
|
79 |
print亮红('pip包依赖安装出现问题,需要手动安装新增的依赖库 `python -m pip install -r requirements.txt`,然后在用常规的`python main.py`的方式启动。')
|
docs/Dockerfile+ChatGLM
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
# How to build | 如何构建: docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
|
2 |
-
# How to run |
|
3 |
-
# How to run |
|
4 |
|
5 |
# 从NVIDIA源,从而支持显卡运损(检查宿主的nvidia-smi中的cuda版本必须>=11.3)
|
6 |
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
|
@@ -14,6 +14,7 @@ RUN apt-get install -y git python python3 python-dev python3-dev --fix-missing
|
|
14 |
RUN $useProxyNetwork curl cip.cc
|
15 |
RUN sed -i '$ d' /etc/proxychains.conf
|
16 |
RUN sed -i '$ d' /etc/proxychains.conf
|
|
|
17 |
RUN echo "socks5 127.0.0.1 10880" >> /etc/proxychains.conf
|
18 |
ARG useProxyNetwork=proxychains
|
19 |
# # comment out above if you do not need proxy network | 如果不需要翻墙 - 从此行向上删除
|
@@ -49,6 +50,7 @@ RUN python3 -c 'from check_proxy import warm_up_modules; warm_up_modules()'
|
|
49 |
# 可同时填写多个API-KEY,支持openai的key和api2d的key共存,用英文逗号分割,例如API_KEY = "sk-openaikey1,fkxxxx-api2dkey2,........"
|
50 |
# LLM_MODEL 是选择初始的模型
|
51 |
# LOCAL_MODEL_DEVICE 是选择chatglm等本地模型运行的设备,可选 cpu 和 cuda
|
|
|
52 |
RUN echo ' \n\
|
53 |
API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx,fkxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \n\
|
54 |
USE_PROXY = True \n\
|
|
|
1 |
# How to build | 如何构建: docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
|
2 |
+
# How to run | (1) 我想直接一键运行(选择0号GPU): docker run --rm -it --net=host --gpus \"device=0\" gpt-academic
|
3 |
+
# How to run | (2) 我想运行之前进容器做一些调整(选择1号GPU): docker run --rm -it --net=host --gpus \"device=1\" gpt-academic bash
|
4 |
|
5 |
# 从NVIDIA源,从而支持显卡运损(检查宿主的nvidia-smi中的cuda版本必须>=11.3)
|
6 |
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
|
|
|
14 |
RUN $useProxyNetwork curl cip.cc
|
15 |
RUN sed -i '$ d' /etc/proxychains.conf
|
16 |
RUN sed -i '$ d' /etc/proxychains.conf
|
17 |
+
# 在这里填写主机的代理协议(用于从github拉取代码)
|
18 |
RUN echo "socks5 127.0.0.1 10880" >> /etc/proxychains.conf
|
19 |
ARG useProxyNetwork=proxychains
|
20 |
# # comment out above if you do not need proxy network | 如果不需要翻墙 - 从此行向上删除
|
|
|
50 |
# 可同时填写多个API-KEY,支持openai的key和api2d的key共存,用英文逗号分割,例如API_KEY = "sk-openaikey1,fkxxxx-api2dkey2,........"
|
51 |
# LLM_MODEL 是选择初始的模型
|
52 |
# LOCAL_MODEL_DEVICE 是选择chatglm等本地模型运行的设备,可选 cpu 和 cuda
|
53 |
+
# [说明: 以下内容与`config.py`一一对应,请查阅config.py来完成一下配置的填写]
|
54 |
RUN echo ' \n\
|
55 |
API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx,fkxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \n\
|
56 |
USE_PROXY = True \n\
|
version
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
{
|
2 |
"version": 3.31,
|
3 |
"show_feature": true,
|
4 |
-
"new_feature": "ChatGLM加线程锁提高并发稳定性 <-> 支持NewBing <-> Markdown翻译功能支持直接输入Readme文件网址 <-> 保存对话功能 <-> 解读任意语言代码+同时询问任意的LLM组合 <-> 添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM"
|
5 |
}
|
|
|
1 |
{
|
2 |
"version": 3.31,
|
3 |
"show_feature": true,
|
4 |
+
"new_feature": "我们发现了自动更新模块的BUG,此次更新可能需要您手动到Github下载新版程序并覆盖 <-> ChatGLM加线程锁提高并发稳定性 <-> 支持NewBing <-> Markdown翻译功能支持直接输入Readme文件网址 <-> 保存对话功能 <-> 解读任意语言代码+同时询问任意的LLM组合 <-> 添加联网(Google)回答问题插件 <-> 修复ChatGLM上下文BUG <-> 添加支持清华ChatGLM"
|
5 |
}
|