qingxu99 commited on
Commit
3108b4a
1 Parent(s): 3da12b5

fix format

Browse files
docs/README.md.Portuguese.md ADDED
@@ -0,0 +1,320 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ > **Nota**
2
+ >
3
+ > Ao instalar as dependências, por favor, selecione rigorosamente as versões **especificadas** no arquivo requirements.txt.
4
+ >
5
+ > `pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/`
6
+ >
7
+
8
+ # <img src="docs/logo.png" width="40" > Otimização acadêmica GPT (GPT Academic)
9
+
10
+ **Se você gostou deste projeto, por favor dê um Star. Se você criou atalhos acadêmicos mais úteis ou plugins funcionais, sinta-se livre para abrir uma issue ou pull request. Nós também temos um README em [Inglês|](docs/README_EN.md)[日本語|](docs/README_JP.md)[한국어|](https://github.com/mldljyh/ko_gpt_academic)[Русский|](docs/README_RS.md)[Français](docs/README_FR.md) traduzidos por este próprio projeto.
11
+ Para traduzir este projeto para qualquer idioma com o GPT, leia e execute [`multi_language.py`](multi_language.py) (experimental).
12
+
13
+ > **Nota**
14
+ >
15
+ > 1. Por favor, preste atenção que somente os plugins de funções (botões) com a cor **vermelha** podem ler arquivos. Alguns plugins estão localizados no **menu suspenso** na área de plugins. Além disso, nós damos as boas-vindas com a **maior prioridade** e gerenciamos quaisquer novos plugins PR!
16
+ >
17
+ > 2. As funções de cada arquivo neste projeto são detalhadas em [`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A), auto-análises do projeto geradas pelo GPT também estão podem ser chamadas a qualquer momento ao clicar nos plugins relacionados. As perguntas frequentes estão resumidas no [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98). [Instruções de Instalação](#installation).
18
+ >
19
+ > 3. Este projeto é compatível com e incentiva o uso de modelos de linguagem nacionais, como chatglm e RWKV, Pangolin, etc. Suporta a coexistência de várias chaves de API e pode ser preenchido no arquivo de configuração como `API_KEY="openai-key1,openai-key2,api2d-key3"`. Quando precisar alterar temporariamente o `API_KEY`, basta digitar o `API_KEY` temporário na área de entrada e pressionar Enter para que ele entre em vigor.
20
+
21
+ <div align="center">Funcionalidade | Descrição
22
+ --- | ---
23
+ Um clique de polimento | Suporte a um clique polimento, um clique encontrar erros de gramática no artigo
24
+ Tradução chinês-inglês de um clique | Tradução chinês-inglês de um clique
25
+ Explicação de código de um único clique | Exibir código, explicar código, gerar código, adicionar comentários ao código
26
+ [Teclas de atalho personalizadas](https://www.bilibili.com/video/BV14s4y1E7jN) | Suporte a atalhos personalizados
27
+ Projeto modular | Suporte para poderosos plugins[de função personalizada](https://github.com/binary-husky/chatgpt_academic/tree/master/crazy_functions), os plugins suportam[hot-reload](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
28
+ [Análise automática do programa](https://www.bilibili.com/video/BV1cj411A7VW) | [Plugin de função][um clique para entender](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) o código-fonte do projeto
29
+ [Análise do programa](https://www.bilibili.com/video/BV1cj411A7VW) | [Plugin de função] Um clique pode analisar a árvore de projetos do Python/C/C++/Java/Lua/...
30
+ Leitura de artigos, [tradução](https://www.bilibili.com/video/BV1KT411x7Wn) de artigos | [Plugin de função] um clique para interpretar o resumo de artigos LaTeX/PDF e gerar resumo
31
+ Tradução completa LATEX, polimento|[Plugin de função] Uma clique para traduzir ou polir um artigo LATEX
32
+ Geração em lote de comentários | [Plugin de função] Um clique gera comentários de função em lote
33
+ [Tradução chinês-inglês](https://www.bilibili.com/video/BV1yo4y157jV/) markdown | [Plugin de função] Você viu o README em 5 linguagens acima?
34
+ Relatório de análise de chat | [Plugin de função] Gera automaticamente um resumo após a execução
35
+ [Funcionalidade de tradução de artigos completos em PDF](https://www.bilibili.com/video/BV1KT411x7Wn) | [Plugin de função] Extrai o título e o resumo do artigo PDF e traduz o artigo completo (multithread)
36
+ Assistente arXiv | [Plugin de função] Insira o url do artigo arXiv para traduzir o resumo + baixar PDF
37
+ Assistente de integração acadêmica do Google | [Plugin de função] Dê qualquer URL de página de pesquisa acadêmica do Google e deixe o GPT escrever[trabalhos relacionados](https://www.bilibili.com/video/BV1GP411U7Az/)
38
+ Agregação de informações da Internet + GPT | [Plugin de função] Um clique para obter informações do GPT através da Internet e depois responde a perguntas para informações nunca ficarem desatualizadas
39
+ Exibição de fórmulas/imagem/tabela | Pode exibir simultaneamente a forma de renderização e[TEX] das fórmulas, suporte a fórmulas e realce de código
40
+ Suporte de plugins de várias linhas | Suporte a várias chamadas em linha do chatgpt, um clique para processamento[de massa de texto](https://www.bilibili.com/video/BV1FT411H7c5/) ou programa
41
+ Tema gradio escuro | Adicione ``` /?__theme=dark``` ao final da url do navegador para ativar o tema escuro
42
+ [Suporte para vários modelos LLM](https://www.bilibili.com/video/BV1wT411p7yf), suporte para a nova interface API2D | A sensação de ser atendido simultaneamente por GPT3.5, GPT4, [Chatglm THU](https://github.com/THUDM/ChatGLM-6B), [Moss Fudan](https://github.com/OpenLMLab/MOSS) deve ser ótima, certo?
43
+ Mais modelos LLM incorporados, suporte para a implantação[huggingface](https://huggingface.co/spaces/qingxu98/gpt-academic) | Adicione interface Newbing (New Bing), suporte [JittorLLMs](https://github.com/Jittor/JittorLLMs) THU Introdução ao suporte do LLaMA, RWKV e Pan Gu Alpha
44
+ Mais recursos novos mostrados (geração de imagens, etc.) ... | Consulte o final deste documento ...
45
+
46
+ </div>
47
+
48
+ - Nova interface (Modifique a opção LAYOUT em `config.py` para alternar entre o layout esquerdo/direito e o layout superior/inferior)
49
+ <div align="center">
50
+ <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
51
+ </div>- All buttons are dynamically generated by reading functional.py, and you can add custom functions at will, liberating the clipboard
52
+
53
+ <div align="center">
54
+ <img src = "https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700">
55
+ </div>
56
+
57
+ - Proofreading/errors correction
58
+
59
+
60
+ <div align="center">
61
+ <img src = "https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700">
62
+ </div>
63
+
64
+ - If the output contains formulas, it will be displayed in both tex and rendering format at the same time, which is convenient for copying and reading
65
+
66
+
67
+ <div align="center">
68
+ <img src = "https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700">
69
+ </div>
70
+
71
+ - Don't want to read the project code? Just show the whole project to chatgpt
72
+
73
+
74
+ <div align="center">
75
+ <img src = "https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700">
76
+ </div>
77
+
78
+ - Mix the use of multiple large language models (ChatGLM + OpenAI-GPT3.5 + [API2D](https://api2d.com/)-GPT4)
79
+
80
+
81
+ <div align="center">
82
+ <img src = "https://user-images.githubusercontent.com/96192199/232537274-deca0563-7aa6-4b5d-94a2-b7c453c47794.png" width="700">
83
+ </div>
84
+
85
+ ---
86
+ # Instalação
87
+ ## Installation-Method 1: Run directly (Windows, Linux or MacOS)
88
+
89
+ 1. Download the project
90
+
91
+ ```sh
92
+ git clone https://github.com/binary-husky/chatgpt_academic.git
93
+ cd chatgpt_academic
94
+ ```
95
+
96
+ 2. Configure the API KEY
97
+
98
+ In `config.py`, configure API KEY and other settings, [Special Network Environment Settings] (https://github.com/binary-husky/gpt_academic/issues/1).
99
+
100
+ (P.S. When the program runs, it will first check whether there is a private configuration file named `config_private.py`, and use the configuration in it to cover the configuration with the same name in `config.py`. Therefore, if you can understand our configuration reading logic, we strongly recommend that you create a new configuration file named `config_private.py` next to `config.py`, and transfer (copy) the configuration in `config.py` to `config_private.py`. `config_private.py` is not controlled by git and can make your privacy information more secure. P.S. The project also supports configuring most options through `environment variables`. The writing format of environment variables is referenced to the `docker-compose` file. Reading priority: `environment variable` > `config_private.py` > `config.py`)
101
+
102
+
103
+ 3. Install dependencies
104
+
105
+ ```sh
106
+ # (Option I: for those familiar with python)(python version is 3.9 or above, the newer the better), note: use the official pip source or the Alibaba pip source. Temporary solution for changing source: python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
107
+ python -m pip install -r requirements.txt
108
+
109
+ # (Option II: for those who are unfamiliar with python) use anaconda, the steps are also similar (https://www.bilibili.com/video/BV1rc411W7Dr):
110
+ conda create -n gptac_venv python=3.11 # create anaconda environment
111
+ conda activate gptac_venv # activate anaconda environment
112
+ python -m pip install -r requirements.txt # This step is the same as the pip installation step
113
+ ```
114
+
115
+ <details><summary>If you need to support Tsinghua ChatGLM / Fudan MOSS as the backend, click to expand here</summary>
116
+ <p>
117
+
118
+ [Optional Step] If you need to support Tsinghua ChatGLM / Fudan MOSS as the backend, you need to install more dependencies (prerequisite: familiar with Python + used Pytorch + computer configuration is strong):
119
+ ```sh
120
+ # 【Optional Step I】support Tsinghua ChatGLM。Tsinghua ChatGLM Note: If you encounter a "Call ChatGLM fails cannot load ChatGLM parameters normally" error, refer to the following: 1: The default installed is torch+cpu version, and using cuda requires uninstalling torch and reinstalling torch+cuda; 2: If the model cannot be loaded due to insufficient computer configuration, you can modify the model accuracy in request_llm/bridge_chatglm.py and change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
121
+ python -m pip install -r request_llm/requirements_chatglm.txt
122
+
123
+ # 【Optional Step II】support Fudan MOSS
124
+ python -m pip install -r request_llm/requirements_moss.txt
125
+ git clone https://github.com/OpenLMLab/MOSS.git request_llm/moss # Note: When executing this line of code, you must be in the project root path
126
+
127
+ # 【Optional Step III】Make sure that the AVAIL_LLM_MODELS in the config.py configuration file contains the expected model. Currently, all supported models are as follows (jittorllms series currently only supports docker solutions):
128
+ AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "newbing", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
129
+ ```
130
+
131
+ </p>
132
+ </details>
133
+
134
+
135
+ 4. Run
136
+
137
+ ```sh
138
+ python main.py
139
+ ```5. Plugin de Função de Teste
140
+ ```
141
+ - Função de modelo de plug-in de teste (exige que o GPT responda ao que aconteceu hoje na história), você pode usar esta função como modelo para implementar funções mais complexas
142
+ Clique em "[Função de plug-in de modelo de demonstração] O que aconteceu hoje na história?"
143
+ ```
144
+
145
+ ## Instalação - Método 2: Usando o Docker
146
+
147
+ 1. Apenas ChatGPT (recomendado para a maioria das pessoas)
148
+
149
+ ``` sh
150
+ git clone https://github.com/binary-husky/chatgpt_academic.git # Baixar o projeto
151
+ cd chatgpt_academic # Entrar no caminho
152
+ nano config.py # Editar config.py com qualquer editor de texto configurando "Proxy", "API_KEY" e "WEB_PORT" (por exemplo, 50923), etc.
153
+ docker build -t gpt-academic . # Instale
154
+
155
+ # (Ùltima etapa - escolha 1) Dentro do ambiente Linux, é mais fácil e rápido usar `--net=host`
156
+ docker run --rm -it --net=host gpt-academic
157
+ # (Última etapa - escolha 2) Em ambientes macOS/windows, você só pode usar a opção -p para expor a porta do contêiner (por exemplo, 50923) para a porta no host
158
+ docker run --rm -it -e WEB_PORT=50923 -p 50923:50923 gpt-academic
159
+ ```
160
+
161
+ 2. ChatGPT + ChatGLM + MOSS (conhecimento de Docker necessário)
162
+
163
+ ``` sh
164
+ # Edite o arquivo docker-compose.yml, remova as soluções 1 e 3, mantenha a solução 2, e siga as instruções nos comentários do arquivo
165
+ docker-compose up
166
+ ```
167
+
168
+ 3. ChatGPT + LLAMA + Pangu + RWKV (conhecimento de Docker necessário)
169
+ ``` sh
170
+ # Edite o arquivo docker-compose.yml, remova as soluções 1 e 2, mantenha a solução 3, e siga as instruções nos comentários do arquivo
171
+ docker-compose up
172
+ ```
173
+
174
+
175
+ ## Instalação - Método 3: Outros Métodos de Implantação
176
+
177
+ 1. Como usar URLs de proxy inverso/microsoft Azure API
178
+ Basta configurar o API_URL_REDIRECT de acordo com as instruções em `config.py`.
179
+
180
+ 2. Implantação em servidores em nuvem remotos (requer conhecimento e experiência de servidores em nuvem)
181
+ Acesse [Wiki de implementação remota do servidor em nuvem](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
182
+
183
+ 3. Usando a WSL2 (sub-sistema do Windows para Linux)
184
+ Acesse [Wiki da implantação da WSL2](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
185
+
186
+ 4. Como executar em um subdiretório (ex. `http://localhost/subpath`)
187
+ Acesse [Instruções de execução FastAPI](docs/WithFastapi.md)
188
+
189
+ 5. Execute usando o docker-compose
190
+ Leia o arquivo docker-compose.yml e siga as instruções.
191
+
192
+ # Uso Avançado
193
+ ## Customize novos botões de acesso rápido / plug-ins de função personalizados
194
+
195
+ 1. Personalizar novos botões de acesso rápido (atalhos acadêmicos)
196
+ Abra `core_functional.py` em qualquer editor de texto e adicione os seguintes itens e reinicie o programa (Se o botão já foi adicionado e pode ser visto, prefixos e sufixos são compatíveis com modificações em tempo real e não exigem reinício do programa para ter efeito.)
197
+ Por exemplo,
198
+ ```
199
+ "Super Eng:": {
200
+   # Prefixo, será adicionado antes da sua entrada. Por exemplo, para descrever sua solicitação, como tradução, explicação de código, polimento, etc.
201
+   "Prefix": "Por favor, traduza o seguinte conteúdo para chinês e use uma tabela em Markdown para explicar termos próprios no texto: \n \n",
202
+
203
+   # Sufixo, será adicionado após a sua entrada. Por exemplo, emparelhado com o prefixo, pode colocar sua entrada entre aspas.
204
+   "Suffix": "",
205
+ },
206
+ ```
207
+ <div align="center">
208
+ <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
209
+ </div>
210
+
211
+ 2. Personalizar plug-ins de função
212
+
213
+ Escreva plug-ins de função poderosos para executar tarefas que você deseja e não pensava possível.
214
+ A dificuldade geral de escrever e depurar plug-ins neste projeto é baixa e, se você tem algum conhecimento básico de python, pode implementar suas próprias funções sobre o modelo que fornecemos.
215
+ Para mais detalhes, consulte o [Guia do plug-in de função.](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97).
216
+
217
+ ---
218
+ # Última atualização
219
+ ## Novas funções dinâmicas.1. Função de salvamento de diálogo. Ao chamar o plug-in de função "Salvar diálogo atual", é possível salvar o diálogo atual em um arquivo html legível e reversível. Além disso, ao chamar o plug-in de função "Carregar arquivo de histórico de diálogo" no menu suspenso da área de plug-in, é possível restaurar uma conversa anterior. Dica: clicar em "Carregar arquivo de histórico de diálogo" sem especificar um arquivo permite visualizar o cache do arquivo html de histórico. Clicar em "Excluir todo o registro de histórico de diálogo local" permite excluir todo o cache de arquivo html.
220
+ <div align="center">
221
+ <img src="https://user-images.githubusercontent.com/96192199/235222390-24a9acc0-680f-49f5-bc81-2f3161f1e049.png" width="500" >
222
+ </div>
223
+
224
+
225
+ 2. Geração de relatório. A maioria dos plug-ins gera um relatório de trabalho após a conclusão da execução.
226
+ <div align="center">
227
+ <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
228
+ <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
229
+ <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
230
+ </div>
231
+
232
+ 3. Design modular de funcionalidades, com interfaces simples, mas suporte a recursos poderosos
233
+ <div align="center">
234
+ <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
235
+ <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
236
+ </div>
237
+
238
+ 4. Este é um projeto de código aberto que é capaz de "auto-traduzir-se".
239
+ <div align="center">
240
+ <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="500" >
241
+ </div>
242
+
243
+ 5. A tradução de outros projetos de código aberto é simples.
244
+ <div align="center">
245
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="500" >
246
+ </div>
247
+
248
+ <div align="center">
249
+ <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="500" >
250
+ </div>
251
+
252
+ 6. Recursos decorativos para o [live2d](https://github.com/fghrsh/live2d_demo) (desativados por padrão, é necessário modificar o arquivo `config.py`)
253
+ <div align="center">
254
+ <img src="https://user-images.githubusercontent.com/96192199/236432361-67739153-73e8-43fe-8111-b61296edabd9.png" width="500" >
255
+ </div>
256
+
257
+ 7. Suporte ao modelo de linguagem MOSS
258
+ <div align="center">
259
+ <img src="https://user-images.githubusercontent.com/96192199/236639178-92836f37-13af-4fdd-984d-b4450fe30336.png" width="500" >
260
+ </div>
261
+
262
+ 8. Geração de imagens pelo OpenAI
263
+ <div align="center">
264
+ <img src="https://github.com/binary-husky/gpt_academic/assets/96192199/bc7ab234-ad90-48a0-8d62-f703d9e74665" width="500" >
265
+ </div>
266
+
267
+ 9. Análise e resumo de áudio pelo OpenAI
268
+ <div align="center">
269
+ <img src="https://github.com/binary-husky/gpt_academic/assets/96192199/709ccf95-3aee-498a-934a-e1c22d3d5d5b" width="500" >
270
+ </div>
271
+
272
+ 10. Revisão e correção de erros de texto em Latex.
273
+ <div align="center">
274
+ <img src="https://github.com/binary-husky/gpt_academic/assets/96192199/651ccd98-02c9-4464-91e1-77a6b7d1b033" width="500" >
275
+ </div>
276
+
277
+ ## Versão:
278
+ - Versão 3.5(Todo): Usar linguagem natural para chamar todas as funções do projeto (prioridade alta)
279
+ - Versão 3.4(Todo): Melhorar o suporte à multithread para o chatglm local
280
+ - Versão 3.3: +Funções integradas de internet
281
+ - Versão 3.2: Suporte a mais interfaces de parâmetros de plug-in (função de salvar diálogo, interpretação de códigos de várias linguagens, perguntas de combinações LLM arbitrárias ao mesmo tempo)
282
+ - Versão 3.1: Suporte a perguntas a vários modelos de gpt simultaneamente! Suporte para api2d e balanceamento de carga para várias chaves api
283
+ - Versão 3.0: Suporte ao chatglm e outros LLMs de pequeno porte
284
+ - Versão 2.6: Refatoração da estrutura de plug-in, melhoria da interatividade e adição de mais plug-ins
285
+ - Versão 2.5: Autoatualização, resolvendo problemas de token de texto excessivamente longo e estouro ao compilar grandes projetos
286
+ - Versão 2.4: (1) Adição de funcionalidade de tradução de texto completo em PDF; (2) Adição de funcionalidade de mudança de posição da área de entrada; (3) Adição de opção de layout vertical; (4) Otimização de plug-ins de multithread.
287
+ - Versão 2.3: Melhoria da interatividade de multithread
288
+ - Versão 2.2: Suporte à recarga a quente de plug-ins
289
+ - Versão 2.1: Layout dobrável
290
+ - Versão 2.0: Introdução de plug-ins de função modular
291
+ - Versão 1.0: Funcionalidades básicasgpt_academic desenvolvedores QQ grupo-2: 610599535
292
+
293
+ - Problemas conhecidos
294
+ - Extensões de tradução de alguns navegadores podem interferir na execução do front-end deste software
295
+ - Uma versão muito alta ou muito baixa do Gradio pode causar vários erros
296
+
297
+ ## Referências e Aprendizado
298
+
299
+ ```
300
+ Foi feita referência a muitos projetos excelentes em código, principalmente:
301
+
302
+ # Projeto1: ChatGLM-6B da Tsinghua:
303
+ https://github.com/THUDM/ChatGLM-6B
304
+
305
+ # Projeto2: JittorLLMs da Tsinghua:
306
+ https://github.com/Jittor/JittorLLMs
307
+
308
+ # Projeto3: Edge-GPT:
309
+ https://github.com/acheong08/EdgeGPT
310
+
311
+ # Projeto4: ChuanhuChatGPT:
312
+ https://github.com/GaiZhenbiao/ChuanhuChatGPT
313
+
314
+ # Projeto5: ChatPaper:
315
+ https://github.com/kaixindelele/ChatPaper
316
+
317
+ # Mais:
318
+ https://github.com/gradio-app/gradio
319
+ https://github.com/fghrsh/live2d_demo
320
+ ```
docs/README_EN.md CHANGED
@@ -17,7 +17,9 @@ To translate this project to arbitary language with GPT, read and run [`multi_la
17
  > 2. The function of each file in this project is detailed in the self-translation analysis [`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A). With version iteration, you can also click on related function plugins at any time to call GPT to regenerate the project's self-analysis report. Common questions are summarized in the [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98). [Installation method](#installation).
18
  > 3. This project is compatible with and encourages trying domestic large language models such as chatglm, RWKV, Pangu, etc. Multiple API keys are supported and can be filled in the configuration file like `API_KEY="openai-key1,openai-key2,api2d-key3"`. When temporarily changing `API_KEY`, enter the temporary `API_KEY` in the input area and press enter to submit, which will take effect.
19
 
20
- <div align="center">Function | Description
 
 
21
  --- | ---
22
  One-click polishing | Supports one-click polishing and one-click searching for grammar errors in papers.
23
  One-click Chinese-English translation | One-click Chinese-English translation.
@@ -41,6 +43,7 @@ Start Dark Gradio [theme](https://github.com/binary-husky/chatgpt_academic/issue
41
  [Multiple LLM models](https://www.bilibili.com/video/BV1wT411p7yf) support, [API2D](https://api2d.com/) interface support | The feeling of being served by GPT3.5, GPT4, [Tsinghua ChatGLM](https://github.com/THUDM/ChatGLM-6B), and [Fudan MOSS](https://github.com/OpenLMLab/MOSS) at the same time must be great, right?
42
  More LLM model access, support [huggingface deployment](https://huggingface.co/spaces/qingxu98/gpt-academic) | Add Newbing interface (New Bing), introduce Tsinghua [Jittorllms](https://github.com/Jittor/JittorLLMs) to support [LLaMA](https://github.com/facebookresearch/llama), [RWKV](https://github.com/BlinkDL/ChatRWKV) and [Panguα](https://openi.org.cn/pangu/)
43
  More new feature displays (image generation, etc.)…… | See the end of this document for more...
 
44
 
45
  - New interface (modify the LAYOUT option in `config.py` to switch between "left and right layout" and "up and down layout")
46
  <div align="center">
 
17
  > 2. The function of each file in this project is detailed in the self-translation analysis [`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A). With version iteration, you can also click on related function plugins at any time to call GPT to regenerate the project's self-analysis report. Common questions are summarized in the [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98). [Installation method](#installation).
18
  > 3. This project is compatible with and encourages trying domestic large language models such as chatglm, RWKV, Pangu, etc. Multiple API keys are supported and can be filled in the configuration file like `API_KEY="openai-key1,openai-key2,api2d-key3"`. When temporarily changing `API_KEY`, enter the temporary `API_KEY` in the input area and press enter to submit, which will take effect.
19
 
20
+ <div align="center">
21
+
22
+ Function | Description
23
  --- | ---
24
  One-click polishing | Supports one-click polishing and one-click searching for grammar errors in papers.
25
  One-click Chinese-English translation | One-click Chinese-English translation.
 
43
  [Multiple LLM models](https://www.bilibili.com/video/BV1wT411p7yf) support, [API2D](https://api2d.com/) interface support | The feeling of being served by GPT3.5, GPT4, [Tsinghua ChatGLM](https://github.com/THUDM/ChatGLM-6B), and [Fudan MOSS](https://github.com/OpenLMLab/MOSS) at the same time must be great, right?
44
  More LLM model access, support [huggingface deployment](https://huggingface.co/spaces/qingxu98/gpt-academic) | Add Newbing interface (New Bing), introduce Tsinghua [Jittorllms](https://github.com/Jittor/JittorLLMs) to support [LLaMA](https://github.com/facebookresearch/llama), [RWKV](https://github.com/BlinkDL/ChatRWKV) and [Panguα](https://openi.org.cn/pangu/)
45
  More new feature displays (image generation, etc.)…… | See the end of this document for more...
46
+ </div>
47
 
48
  - New interface (modify the LAYOUT option in `config.py` to switch between "left and right layout" and "up and down layout")
49
  <div align="center">
docs/README_FR.md CHANGED
@@ -20,7 +20,9 @@ Pour traduire ce projet dans une langue arbitraire avec GPT, lisez et exécutez
20
  >
21
  > 3. Ce projet est compatible avec et encourage l'utilisation de grands modèles de langage nationaux tels que chatglm, RWKV, Pangu, etc. La coexistence de plusieurs clés API est prise en charge et peut être remplie dans le fichier de configuration, tel que `API_KEY="openai-key1,openai-key2,api2d-key3"`. Lorsque vous souhaitez remplacer temporairement `API_KEY`, saisissez temporairement `API_KEY` dans la zone de saisie, puis appuyez sur Entrée pour soumettre et activer.
22
 
23
- <div align="center">Functionnalité | Description
 
 
24
  --- | ---
25
  Révision en un clic | prend en charge la révision en un clic et la recherche d'erreurs de syntaxe dans les articles
26
  Traduction chinois-anglais en un clic | Traduction chinois-anglais en un clic
 
20
  >
21
  > 3. Ce projet est compatible avec et encourage l'utilisation de grands modèles de langage nationaux tels que chatglm, RWKV, Pangu, etc. La coexistence de plusieurs clés API est prise en charge et peut être remplie dans le fichier de configuration, tel que `API_KEY="openai-key1,openai-key2,api2d-key3"`. Lorsque vous souhaitez remplacer temporairement `API_KEY`, saisissez temporairement `API_KEY` dans la zone de saisie, puis appuyez sur Entrée pour soumettre et activer.
22
 
23
+ <div align="center">
24
+
25
+ Functionnalité | Description
26
  --- | ---
27
  Révision en un clic | prend en charge la révision en un clic et la recherche d'erreurs de syntaxe dans les articles
28
  Traduction chinois-anglais en un clic | Traduction chinois-anglais en un clic
docs/README_JP.md CHANGED
@@ -21,7 +21,9 @@ GPTを使った任意の言語にこのプロジェクトを翻訳するには
21
  > 3. このプロジェクトは、chatglmやRWKV、パンクなど、国内の大規模自然言語モデルを利用することをサポートし、試みることを奨励します。複数のAPIキーを共存することができ、設定ファイルに`API_KEY="openai-key1,openai-key2,api2d-key3"`のように記入することができます。`API_KEY`を一時的に変更する場合は、入力エリアに一時的な`API_KEY`を入力してEnterキーを押せば、それが有効になります。
22
 
23
 
24
- <div align="center">機能 | 説明
 
 
25
  --- | ---
26
  一键校正 | 一键で校正可能、論文の文法エラーを検索することができる
27
  一键中英翻訳 | 一键で中英翻訳可能
@@ -45,6 +47,7 @@ Markdown[中英翻訳](https://www.bilibili.com/video/BV1yo4y157jV/) | [関数
45
  [多数のLLMモデル](https://www.bilibili.com/video/BV1wT411p7yf)がサポートされ、[API2D](https://api2d.com/)がサポートされている | 同時にGPT3.5、GPT4、[清華ChatGLM](https://github.com/THUDM/ChatGLM-6B)、[復旦MOSS](https://github.com/OpenLMLab/MOSS)に対応
46
  より多くのLLMモデルが接続され、[huggingfaceデプロイ](https://huggingface.co/spaces/qingxu98/gpt-academic)がサポートされている | Newbingインターフェイス(Newbing)、清華大学の[Jittorllm](https://github.com/Jittor/JittorLLMs)のサポート[LLaMA](https://github.com/facebookresearch/llama), [RWKV](https://github.com/BlinkDL/ChatRWKV)と[盘古α](https://openi.org.cn/pangu/)
47
  さらに多くの新機能(画像生成など)を紹介する... | この文書の最後に示す...
 
48
 
49
  - 新しいインターフェース(`config.py`のLAYOUTオプションを変更することで、「左右配置」と「上下配置」を切り替えることができます)
50
  <div align="center">
 
21
  > 3. このプロジェクトは、chatglmやRWKV、パンクなど、国内の大規模自然言語モデルを利用することをサポートし、試みることを奨励します。複数のAPIキーを共存することができ、設定ファイルに`API_KEY="openai-key1,openai-key2,api2d-key3"`のように記入することができます。`API_KEY`を一時的に変更する場合は、入力エリアに一時的な`API_KEY`を入力してEnterキーを押せば、それが有効になります。
22
 
23
 
24
+ <div align="center">
25
+
26
+ 機能 | 説明
27
  --- | ---
28
  一键校正 | 一键で校正可能、論文の文法エラーを検索することができる
29
  一键中英翻訳 | 一键で中英翻訳可能
 
47
  [多数のLLMモデル](https://www.bilibili.com/video/BV1wT411p7yf)がサポートされ、[API2D](https://api2d.com/)がサポートされている | 同時にGPT3.5、GPT4、[清華ChatGLM](https://github.com/THUDM/ChatGLM-6B)、[復旦MOSS](https://github.com/OpenLMLab/MOSS)に対応
48
  より多くのLLMモデルが接続され、[huggingfaceデプロイ](https://huggingface.co/spaces/qingxu98/gpt-academic)がサポートされている | Newbingインターフェイス(Newbing)、清華大学の[Jittorllm](https://github.com/Jittor/JittorLLMs)のサポート[LLaMA](https://github.com/facebookresearch/llama), [RWKV](https://github.com/BlinkDL/ChatRWKV)と[盘古α](https://openi.org.cn/pangu/)
49
  さらに多くの新機能(画像生成など)を紹介する... | この文書の最後に示す...
50
+ </div>
51
 
52
  - 新しいインターフェース(`config.py`のLAYOUTオプションを変更することで、「左右配置」と「上下配置」を切り替えることができます)
53
  <div align="center">