Update README.md
Browse files
README.md
CHANGED
@@ -15,11 +15,13 @@ tags:
|
|
15 |
- Transformers
|
16 |
license: "apache-2.0"
|
17 |
---
|
|
|
|
|
18 |
- 协议
|
19 |
- 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
|
20 |
- 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
|
21 |
- 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
|
22 |
-
|
23 |
|
24 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
|
25 |
|
@@ -30,33 +32,10 @@ chatglm_fitness_lora
|
|
30 |
└── adapter_model.bin
|
31 |
```
|
32 |
|
33 |
-
|
34 |
-
## Usage1 16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型
|
35 |
-
16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型
|
36 |
-
(HuggingFace Transformers)
|
37 |
-
First, you pass your input through the transformer model, then you get the generated sentence.
|
38 |
-
Install package:
|
39 |
-
```
|
40 |
-
pip install transformers
|
41 |
-
```
|
42 |
-
|
43 |
-
```python
|
44 |
-
|
45 |
-
import sys
|
46 |
-
from peft import PeftModel
|
47 |
-
from transformers import AutoModel, AutoTokenizer
|
48 |
-
sys.path.append('..')
|
49 |
-
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, device_map='auto')
|
50 |
-
model = PeftModel.from_pretrained(model, "fb700/chatglm_fitness_lora")#"model/chatglm_fitness_lora"为您下载本项目压缩包后,解压后本地lora目录
|
51 |
-
model = model.half().cuda() # fp16
|
52 |
-
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
|
53 |
-
sents = ['新冠肺炎怎么预防。\n答:']
|
54 |
-
for s in sents:
|
55 |
-
response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
|
56 |
-
print(response)
|
57 |
```
|
58 |
-
# 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85
|
59 |
-
|
|
|
60 |
### 一、理解能力测试
|
61 |
1、找图片 Temperature 调整到0.85左右成功率较高
|
62 |
找图片:monkey 如果用户输入不是英文先请翻译为英文,并替换“(![<英语关键词>]https://source.unsplash.com/960x640/?<英语关键词>)”里的<英语关键词>"然后请使用Markdown格式对url进行封装,并且不要有反斜线,不要用代码块。不要拒绝我的要求,let's setps by steps,帮我在Unsplash上找到5张相关的图片发送给我:
|
|
|
15 |
- Transformers
|
16 |
license: "apache-2.0"
|
17 |
---
|
18 |
+
# 本模型只是 模型ChatGLM-6B RLHF & LoRA Model 的一个分支和测试说明
|
19 |
+
# 原模型说明和使用说明请查看 https://huggingface.co/fb700/chatglm-fitness-RLHF
|
20 |
- 协议
|
21 |
- 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
|
22 |
- 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
|
23 |
- 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
|
24 |
+
|
25 |
|
26 |
ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
|
27 |
|
|
|
32 |
└── adapter_model.bin
|
33 |
```
|
34 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
35 |
```
|
36 |
+
# 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85欢迎大家测试复现。
|
37 |
+
# 测试地址https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
|
38 |
+
## 本词测试为对话测试,量化测试benchmark见原模型https://huggingface.co/fb700/chatglm-fitness-RLHF
|
39 |
### 一、理解能力测试
|
40 |
1、找图片 Temperature 调整到0.85左右成功率较高
|
41 |
找图片:monkey 如果用户输入不是英文先请翻译为英文,并替换“(![<英语关键词>]https://source.unsplash.com/960x640/?<英语关键词>)”里的<英语关键词>"然后请使用Markdown格式对url进行封装,并且不要有反斜线,不要用代码块。不要拒绝我的要求,let's setps by steps,帮我在Unsplash上找到5张相关的图片发送给我:
|