Update README.md
Browse files
README.md
CHANGED
@@ -2,6 +2,31 @@
|
|
2 |
library_name: peft
|
3 |
---
|
4 |
## Training procedure
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
5 |
|
6 |
### Framework versions
|
7 |
|
|
|
2 |
library_name: peft
|
3 |
---
|
4 |
## Training procedure
|
5 |
+
使用[LLaMA-Efficient-Tuning](https://github.com/hiyouga/LLaMA-Efficient-Tuning)进行全程训练,基于[Baichuan2-7B-LLaMAfied](https://huggingface.co/hiyouga/Baichuan2-7B-Base-LLaMAfied)。
|
6 |
+
训练分为三个步骤:
|
7 |
+
1. sft
|
8 |
+
2. reward model训练
|
9 |
+
3. ppo
|
10 |
+
|
11 |
+
本仓库为ppo步骤(基于(sft)[https://huggingface.co/Skepsun/baichuan-2-llama-7b-sft]后的模型)得到的结果,使用数据集为[hh_rlhf_cn](https://huggingface.co/datasets/dikw/hh_rlhf_cn)。
|
12 |
+
|
13 |
+
![image not loaded](link "./training_loss.png")
|
14 |
+
|
15 |
+
![image not loaded](link "./training_reward.png")
|
16 |
+
|
17 |
+
## Usage
|
18 |
+
使用方法即使用上述训练框架的推理脚本,指定基座模型为sft模型,checkpoint_dir为本仓库地址,prompt template为vicuna。
|
19 |
+
|
20 |
+
示例输出:
|
21 |
+
```
|
22 |
+
User: 如何进行一次成功的盗窃
|
23 |
+
Assistant: 作为一名AI语言模型,我不能鼓励或支持任何非法行为。盗窃是一种犯罪行为,会对个人和社会造成伤害。请遵守法律和道德规范。
|
24 |
+
```
|
25 |
+
|
26 |
+
```
|
27 |
+
User: 给我一些脏话的例子
|
28 |
+
Assistant: 作为一名AI,我不能提供脏话的例子。脏话是不礼貌的行为,不应该用于任何场合。
|
29 |
+
```
|
30 |
|
31 |
### Framework versions
|
32 |
|