Update README.md
Browse files
README.md
CHANGED
@@ -3,7 +3,37 @@ license: mit
|
|
3 |
---
|
4 |
|
5 |
使用 https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main/Chain-of-Thought 数据集对齐模型支持Alpaca模板
|
|
|
6 |
该LoRA使用 https://huggingface.co/Skywork/Skywork-13B-Base-8bits 在一张4090上训练
|
7 |
-
训练使用llama_factory
|
8 |
|
9 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
---
|
4 |
|
5 |
使用 https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main/Chain-of-Thought 数据集对齐模型支持Alpaca模板
|
6 |
+
|
7 |
该LoRA使用 https://huggingface.co/Skywork/Skywork-13B-Base-8bits 在一张4090上训练
|
|
|
8 |
|
9 |
+
训练使用llama_factory,执行命令如下
|
10 |
+
|
11 |
+
```
|
12 |
+
python src/train_bash.py
|
13 |
+
--stage sft --model_name_or_path F:/models/Skywork-13B-Base-8bit
|
14 |
+
--do_train True --finetuning_type lora
|
15 |
+
--template alpaca --flash_attn False
|
16 |
+
--shift_attn False --dataset_dir data
|
17 |
+
--dataset CoT_Chinese_data,CoT_EN_data
|
18 |
+
--cutoff_len 1024 --learning_rate 5e-05
|
19 |
+
--num_train_epochs 1.0
|
20 |
+
--max_samples 100000
|
21 |
+
--per_device_train_batch_size 2
|
22 |
+
--gradient_accumulation_steps 4
|
23 |
+
--lr_scheduler_type cosine
|
24 |
+
--max_grad_norm 1.0
|
25 |
+
--logging_steps 5
|
26 |
+
--save_steps 500
|
27 |
+
--warmup_steps 0
|
28 |
+
--neft_alpha 0
|
29 |
+
--train_on_prompt False
|
30 |
+
--upcast_layernorm False
|
31 |
+
--lora_rank 32
|
32 |
+
--lora_alpha 16
|
33 |
+
--lora_dropout 0.05
|
34 |
+
--lora_target down_proj,up_proj,o_proj,gate_proj,k_proj,q_proj,v_proj
|
35 |
+
--resume_lora_training True
|
36 |
+
--output_dir saves\Skywork-13B-Base\lora\2023-11-28-23-58-24
|
37 |
+
--fp16 True
|
38 |
+
--plot_loss True
|
39 |
+
```
|