File size: 1,218 Bytes
fe07cd2
 
 
565d4cc
 
234c0d5
565d4cc
 
234c0d5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
---
license: mit
---

使用 https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main/Chain-of-Thought 数据集对齐模型支持Alpaca模板

该LoRA使用 https://huggingface.co/Skywork/Skywork-13B-Base-8bits 在一张4090上训练

训练使用llama_factory,执行命令如下

```
python src/train_bash.py 
    --stage sft --model_name_or_path F:/models/Skywork-13B-Base-8bit 
    --do_train True --finetuning_type lora 
    --template alpaca --flash_attn False 
    --shift_attn False --dataset_dir data 
    --dataset CoT_Chinese_data,CoT_EN_data 
    --cutoff_len 1024 --learning_rate 5e-05 
    --num_train_epochs 1.0 
    --max_samples 100000 
    --per_device_train_batch_size 2 
    --gradient_accumulation_steps 4 
    --lr_scheduler_type cosine 
    --max_grad_norm 1.0 
    --logging_steps 5
    --save_steps 500
    --warmup_steps 0 
    --neft_alpha 0 
    --train_on_prompt False 
    --upcast_layernorm False 
    --lora_rank 32 
    --lora_alpha 16 
    --lora_dropout 0.05 
    --lora_target down_proj,up_proj,o_proj,gate_proj,k_proj,q_proj,v_proj  
    --resume_lora_training True 
    --output_dir saves\Skywork-13B-Base\lora\2023-11-28-23-58-24 
    --fp16 True 
    --plot_loss True
```