--- license: mit --- 使用 https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main/Chain-of-Thought 数据集对齐模型支持Alpaca模板 该LoRA使用 https://huggingface.co/Skywork/Skywork-13B-Base-8bits 在一张4090上训练 训练使用llama_factory,执行命令如下 ``` python src/train_bash.py --stage sft --model_name_or_path F:/models/Skywork-13B-Base-8bit --do_train True --finetuning_type lora --template alpaca --flash_attn False --shift_attn False --dataset_dir data --dataset CoT_Chinese_data,CoT_EN_data --cutoff_len 1024 --learning_rate 5e-05 --num_train_epochs 1.0 --max_samples 100000 --per_device_train_batch_size 2 --gradient_accumulation_steps 4 --lr_scheduler_type cosine --max_grad_norm 1.0 --logging_steps 5 --save_steps 500 --warmup_steps 0 --neft_alpha 0 --train_on_prompt False --upcast_layernorm False --lora_rank 32 --lora_alpha 16 --lora_dropout 0.05 --lora_target down_proj,up_proj,o_proj,gate_proj,k_proj,q_proj,v_proj --resume_lora_training True --output_dir saves\Skywork-13B-Base\lora\2023-11-28-23-58-24 --fp16 True --plot_loss True ```