大佬!能不能提供一下微调方法?我也想学习试试,感谢~
@Gecvvvo 基模参数才0.5B,2张16G的卡训练。
训练细节:1、全参继续预训练(无LoRA、无QLoRA)2、learning rate:1e53、batch_size:transformers自动寻找4、训练框架:llama-factory
7B和14B的:1、4卡2、fsdp+QLRA3、其他同上
哦哦,感谢大佬回答,我尝试一下
· Sign up or log in to comment