File size: 615 Bytes
010f347
 
 
779b4f9
8d677d9
0468293
 
6026816
 
1
2
3
4
5
6
7
8
9
---
license: mit
---
这个使用了spicy数据集,外加google翻译了其中的30%的数据组成了新的数据集 在 [Skywork-13B-unalign-lora](https://huggingface.co/zgce/Skywork-13B-unalign-lora) 基础上继续训练出来的,如果你在使用时发现中文回复有一股翻译腔那不是我的错是Google的问题。

模型使用了[Skywork-13B-Base-8bits](https://huggingface.co/Skywork/Skywork-13B-Base-8bits) 为底模进行的训练

整个LoRA在我的4090上用batch 1 跑了 1 epoch  耗费了33小时
由于显存有限,在训练时先用了--cutoff_len 1024 不知道会有什么影响