Update README.md
Browse files
README.md
CHANGED
@@ -8,6 +8,8 @@ language:
|
|
8 |
pipeline_tag: text-generation
|
9 |
---
|
10 |
# 中文长文本Llama模型
|
|
|
|
|
11 |
## 训练方法
|
12 |
* [LongAlpaca](https://huggingface.co/Yukang/LongAlpaca-7B)使用LongLora训练技术,通过对 llama2-chat 进行位置插值后,再使用少量长文本数据进行指令微调,展现出了优秀的长文本对话能力。
|
13 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|
|
|
8 |
pipeline_tag: text-generation
|
9 |
---
|
10 |
# 中文长文本Llama模型
|
11 |
+
## V2版本
|
12 |
+
* [v2版本](https://huggingface.co/yuyijiong/LongAlpaca-7b-32k-chinese-v2)已经推出,相比于v1提升明显,回答质量更高。
|
13 |
## 训练方法
|
14 |
* [LongAlpaca](https://huggingface.co/Yukang/LongAlpaca-7B)使用LongLora训练技术,通过对 llama2-chat 进行位置插值后,再使用少量长文本数据进行指令微调,展现出了优秀的长文本对话能力。
|
15 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|