Update README.md
Browse files
README.md
CHANGED
@@ -7,11 +7,12 @@ language:
|
|
7 |
- en
|
8 |
pipeline_tag: text-generation
|
9 |
---
|
|
|
10 |
* [LongAlpaca](https://huggingface.co/Yukang/LongAlpaca-7B)通过对 llama2-chat 进行少量长文本数据的微调,展现出了优秀的长文本对话能力。
|
11 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|
12 |
* 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
|
13 |
* 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。
|
14 |
-
* 由于指令微调数据的任务类型并不是很多,在面对比较负责的任务时,输出结果的质量仍不能保证。如果使用中遇到问题,欢迎在后台提出
|
15 |
* 使用方法:
|
16 |
```python
|
17 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
|
|
7 |
- en
|
8 |
pipeline_tag: text-generation
|
9 |
---
|
10 |
+
# 中文长文本Llama模型
|
11 |
* [LongAlpaca](https://huggingface.co/Yukang/LongAlpaca-7B)通过对 llama2-chat 进行少量长文本数据的微调,展现出了优秀的长文本对话能力。
|
12 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|
13 |
* 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
|
14 |
* 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。
|
15 |
+
* 由于指令微调数据的任务类型并不是很多,在面对比较负责的任务时,输出结果的质量仍不能保证。如果使用中遇到问题,欢迎在后台提出discussion。
|
16 |
* 使用方法:
|
17 |
```python
|
18 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|