Update README.md
Browse files
README.md
CHANGED
@@ -11,7 +11,7 @@ pipeline_tag: text-generation
|
|
11 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|
12 |
* 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
|
13 |
* 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。\
|
14 |
-
使用方法:
|
15 |
```python
|
16 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
17 |
from transformers.generation import GenerationConfig
|
@@ -47,8 +47,8 @@ reply_return=reply.split('Assistant:')[-1].replace('</s>', '')
|
|
47 |
print('模型回答:', reply_return)
|
48 |
```
|
49 |
|
50 |
-
多文档QA示例:\
|
51 |
-
用户输入(34726字):
|
52 |
```
|
53 |
先阅读以下多个参考文档,然后根据文档内容,详细地回答问题。
|
54 |
参考文档:
|
@@ -135,7 +135,7 @@ print('模型回答:', reply_return)
|
|
135 |
|
136 |
问题: 秦银科是哪个单位的领导人?
|
137 |
```
|
138 |
-
模型输出:
|
139 |
```
|
140 |
综上所述,秦银科是湖北省潜江市熊口农场党委委员,并曾任熊口农场主要领导职务。\n
|
141 |
|
|
|
11 |
* LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
|
12 |
* 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
|
13 |
* 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。\
|
14 |
+
* 使用方法:
|
15 |
```python
|
16 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
17 |
from transformers.generation import GenerationConfig
|
|
|
47 |
print('模型回答:', reply_return)
|
48 |
```
|
49 |
|
50 |
+
* 多文档QA示例:\
|
51 |
+
* 用户输入(34726字):
|
52 |
```
|
53 |
先阅读以下多个参考文档,然后根据文档内容,详细地回答问题。
|
54 |
参考文档:
|
|
|
135 |
|
136 |
问题: 秦银科是哪个单位的领导人?
|
137 |
```
|
138 |
+
* 模型输出:
|
139 |
```
|
140 |
综上所述,秦银科是湖北省潜江市熊口农场党委委员,并曾任熊口农场主要领导职务。\n
|
141 |
|