yuyijiong commited on
Commit
c731248
1 Parent(s): 262278e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -11,7 +11,7 @@ pipeline_tag: text-generation
11
  * LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
12
  * 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
13
  * 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。\
14
- 使用方法:
15
  ```python
16
  from transformers import AutoModelForCausalLM, AutoTokenizer
17
  from transformers.generation import GenerationConfig
@@ -47,8 +47,8 @@ reply_return=reply.split('Assistant:')[-1].replace('</s>', '')
47
  print('模型回答:', reply_return)
48
  ```
49
 
50
- 多文档QA示例:\
51
- 用户输入(34726字):
52
  ```
53
  先阅读以下多个参考文档,然后根据文档内容,详细地回答问题。
54
  参考文档:
@@ -135,7 +135,7 @@ print('模型回答:', reply_return)
135
 
136
  问题: 秦银科是哪个单位的领导人?
137
  ```
138
- 模型输出:
139
  ```
140
  综上所述,秦银科是湖北省潜江市熊口农场党委委员,并曾任熊口农场主要领导职务。\n
141
 
 
11
  * LongAlpaca-7b-chinese 和 LongAlpaca 使用类似的训练方法:先使用线性位置插值,然后通过少量长文本数据的微调,使其获得优秀的长文本对话能力。
12
  * 使用的数据集与LongAlpaca较为类似,但增加了多文档问答的数据。
13
  * 此模型由atom-7b-chat经过lora微调得到,通过线性位置插值,将文本长度从4k扩展到32k,可以完成上万字的多文档检索、论文总结等任务,已经能满足绝大部分需要,而短对话能力几乎没有下降。\
14
+ * 使用方法:
15
  ```python
16
  from transformers import AutoModelForCausalLM, AutoTokenizer
17
  from transformers.generation import GenerationConfig
 
47
  print('模型回答:', reply_return)
48
  ```
49
 
50
+ * 多文档QA示例:\
51
+ * 用户输入(34726字):
52
  ```
53
  先阅读以下多个参考文档,然后根据文档内容,详细地回答问题。
54
  参考文档:
 
135
 
136
  问题: 秦银科是哪个单位的领导人?
137
  ```
138
+ * 模型输出:
139
  ```
140
  综上所述,秦银科是湖北省潜江市熊口农场党委委员,并曾任熊口农场主要领导职务。\n
141