Text Generation
Transformers
Safetensors
Chinese
English
qwen
conversational
custom_code
yuyijiong commited on
Commit
b7c96cd
1 Parent(s): 04ae6e6

Upload 2 files

Browse files
Files changed (2) hide show
  1. README.md +2 -6
  2. README_en.md +1 -0
README.md CHANGED
@@ -19,6 +19,7 @@ pipeline_tag: text-generation
19
  | 模型 | 得分 (acc) |
20
  |------------------------------|----------|
21
  | **Qwen-14b-chat-yarn-32k** |**0.94**|
 
22
  | chatglm3-32k | 0.725 |
23
  | Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
24
  | Qwen-14b-chat-32k-lora | 0.34 |
@@ -69,17 +70,12 @@ print(response)
69
 
70
  <br>
71
 
72
- # 未来研究计划
73
- * 训练Qwen-7b版本的32k模型,以及Llama版本的32k模型。
74
- * 指令微调数据进一步改进,增强模型agent能力。
75
-
76
  # 问答例子
77
  * 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
78
  * 经过指令微调,模型在面对多文档问答问题时,会先给出原文,再回答,内部幻觉问题显著降低。
79
 
80
  <details>
81
- <summary
82
- >多文档QA</summary>
83
 
84
  多文档QA示例问题(24941字)
85
  <pre><code>
 
19
  | 模型 | 得分 (acc) |
20
  |------------------------------|----------|
21
  | **Qwen-14b-chat-yarn-32k** |**0.94**|
22
+ |gpt-3.5-turbo-16k | 0.81 |
23
  | chatglm3-32k | 0.725 |
24
  | Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
25
  | Qwen-14b-chat-32k-lora | 0.34 |
 
70
 
71
  <br>
72
 
 
 
 
 
73
  # 问答例子
74
  * 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
75
  * 经过指令微调,模型在面对多文档问答问题时,会先给出原文,再回答,内部幻觉问题显著降低。
76
 
77
  <details>
78
+ <summary>多文档QA</summary>
 
79
 
80
  多文档QA示例问题(24941字)
81
  <pre><code>
README_en.md CHANGED
@@ -19,6 +19,7 @@ pipeline_tag: text-generation
19
  | Models | Accuracy |
20
  |--------------------------------------|----------|
21
  | **Qwen-14b-chat-yarn-32k** | **0.94** |
 
22
  | chatglm3-32k | 0.725 |
23
  | Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
24
  | Qwen-14b-chat-32k-lora | 0.34 |
 
19
  | Models | Accuracy |
20
  |--------------------------------------|----------|
21
  | **Qwen-14b-chat-yarn-32k** | **0.94** |
22
+ | gpt-3.5-turbo-16k | 0.81 |
23
  | chatglm3-32k | 0.725 |
24
  | Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
25
  | Qwen-14b-chat-32k-lora | 0.34 |