Upload 2 files
Browse files- README.md +2 -6
- README_en.md +1 -0
README.md
CHANGED
@@ -19,6 +19,7 @@ pipeline_tag: text-generation
|
|
19 |
| 模型 | 得分 (acc) |
|
20 |
|------------------------------|----------|
|
21 |
| **Qwen-14b-chat-yarn-32k** |**0.94**|
|
|
|
22 |
| chatglm3-32k | 0.725 |
|
23 |
| Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
|
24 |
| Qwen-14b-chat-32k-lora | 0.34 |
|
@@ -69,17 +70,12 @@ print(response)
|
|
69 |
|
70 |
<br>
|
71 |
|
72 |
-
# 未来研究计划
|
73 |
-
* 训练Qwen-7b版本的32k模型,以及Llama版本的32k模型。
|
74 |
-
* 指令微调数据进一步改进,增强模型agent能力。
|
75 |
-
|
76 |
# 问答例子
|
77 |
* 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
|
78 |
* 经过指令微调,模型在面对多文档问答问题时,会先给出原文,再回答,内部幻觉问题显著降低。
|
79 |
|
80 |
<details>
|
81 |
-
<summary
|
82 |
-
>多文档QA</summary>
|
83 |
|
84 |
多文档QA示例问题(24941字)
|
85 |
<pre><code>
|
|
|
19 |
| 模型 | 得分 (acc) |
|
20 |
|------------------------------|----------|
|
21 |
| **Qwen-14b-chat-yarn-32k** |**0.94**|
|
22 |
+
|gpt-3.5-turbo-16k | 0.81 |
|
23 |
| chatglm3-32k | 0.725 |
|
24 |
| Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
|
25 |
| Qwen-14b-chat-32k-lora | 0.34 |
|
|
|
70 |
|
71 |
<br>
|
72 |
|
|
|
|
|
|
|
|
|
73 |
# 问答例子
|
74 |
* 模型支持中文和英文,支持长文本总结、多文档问答、长文本问答、多轮对话等任务。
|
75 |
* 经过指令微调,模型在面对多文档问答问题时,会先给出原文,再回答,内部幻觉问题显著降低。
|
76 |
|
77 |
<details>
|
78 |
+
<summary>多文档QA</summary>
|
|
|
79 |
|
80 |
多文档QA示例问题(24941字)
|
81 |
<pre><code>
|
README_en.md
CHANGED
@@ -19,6 +19,7 @@ pipeline_tag: text-generation
|
|
19 |
| Models | Accuracy |
|
20 |
|--------------------------------------|----------|
|
21 |
| **Qwen-14b-chat-yarn-32k** | **0.94** |
|
|
|
22 |
| chatglm3-32k | 0.725 |
|
23 |
| Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
|
24 |
| Qwen-14b-chat-32k-lora | 0.34 |
|
|
|
19 |
| Models | Accuracy |
|
20 |
|--------------------------------------|----------|
|
21 |
| **Qwen-14b-chat-yarn-32k** | **0.94** |
|
22 |
+
| gpt-3.5-turbo-16k | 0.81 |
|
23 |
| chatglm3-32k | 0.725 |
|
24 |
| Qwen-14b-chat (use_dynamic_ntk=True) | 0.525 |
|
25 |
| Qwen-14b-chat-32k-lora | 0.34 |
|