minor readme update
Browse files- README_zh.md +3 -3
README_zh.md
CHANGED
@@ -110,14 +110,14 @@ FLM-101B的训练代码Megatron-FLM基于Megatron-LM框架修改,将在近期
|
|
110 |
尽管我们已经尽最大努力对模型训练语料进行了清洗过滤,但由于训练语料的开放性,模型仍有可能在一些不安全的语料上进行过学习。因此模型仍有可能生成不符合预期的文本,包括但不限于歧视、偏见、谩骂等。我们在此提醒模型使用者,请勿传播模型可能生成的不安全内容。由于传播不良信息导致的任何后果,本项目开发者不承担责任。
|
111 |
|
112 |
FLM-101B 现阶段训练的 token 数比较少,在知识(特别是专业知识)方面有较大进步空间。另一方面,模型的推理目前没有进行优化因此推理资源占用较高,速度受限。我们很快将支持Flash Attention。
|
113 |
-
|
114 |
|
115 |
-
##
|
116 |
|
117 |
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
|
118 |
|
119 |
|
120 |
|
121 |
-
##
|
122 |
|
123 |
tshwangyequan at gmail.com
|
|
|
110 |
尽管我们已经尽最大努力对模型训练语料进行了清洗过滤,但由于训练语料的开放性,模型仍有可能在一些不安全的语料上进行过学习。因此模型仍有可能生成不符合预期的文本,包括但不限于歧视、偏见、谩骂等。我们在此提醒模型使用者,请勿传播模型可能生成的不安全内容。由于传播不良信息导致的任何后果,本项目开发者不承担责任。
|
111 |
|
112 |
FLM-101B 现阶段训练的 token 数比较少,在知识(特别是专业知识)方面有较大进步空间。另一方面,模型的推理目前没有进行优化因此推理资源占用较高,速度受限。我们很快将支持Flash Attention。
|
113 |
+
如果您对这两方面,或其他方面有改进需求,欢迎在 github 提issue,我们会尽快响应。谢谢!
|
114 |
|
115 |
+
## 引用
|
116 |
|
117 |
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
|
118 |
|
119 |
|
120 |
|
121 |
+
## 联系我们
|
122 |
|
123 |
tshwangyequan at gmail.com
|