fb700 commited on
Commit
ef12585
1 Parent(s): 70669c4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -31,7 +31,7 @@ ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的
31
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
32
  - 成果,训练后在健康咨询,文档总结能力上不但强于chatglm-6b,而且部分能力上更是强于chatglm2-6b,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比chatglm-6b、chatglm2-6b和百川-7b均匀显著提升。
33
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
34
- - 兼容性,本项目全模型的运行方式与原模型一致。lora文件运行方式,建议在原模型chatglm-6b上运行,在chatglm2-6b上可以正常加载但不推荐,只有当上下文大于4k时在chatglm2-6b上运行有一定价值,经(网友:大笨熊)测试有一定效果,但是效果不能完全发挥。
35
  - 特性,基于模型对自然对话的超强理解力和总结能力,连续会话不受tokens限制,支持无限轮次的智能对话。
36
  - 协议
37
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
 
31
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
32
  - 成果,训练后在健康咨询,文档总结能力上不但强于chatglm-6b,而且部分能力上更是强于chatglm2-6b,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比chatglm-6b、chatglm2-6b和百川-7b均匀显著提升。
33
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
34
+ - 兼容性,本项目全模型的运行方式与原模型一致。lora文件运行方式,建议在原模型chatglm-6b上运行,在chatglm2-6b上可以正常加载但不推荐,经(网友:大笨熊)测试有一定效果,但是效果不能完全发挥。
35
  - 特性,基于模型对自然对话的超强理解力和总结能力,连续会话不受tokens限制,支持无限轮次的智能对话。
36
  - 协议
37
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。