fb700 commited on
Commit
b519712
1 Parent(s): d195b3d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -7
README.md CHANGED
@@ -1,6 +1,4 @@
1
  ---
2
- license: apache-2.0
3
- ---
4
  language:
5
  - zh
6
  - en
@@ -17,11 +15,10 @@ tags:
17
  - Transformers
18
  license: "apache-2.0"
19
  ---
20
- 模型体验地址:https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
21
- # 重磅消息
22
- - 本项目经过多位网友实测,中文总结能力超越了GPT3.5各版本,健康咨询水平在同参数规模模型也出类拔萃,可能是任何个人和中下企业首选模型。
23
- # 重大突破
24
- - 经优化目前可以支持无限context,远大于4k、8K、16K......
25
  # ChatGLM-6B RLHF & LoRA Model
26
 
27
  ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
@@ -58,6 +55,7 @@ for s in sents:
58
  response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
59
  print(response)
60
  ```
 
61
  ## 模型测试提示词
62
  ### 一、理解能力测试
63
  1、找图片 Temperature 调整到0.85左右成功率较高
 
1
  ---
 
 
2
  language:
3
  - zh
4
  - en
 
15
  - Transformers
16
  license: "apache-2.0"
17
  ---
18
+ - 协议
19
+ - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
20
+ - 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
21
+ - 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
 
22
  # ChatGLM-6B RLHF & LoRA Model
23
 
24
  ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
 
55
  response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
56
  print(response)
57
  ```
58
+ # 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85欢迎大家测试复现,测试地址https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
59
  ## 模型测试提示词
60
  ### 一、理解能力测试
61
  1、找图片 Temperature 调整到0.85左右成功率较高