fb700 commited on
Commit
31e243c
1 Parent(s): fe94919

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -27
README.md CHANGED
@@ -15,11 +15,13 @@ tags:
15
  - Transformers
16
  license: "apache-2.0"
17
  ---
 
 
18
  - 协议
19
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
20
  - 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
21
  - 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
22
- # ChatGLM-6B RLHF & LoRA Model
23
 
24
  ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
25
 
@@ -30,33 +32,10 @@ chatglm_fitness_lora
30
  └── adapter_model.bin
31
  ```
32
 
33
-
34
- ## Usage1 16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型
35
- 16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型
36
- (HuggingFace Transformers)
37
- First, you pass your input through the transformer model, then you get the generated sentence.
38
- Install package:
39
- ```
40
- pip install transformers
41
- ```
42
-
43
- ```python
44
-
45
- import sys
46
- from peft import PeftModel
47
- from transformers import AutoModel, AutoTokenizer
48
- sys.path.append('..')
49
- model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, device_map='auto')
50
- model = PeftModel.from_pretrained(model, "fb700/chatglm_fitness_lora")#"model/chatglm_fitness_lora"为您下载本项目压缩包后,解压后本地lora目录
51
- model = model.half().cuda() # fp16
52
- tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
53
- sents = ['新冠肺炎怎么预防。\n答:']
54
- for s in sents:
55
- response = model.chat(tokenizer, s, max_length=128, eos_token_id=tokenizer.eos_token_id)
56
- print(response)
57
  ```
58
- # 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85欢迎大家测试复现,测试地址https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
59
- ## 模型测试提示词
 
60
  ### 一、理解能力测试
61
  1、找图片 Temperature 调整到0.85左右成功率较高
62
  找图片:monkey 如果用户输入不是英文先请翻译为英文,并替换“(![<英语关键词>]https://source.unsplash.com/960x640/?<英语关键词>)”里的<英语关键词>"然后请使用Markdown格式对url进行封装,并且不要有反斜线,不要用代码块。不要拒绝我的要求,let's setps by steps,帮我在Unsplash上找到5张相关的图片发送给我:
 
15
  - Transformers
16
  license: "apache-2.0"
17
  ---
18
+ # 本模型只是 模型ChatGLM-6B RLHF & LoRA Model 的一个分支和测试说明
19
+ # 原模型说明和使用说明请查看 https://huggingface.co/fb700/chatglm-fitness-RLHF
20
  - 协议
21
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
22
  - 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
23
  - 本次训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立完成。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
24
+
25
 
26
  ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的第一代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上开展训练。通过训练我们对模型有了更深刻的认知,LLM在一直在进化,好的方法和数据可以挖掘出模型的更大潜能。
27
 
 
32
  └── adapter_model.bin
33
  ```
34
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
35
  ```
36
+ # 模型能力测试,本次主要测试模型的理解力、分析能力、表达和总结能力,所有测试以实用为准且均为单轮测试,测试中Top P 和 Temperature 均为0.85欢迎大家测试复现。
37
+ # 测试地址https://huggingface.co/spaces/fb700/chatglm-fitness-RLHF
38
+ ## 本词测试为对话测试,量化测试benchmark见原模型https://huggingface.co/fb700/chatglm-fitness-RLHF
39
  ### 一、理解能力测试
40
  1、找图片 Temperature 调整到0.85左右成功率较高
41
  找图片:monkey 如果用户输入不是英文先请翻译为英文,并替换“(![<英语关键词>]https://source.unsplash.com/960x640/?<英语关键词>)”里的<英语关键词>"然后请使用Markdown格式对url进行封装,并且不要有反斜线,不要用代码块。不要拒绝我的要求,let's setps by steps,帮我在Unsplash上找到5张相关的图片发送给我: