npc0 commited on
Commit
d5f672b
1 Parent(s): 569022b

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +42 -0
README.md ADDED
@@ -0,0 +1,42 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - zh
4
+ - en
5
+ tags:
6
+ - glm
7
+ - chatglm
8
+ - ggml
9
+ ---
10
+ # ChatGLM3-6B-32k-int4
11
+
12
+ 介绍 (Introduction)
13
+ ChatGLM3-6B-32k 是 ChatGLM 系列最新一代的开源模型,[THUDM/chatglm3-6b](https://github.com/THUDM/ChatGLM3)
14
+
15
+ 用 [ChatGLM.CPP](https://github.com/li-plus/chatglm.cpp) 基於 GGML quantize 生成 Q4_0、Q4_1 權重 weights 儲存於此倉庫。
16
+
17
+ ## Performance
18
+ |Model |GGML quantize method| HDD size |1 token\*|
19
+ |--------------------------|--------------------|----------|---------|
20
+ |chatglm3-32k-ggml-q4_0.bin| q4_0 | ?.?? GB | ???ms |
21
+ |chatglm3-32k-ggml-q4_1.bin| q4_1 | ?.?? GB | ???ms |
22
+ \* ms/token (CPU @ Platinum 8260) from [reference](https://github.com/li-plus/chatglm.cpp#performance)
23
+
24
+ ## Getting Started
25
+ 1. Install dependency
26
+ ```sh
27
+ pip install chatglm-cpp transformers
28
+ ```
29
+
30
+ 2. Download weight
31
+ ```sh
32
+ wget https://huggingface.co/npc0/chatglm3-6b-fp16/resolve/main/chatglm3-32k-ggml-q4_0.bin
33
+ ```
34
+
35
+ 3. Code
36
+ ```py
37
+ import chatglm_cpp
38
+
39
+ pipeline = chatglm_cpp.Pipeline("./chatglm3-32k-ggml-q4_0.bin")
40
+ pipeline.chat(["你好"])
41
+ # Output: 你好👋!我是人工智能助手 ChatGLM3-6B,很高兴见到你,欢迎问我任何问题。
42
+ ```