vanewu commited on
Commit
8486579
1 Parent(s): 997f5a9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -11
README.md CHANGED
@@ -3,7 +3,7 @@ license: creativeml-openrail-m
3
  language: en
4
  tags:
5
  - LLM
6
- - ChatGLM
7
 
8
  ---
9
 
@@ -12,9 +12,9 @@ tags:
12
 
13
  **We know what you want, and here they are!**
14
 
15
- - Newly released lyraChatGLM model, suitable for Ampere(A100/A10) as well as Volta(V100)
16
- - lyraChatGLM has been further optimized, reaches **9000tokens/s** on A100 and **3900 tokens/s** on V100, about **5.5x** faster than original version(2023/6/1).
17
- - The memory usage was optimized too, now we can set batch_size up to **256** on A100!
18
 
19
  **Note that the code was fully updated too, you need to use new API, see `Uses` below**
20
 
@@ -27,9 +27,9 @@ The inference speed of lyraChatGLM has achieved **300x** acceleration u
27
 
28
  Among its main features are:
29
 
30
- - weights: original ChatGLM-6B weights released by THUDM.
31
- - device: Nvidia GPU with Amperer architecture or Volta architecture (A100, A10, V100...).
32
- - batch_size: compiled with dynamic batch size, maximum depends on device. 
33
 
34
  ## Speed
35
 
@@ -55,12 +55,12 @@ Among its main features are:
55
 
56
  ## Model Sources
57
 
58
- - **Repository:** https://huggingface.co/THUDM/chatglm-6b
59
 
60
 
61
  ## Docker Environment
62
 
63
- - **docker image available** at [https://hub.docker.com/repository/docker/bigmoyan/lyrallm/general], pull image by: 
64
 
65
  ```
66
  docker pull bigmoyan/lyrallm:v0.1
@@ -118,7 +118,7 @@ print(output_texts)
118
  ```
119
 
120
  ## Report bug
121
- - start a discussion to report any bugs!--> https://huggingface.co/TMElyralab/lyraChatGLM/discussions
122
- - report bug with a `[bug]` mark in the title.
123
 
124
 
 
3
  language: en
4
  tags:
5
  - LLM
6
+ - ChatGLM6B
7
 
8
  ---
9
 
 
12
 
13
  **We know what you want, and here they are!**
14
 
15
+ - Newly released lyraChatGLM model, suitable for Ampere(A100/A10) as well as Volta(V100)
16
+ - lyraChatGLM has been further optimized, reaches **9000tokens/s** on A100 and **3900 tokens/s** on V100, about **5.5x** faster than original version(2023/6/1).
17
+ - The memory usage was optimized too, now we can set batch_size up to **256** on A100!
18
 
19
  **Note that the code was fully updated too, you need to use new API, see `Uses` below**
20
 
 
27
 
28
  Among its main features are:
29
 
30
+ - weights: original ChatGLM-6B weights released by THUDM.
31
+ - device: Nvidia GPU with Amperer architecture or Volta architecture (A100, A10, V100...).
32
+ - batch_size: compiled with dynamic batch size, maximum depends on device. 
33
 
34
  ## Speed
35
 
 
55
 
56
  ## Model Sources
57
 
58
+ - **Repository:** https://huggingface.co/THUDM/chatglm-6b
59
 
60
 
61
  ## Docker Environment
62
 
63
+ - **docker image available** at [https://hub.docker.com/repository/docker/bigmoyan/lyrallm/general], pull image by: 
64
 
65
  ```
66
  docker pull bigmoyan/lyrallm:v0.1
 
118
  ```
119
 
120
  ## Report bug
121
+ - start a discussion to report any bugs!--> https://huggingface.co/TMElyralab/lyraChatGLM/discussions
122
+ - report bug with a `[bug]` mark in the title.
123
 
124