Sdff-Ltba commited on
Commit
aa7362b
1 Parent(s): bd3bf3a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -9,18 +9,18 @@ tags:
9
  pipeline_tag: text-generation
10
  ---
11
 
12
- # chatntq_chatvector-MoE-Antler_chatvector-2x7B-GGUF
13
 
14
- [Sdff-Ltba/chatntq_chatvector-MoE-Antler_chatvector-2x7B](https://huggingface.co/Sdff-Ltba/chatntq_chatvector-MoE-Antler_chatvector-2x7B)をGGUF変換したものです。
15
  iMatrixを併用して量子化しています。
16
 
17
  ## 量子化手順
18
 
19
  以下の通りに実行しました。
20
  ```
21
- python ./llama.cpp/convert.py ./chatntq_chatvector-MoE-Antler_chatvector-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
22
  ./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
23
- ./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./chatntq_chatvector-MoE-Antler_chatvector-2x7B_iq3xxs.gguf iq3_xxs
24
  ```
25
 
26
  ## 環境
 
9
  pipeline_tag: text-generation
10
  ---
11
 
12
+ # LightChatAssistant-2x7B-GGUF
13
 
14
+ [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
15
  iMatrixを併用して量子化しています。
16
 
17
  ## 量子化手順
18
 
19
  以下の通りに実行しました。
20
  ```
21
+ python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
22
  ./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
23
+ ./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./LightChatAssistant-2x7B_iq3xxs.gguf iq3_xxs
24
  ```
25
 
26
  ## 環境