grapevine-AI commited on
Commit
7bc1550
·
verified ·
1 Parent(s): 3941696

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +31 -3
README.md CHANGED
@@ -1,3 +1,31 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+ # What is this?
5
+ [Qwen2.5-32B-Instruct](https://huggingface.co/Qwen/Qwen2.5-32B-Instruct)を日本語imatrixで量子化したものです。<br>
6
+ なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、**32768トークンを超える文章では正常に機能しない恐れがあります。**<br>
7
+ よって、(メモリの占有を防ぐという意味でも)`-c`**オプションで適当なコンテキスト長に制限することを強く推奨します。**
8
+
9
+ # imatrix dataset
10
+ 日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
11
+ なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。
12
+
13
+ # Chat template
14
+ ```
15
+ <|im_start|>system
16
+ ここにSystem Promptを書きます。<|im_end|>
17
+ <|im_start|>user
18
+ ここにMessageを書きます。<|im_end|>
19
+ <|im_start|>assistant
20
+
21
+
22
+ ```
23
+
24
+ # Environment
25
+ Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
26
+
27
+ # License
28
+ Apache 2.0
29
+
30
+ # Developer
31
+ Alibaba Cloud