grapevine-AI commited on
Commit
f467373
1 Parent(s): e568a9a

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +33 -0
README.md ADDED
@@ -0,0 +1,33 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: other
3
+ license_name: qwen
4
+ license_link: LICENSE
5
+ ---
6
+ # What is this?
7
+ [Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)を日本語imatrixで量子化したものです。<br>
8
+ なお、モデル本来のコンテキスト長は131072となっていますが、32768以降の位置エンコーディングが特殊なため、**32768トークンを超える文章では正常に機能しない恐れがあります。**<br>
9
+ よって、(メモリの占有を防ぐという意味でも)`-c`**オプションで適当なコンテキスト長に制限することを強く推奨します。**
10
+
11
+ # imatrix dataset
12
+ 日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
13
+ なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。
14
+
15
+ # Chat template
16
+ ```
17
+ <|im_start|>system
18
+ ここにSystem Promptを書きます。<|im_end|>
19
+ <|im_start|>user
20
+ ここにMessageを書きます。<|im_end|>
21
+ <|im_start|>assistant
22
+
23
+
24
+ ```
25
+
26
+ # Environment
27
+ Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
28
+
29
+ # License
30
+ Qwen LICENSE
31
+
32
+ # Developer
33
+ Alibaba Cloud