dahara1 commited on
Commit
72eb4d6
1 Parent(s): 0f5a576

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +17 -6
README.md CHANGED
@@ -1,10 +1,21 @@
1
- gemma-2-27b-itを日本語多めの重要度行列(iMatrix)を使って量子化したgguf版です。
2
- 日本語対応能力が多めに保持されている事を期待していますが確かめる事はまだ出来ていません
 
3
 
4
- Q4_K_Mのwiki.test.raw(英語)を使ったperplexityスコアが他の同等GGUF量子化モデルに比べて何故か勝っている事は確認済ですが理由はまだわかりません
5
 
6
- - llama.cpp側の不具合対応がほぼ完了した後に作成したからか?
7
- - そもそもiMatrixは量子化強度が高いモデルでなければ効果があまりないという説もある
8
- - そもそもwiki.test.raw(英語)で計測することにどこまで意味があるのか?
 
 
 
 
 
 
 
 
 
9
 
10
  Window 11のCMD/PowerShellでは日本語が化けてしまう問題を確認しています。Linuxでは問題なく動くことを確認済です。
 
 
 
1
+ gemma-2-27b-itを日本語が多く含まれる重要度行列(iMatrix)を使って量子化したgguf版です。日本語対応能力が多めに保持されている事を期待していますが確かめる事はまだ出来ていません
2
+ This is a quantized gguf version of gemma-2-27b-it using an importance matrix (iMatrix) that contains many Japanese words.
3
+ I hope it retains more Japanese support, but I can't be sure yet.
4
 
 
5
 
6
+ Q4_K_Mをwiki.test.raw(英語)を使って計測したperplexityスコアが他の同等GGUF量子化モデルに比べて優れている事は確認済ですが理由はまだわかりません。
7
+ I have already confirmed that the perplexity score of Q4_K_M measured using wiki.test.raw is superior to other equivalent GGUF quantization models, but I don't know why yet.
8
+
9
+ 解明されていない疑問はあります
10
+ There are unanswered questions.
11
+
12
+ - llama.cppの不具合対応がほぼ完了した後に作成したからperplexityが低くなったのか?
13
+ - (Was the perplexity low because it was created after the llama.cpp defects were almost completed?)
14
+ - iMatrixは量子化強度が高いモデルでなければ効果があまりないという説もあるが多言語の観点からもそれは正しいのか?
15
+ - (Some say that iMatrix is not very effective unless the model has high quantization strength, but is that true from a multilingual point of view)
16
+ - wiki.test.raw(英語)でperplexityを計測することにどこまで意味があるのか?
17
+ - (How far does it make sense to measure perplexity with wiki.test.raw (English)?)
18
 
19
  Window 11のCMD/PowerShellでは日本語が化けてしまう問題を確認しています。Linuxでは問題なく動くことを確認済です。
20
+ We have confirmed a problem that Japanese is garbled in CMD/PowerShell on Window 11.
21
+ We have confirmed that it works fine on Linux.