Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,22 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model: weblab-GENIAC/Tanuki-8B-dpo-v1.0
|
3 |
+
language:
|
4 |
+
- ja
|
5 |
+
- en
|
6 |
+
license: apache-2.0
|
7 |
+
tags:
|
8 |
+
- japanese
|
9 |
+
---
|
10 |
+
# Tanuki-8B-dpo-v1.0-GGUF
|
11 |
+
## 概要
|
12 |
+
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0)のGGUF量子化モデルです。
|
13 |
+
imatrixの計算には[Wikitext-JA](https://www.lsta.media.kyoto-u.ac.jp/resource/data/wikitext-ja/)を用いています。
|
14 |
+
|
15 |
+
## 注意
|
16 |
+
このGGUFモデルはtokenizerを元モデルから完全に変換出来ていない可能性があり、性能低下が発生している恐れがあります。
|
17 |
+
そのため、他の形式の量子化モデルの利用を推奨いたします。
|
18 |
+
- [AWQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ)
|
19 |
+
- [GPTQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit)
|
20 |
+
- [GPTQ 8bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit)
|
21 |
+
|
22 |
+
モデルに関する詳細については[元モデル]((https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0))をご確認ください。
|