File size: 1,416 Bytes
43a4ea9 cc2bb6b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
---
base_model: weblab-GENIAC/Tanuki-8B-dpo-v1.0
language:
- ja
- en
license: apache-2.0
tags:
- japanese
---
# Tanuki-8B-dpo-v1.0-GGUF
## 概要
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0)のGGUF量子化モデルです。
imatrixの計算には[Wikitext-JA](https://www.lsta.media.kyoto-u.ac.jp/resource/data/wikitext-ja/)を用いています。
## 注意
このGGUFモデルはtokenizerを元モデルから完全に変換出来ていない可能性があり、性能低下が発生している恐れがあります。
そのため、他の形式の量子化モデルの利用を推奨いたします。
- [AWQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ)
- [GPTQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit)
- [GPTQ 8bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit)
モデルに関する詳細については[元モデル]((https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0))をご確認ください。
この成果は、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業「ポスト5G情報通信システム基盤強化研究開発事業」(JPNP20017)の結果得られたものです。 |