--- base_model: weblab-GENIAC/Tanuki-8B-dpo-v1.0 language: - ja - en license: apache-2.0 tags: - japanese --- # Tanuki-8B-dpo-v1.0-GGUF ## 概要 GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0)のGGUF量子化モデルです。 imatrixの計算には[Wikitext-JA](https://www.lsta.media.kyoto-u.ac.jp/resource/data/wikitext-ja/)を用いています。 ## 注意 このGGUFモデルはtokenizerを元モデルから完全に変換出来ていない可能性があり、性能低下が発生している恐れがあります。 そのため、他の形式の量子化モデルの利用を推奨いたします。 - [AWQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ) - [GPTQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit) - [GPTQ 8bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit) モデルに関する詳細については[元モデル]((https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0))をご確認ください。