File size: 1,416 Bytes
43a4ea9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
cc2bb6b
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
---
base_model: weblab-GENIAC/Tanuki-8B-dpo-v1.0
language:
- ja
- en
license: apache-2.0
tags:
- japanese
---
# Tanuki-8B-dpo-v1.0-GGUF
## 概要
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0)のGGUF量子化モデルです。  
imatrixの計算には[Wikitext-JA](https://www.lsta.media.kyoto-u.ac.jp/resource/data/wikitext-ja/)を用いています。

## 注意
このGGUFモデルはtokenizerを元モデルから完全に変換出来ていない可能性があり、性能低下が発生している恐れがあります。  
そのため、他の形式の量子化モデルの利用を推奨いたします。
- [AWQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ)
- [GPTQ 4bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit)
- [GPTQ 8bit量子化](https://huggingface.co/team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit)

モデルに関する詳細については[元モデル]((https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0))をご確認ください。



この成果は、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業「ポスト5G情報通信システム基盤強化研究開発事業」(JPNP20017)の結果得られたものです。