Tanuki-8B-dpo-v1.0-GPTQ-4bit

概要

GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のGPTQ 4bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした1000件を利用しています。

モデルに関する詳細については元モデルをご確認ください。

この成果は、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業「ポスト5G情報通信システム基盤強化研究開発事業」(JPNP20017)の結果得られたものです

Downloads last month
42
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit

Quantized
(5)
this model

Dataset used to train team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit