Edit model card

cyberagent-calm2-7b-GPTQ-calib-ja-1k

cyberagentさんが公開しているcalm2-7b-chatを 日本語のキャリブレーションセットで生成したGPTQモデルになります。

キャリブレーションセットはizumi-lab/wikipedia-ja-20230720から、 1kほどランダムサンプリングしたものと、
ELYZA-tasks-100のinput/outputを計200ほど追加しています。
mmnga/wikipedia-ja-20230720-1k

モデル一覧
GPTQ
mmnga/cyberagent-calm2-7b-GPTQ-calib-ja-1k
mmnga/cyberagent-calm2-7b-chat-GPTQ-calib-ja-1k

GGUF
mmnga/cyberagent-calm2-7b-gguf
mmnga/cyberagent-calm2-7b-chat-gguf

Usage

pip install auto-gptq[triton]==0.4.2 transformers
from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig
from transformers import AutoTokenizer

model_name_or_path = "mmnga/cyberagent-calm2-7b-GPTQ-calib-ja-1k"

# Tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)

# Model
model = AutoGPTQForCausalLM.from_quantized(model_name_or_path, use_safetensors=True, device="cuda:0")

# Your test prompt
prompt = """今日の夕食のレシピをご紹介します。"""
print(tokenizer.decode(model.generate(**tokenizer(prompt, return_tensors="pt").to(model.device), max_length=128)[0]))
Downloads last month
11
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.