--- license: mit --- # cyberagent-calm2-7b-GPTQ-calib-ja-1k [cyberagentさんが公開しているcalm2-7b-chat](https://huggingface.co/cyberagent/calm2-7b)を 日本語のキャリブレーションセットで生成したGPTQモデルになります。 キャリブレーションセットは[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)から、 1kほどランダムサンプリングしたものと、 [ELYZA-tasks-100](https://huggingface.co/datasets/elyza/ELYZA-tasks-100)のinput/outputを計200ほど追加しています。 [mmnga/wikipedia-ja-20230720-1k](https://huggingface.co/datasets/mmnga/wikipedia-ja-20230720-1k) モデル一覧 GPTQ [mmnga/cyberagent-calm2-7b-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/cyberagent-calm2-7b-GPTQ-calib-ja-1k) [mmnga/cyberagent-calm2-7b-chat-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/cyberagent-calm2-7b-chat-GPTQ-calib-ja-1k) GGUF [mmnga/cyberagent-calm2-7b-gguf](https://huggingface.co/mmnga/cyberagent-calm2-7b-gguf) [mmnga/cyberagent-calm2-7b-chat-gguf](https://huggingface.co/mmnga/cyberagent-calm2-7b-chat-gguf) ## Usage ~~~Bash pip install auto-gptq[triton]==0.4.2 transformers ~~~ ~~~python from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig from transformers import AutoTokenizer model_name_or_path = "mmnga/cyberagent-calm2-7b-GPTQ-calib-ja-1k" # Tokenizer tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True) # Model model = AutoGPTQForCausalLM.from_quantized(model_name_or_path, use_safetensors=True, device="cuda:0") # Your test prompt prompt = """今日の夕食のレシピをご紹介します。""" print(tokenizer.decode(model.generate(**tokenizer(prompt, return_tensors="pt").to(model.device), max_length=128)[0])) ~~~