mmnga commited on
Commit
73b89a9
1 Parent(s): 13e90e9

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +35 -0
README.md ADDED
@@ -0,0 +1,35 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+
5
+ # llm-jp-13b-v1.0-4bit-g128-GPTQ-calib-ja-1k
6
+ llm-jpさんが公開している、[llm-jp-13b-v1.0](https://huggingface.co/llm-jp/llm-jp-13b-v1.0)を、
7
+ 日本語のキャリブレーションセットで生成したGPTQモデルになります。
8
+
9
+ キャリブレーションセットは[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)から、
10
+ 1kほどランダムサンプリングしたものと、
11
+ [ELYZA-tasks-100](https://huggingface.co/datasets/elyza/ELYZA-tasks-100)のinput/outputを計200ほど追加しています。
12
+ [mmnga/wikipedia-ja-20230720-1k](https://huggingface.co/datasets/mmnga/wikipedia-ja-20230720-1k)
13
+
14
+ # Usage
15
+
16
+ ~~~Bash
17
+ pip install auto-gptq transformers
18
+ ~~~
19
+
20
+ ~~~python
21
+ from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig
22
+ from transformers import AutoTokenizer
23
+
24
+ model_name_or_path = "mmnga/llm-jp-13b-v1.0-4bit-g128-GPTQ-calib-ja-1k"
25
+
26
+ # Tokenizer
27
+ tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)
28
+
29
+ # Model
30
+ model = AutoGPTQForCausalLM.from_quantized(model_name_or_path, use_safetensors=True, device="cuda:0", use_auth_token=False)
31
+
32
+ #Your test prompt
33
+ prompt = """今日の晩御飯のレシピをご紹介します。"""
34
+ print(tokenizer.decode(model.generate(**tokenizer(prompt, return_tensors="pt").to(model.device), max_length=128)[0]))
35
+ ~~~