mmnga commited on
Commit
5d67223
1 Parent(s): 1a180ed

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +68 -0
README.md CHANGED
@@ -1,3 +1,71 @@
1
  ---
2
  license: apache-2.0
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
  ---
4
+ # japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k
5
+ stabilityaiさんが公開している、[japanese-stablelm-base-gamma-7b](https://huggingface.co/stabilityai/japanese-stablelm-base-gamma-7b)を、
6
+ 日本語のキャリブレーションセットで生成したAWQモデルになります。
7
+
8
+ キャリブレーションセットは[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)から、
9
+ 1kほどランダムサンプリングしています。
10
+ [mmnga/wikipedia-ja-20230720-1k](https://huggingface.co/datasets/mmnga/wikipedia-ja-20230720-1k)
11
+
12
+ # AWQモデル
13
+ [Paper arxiv:2306.00978](https://arxiv.org/abs/2306.00978)
14
+ キャリブレーションセットからActivationを行うことによって、量子化する際に重要な重みを検出し、f16で保護します。
15
+ 日本語のキャリブレーションセットを使用して生成すると、どれくらい変化があるのか検証する為に作成しました。
16
+
17
+ 他のモデルはこちら
18
+
19
+ AWQ
20
+ [mmnga/japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k](https://huggingface.co/mmnga/japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k)
21
+ [mmnga/japanese-stablelm-instruct-gamma-7b-AWQ-calib-ja-1k](https://huggingface.co/mmnga/japanese-stablelm-instruct-gamma-7b-AWQ-calib-ja-1k)
22
+
23
+ GPTQ
24
+ [mmnga/japanese-stablelm-base-gamma-7b-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/japanese-stablelm-base-gamma-7b-GPTQ-calib-ja-1k)
25
+ [mmnga/japanese-stablelm-instruct-gamma-7b-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/japanese-stablelm-instruct-gamma-7b-GPTQ-calib-ja-1k)
26
+
27
+ GGUF
28
+ 3bモデル
29
+ [mmnga/japanese-stablelm-3b-4e1t-base-gguf](https://huggingface.co/mmnga/japanese-stablelm-3b-4e1t-base-gguf)
30
+ [mmnga/japanese-stablelm-3b-4e1t-instruct-gguf](https://huggingface.co/mmnga/japanese-stablelm-3b-4e1t-instruct-gguf)
31
+
32
+ 7bモデル
33
+ [mmnga/japanese-stablelm-base-gamma-7b-gguf](https://huggingface.co/mmnga/japanese-stablelm-base-gamma-7b-gguf)
34
+ [mmnga/japanese-stablelm-instruct-gamma-7b-gguf](https://huggingface.co/mmnga/japanese-stablelm-instruct-gamma-7b-gguf)
35
+
36
+
37
+
38
+ # Usage
39
+ *google colabを利用する場合、A100でのみ動作します。ご注意ください。*
40
+
41
+ ~~~Bash
42
+ pip install autoawq transformers
43
+ ~~~
44
+
45
+ ~~~python
46
+ from awq import AutoAWQForCausalLM
47
+ from transformers import AutoTokenizer
48
+
49
+ model_name_or_path = "mmnga/japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k"
50
+
51
+ tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)
52
+ model = AutoAWQForCausalLM.from_quantized(model_name_or_path, safetensors=True, device_map="auto", fuse_layers=True)
53
+
54
+ prompt = """今日の晩御飯のレシピを紹介します。"""
55
+ tokens = tokenizer(
56
+ prompt,
57
+ return_tensors='pt'
58
+ ).input_ids.cuda()
59
+
60
+ # Generate output
61
+ generation_output = model.generate(
62
+ tokens,
63
+ do_sample=True,
64
+ temperature=0.7,
65
+ top_p=0.95,
66
+ top_k=40,
67
+ max_new_tokens=128
68
+ )
69
+
70
+ print(tokenizer.decode(generation_output[0]))
71
+ ~~~