Update README.md
Browse files
README.md
CHANGED
@@ -1,14 +1,10 @@
|
|
1 |
-
|
2 |
-
|
3 |
-
|
4 |
-
|
5 |
-
|
6 |
-
|
7 |
-
|
8 |
-
prompt = f"""### 指示
|
9 |
-
{input}
|
10 |
-
### 回答
|
11 |
-
"""
|
12 |
|
13 |
tokenized_input = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt").to(model.device)
|
14 |
attention_mask = torch.ones_like(tokenized_input)
|
@@ -59,6 +55,9 @@ from datasets import load_dataset
|
|
59 |
import bitsandbytes as bnb
|
60 |
from trl import SFTTrainer
|
61 |
|
|
|
|
|
|
|
62 |
# モデルを読み込み。
|
63 |
# llm-jp-3 1.8B, 3.7B, 13Bのsnapshotをダウンロード済みでmodelsディレクトリに格納してあります。
|
64 |
# base_model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
|
@@ -68,6 +67,26 @@ base_model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad
|
|
68 |
# base_model_id = "llm-jp/llm-jp-3-13b"
|
69 |
new_model_id = "llm-jp-3-13b-finetune" #Fine-Tuningしたモデルにつけたい名前
|
70 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
71 |
"""
|
72 |
model: モデル
|
73 |
|
@@ -96,25 +115,6 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
96 |
|
97 |
tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
|
98 |
|
99 |
-
"""
|
100 |
-
bnb_config: 量子化の設定
|
101 |
-
|
102 |
-
- load_in_4bit:
|
103 |
-
- 4bit量子化形式でモデルをロード
|
104 |
-
|
105 |
-
- bnb_4bit_quant_type:
|
106 |
-
- 量子化の形式を指定
|
107 |
-
|
108 |
-
- bnb_4bit_compute_dtype:
|
109 |
-
- 量子化された重みを用いて計算する際のデータ型
|
110 |
-
|
111 |
-
"""
|
112 |
-
|
113 |
-
bnb_config = BitsAndBytesConfig(
|
114 |
-
load_in_4bit=True,
|
115 |
-
bnb_4bit_quant_type="nf4", # nf4は通常のINT4より精度が高く、ニューラルネットワークの分布に最適です
|
116 |
-
bnb_4bit_compute_dtype=torch.bfloat16,
|
117 |
-
)
|
118 |
|
119 |
"""
|
120 |
find_all_linear_names: モデル内の4bit量子化線形層を探します。
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
datasets:
|
4 |
+
- kinokokoro/ichikara-instruction-003
|
5 |
+
base_model:
|
6 |
+
- llm-jp/llm-jp-3-13b
|
7 |
+
---
|
|
|
|
|
|
|
|
|
8 |
|
9 |
tokenized_input = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt").to(model.device)
|
10 |
attention_mask = torch.ones_like(tokenized_input)
|
|
|
55 |
import bitsandbytes as bnb
|
56 |
from trl import SFTTrainer
|
57 |
|
58 |
+
# Hugging Face Token
|
59 |
+
HF_TOKEN = "write権限のあるトークン、非公開のためypur token"
|
60 |
+
|
61 |
# モデルを読み込み。
|
62 |
# llm-jp-3 1.8B, 3.7B, 13Bのsnapshotをダウンロード済みでmodelsディレクトリに格納してあります。
|
63 |
# base_model_idの値はomnicampusの環境におけるモデルのパスを表しており、それ以外の環境で実行する場合は変更の必要があります。
|
|
|
67 |
# base_model_id = "llm-jp/llm-jp-3-13b"
|
68 |
new_model_id = "llm-jp-3-13b-finetune" #Fine-Tuningしたモデルにつけたい名前
|
69 |
|
70 |
+
"""
|
71 |
+
bnb_config: 量子化の設定
|
72 |
+
|
73 |
+
- load_in_4bit:
|
74 |
+
- 4bit量子化形式でモデルをロード
|
75 |
+
|
76 |
+
- bnb_4bit_quant_type:
|
77 |
+
- 量子化の形式を指定
|
78 |
+
|
79 |
+
- bnb_4bit_compute_dtype:
|
80 |
+
- 量子化された重みを用いて計算する際のデータ型
|
81 |
+
|
82 |
+
"""
|
83 |
+
|
84 |
+
bnb_config = BitsAndBytesConfig(
|
85 |
+
load_in_4bit=True,
|
86 |
+
bnb_4bit_quant_type="nf4", # nf4は通常のINT4より精度が高く、ニューラルネットワークの分布に最適です
|
87 |
+
bnb_4bit_compute_dtype=torch.bfloat16,
|
88 |
+
)
|
89 |
+
|
90 |
"""
|
91 |
model: モデル
|
92 |
|
|
|
115 |
|
116 |
tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
|
117 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
118 |
|
119 |
"""
|
120 |
find_all_linear_names: モデル内の4bit量子化線形層を探します。
|