Update README.md
Browse files
README.md
CHANGED
@@ -60,9 +60,9 @@ if torch.cuda.get_device_capability()[0] >= 8:
|
|
60 |
|
61 |
from unsloth import FastLanguageModel
|
62 |
import torch
|
63 |
-
|
64 |
# 1024に増やしてみる
|
65 |
-
max_seq_length = 1024
|
66 |
dtype = None # Noneにしておけば自動で設定
|
67 |
load_in_4bit = True # 今回は13Bモデルを扱うためTrue
|
68 |
|
@@ -120,7 +120,6 @@ prompt = """### 指示
|
|
120 |
### 回答
|
121 |
{}"""
|
122 |
|
123 |
-
|
124 |
"""
|
125 |
formatting_prompts_func: 各データをプロンプトに合わせた形式に合わせる
|
126 |
"""
|
@@ -135,7 +134,7 @@ pass
|
|
135 |
# # 各データにフォーマットを適用
|
136 |
dataset = dataset.map(
|
137 |
formatting_prompts_func,
|
138 |
-
num_proc= 4, # 並列処理数を指定
|
139 |
)
|
140 |
|
141 |
dataset
|
@@ -143,7 +142,6 @@ dataset
|
|
143 |
# データを確認
|
144 |
print(dataset["train"]["formatted_text"][3])
|
145 |
|
146 |
-
"""
|
147 |
"""
|
148 |
training_arguments: 学習の設定
|
149 |
|
@@ -218,9 +216,9 @@ trainer = SFTTrainer(
|
|
218 |
args = TrainingArguments(
|
219 |
per_device_train_batch_size = 2,
|
220 |
gradient_accumulation_steps = 4,
|
221 |
-
|
222 |
# epochを増やす
|
223 |
-
num_train_epochs = 5,
|
224 |
logging_steps = 10,
|
225 |
warmup_steps = 10,
|
226 |
save_steps=100,
|
|
|
60 |
|
61 |
from unsloth import FastLanguageModel
|
62 |
import torch
|
63 |
+
max_seq_length = 512 # unslothではRoPEをサポートしているのでコンテキスト長は自由に設定可能
|
64 |
# 1024に増やしてみる
|
65 |
+
# max_seq_length = 1024
|
66 |
dtype = None # Noneにしておけば自動で設定
|
67 |
load_in_4bit = True # 今回は13Bモデルを扱うためTrue
|
68 |
|
|
|
120 |
### 回答
|
121 |
{}"""
|
122 |
|
|
|
123 |
"""
|
124 |
formatting_prompts_func: 各データをプロンプトに合わせた形式に合わせる
|
125 |
"""
|
|
|
134 |
# # 各データにフォーマットを適用
|
135 |
dataset = dataset.map(
|
136 |
formatting_prompts_func,
|
137 |
+
# num_proc= 4, # 並列処理数を指定
|
138 |
)
|
139 |
|
140 |
dataset
|
|
|
142 |
# データを確認
|
143 |
print(dataset["train"]["formatted_text"][3])
|
144 |
|
|
|
145 |
"""
|
146 |
training_arguments: 学習の設定
|
147 |
|
|
|
216 |
args = TrainingArguments(
|
217 |
per_device_train_batch_size = 2,
|
218 |
gradient_accumulation_steps = 4,
|
219 |
+
num_train_epochs = 1,
|
220 |
# epochを増やす
|
221 |
+
# num_train_epochs = 5,
|
222 |
logging_steps = 10,
|
223 |
warmup_steps = 10,
|
224 |
save_steps=100,
|