Oimos commited on
Commit
5f73776
1 Parent(s): b735d84

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -7
README.md CHANGED
@@ -60,9 +60,9 @@ if torch.cuda.get_device_capability()[0] >= 8:
60
 
61
  from unsloth import FastLanguageModel
62
  import torch
63
- # max_seq_length = 512 # unslothではRoPEをサポートしているのでコンテキスト長は自由に設定可能
64
  # 1024に増やしてみる
65
- max_seq_length = 1024
66
  dtype = None # Noneにしておけば自動で設定
67
  load_in_4bit = True # 今回は13Bモデルを扱うためTrue
68
 
@@ -120,7 +120,6 @@ prompt = """### 指示
120
  ### 回答
121
  {}"""
122
 
123
-
124
  """
125
  formatting_prompts_func: 各データをプロンプトに合わせた形式に合わせる
126
  """
@@ -135,7 +134,7 @@ pass
135
  # # 各データにフォーマットを適用
136
  dataset = dataset.map(
137
  formatting_prompts_func,
138
- num_proc= 4, # 並列処理数を指定
139
  )
140
 
141
  dataset
@@ -143,7 +142,6 @@ dataset
143
  # データを確認
144
  print(dataset["train"]["formatted_text"][3])
145
 
146
- """
147
  """
148
  training_arguments: 学習の設定
149
 
@@ -218,9 +216,9 @@ trainer = SFTTrainer(
218
  args = TrainingArguments(
219
  per_device_train_batch_size = 2,
220
  gradient_accumulation_steps = 4,
221
- # num_train_epochs = 1,
222
  # epochを増やす
223
- num_train_epochs = 5,
224
  logging_steps = 10,
225
  warmup_steps = 10,
226
  save_steps=100,
 
60
 
61
  from unsloth import FastLanguageModel
62
  import torch
63
+ max_seq_length = 512 # unslothではRoPEをサポートしているのでコンテキスト長は自由に設定可能
64
  # 1024に増やしてみる
65
+ # max_seq_length = 1024
66
  dtype = None # Noneにしておけば自動で設定
67
  load_in_4bit = True # 今回は13Bモデルを扱うためTrue
68
 
 
120
  ### 回答
121
  {}"""
122
 
 
123
  """
124
  formatting_prompts_func: 各データをプロンプトに合わせた形式に合わせる
125
  """
 
134
  # # 各データにフォーマットを適用
135
  dataset = dataset.map(
136
  formatting_prompts_func,
137
+ # num_proc= 4, # 並列処理数を指定
138
  )
139
 
140
  dataset
 
142
  # データを確認
143
  print(dataset["train"]["formatted_text"][3])
144
 
 
145
  """
146
  training_arguments: 学習の設定
147
 
 
216
  args = TrainingArguments(
217
  per_device_train_batch_size = 2,
218
  gradient_accumulation_steps = 4,
219
+ num_train_epochs = 1,
220
  # epochを増やす
221
+ # num_train_epochs = 5,
222
  logging_steps = 10,
223
  warmup_steps = 10,
224
  save_steps=100,