YUGOROU commited on
Commit
ecfcd71
·
verified ·
1 Parent(s): 9d91387

fix: sync training/train_sft.py

Browse files
Files changed (1) hide show
  1. training/train_sft.py +24 -56
training/train_sft.py CHANGED
@@ -2,16 +2,16 @@
2
  train_sft.py — TeenEmo SFT(教師あり微調整)
3
 
4
  フロー:
5
- 1. LFM2-1.2B-Base を HF Hub からロード
6
  2. LoRA アダプタを設定
7
  3. SFT データセットを HF Hub から取得・変換
8
  4. SFTTrainer で学習
9
- 5. LoRA アダプタを保存 + HF Hub push
10
- 6. GGUF 形式で保存 + HF Hub へ push
11
 
12
  実行例:
13
  python train_sft.py
14
- BASE_MODEL=liquidai/LFM2-1.2B SFT_EPOCHS=2 python train_sft.py
15
  """
16
 
17
  from __future__ import annotations
@@ -22,7 +22,6 @@ import traceback
22
  from datetime import datetime, timezone
23
  from pathlib import Path
24
 
25
- # ── 環境変数チェック ──────────────────────────────────────────
26
  if not os.environ.get("HF_TOKEN"):
27
  print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
28
  sys.exit(1)
@@ -30,7 +29,6 @@ if not os.environ.get("HF_TOKEN"):
30
  import torch
31
  from unsloth import FastLanguageModel, is_bfloat16_supported
32
  from trl import SFTTrainer, SFTConfig
33
- from datasets import Dataset
34
 
35
  import train_config as cfg
36
  from train_utils import (
@@ -48,7 +46,6 @@ def main() -> None:
48
  logger = setup_logger("sft", str(log_file))
49
  logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
50
 
51
- # ── GPU 情報 ──────────────────────────────────────────────
52
  log_gpu_info(logger)
53
  log_training_config(logger, "SFT")
54
 
@@ -58,8 +55,8 @@ def main() -> None:
58
  model, tokenizer = FastLanguageModel.from_pretrained(
59
  model_name=cfg.BASE_MODEL,
60
  max_seq_length=cfg.MAX_SEQ_LENGTH,
61
- dtype=None, # auto: A100 bfloat16
62
- load_in_4bit=False, # LFM2 bf16 LoRA 推奨
63
  token=cfg.HF_TOKEN or None,
64
  )
65
  logger.info("モデルロード完了 ✅")
@@ -96,8 +93,6 @@ def main() -> None:
96
  logger.info("データセット準備中...")
97
  try:
98
  raw_ds = load_sft_dataset(logger)
99
-
100
- # チャットテンプレート適用
101
  logger.info("チャットテンプレート適用中...")
102
  ds = raw_ds.map(
103
  lambda x: apply_chat_template_sft(x, tokenizer, logger),
@@ -105,19 +100,16 @@ def main() -> None:
105
  remove_columns=raw_ds.column_names,
106
  desc="チャットテンプレート適用",
107
  )
108
- # 空テキスト除去
109
  before = len(ds)
110
  ds = ds.filter(lambda x: len(x["text"]) > 0)
111
- logger.info(f" テキスト変換後: {before} → {len(ds)} 件")
112
-
113
- # サンプル確認
114
- logger.debug(f" 変換後サンプル[0]:\n{ds[0]['text'][:300]}")
115
  except Exception as e:
116
  logger.error(f"データセット準備エラー: {e}")
117
  logger.debug(traceback.format_exc())
118
  raise
119
 
120
- # ── SFT 学習 ──────────────────────────────────────────────
121
  logger.info("SFTTrainer 初期化中...")
122
  try:
123
  trainer = SFTTrainer(
@@ -154,21 +146,21 @@ def main() -> None:
154
  raise
155
 
156
  # ── 学習実行 ──────────────────────────────────────────────
157
- logger.info("学習開始...")
158
  try:
159
  train_result = trainer.train()
160
- logger.info(f"学習完了 ✅")
161
- logger.info(f" train_loss: {train_result.training_loss:.4f}")
162
- logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
163
- logger.info(f" train_samples/s:{train_result.metrics.get('train_samples_per_second', 0):.2f}")
164
  except Exception as e:
165
- logger.error(f"学習エラー: {e}")
166
  logger.debug(traceback.format_exc())
167
  raise
168
 
169
- # ── LoRA アダプタ保存 ─────────────────────────────────────
170
  lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
171
- logger.info(f"LoRA アダプタ保存: {lora_dir}")
172
  try:
173
  model.save_pretrained(str(lora_dir))
174
  tokenizer.save_pretrained(str(lora_dir))
@@ -178,45 +170,21 @@ def main() -> None:
178
  logger.debug(traceback.format_exc())
179
  raise
180
 
181
- # ── HF Hub への push ──────────────────────────────────────
182
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
183
- logger.info(f"HF Hub push : {cfg.SFT_HF_REPO}")
184
  try:
185
  model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
186
  tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
187
- logger.info(f"HF Hub push 完了 : https://huggingface.co/{cfg.SFT_HF_REPO}")
188
- except Exception as e:
189
- logger.error(f"HF Hub push エラー: {e}")
190
- logger.debug(traceback.format_exc())
191
-
192
- # ── GGUF 保存 ──────────────────────────────────────────────
193
- if cfg.SAVE_GGUF:
194
- logger.info(f"GGUF 保存中 ({cfg.GGUF_QUANTIZATION})...")
195
- try:
196
- gguf_dir = Path(cfg.SFT_OUTPUT_DIR) / "gguf"
197
- gguf_dir.mkdir(parents=True, exist_ok=True)
198
- if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
199
- model.push_to_hub_gguf(
200
- cfg.GGUF_HF_REPO,
201
- tokenizer,
202
- quantization_method=cfg.GGUF_QUANTIZATION,
203
- token=cfg.HF_TOKEN,
204
- )
205
- logger.info(f"GGUF HF push 完了 ✅: https://huggingface.co/{cfg.GGUF_HF_REPO}")
206
- else:
207
- model.save_pretrained_gguf(
208
- str(gguf_dir),
209
- tokenizer,
210
- quantization_method=cfg.GGUF_QUANTIZATION,
211
- )
212
- logger.info(f"GGUF ローカル保存完了 ✅: {gguf_dir}")
213
  except Exception as e:
214
- logger.error(f"GGUF 保存エラー: {e}")
215
  logger.debug(traceback.format_exc())
216
 
217
  elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
218
- logger.info(f"=== SFT 完了 (所要時間: {elapsed/60:.1f}分) ===")
219
- logger.info(f"ログファイル: {log_file}")
 
220
 
221
 
222
  if __name__ == "__main__":
 
2
  train_sft.py — TeenEmo SFT(教師あり微調整)
3
 
4
  フロー:
5
+ 1. LFM2.5-1.2B-Base を HF Hub からロード
6
  2. LoRA アダプタを設定
7
  3. SFT データセットを HF Hub から取得・変換
8
  4. SFTTrainer で学習
9
+ 5. SFT 完了 HF Hub にチェックポイントを push(STEP 1/3)
10
+ GGUF保存 DPO 完了後に train_dpo.py が行う
11
 
12
  実行例:
13
  python train_sft.py
14
+ SFT_EPOCHS=2 SFT_BATCH_SIZE=16 python train_sft.py
15
  """
16
 
17
  from __future__ import annotations
 
22
  from datetime import datetime, timezone
23
  from pathlib import Path
24
 
 
25
  if not os.environ.get("HF_TOKEN"):
26
  print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
  sys.exit(1)
 
29
  import torch
30
  from unsloth import FastLanguageModel, is_bfloat16_supported
31
  from trl import SFTTrainer, SFTConfig
 
32
 
33
  import train_config as cfg
34
  from train_utils import (
 
46
  logger = setup_logger("sft", str(log_file))
47
  logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
48
 
 
49
  log_gpu_info(logger)
50
  log_training_config(logger, "SFT")
51
 
 
55
  model, tokenizer = FastLanguageModel.from_pretrained(
56
  model_name=cfg.BASE_MODEL,
57
  max_seq_length=cfg.MAX_SEQ_LENGTH,
58
+ dtype=None, # A100 bfloat16 自動選択
59
+ load_in_4bit=False, # LFM2.5: bf16 LoRA 推奨
60
  token=cfg.HF_TOKEN or None,
61
  )
62
  logger.info("モデルロード完了 ✅")
 
93
  logger.info("データセット準備中...")
94
  try:
95
  raw_ds = load_sft_dataset(logger)
 
 
96
  logger.info("チャットテンプレート適用中...")
97
  ds = raw_ds.map(
98
  lambda x: apply_chat_template_sft(x, tokenizer, logger),
 
100
  remove_columns=raw_ds.column_names,
101
  desc="チャットテンプレート適用",
102
  )
 
103
  before = len(ds)
104
  ds = ds.filter(lambda x: len(x["text"]) > 0)
105
+ logger.info(f" 変換後: {before} → {len(ds)} 件")
106
+ logger.debug(f" サンプル[0]:\n{ds[0]['text'][:300]}")
 
 
107
  except Exception as e:
108
  logger.error(f"データセット準備エラー: {e}")
109
  logger.debug(traceback.format_exc())
110
  raise
111
 
112
+ # ── SFTTrainer 初期化 ─────────────────────────────────────
113
  logger.info("SFTTrainer 初期化中...")
114
  try:
115
  trainer = SFTTrainer(
 
146
  raise
147
 
148
  # ── 学習実行 ──────────────────────────────────────────────
149
+ logger.info("SFT 学習開始...")
150
  try:
151
  train_result = trainer.train()
152
+ logger.info("SFT 学習完了 ✅")
153
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
154
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
155
+ logger.info(f" samples/sec: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
156
  except Exception as e:
157
+ logger.error(f"SFT 学習エラー: {e}")
158
  logger.debug(traceback.format_exc())
159
  raise
160
 
161
+ # ── LoRA アダプタ保存 ─────────────────────────────────────
162
  lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
163
+ logger.info(f"LoRA アダプタ保存: {lora_dir}")
164
  try:
165
  model.save_pretrained(str(lora_dir))
166
  tokenizer.save_pretrained(str(lora_dir))
 
170
  logger.debug(traceback.format_exc())
171
  raise
172
 
173
+ # ── [STEP 1/3] HF Hub SFT チェックポイント push ───────
174
  if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
175
+ logger.info(f"[STEP 1/3] HF Hub SFT チェックポイント push: {cfg.SFT_HF_REPO}")
176
  try:
177
  model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
178
  tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
179
+ logger.info(f" ✅ https://huggingface.co/{cfg.SFT_HF_REPO}")
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
180
  except Exception as e:
181
+ logger.error(f"SFT push エラー: {e}")
182
  logger.debug(traceback.format_exc())
183
 
184
  elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
185
+ logger.info(f"=== SFT 完了 ({elapsed/60:.1f}分) ===")
186
+ logger.info(f"次のステップ: python train_dpo.py")
187
+ logger.info(f"ログ: {log_file}")
188
 
189
 
190
  if __name__ == "__main__":