YUGOROU's picture
feat: PR#8 - SFT/DPO 学習スクリプト追加 (#8)
0b0982c

TeenEmo 学習スクリプト

LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。

ファイル構成

ファイル 役割
train_config.py 全設定値(環境変数で上書き可能)
train_utils.py 共通ユーティリティ(ログ・データ読み込み)
train_sft.py SFT(教師あり微調整)学習スクリプト
train_dpo.py DPO(直接選好最適化)学習スクリプト

セットアップ

pip install unsloth trl datasets transformers

実行手順

1. 環境変数の設定

export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"

2. SFT 学習

python train_sft.py

完了すると以下が生成されます:

  • ./outputs/sft/lora/ — LoRA アダプタ
  • ./outputs/sft/gguf/ — GGUF ファイル(q4_k_m)
  • HF Hub: YUGOROU/TeenEmo-LFM2-1.2B-SFT

3. DPO 学習

python train_dpo.py

完了すると以下が生成されます:

  • ./outputs/dpo/lora/ — LoRA アダプタ
  • ./outputs/dpo/gguf/ — GGUF ファイル(q4_k_m)
  • HF Hub: YUGOROU/TeenEmo-LFM2-1.2B-DPO
  • HF Hub: YUGOROU/TeenEmo-LFM2-1.2B-GGUF

設定のカスタマイズ

train_config.py の値は全て環境変数で上書き可能:

# エポック数を変更
SFT_EPOCHS=2 python train_sft.py

# バッチサイズを変更(OOM 対策)
SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py

# DPO beta を変更
DPO_BETA=0.05 python train_dpo.py

# GGUF 保存をスキップ
SAVE_GGUF=false python train_dpo.py

ログ

学習ログは ./outputs/sft/logs/ および ./outputs/dpo/logs/ に保存されます。 詳細なエラートレースも含まれます。

デフォルト設定値

SFT

  • ベースモデル: liquidai/LFM2-1.2B
  • データセット: YUGOROU/teememo-sft-validation
  • エポック: 3
  • バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
  • 学習率: 2e-4(cosine スケジューラ)
  • LoRA rank: 32, alpha: 64

DPO

  • ベースモデル: SFT 済みアダプタ
  • データセット: YUGOROU/teememo-pref-data
  • エポック: 2
  • バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
  • 学習率: 5e-5
  • beta: 0.1