TeenEmo 学習スクリプト
LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
ファイル構成
| ファイル | 役割 |
|---|---|
train_config.py |
全設定値(環境変数で上書き可能) |
train_utils.py |
共通ユーティリティ(ログ・データ読み込み) |
train_sft.py |
SFT(教師あり微調整)学習スクリプト |
train_dpo.py |
DPO(直接選好最適化)学習スクリプト |
セットアップ
pip install unsloth trl datasets transformers
実行手順
1. 環境変数の設定
export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"
2. SFT 学習
python train_sft.py
完了すると以下が生成されます:
./outputs/sft/lora/— LoRA アダプタ./outputs/sft/gguf/— GGUF ファイル(q4_k_m)- HF Hub:
YUGOROU/TeenEmo-LFM2-1.2B-SFT
3. DPO 学習
python train_dpo.py
完了すると以下が生成されます:
./outputs/dpo/lora/— LoRA アダプタ./outputs/dpo/gguf/— GGUF ファイル(q4_k_m)- HF Hub:
YUGOROU/TeenEmo-LFM2-1.2B-DPO - HF Hub:
YUGOROU/TeenEmo-LFM2-1.2B-GGUF
設定のカスタマイズ
train_config.py の値は全て環境変数で上書き可能:
# エポック数を変更
SFT_EPOCHS=2 python train_sft.py
# バッチサイズを変更(OOM 対策)
SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
# DPO beta を変更
DPO_BETA=0.05 python train_dpo.py
# GGUF 保存をスキップ
SAVE_GGUF=false python train_dpo.py
ログ
学習ログは ./outputs/sft/logs/ および ./outputs/dpo/logs/ に保存されます。
詳細なエラートレースも含まれます。
デフォルト設定値
SFT
- ベースモデル:
liquidai/LFM2-1.2B - データセット:
YUGOROU/teememo-sft-validation - エポック: 3
- バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
- 学習率: 2e-4(cosine スケジューラ)
- LoRA rank: 32, alpha: 64
DPO
- ベースモデル: SFT 済みアダプタ
- データセット:
YUGOROU/teememo-pref-data - エポック: 2
- バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
- 学習率: 5e-5
- beta: 0.1