# TeenEmo 学習スクリプト LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。 ## ファイル構成 | ファイル | 役割 | |---------|------| | `train_config.py` | 全設定値(環境変数で上書き可能) | | `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) | | `train_sft.py` | SFT(教師あり微調整)学習スクリプト | | `train_dpo.py` | DPO(直接選好最適化)学習スクリプト | ## セットアップ ```bash pip install unsloth trl datasets transformers ``` ## 実行手順 ### 1. 環境変数の設定 ```bash export HF_TOKEN="hf_xxxx" export HF_USERNAME="YUGOROU" ``` ### 2. SFT 学習 ```bash python train_sft.py ``` 完了すると以下が生成されます: - `./outputs/sft/lora/` — LoRA アダプタ - `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m) - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT` ### 3. DPO 学習 ```bash python train_dpo.py ``` 完了すると以下が生成されます: - `./outputs/dpo/lora/` — LoRA アダプタ - `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m) - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO` - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF` ## 設定のカスタマイズ `train_config.py` の値は全て環境変数で上書き可能: ```bash # エポック数を変更 SFT_EPOCHS=2 python train_sft.py # バッチサイズを変更(OOM 対策) SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py # DPO beta を変更 DPO_BETA=0.05 python train_dpo.py # GGUF 保存をスキップ SAVE_GGUF=false python train_dpo.py ``` ## ログ 学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。 詳細なエラートレースも含まれます。 ## デフォルト設定値 ### SFT - ベースモデル: `liquidai/LFM2-1.2B` - データセット: `YUGOROU/teememo-sft-validation` - エポック: 3 - バッチサイズ: 8 × 勾配累積 4(実効バッチ 32) - 学習率: 2e-4(cosine スケジューラ) - LoRA rank: 32, alpha: 64 ### DPO - ベースモデル: SFT 済みアダプタ - データセット: `YUGOROU/teememo-pref-data` - エポック: 2 - バッチサイズ: 4 × 勾配累積 8(実効バッチ 32) - 学習率: 5e-5 - beta: 0.1