| # TeenEmo 学習スクリプト |
|
|
| LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。 |
|
|
| ## ファイル構成 |
|
|
| | ファイル | 役割 | |
| |---------|------| |
| | `train_config.py` | 全設定値(環境変数で上書き可能) | |
| | `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) | |
| | `train_sft.py` | SFT(教師あり微調整)学習スクリプト | |
| | `train_dpo.py` | DPO(直接選好最適化)学習スクリプト | |
|
|
| ## セットアップ |
|
|
| ```bash |
| pip install unsloth trl datasets transformers |
| ``` |
|
|
| ## 実行手順 |
|
|
| ### 1. 環境変数の設定 |
|
|
| ```bash |
| export HF_TOKEN="hf_xxxx" |
| export HF_USERNAME="YUGOROU" |
| ``` |
|
|
| ### 2. SFT 学習 |
|
|
| ```bash |
| python train_sft.py |
| ``` |
|
|
| 完了すると以下が生成されます: |
| - `./outputs/sft/lora/` — LoRA アダプタ |
| - `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m) |
| - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT` |
|
|
| ### 3. DPO 学習 |
|
|
| ```bash |
| python train_dpo.py |
| ``` |
|
|
| 完了すると以下が生成されます: |
| - `./outputs/dpo/lora/` — LoRA アダプタ |
| - `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m) |
| - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO` |
| - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF` |
|
|
| ## 設定のカスタマイズ |
|
|
| `train_config.py` の値は全て環境変数で上書き可能: |
|
|
| ```bash |
| # エポック数を変更 |
| SFT_EPOCHS=2 python train_sft.py |
| |
| # バッチサイズを変更(OOM 対策) |
| SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py |
| |
| # DPO beta を変更 |
| DPO_BETA=0.05 python train_dpo.py |
| |
| # GGUF 保存をスキップ |
| SAVE_GGUF=false python train_dpo.py |
| ``` |
|
|
| ## ログ |
|
|
| 学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。 |
| 詳細なエラートレースも含まれます。 |
|
|
| ## デフォルト設定値 |
|
|
| ### SFT |
| - ベースモデル: `liquidai/LFM2-1.2B` |
| - データセット: `YUGOROU/teememo-sft-validation` |
| - エポック: 3 |
| - バッチサイズ: 8 × 勾配累積 4(実効バッチ 32) |
| - 学習率: 2e-4(cosine スケジューラ) |
| - LoRA rank: 32, alpha: 64 |
|
|
| ### DPO |
| - ベースモデル: SFT 済みアダプタ |
| - データセット: `YUGOROU/teememo-pref-data` |
| - エポック: 2 |
| - バッチサイズ: 4 × 勾配累積 8(実効バッチ 32) |
| - 学習率: 5e-5 |
| - beta: 0.1 |
|
|