File size: 2,306 Bytes
0b0982c | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 | # TeenEmo 学習スクリプト
LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
## ファイル構成
| ファイル | 役割 |
|---------|------|
| `train_config.py` | 全設定値(環境変数で上書き可能) |
| `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) |
| `train_sft.py` | SFT(教師あり微調整)学習スクリプト |
| `train_dpo.py` | DPO(直接選好最適化)学習スクリプト |
## セットアップ
```bash
pip install unsloth trl datasets transformers
```
## 実行手順
### 1. 環境変数の設定
```bash
export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"
```
### 2. SFT 学習
```bash
python train_sft.py
```
完了すると以下が生成されます:
- `./outputs/sft/lora/` — LoRA アダプタ
- `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m)
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT`
### 3. DPO 学習
```bash
python train_dpo.py
```
完了すると以下が生成されます:
- `./outputs/dpo/lora/` — LoRA アダプタ
- `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m)
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO`
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF`
## 設定のカスタマイズ
`train_config.py` の値は全て環境変数で上書き可能:
```bash
# エポック数を変更
SFT_EPOCHS=2 python train_sft.py
# バッチサイズを変更(OOM 対策)
SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
# DPO beta を変更
DPO_BETA=0.05 python train_dpo.py
# GGUF 保存をスキップ
SAVE_GGUF=false python train_dpo.py
```
## ログ
学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。
詳細なエラートレースも含まれます。
## デフォルト設定値
### SFT
- ベースモデル: `liquidai/LFM2-1.2B`
- データセット: `YUGOROU/teememo-sft-validation`
- エポック: 3
- バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
- 学習率: 2e-4(cosine スケジューラ)
- LoRA rank: 32, alpha: 64
### DPO
- ベースモデル: SFT 済みアダプタ
- データセット: `YUGOROU/teememo-pref-data`
- エポック: 2
- バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
- 学習率: 5e-5
- beta: 0.1
|