sync: training/README.md
Browse files- training/README.md +91 -0
training/README.md
ADDED
|
@@ -0,0 +1,91 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# TeenEmo 学習スクリプト
|
| 2 |
+
|
| 3 |
+
LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
|
| 4 |
+
|
| 5 |
+
## ファイル構成
|
| 6 |
+
|
| 7 |
+
| ファイル | 役割 |
|
| 8 |
+
|---------|------|
|
| 9 |
+
| `train_config.py` | 全設定値(環境変数で上書き可能) |
|
| 10 |
+
| `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) |
|
| 11 |
+
| `train_sft.py` | SFT(教師あり微調整)学習スクリプト |
|
| 12 |
+
| `train_dpo.py` | DPO(直接選好最適化)学習スクリプト |
|
| 13 |
+
|
| 14 |
+
## セットアップ
|
| 15 |
+
|
| 16 |
+
```bash
|
| 17 |
+
pip install unsloth trl datasets transformers
|
| 18 |
+
```
|
| 19 |
+
|
| 20 |
+
## 実行手順
|
| 21 |
+
|
| 22 |
+
### 1. 環境変数の設定
|
| 23 |
+
|
| 24 |
+
```bash
|
| 25 |
+
export HF_TOKEN="hf_xxxx"
|
| 26 |
+
export HF_USERNAME="YUGOROU"
|
| 27 |
+
```
|
| 28 |
+
|
| 29 |
+
### 2. SFT 学習
|
| 30 |
+
|
| 31 |
+
```bash
|
| 32 |
+
python train_sft.py
|
| 33 |
+
```
|
| 34 |
+
|
| 35 |
+
完了すると以下が生成されます:
|
| 36 |
+
- `./outputs/sft/lora/` — LoRA アダプタ
|
| 37 |
+
- `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m)
|
| 38 |
+
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT`
|
| 39 |
+
|
| 40 |
+
### 3. DPO 学習
|
| 41 |
+
|
| 42 |
+
```bash
|
| 43 |
+
python train_dpo.py
|
| 44 |
+
```
|
| 45 |
+
|
| 46 |
+
完了すると以下が生成されます:
|
| 47 |
+
- `./outputs/dpo/lora/` — LoRA アダプタ
|
| 48 |
+
- `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m)
|
| 49 |
+
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO`
|
| 50 |
+
- HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF`
|
| 51 |
+
|
| 52 |
+
## 設定のカスタマイズ
|
| 53 |
+
|
| 54 |
+
`train_config.py` の値は全て環境変数で上書き可能:
|
| 55 |
+
|
| 56 |
+
```bash
|
| 57 |
+
# エポック数を変更
|
| 58 |
+
SFT_EPOCHS=2 python train_sft.py
|
| 59 |
+
|
| 60 |
+
# バッチサイズを変更(OOM 対策)
|
| 61 |
+
SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
|
| 62 |
+
|
| 63 |
+
# DPO beta を変更
|
| 64 |
+
DPO_BETA=0.05 python train_dpo.py
|
| 65 |
+
|
| 66 |
+
# GGUF 保存をスキップ
|
| 67 |
+
SAVE_GGUF=false python train_dpo.py
|
| 68 |
+
```
|
| 69 |
+
|
| 70 |
+
## ログ
|
| 71 |
+
|
| 72 |
+
学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。
|
| 73 |
+
詳細なエラートレースも含まれます。
|
| 74 |
+
|
| 75 |
+
## デフォルト設定値
|
| 76 |
+
|
| 77 |
+
### SFT
|
| 78 |
+
- ベースモデル: `liquidai/LFM2-1.2B`
|
| 79 |
+
- データセット: `YUGOROU/teememo-sft-validation`
|
| 80 |
+
- エポック: 3
|
| 81 |
+
- バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
|
| 82 |
+
- 学習率: 2e-4(cosine スケジューラ)
|
| 83 |
+
- LoRA rank: 32, alpha: 64
|
| 84 |
+
|
| 85 |
+
### DPO
|
| 86 |
+
- ベースモデル: SFT 済みアダプタ
|
| 87 |
+
- データセット: `YUGOROU/teememo-pref-data`
|
| 88 |
+
- エポック: 2
|
| 89 |
+
- バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
|
| 90 |
+
- 学習率: 5e-5
|
| 91 |
+
- beta: 0.1
|