YUGOROU commited on
Commit
f266c1f
·
verified ·
1 Parent(s): 6a69199

sync: training/README.md

Browse files
Files changed (1) hide show
  1. training/README.md +91 -0
training/README.md ADDED
@@ -0,0 +1,91 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # TeenEmo 学習スクリプト
2
+
3
+ LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
4
+
5
+ ## ファイル構成
6
+
7
+ | ファイル | 役割 |
8
+ |---------|------|
9
+ | `train_config.py` | 全設定値(環境変数で上書き可能) |
10
+ | `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) |
11
+ | `train_sft.py` | SFT(教師あり微調整)学習スクリプト |
12
+ | `train_dpo.py` | DPO(直接選好最適化)学習スクリプト |
13
+
14
+ ## セットアップ
15
+
16
+ ```bash
17
+ pip install unsloth trl datasets transformers
18
+ ```
19
+
20
+ ## 実行手順
21
+
22
+ ### 1. 環境変数の設定
23
+
24
+ ```bash
25
+ export HF_TOKEN="hf_xxxx"
26
+ export HF_USERNAME="YUGOROU"
27
+ ```
28
+
29
+ ### 2. SFT 学習
30
+
31
+ ```bash
32
+ python train_sft.py
33
+ ```
34
+
35
+ 完了すると以下が生成されます:
36
+ - `./outputs/sft/lora/` — LoRA アダプタ
37
+ - `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m)
38
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT`
39
+
40
+ ### 3. DPO 学習
41
+
42
+ ```bash
43
+ python train_dpo.py
44
+ ```
45
+
46
+ 完了すると以下が生成されます:
47
+ - `./outputs/dpo/lora/` — LoRA アダプタ
48
+ - `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m)
49
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO`
50
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF`
51
+
52
+ ## 設定のカスタマイズ
53
+
54
+ `train_config.py` の値は全て環境変数で上書き可能:
55
+
56
+ ```bash
57
+ # エポック数を変更
58
+ SFT_EPOCHS=2 python train_sft.py
59
+
60
+ # バッチサイズを変更(OOM 対策)
61
+ SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
62
+
63
+ # DPO beta を変更
64
+ DPO_BETA=0.05 python train_dpo.py
65
+
66
+ # GGUF 保存をスキップ
67
+ SAVE_GGUF=false python train_dpo.py
68
+ ```
69
+
70
+ ## ログ
71
+
72
+ 学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。
73
+ 詳細なエラートレースも含まれます。
74
+
75
+ ## デフォルト設定値
76
+
77
+ ### SFT
78
+ - ベースモデル: `liquidai/LFM2-1.2B`
79
+ - データセット: `YUGOROU/teememo-sft-validation`
80
+ - エポック: 3
81
+ - バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
82
+ - 学習率: 2e-4(cosine スケジューラ)
83
+ - LoRA rank: 32, alpha: 64
84
+
85
+ ### DPO
86
+ - ベースモデル: SFT 済みアダプタ
87
+ - データセット: `YUGOROU/teememo-pref-data`
88
+ - エポック: 2
89
+ - バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
90
+ - 学習率: 5e-5
91
+ - beta: 0.1