YUGOROU commited on
Commit
cb92614
·
verified ·
1 Parent(s): 9392061

sync: training/train_config.py

Browse files
Files changed (1) hide show
  1. training/train_config.py +71 -0
training/train_config.py ADDED
@@ -0,0 +1,71 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_config.py — TeenEmo 学習設定
3
+
4
+ 全ての設定値を一箇所で管理する。
5
+ 環境変数で上書き可能。
6
+ """
7
+
8
+ from __future__ import annotations
9
+ import os
10
+
11
+ # ── Hugging Face ──────────────────────────────────────────────
12
+ HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
13
+ HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
14
+
15
+ # ── ベースモデル ───────────────────────────────────────────────
16
+ # LFM2-1.2B-Base を使用(Instruct版ではなくBase版)
17
+ BASE_MODEL: str = os.environ.get("BASE_MODEL", "liquidai/LFM2-1.2B")
18
+
19
+ # ── データセット ───────────────────────────────────────────────
20
+ SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
21
+ PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
22
+
23
+ # ── 出力先 ─────────────────────────────────────────────────────
24
+ SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
25
+ DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
26
+ SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-SFT")
27
+ DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-DPO")
28
+ GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2-1.2B-GGUF")
29
+
30
+ # ── LoRA 設定 ─────────────────────────────────────────────────
31
+ LORA_R: int = int(os.environ.get("LORA_R", "32"))
32
+ LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
33
+ LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
34
+ LORA_TARGET_MODULES: list = [
35
+ "q_proj", "k_proj", "v_proj", "o_proj",
36
+ "gate_proj", "up_proj", "down_proj",
37
+ ]
38
+
39
+ # ── シーケンス長 ───────────────────────────────────────────────
40
+ MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
41
+
42
+ # ── SFT 学習設定 ───────────────────────────────────────────────
43
+ SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "8"))
44
+ SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
45
+ SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
46
+ SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
47
+ SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
48
+ SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
49
+ SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
50
+ SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
51
+ SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "200"))
52
+ SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
53
+
54
+ # ── DPO 学習設定 ───────────────────────────────────────────────
55
+ DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "4"))
56
+ DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "8"))
57
+ DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
58
+ DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
59
+ DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
60
+ DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
61
+ DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
62
+ DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
63
+ DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
64
+ DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
65
+ DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
66
+ DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024"))
67
+
68
+ # ── GGUF 量子化 ────────────────────────────────────────────────
69
+ GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
70
+ SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
71
+ PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"