#!/bin/bash

# LoRA 微调版本的 PPI 训练脚本
# 基于原始脚本添加 LoRA 支持

DATASET_NAME="PPI"
DATASET_TYPE="protein"
TASK_TYPE="binary_class"
TASK_LEVEL_TYPE="seq_level"
MODEL_TYPE="lucappi"
CONFIG_NAME="ppi_config.json"
INPUT_TYPE="matrix"
INPUT_MODE="pair"
LABEL_TYPE="PPI"
FUSION_TYPE="concat"
embedding_input_size=2560
SEQ_MAX_LENGTH=2048
matrix_max_length=2048
TRUNC_TYPE="right"
hidden_size=1024
num_attention_heads=8
num_hidden_layers=4
dropout_prob=0.1
SEQ_POOLING_TYPE="value_attention"
MATRIX_POOLING_TYPE="value_attention"
VOCAB_NAME="gene_prot"
BEST_METRIC_TYPE="acc"
classifier_size=128
# binary-class, multi-label: bce, multi-class: cce, regression: l1 or l2
# batch_size 在第 64 行定义
loss_type="bce"

llm_type="lucaone"
llm_version="lucaone"
llm_step=36000000

# ========== LoRA 参数 ==========
LORA_RANK=8                            # LoRA rank (建议: 8-16)
LORA_ALPHA=16.0                        # LoRA alpha (通常 = 2 * rank)
LORA_DROPOUT=0.1                       # LoRA dropout
# Q/K/V+Out+FFN 策略
# 注意: 脚本会自动根据模型类型 (BertModel/LucaTransformer) 转换模块名称
LORA_TARGET_MODULES="self_attn.q_proj,self_attn.k_proj,self_attn.v_proj,self_attn.out_proj,fc1,fc2"

# ========== 内存优化配置 ==========
# 如果仍然遇到 OOM，可以逐步减少以下参数：
# 1. batch_size: 8 → 4 → 2 → 1
# 2. matrix_max_length: 2048 → 1024 → 512
# 3. nproc_per_node: 8 → 4 → 2
# 4. worker_num: 0 (禁用多进程数据加载，减少内存占用)

batch_size=16                            # 从 4 减少到 2 以减少显存占用
matrix_max_length=1024                  # 从 2048 减少到 1024，显存占用减少约 75%
nproc_per_node=8                        # 从 8 减少到 4 个 GPU，减少系统内存压力
learning_rate=1e-4                      # LoRA 可以使用稍高的学习率
gradient_accumulation_steps=8           # 增加到 8 以保持有效 batch size (2×8×4=64)
buffer_size=2048                        # 从 4096 减少到 2048，减少内存缓冲区占用
worker_num=0                            # 禁用多进程数据加载，减少内存占用和避免 semaphore 泄漏
time_str=$(date "+%Y%m%d%H%M%S")

cd ../../

# 使用 torchrun 进行多 GPU 分布式训练
# 如果仍然 OOM，可以进一步减少: --nproc_per_node=2 或 1
torchrun --nproc_per_node=$nproc_per_node run.py \
  --train_data_dir ../dataset/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/train/ \
  --dev_data_dir ../dataset/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/dev/ \
  --test_data_dir ../dataset/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/test/ \
  --dataset_name $DATASET_NAME \
  --dataset_type $DATASET_TYPE \
  --task_type $TASK_TYPE \
  --task_level_type $TASK_LEVEL_TYPE \
  --model_type $MODEL_TYPE \
  --input_type $INPUT_TYPE \
  --input_mode $INPUT_MODE \
  --label_type $LABEL_TYPE \
  --alphabet gene_prot \
  --label_filepath ../dataset/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/label.txt  \
  --output_dir ../models/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/${MODEL_TYPE}_lora/$INPUT_TYPE/$time_str \
  --log_dir ../logs/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/${MODEL_TYPE}_lora/$INPUT_TYPE/$time_str \
  --tb_log_dir ../tb-logs/$DATASET_NAME/$DATASET_TYPE/$TASK_TYPE/${MODEL_TYPE}_lora/$INPUT_TYPE/$time_str \
  --config_path ../config/$MODEL_TYPE/$CONFIG_NAME \
  --seq_vocab_path  gene_prot \
  --seq_pooling_type $SEQ_POOLING_TYPE \
  --matrix_pooling_type $MATRIX_POOLING_TYPE \
  --fusion_type $FUSION_TYPE \
  --do_train \
  --do_eval \
  --do_predict \
  --do_metrics \
  --evaluate_during_training \
  --per_gpu_train_batch_size=$batch_size \
  --per_gpu_eval_batch_size=$batch_size \
  --gradient_accumulation_steps=$gradient_accumulation_steps \
  --learning_rate=$learning_rate \
  --lr_update_strategy step \
  --lr_decay_rate 0.9 \
  --num_train_epochs=50 \
  --overwrite_output_dir \
  --seed 1221 \
  --sigmoid \
  --loss_type $loss_type \
  --best_metric_type $BEST_METRIC_TYPE \
  --seq_max_length=$SEQ_MAX_LENGTH \
  --embedding_input_size $embedding_input_size \
  --matrix_max_length=$matrix_max_length \
  --trunc_type=$TRUNC_TYPE \
  --no_token_embeddings \
  --no_token_type_embeddings \
  --no_position_embeddings \
  --pos_weight 1.0 \
  --buffer_size $buffer_size \
  --worker_num $worker_num \
  --delete_old \
  --llm_dir .. \
  --llm_type $llm_type \
  --llm_version $llm_version \
  --llm_step $llm_step \
  --ignore_index -100 \
  --hidden_size $hidden_size \
  --num_attention_heads $num_attention_heads \
  --num_hidden_layers $num_hidden_layers \
  --dropout_prob $dropout_prob \
  --classifier_size $classifier_size \
  --vector_dirpath ../../vectors/$DATASET_NAME/$llm_type/$llm_version/$llm_step   \
  --matrix_dirpath ../../matrices/$DATASET_NAME/$llm_type/$llm_version/$llm_step  \
  --seq_fc_size null \
  --matrix_fc_size 128 \
  --vector_fc_size null \
  --emb_activate_func gelu \
  --fc_activate_func gelu \
  --classifier_activate_func gelu \
  --warmup_steps 1000 \
  --beta1 0.9 \
  --beta2 0.98 \
  --weight_decay 0.01 \
  --save_steps -1 \
  --logging_steps 200 \
  --matrix_encoder \
  --fp16 \
  --fp16_opt_level O1 \
  --use_lora \
  --lora_rank $LORA_RANK \
  --lora_alpha $LORA_ALPHA \
  --lora_dropout $LORA_DROPOUT \
  --lora_target_modules "$LORA_TARGET_MODULES"

