#!/bin/bash
#BSUB -J gpt2_train           # Job 名称
#BSUB -m mn02
#BSUB -n 2                    # 总核数
#BSUB -gpu "num=1"            # 申请4块GPU
#BSUB -R "span[hosts=1]"      # 确保分配在同一台节点
#BSUB -o logs/gpt2_train.%J.out  # 输出日志
#BSUB -e logs/gpt2_train.%J.err  # 错误日志

# === 环境配置 ===
#module load cuda/11.7  # 或你实际使用的版本
#source activate gpt    # 激活你的conda环境

# === 启动训练 ===
torchrun --nproc_per_node=1   train.py 

