#!/bin/bash
### gpu 分区
#SBATCH -p gpu
### 该作业的作业名
#SBATCH --job-name=bair_c2p10_DM_scale1.00
### 该作业需要1个节点
#SBATCH --nodes=1
### 该作业需要CPU
#SBATCH --ntasks=32
### 申请GPU卡跑程序
#SBATCH --gres=gpu:4
### 待运行程序的代码目录 (uxxxxxxxx为个人用户名)
#SBATCH -D /home/u1120230288/zzc/code/video_prediction/EDM


# ### 先申请gpu
salloc -J lhp_run -p gpu -N1 -n28 --gres=gpu:4
# ### 然后进入gpu，这里x取决于申请到哪个
ssh gpux

### !!!!!! 非常重要，激活conda命令，否则系统无法找到
source ~/.bashrc
### 举例命令，请修改为自己的，首先激活自己的环境，然后运行你的py文件或者sh命令
### 这里学长给配好了环境 PR
conda activate PR

sh set_env.sh 
export PYTHONPATH="${PYTHONPATH}:/home/u2120240739/lxy/PR"
export PYTHONPATH="${PYTHONPATH}:/home/u2120240739/lxy/PR/external"


### lhp的Key
export WANDB_API_KEY=345f709aae62c46bc6d7ac585807c1f8da105629


### 运行命令(统一)
source ~/.bashrc
conda activate PR
export PYTHONPATH="${PYTHONPATH}:/home/u2120240739/lxy/PR"
export PYTHONPATH="${PYTHONPATH}:/home/u2120240739/lxy/PR/external"
export WANDB_API_KEY=345f709aae62c46bc6d7ac585807c1f8da105629

### 启动集群的命令为 sbatch -s ./scripts/diffusion/slurm_bair.sh


###先查看自己的代号
#squeue
###然后取消作业
#scancel x


tmux new -s training
python train.py
# 按 Ctrl+b d 分离会话
# 重新连接：
tmux attach -t training


pkill wandb-service