python infer/inference.py --config exp/LJSpeech/inference/k_1024.yaml --gpus cuda:7 --num_proc 1

## lr low
python infer/inference.py --config exp/LJSpeech/inference/k_1024_lr_low.yaml --gpus cuda:5 --num_proc 1

## k_1024 on librispeech aux
python infer/inference.py --config exp/LJSpeech/inference/k_1024_librispeech_aux.yaml --gpus cuda:5 --num_proc 1

