Unconditional 이미지 생성
unconditional 이미지 생성은 text-to-image 또는 image-to-image 모델과 달리 텍스트나 이미지에 대한 조건이 없이 학습 데이터 분포와 유사한 이미지만을 생성합니다.
이 가이드에서는 기존에 존재하던 데이터셋과 자신만의 커스텀 데이터셋에 대해 unconditional image generation 모델을 훈련하는 방법을 설명합니다. 훈련 세부 사항에 대해 더 자세히 알고 싶다면 unconditional image generation을 위한 모든 학습 스크립트를 여기에서 확인할 수 있습니다.
스크립트를 실행하기 전, 먼저 의존성 라이브러리들을 설치해야 합니다.
pip install diffusers[training] accelerate datasets
그 다음 🤗 Accelerate 환경을 초기화합니다.
accelerate config
별도의 설정 없이 기본 설정으로 🤗 Accelerate 환경을 초기화해봅시다.
accelerate config default
노트북과 같은 대화형 쉘을 지원하지 않는 환경의 경우, 다음과 같이 사용해볼 수도 있습니다.
from accelerate.utils import write_basic_config
write_basic_config()
모델을 허브에 업로드하기
학습 스크립트에 다음 인자를 추가하여 허브에 모델을 업로드할 수 있습니다.
--push_to_hub
체크포인트 저장하고 불러오기
훈련 중 문제가 발생할 경우를 대비하여 체크포인트를 정기적으로 저장하는 것이 좋습니다. 체크포인트를 저장하려면 학습 스크립트에 다음 인자를 전달합니다:
--checkpointing_steps=500
전체 훈련 상태는 500스텝마다 output_dir
의 하위 폴더에 저장되며, 학습 스크립트에 --resume_from_checkpoint
인자를 전달함으로써 체크포인트를 불러오고 훈련을 재개할 수 있습니다.
--resume_from_checkpoint="checkpoint-1500"
파인튜닝
이제 학습 스크립트를 시작할 준비가 되었습니다! --dataset_name
인자에 파인튜닝할 데이터셋 이름을 지정한 다음, --output_dir
인자에 지정된 경로로 저장합니다. 본인만의 데이터셋를 사용하려면, 학습용 데이터셋 만들기 가이드를 참조하세요.
학습 스크립트는 diffusion_pytorch_model.bin
파일을 생성하고, 그것을 당신의 리포지토리에 저장합니다.
💡 전체 학습은 V100 GPU 4개를 사용할 경우, 2시간이 소요됩니다.
예를 들어, Oxford Flowers 데이터셋을 사용해 파인튜닝할 경우:
accelerate launch train_unconditional.py \
--dataset_name="huggan/flowers-102-categories" \
--resolution=64 \
--output_dir="ddpm-ema-flowers-64" \
--train_batch_size=16 \
--num_epochs=100 \
--gradient_accumulation_steps=1 \
--learning_rate=1e-4 \
--lr_warmup_steps=500 \
--mixed_precision=no \
--push_to_hub
accelerate launch train_unconditional.py \
--dataset_name="lambdalabs/naruto-blip-captions" \
--resolution=64 \
--output_dir="ddpm-ema-naruto-64" \
--train_batch_size=16 \
--num_epochs=100 \
--gradient_accumulation_steps=1 \
--learning_rate=1e-4 \
--lr_warmup_steps=500 \
--mixed_precision=no \
--push_to_hub
여러개의 GPU로 훈련하기
accelerate
을 사용하면 원활한 다중 GPU 훈련이 가능합니다. accelerate
을 사용하여 분산 훈련을 실행하려면 여기 지침을 따르세요. 다음은 명령어 예제입니다.
accelerate launch --mixed_precision="fp16" --multi_gpu train_unconditional.py \
--dataset_name="lambdalabs/naruto-blip-captions" \
--resolution=64 --center_crop --random_flip \
--output_dir="ddpm-ema-naruto-64" \
--train_batch_size=16 \
--num_epochs=100 \
--gradient_accumulation_steps=1 \
--use_ema \
--learning_rate=1e-4 \
--lr_warmup_steps=500 \
--mixed_precision="fp16" \
--logger="wandb" \
--push_to_hub