hanungaddi's picture
feat: upload jingliu_sdxl_20_ep dataset and logs
46c0d05
raw
history blame
11.7 kB
epoch 1/20
Traceback (most recent call last):
File "/workspace/kohya-trainer/sdxl_train.py", line 649, in <module>
train(args)
File "/workspace/kohya-trainer/sdxl_train.py", line 475, in train
accelerator.backward(loss)
File "/workspace/venv/lib/python3.10/site-packages/accelerate/accelerator.py", line 1743, in backward
self.scaler.scale(loss).backward(**kwargs)
File "/workspace/venv/lib/python3.10/site-packages/torch/_tensor.py", line 487, in backward
torch.autograd.backward(
File "/workspace/venv/lib/python3.10/site-packages/torch/autograd/__init__.py", line 200, in backward
Variable._execution_engine.run_backward( # Calls into the C++ engine to run the backward pass
File "/workspace/venv/lib/python3.10/site-packages/torch/autograd/function.py", line 274, in apply
return user_fn(self, *args)
File "/workspace/venv/lib/python3.10/site-packages/torch/utils/checkpoint.py", line 157, in backward
torch.autograd.backward(outputs_with_grad, args_with_grad)
File "/workspace/venv/lib/python3.10/site-packages/torch/autograd/__init__.py", line 200, in backward
Variable._execution_engine.run_backward( # Calls into the C++ engine to run the backward pass
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 23.65 GiB total capacity; 18.73 GiB already allocated; 25.69 MiB free; 19.47 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /workspace/kohya-trainer/sdxl_train.py:649 in <module> โ”‚
โ”‚ โ”‚
โ”‚ 646 โ”‚ args = parser.parse_args() โ”‚
โ”‚ 647 โ”‚ args = train_util.read_config_from_file(args, parser) โ”‚
โ”‚ 648 โ”‚ โ”‚
โ”‚ โฑ 649 โ”‚ train(args) โ”‚
โ”‚ 650 โ”‚
โ”‚ โ”‚
โ”‚ /workspace/kohya-trainer/sdxl_train.py:475 in train โ”‚
โ”‚ โ”‚
โ”‚ 472 โ”‚ โ”‚ โ”‚ โ”‚ else: โ”‚
โ”‚ 473 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ loss = torch.nn.functional.mse_loss(noise_pred.flo โ”‚
โ”‚ 474 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚
โ”‚ โฑ 475 โ”‚ โ”‚ โ”‚ โ”‚ accelerator.backward(loss) โ”‚
โ”‚ 476 โ”‚ โ”‚ โ”‚ โ”‚ if accelerator.sync_gradients and args.max_grad_norm ! โ”‚
โ”‚ 477 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ params_to_clip = [] โ”‚
โ”‚ 478 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ for m in training_models: โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/accelerate/accelerator.py:1743 โ”‚
โ”‚ in backward โ”‚
โ”‚ โ”‚
โ”‚ 1740 โ”‚ โ”‚ elif self.distributed_type == DistributedType.MEGATRON_LM: โ”‚
โ”‚ 1741 โ”‚ โ”‚ โ”‚ return โ”‚
โ”‚ 1742 โ”‚ โ”‚ elif self.scaler is not None: โ”‚
โ”‚ โฑ 1743 โ”‚ โ”‚ โ”‚ self.scaler.scale(loss).backward(**kwargs) โ”‚
โ”‚ 1744 โ”‚ โ”‚ else: โ”‚
โ”‚ 1745 โ”‚ โ”‚ โ”‚ loss.backward(**kwargs) โ”‚
โ”‚ 1746 โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/torch/_tensor.py:487 in โ”‚
โ”‚ backward โ”‚
โ”‚ โ”‚
โ”‚ 484 โ”‚ โ”‚ โ”‚ โ”‚ create_graph=create_graph, โ”‚
โ”‚ 485 โ”‚ โ”‚ โ”‚ โ”‚ inputs=inputs, โ”‚
โ”‚ 486 โ”‚ โ”‚ โ”‚ ) โ”‚
โ”‚ โฑ  487 โ”‚ โ”‚ torch.autograd.backward( โ”‚
โ”‚ 488 โ”‚ โ”‚ โ”‚ self, gradient, retain_graph, create_graph, inputs=inputs โ”‚
โ”‚ 489 โ”‚ โ”‚ ) โ”‚
โ”‚ 490 โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/torch/autograd/__init__.py:200 โ”‚
โ”‚ in backward โ”‚
โ”‚ โ”‚
โ”‚ 197 โ”‚ # The reason we repeat same the comment below is that โ”‚
โ”‚ 198 โ”‚ # some Python versions print out the first line of a multi-line fu โ”‚
โ”‚ 199 โ”‚ # calls in the traceback and some print out the last line โ”‚
โ”‚ โฑ 200 โ”‚ Variable._execution_engine.run_backward( # Calls into the C++ eng โ”‚
โ”‚ 201 โ”‚ โ”‚ tensors, grad_tensors_, retain_graph, create_graph, inputs, โ”‚
โ”‚ 202 โ”‚ โ”‚ allow_unreachable=True, accumulate_grad=True) # Calls into th โ”‚
โ”‚ 203 โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/torch/autograd/function.py:274 โ”‚
โ”‚ in apply โ”‚
โ”‚ โ”‚
โ”‚ 271 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ "Function is not allowed. You should on โ”‚
โ”‚ 272 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ "of them.") โ”‚
โ”‚ 273 โ”‚ โ”‚ user_fn = vjp_fn if vjp_fn is not Function.vjp else backward_f โ”‚
โ”‚ โฑ 274 โ”‚ โ”‚ return user_fn(self, *args) โ”‚
โ”‚ 275 โ”‚ โ”‚
โ”‚ 276 โ”‚ def apply_jvp(self, *args): โ”‚
โ”‚ 277 โ”‚ โ”‚ # _forward_cls is defined by derived class โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/torch/utils/checkpoint.py:157 โ”‚
โ”‚ in backward โ”‚
โ”‚ โ”‚
โ”‚ 154 โ”‚ โ”‚ โ”‚ raise RuntimeError( โ”‚
โ”‚ 155 โ”‚ โ”‚ โ”‚ โ”‚ "none of output has requires_grad=True," โ”‚
โ”‚ 156 โ”‚ โ”‚ โ”‚ โ”‚ " this checkpoint() is not necessary") โ”‚
โ”‚ โฑ 157 โ”‚ โ”‚ torch.autograd.backward(outputs_with_grad, args_with_grad) โ”‚
โ”‚ 158 โ”‚ โ”‚ grads = tuple(inp.grad if isinstance(inp, torch.Tensor) else N โ”‚
โ”‚ 159 โ”‚ โ”‚ โ”‚ โ”‚ โ”‚ for inp in detached_inputs) โ”‚
โ”‚ 160 โ”‚
โ”‚ โ”‚
โ”‚ /workspace/venv/lib/python3.10/site-packages/torch/autograd/__init__.py:200 โ”‚
โ”‚ in backward โ”‚
โ”‚ โ”‚
โ”‚ 197 โ”‚ # The reason we repeat same the comment below is that โ”‚
โ”‚ 198 โ”‚ # some Python versions print out the first line of a multi-line fu โ”‚
โ”‚ 199 โ”‚ # calls in the traceback and some print out the last line โ”‚
โ”‚ โฑ 200 โ”‚ Variable._execution_engine.run_backward( # Calls into the C++ eng โ”‚
โ”‚ 201 โ”‚ โ”‚ tensors, grad_tensors_, retain_graph, create_graph, inputs, โ”‚
โ”‚ 202 โ”‚ โ”‚ allow_unreachable=True, accumulate_grad=True) # Calls into th โ”‚
โ”‚ 203 โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
OutOfMemoryError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 23.65
GiB total capacity; 18.73 GiB already allocated; 25.69 MiB free; 19.47 GiB
reserved in total by PyTorch) If reserved memory is >> allocated memory try
setting max_split_size_mb to avoid fragmentation. See documentation for Memory
Management and PYTORCH_CUDA_ALLOC_CONF