File size: 27,930 Bytes
4bacd0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221

epoch 1/10
Traceback (most recent call last):
  File "/workspace/kohya_ss/./sdxl_train_network.py", line 176, in <module>
    trainer.train(args)
  File "/workspace/kohya_ss/train_network.py", line 773, in train
    noise_pred = self.call_unet(
  File "/workspace/kohya_ss/./sdxl_train_network.py", line 156, in call_unet
    noise_pred = unet(noisy_latents, timesteps, text_embedding, vector_embedding)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py", line 1501, in _call_impl
    return forward_call(*args, **kwargs)
  File "/usr/local/lib/python3.10/dist-packages/accelerate/utils/operations.py", line 521, in forward
    return model_forward(*args, **kwargs)
  File "/usr/local/lib/python3.10/dist-packages/accelerate/utils/operations.py", line 509, in __call__
    return convert_to_fp32(self.model_forward(*args, **kwargs))
  File "/usr/local/lib/python3.10/dist-packages/torch/amp/autocast_mode.py", line 14, in decorate_autocast
    return func(*args, **kwargs)
  File "/workspace/kohya_ss/library/sdxl_original_unet.py", line 1088, in forward
    h = call_module(module, h, emb, context)
  File "/workspace/kohya_ss/library/sdxl_original_unet.py", line 1071, in call_module
    x = layer(x, emb)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py", line 1501, in _call_impl
    return forward_call(*args, **kwargs)
  File "/workspace/kohya_ss/library/sdxl_original_unet.py", line 328, in forward
    x = self.forward_body(x, emb)
  File "/workspace/kohya_ss/library/sdxl_original_unet.py", line 309, in forward_body
    h = self.in_layers(x)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py", line 1501, in _call_impl
    return forward_call(*args, **kwargs)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/container.py", line 217, in forward
    input = module(input)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py", line 1501, in _call_impl
    return forward_call(*args, **kwargs)
  File "/workspace/kohya_ss/library/sdxl_original_unet.py", line 272, in forward
    return super().forward(x)
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/modules/normalization.py", line 273, in forward
    return F.group_norm(
  File "/usr/local/lib/python3.10/dist-packages/torch/nn/functional.py", line 2530, in group_norm
    return torch.group_norm(input, num_groups, weight, bias, eps, torch.backends.cudnn.enabled)
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 40.00 MiB (GPU 0; 19.71 GiB total capacity; 17.84 GiB already allocated; 6.62 MiB free; 18.10 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.  See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /workspace/kohya_ss/./sdxl_train_network.py:176 in <module>                                      โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   173 โ”‚   args = train_util.read_config_from_file(args, parser)                                  โ”‚
โ”‚   174 โ”‚                                                                                          โ”‚
โ”‚   175 โ”‚   trainer = SdxlNetworkTrainer()                                                         โ”‚
โ”‚ โฑ 176 โ”‚   trainer.train(args)                                                                    โ”‚
โ”‚   177                                                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/train_network.py:773 in train                                                โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   770 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚                                                                          โ”‚
โ”‚   771 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   # Predict the noise residual                                           โ”‚
โ”‚   772 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   with accelerator.autocast():                                           โ”‚
โ”‚ โฑ 773 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   noise_pred = self.call_unet(                                       โ”‚
โ”‚   774 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   args, accelerator, unet, noisy_latents, timesteps, text_enco   โ”‚
โ”‚   775 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   )                                                                  โ”‚
โ”‚   776                                                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/./sdxl_train_network.py:156 in call_unet                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   153 โ”‚   โ”‚   vector_embedding = torch.cat([pool2, embs], dim=1).to(weight_dtype)                โ”‚
โ”‚   154 โ”‚   โ”‚   text_embedding = torch.cat([encoder_hidden_states1, encoder_hidden_states2], dim   โ”‚
โ”‚   155 โ”‚   โ”‚                                                                                      โ”‚
โ”‚ โฑ 156 โ”‚   โ”‚   noise_pred = unet(noisy_latents, timesteps, text_embedding, vector_embedding)      โ”‚
โ”‚   157 โ”‚   โ”‚   return noise_pred                                                                  โ”‚
โ”‚   158 โ”‚                                                                                          โ”‚
โ”‚   159 โ”‚   def sample_images(self, accelerator, args, epoch, global_step, device, vae, tokenize   โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py:1501 in _call_impl            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1498 โ”‚   โ”‚   if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks   โ”‚
โ”‚   1499 โ”‚   โ”‚   โ”‚   โ”‚   or _global_backward_pre_hooks or _global_backward_hooks                   โ”‚
โ”‚   1500 โ”‚   โ”‚   โ”‚   โ”‚   or _global_forward_hooks or _global_forward_pre_hooks):                   โ”‚
โ”‚ โฑ 1501 โ”‚   โ”‚   โ”‚   return forward_call(*args, **kwargs)                                          โ”‚
โ”‚   1502 โ”‚   โ”‚   # Do not call functions when jit is used                                          โ”‚
โ”‚   1503 โ”‚   โ”‚   full_backward_hooks, non_full_backward_hooks = [], []                             โ”‚
โ”‚   1504 โ”‚   โ”‚   backward_pre_hooks = []                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/accelerate/utils/operations.py:521 in forward            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   518 โ”‚   model_forward = ConvertOutputsToFp32(model_forward)                                    โ”‚
โ”‚   519 โ”‚                                                                                          โ”‚
โ”‚   520 โ”‚   def forward(*args, **kwargs):                                                          โ”‚
โ”‚ โฑ 521 โ”‚   โ”‚   return model_forward(*args, **kwargs)                                              โ”‚
โ”‚   522 โ”‚                                                                                          โ”‚
โ”‚   523 โ”‚   # To act like a decorator so that it can be popped when doing `extract_model_from_pa   โ”‚
โ”‚   524 โ”‚   forward.__wrapped__ = model_forward                                                    โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/accelerate/utils/operations.py:509 in __call__           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   506 โ”‚   โ”‚   update_wrapper(self, model_forward)                                                โ”‚
โ”‚   507 โ”‚                                                                                          โ”‚
โ”‚   508 โ”‚   def __call__(self, *args, **kwargs):                                                   โ”‚
โ”‚ โฑ 509 โ”‚   โ”‚   return convert_to_fp32(self.model_forward(*args, **kwargs))                        โ”‚
โ”‚   510 โ”‚                                                                                          โ”‚
โ”‚   511 โ”‚   def __getstate__(self):                                                                โ”‚
โ”‚   512 โ”‚   โ”‚   raise pickle.PicklingError(                                                        โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/amp/autocast_mode.py:14 in decorate_autocast       โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    11 โ”‚   @functools.wraps(func)                                                                 โ”‚
โ”‚    12 โ”‚   def decorate_autocast(*args, **kwargs):                                                โ”‚
โ”‚    13 โ”‚   โ”‚   with autocast_instance:                                                            โ”‚
โ”‚ โฑ  14 โ”‚   โ”‚   โ”‚   return func(*args, **kwargs)                                                   โ”‚
โ”‚    15 โ”‚   decorate_autocast.__script_unsupported = '@autocast() decorator is not supported in    โ”‚
โ”‚    16 โ”‚   return decorate_autocast                                                               โ”‚
โ”‚    17                                                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/library/sdxl_original_unet.py:1088 in forward                                โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1085 โ”‚   โ”‚                                                                                     โ”‚
โ”‚   1086 โ”‚   โ”‚   for module in self.output_blocks:                                                 โ”‚
โ”‚   1087 โ”‚   โ”‚   โ”‚   h = torch.cat([h, hs.pop()], dim=1)                                           โ”‚
โ”‚ โฑ 1088 โ”‚   โ”‚   โ”‚   h = call_module(module, h, emb, context)                                      โ”‚
โ”‚   1089 โ”‚   โ”‚                                                                                     โ”‚
โ”‚   1090 โ”‚   โ”‚   h = h.type(x.dtype)                                                               โ”‚
โ”‚   1091 โ”‚   โ”‚   h = call_module(self.out, h, emb, context)                                        โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/library/sdxl_original_unet.py:1071 in call_module                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1068 โ”‚   โ”‚   โ”‚   for layer in module:                                                          โ”‚
โ”‚   1069 โ”‚   โ”‚   โ”‚   โ”‚   # print(layer.__class__.__name__, x.dtype, emb.dtype, context.dtype if c  โ”‚
โ”‚   1070 โ”‚   โ”‚   โ”‚   โ”‚   if isinstance(layer, ResnetBlock2D):                                      โ”‚
โ”‚ โฑ 1071 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   x = layer(x, emb)                                                     โ”‚
โ”‚   1072 โ”‚   โ”‚   โ”‚   โ”‚   elif isinstance(layer, Transformer2DModel):                               โ”‚
โ”‚   1073 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   x = layer(x, context)                                                 โ”‚
โ”‚   1074 โ”‚   โ”‚   โ”‚   โ”‚   else:                                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py:1501 in _call_impl            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1498 โ”‚   โ”‚   if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks   โ”‚
โ”‚   1499 โ”‚   โ”‚   โ”‚   โ”‚   or _global_backward_pre_hooks or _global_backward_hooks                   โ”‚
โ”‚   1500 โ”‚   โ”‚   โ”‚   โ”‚   or _global_forward_hooks or _global_forward_pre_hooks):                   โ”‚
โ”‚ โฑ 1501 โ”‚   โ”‚   โ”‚   return forward_call(*args, **kwargs)                                          โ”‚
โ”‚   1502 โ”‚   โ”‚   # Do not call functions when jit is used                                          โ”‚
โ”‚   1503 โ”‚   โ”‚   full_backward_hooks, non_full_backward_hooks = [], []                             โ”‚
โ”‚   1504 โ”‚   โ”‚   backward_pre_hooks = []                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/library/sdxl_original_unet.py:328 in forward                                 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    325 โ”‚   โ”‚   โ”‚                                                                                 โ”‚
โ”‚    326 โ”‚   โ”‚   โ”‚   x = torch.utils.checkpoint.checkpoint(create_custom_forward(self.forward_bod  โ”‚
โ”‚    327 โ”‚   โ”‚   else:                                                                             โ”‚
โ”‚ โฑ  328 โ”‚   โ”‚   โ”‚   x = self.forward_body(x, emb)                                                 โ”‚
โ”‚    329 โ”‚   โ”‚                                                                                     โ”‚
โ”‚    330 โ”‚   โ”‚   return x                                                                          โ”‚
โ”‚    331                                                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/library/sdxl_original_unet.py:309 in forward_body                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    306 โ”‚   โ”‚   self.gradient_checkpointing = False                                               โ”‚
โ”‚    307 โ”‚                                                                                         โ”‚
โ”‚    308 โ”‚   def forward_body(self, x, emb):                                                       โ”‚
โ”‚ โฑ  309 โ”‚   โ”‚   h = self.in_layers(x)                                                             โ”‚
โ”‚    310 โ”‚   โ”‚   emb_out = self.emb_layers(emb).type(h.dtype)                                      โ”‚
โ”‚    311 โ”‚   โ”‚   h = h + emb_out[:, :, None, None]                                                 โ”‚
โ”‚    312 โ”‚   โ”‚   h = self.out_layers(h)                                                            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py:1501 in _call_impl            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1498 โ”‚   โ”‚   if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks   โ”‚
โ”‚   1499 โ”‚   โ”‚   โ”‚   โ”‚   or _global_backward_pre_hooks or _global_backward_hooks                   โ”‚
โ”‚   1500 โ”‚   โ”‚   โ”‚   โ”‚   or _global_forward_hooks or _global_forward_pre_hooks):                   โ”‚
โ”‚ โฑ 1501 โ”‚   โ”‚   โ”‚   return forward_call(*args, **kwargs)                                          โ”‚
โ”‚   1502 โ”‚   โ”‚   # Do not call functions when jit is used                                          โ”‚
โ”‚   1503 โ”‚   โ”‚   full_backward_hooks, non_full_backward_hooks = [], []                             โ”‚
โ”‚   1504 โ”‚   โ”‚   backward_pre_hooks = []                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/container.py:217 in forward             โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   214 โ”‚   # with Any as TorchScript expects a more precise type                                  โ”‚
โ”‚   215 โ”‚   def forward(self, input):                                                              โ”‚
โ”‚   216 โ”‚   โ”‚   for module in self:                                                                โ”‚
โ”‚ โฑ 217 โ”‚   โ”‚   โ”‚   input = module(input)                                                          โ”‚
โ”‚   218 โ”‚   โ”‚   return input                                                                       โ”‚
โ”‚   219 โ”‚                                                                                          โ”‚
โ”‚   220 โ”‚   def append(self, module: Module) -> 'Sequential':                                      โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py:1501 in _call_impl            โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1498 โ”‚   โ”‚   if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks   โ”‚
โ”‚   1499 โ”‚   โ”‚   โ”‚   โ”‚   or _global_backward_pre_hooks or _global_backward_hooks                   โ”‚
โ”‚   1500 โ”‚   โ”‚   โ”‚   โ”‚   or _global_forward_hooks or _global_forward_pre_hooks):                   โ”‚
โ”‚ โฑ 1501 โ”‚   โ”‚   โ”‚   return forward_call(*args, **kwargs)                                          โ”‚
โ”‚   1502 โ”‚   โ”‚   # Do not call functions when jit is used                                          โ”‚
โ”‚   1503 โ”‚   โ”‚   full_backward_hooks, non_full_backward_hooks = [], []                             โ”‚
โ”‚   1504 โ”‚   โ”‚   backward_pre_hooks = []                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /workspace/kohya_ss/library/sdxl_original_unet.py:272 in forward                                 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    269 class GroupNorm32(nn.GroupNorm):                                                          โ”‚
โ”‚    270 โ”‚   def forward(self, x):                                                                 โ”‚
โ”‚    271 โ”‚   โ”‚   if self.weight.dtype != torch.float32:                                            โ”‚
โ”‚ โฑ  272 โ”‚   โ”‚   โ”‚   return super().forward(x)                                                     โ”‚
โ”‚    273 โ”‚   โ”‚   return super().forward(x.float()).type(x.dtype)                                   โ”‚
โ”‚    274                                                                                           โ”‚
โ”‚    275                                                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/modules/normalization.py:273 in forward         โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   270 โ”‚   โ”‚   โ”‚   init.zeros_(self.bias)                                                         โ”‚
โ”‚   271 โ”‚                                                                                          โ”‚
โ”‚   272 โ”‚   def forward(self, input: Tensor) -> Tensor:                                            โ”‚
โ”‚ โฑ 273 โ”‚   โ”‚   return F.group_norm(                                                               โ”‚
โ”‚   274 โ”‚   โ”‚   โ”‚   input, self.num_groups, self.weight, self.bias, self.eps)                      โ”‚
โ”‚   275 โ”‚                                                                                          โ”‚
โ”‚   276 โ”‚   def extra_repr(self) -> str:                                                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/local/lib/python3.10/dist-packages/torch/nn/functional.py:2530 in group_norm                โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   2527 โ”‚   if input.dim() < 2:                                                                   โ”‚
โ”‚   2528 โ”‚   โ”‚   raise RuntimeError(f"Expected at least 2 dimensions for input tensor but receive  โ”‚
โ”‚   2529 โ”‚   _verify_batch_size([input.size(0) * input.size(1) // num_groups, num_groups] + list(  โ”‚
โ”‚ โฑ 2530 โ”‚   return torch.group_norm(input, num_groups, weight, bias, eps, torch.backends.cudnn.e  โ”‚
โ”‚   2531                                                                                           โ”‚
โ”‚   2532                                                                                           โ”‚
โ”‚   2533 def local_response_norm(input: Tensor, size: int, alpha: float = 1e-4, beta: float = 0.7  โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
OutOfMemoryError: CUDA out of memory. Tried to allocate 40.00 MiB (GPU 0; 19.71 GiB total capacity; 17.84 GiB already allocated; 6.62 MiB free; 18.10 GiB reserved in total by PyTorch) If reserved
memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.  See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF