xinweili commited on
Commit
f44d6cc
·
1 Parent(s): e600c67

Update markdown/unit1/01_introduction_to_diffusers_CN.md

Browse files
markdown/unit1/01_introduction_to_diffusers_CN.md CHANGED
@@ -8,9 +8,9 @@
8
 
9
  ## 你将学习到
10
 
11
- 在这个 Notebook 中,你将:
12
 
13
- - 看到一个功能强大的自定义扩散模型管线(Pipeline),并了解如何制作一个自己的版本
14
  - 通过以下方式创建你自己的迷你管线:
15
  - 复习扩散模型的核心概念
16
  - 从 Hub 中加载数据以进行训练
@@ -131,7 +131,7 @@ allowfullscreen
131
 
132
  这是一个使用了 [这个模型](https://huggingface.co/sd-dreambooth-library/mr-potato-head) 的例子。该模型的训练仅仅使用了 5 张著名的儿童玩具 "Mr Potato Head"的照片。
133
 
134
- 首先,让我们来加载这个管道。这些代码会自动从 Hub 下载模型权重等需要的文件。由于这个只有一行的 demo 需要下载数 GB 的数据,因此你可以跳过此单元格,只需欣赏样例输出即可!
135
 
136
 
137
  ```python
@@ -150,7 +150,7 @@ pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float
150
  Fetching 15 files: 0%| | 0/15 [00:00<?, ?it/s]
151
 
152
 
153
- 管道加载完成后,我们可以使用以下命令生成图像:
154
 
155
 
156
  ```python
@@ -172,17 +172,17 @@ image
172
 
173
 
174
 
175
- **练习:** 你可以使用不同的提示 (prompt) 自行尝试。在这个 demo 中,`sks`是一个新概念的唯一标识符 (UID) - 那么如果把它留空的话会发生什么事呢?你还可以尝试改变`num_inference_steps`和`guidance_scale`。这两个参数分别代表了采样步骤的数量(试试最多可以设为多低?)和模型将花多大的努力来尝试匹配提示。
176
 
177
- 这条神奇的管道里有很多事情!课程结束时,你将知道这一切是如何运作的。现在,让我们看看如何从头开始训练扩散模型。
178
 
179
- ## MVP (最简可实行管道)
180
  🤗 Diffusers 的核心 API 被分为三个主要部分:
181
- 1. **管道**: 从高层出发设计的多种类函数,旨在以易部署的方式,能够做到快速通过主流预训练好的扩散模型来生成样本。
182
  2. **模型**: 训练新的扩散模型时用到的主流网络架构,*e.g.* [UNet](https://arxiv.org/abs/1505.04597).
183
  3. **管理器 (or 调度器)**: 在 *推理* 中使用多种不同的技巧来从噪声中生成图像,同时也可以生成在 *训练* 中所需的带噪图像。
184
 
185
- 管道对于末端使用者来说已经非常棒,但你既然已经参加了这门课程,我们就索性认为你想了解更多其中的奥秘!在此篇笔记结束之后,我们会来构建属于你自己,能够生成小蝴蝶图片的管道。下面这里会是最终的结果:
186
 
187
 
188
  ```python
@@ -217,19 +217,21 @@ make_grid(images)
217
 
218
 
219
 
220
- 也许这看起来并不如 DreamBooth 所展示的样例那样惊艳,但要知道我们在训练这些图画时只用了不到训练稳定扩散模型用到数据的 0.0001%。说到模型训练,从引入介绍直到本单元,训练一个扩散模型的流程看起来像是这样:
 
 
221
 
222
  1. 从训练集中加载一些图像
223
- 2. 加入噪声,从不同程度上
224
- 3. 把带了不同版本噪声的数据送进模型
225
  4. 评估模型在对这些数据做增强去噪时的表现
226
  5. 使用这个信息来更新模型权重,然后重��此步骤
227
 
228
- 我们会在接下来几节中逐一实现这些步骤,直至训练循环可以完整的运行,在这之后我们会来探索如何使用训练好的模型来生成样本,还有如何封装模型到管道中来轻松的分享给别人。下面我们来从数据入手吧。。。
229
 
230
  ## 步骤 2:下载一个训练数据集
231
 
232
- 在这个例子中,我们会用到一个来自 Hugging Face Hub 的图像集。具体来说,[是个 1000 张蝴蝶图像收藏集](https://huggingface.co/datasets/huggan/smithsonian_butterflies_subset). 这是个非常小的数据集,我们这里也同时包含了已被注释的内容指向一些规模更大的选择。如果你想使用你自己的图像收藏,你也可以使用这里被注释掉的示例代码,从一个指定的文件夹来装载图片。
233
 
234
 
235
  ```python
@@ -271,7 +273,7 @@ train_dataloader = torch.utils.data.DataLoader(
271
  )
272
  ```
273
 
274
- 我们可以从中取出一批图像数据来看一看他们是什么样子:
275
 
276
 
277
  ```python
@@ -295,14 +297,13 @@ show_images(xb).resize((8 * 64, 64), resample=Image.NEAREST)
295
 
296
 
297
 
298
-
299
- 我们在此篇笔记中使用一个只有 32 像素的小图片集来保证训练时长是可控的。
300
 
301
  ## 步骤 3:定义管理器
302
 
303
- 我们的训练计划是,取出这些输入图片然后对它们增添噪声,在这之后把带噪的图片送入模型。在推理阶段,我们将用模型的预测值来不断迭代去除这些噪点。在`diffusers`中,这两个步骤都是由 **管理器(调度器)** 来处理的。
304
 
305
- 噪声管理器决定在不同的迭代周期时分别加入多少噪声。我们可以这样创建一个管理器,是取自于训练并能取样 'DDPM' 的默认配置。 (基于此篇论文 ["Denoising Diffusion Probabalistic Models"](https://arxiv.org/abs/2006.11239):
306
 
307
 
308
  ```python
@@ -311,7 +312,7 @@ from diffusers import DDPMScheduler
311
  noise_scheduler = DDPMScheduler(num_train_timesteps=1000)
312
  ```
313
 
314
- DDPM 论文这样来描述一个损坏过程,为每一个 ' 迭代周期 '(timestep) 增添一点少量的噪声。设在某个迭代周期有 $x_{t-1}$, 我们可以得到它的下一个版本 $x_t$ (比之前更多一点点噪声):<br><br>
315
 
316
  $q (\mathbf {x}_t \vert \mathbf {x}_{t-1}) = \mathcal {N}(\mathbf {x}_t; \sqrt {1 - \beta_t} \mathbf {x}_{t-1}, \beta_t\mathbf {I}) \quad
317
  q (\mathbf {x}_{1:T} \vert \mathbf {x}_0) = \prod^T_{t=1} q (\mathbf {x}_t \vert \mathbf {x}_{t-1})$<br><br>
@@ -323,7 +324,7 @@ $\begin {aligned}
323
  q (\mathbf {x}_t \vert \mathbf {x}_0) &= \mathcal {N}(\mathbf {x}_t; \sqrt {\bar {\alpha}_t} \mathbf {x}_0, {(1 - \bar {\alpha}_t)} \mathbf {I})
324
  \end {aligned}$ where $\bar {\alpha}_t = \prod_{i=1}^T \alpha_i$ and $\alpha_i = 1-\beta_i$<br><br>
325
 
326
- 数学符号看起来总是很可怕!好在有管理器来为我们完成这些运算。我们可以画出 $\sqrt {\bar {\alpha}_t}$ (标记为`sqrt_alpha_prod`) 和 $\sqrt {(1 - \bar {\alpha}_t)}$ (标记为`sqrt_one_minus_alpha_prod`) 来看一下输入 (x) 与噪声是如何在不同迭代周期中量化和叠加的:
327
 
328
 
329
  ```python
@@ -332,7 +333,7 @@ plt.plot((1 - noise_scheduler.alphas_cumprod.cpu()) ** 0.5, label=r"$\sqrt{(1 -
332
  plt.legend(fontsize="x-large");
333
  ```
334
 
335
- **练习:** 你可以探索一下使用不同的 beta_start 时曲线是如何变化的,beta_end 与 beta_schedule 可以通过以下注释内容来修改:
336
 
337
 
338
  ```python
@@ -342,7 +343,7 @@ plt.legend(fontsize="x-large");
342
  # noise_scheduler = DDPMScheduler(num_train_timesteps=1000, beta_schedule='squaredcos_cap_v2')
343
  ```
344
 
345
- 不论你选择了哪一个管理器 (调度器),我们现在都可以使用`noise_scheduler.add_noise`功能来添加不同程度的噪声,就像这样:
346
 
347
 
348
  ```python
@@ -365,27 +366,27 @@ show_images(noisy_xb).resize((8 * 64, 64), resample=Image.NEAREST)
365
 
366
 
367
 
368
- 再来,在这里探索使用这里不同噪声管理器和预设参数带来的效果。 [This video](https://www.youtube.com/watch?v=fbLgFrlTnGU) 这个视频很好的解释了一些上述数学运算的细节,同时也是对此类概念的一个很好引入介绍。
369
 
370
  ## 步骤 4:定义模型
371
 
372
- 现在我们来到了核心部分:模型本身。
373
 
374
- 大多数扩散模型使用的模型结构都是一些 [U-net] 的变形 (https://arxiv.org/abs/1505.04597) 也是我们在这里会用到的结构。
375
 
376
  ![](https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/unet-model.png)
377
 
378
- 概括来说:
379
- - 输入模型中的图片经过几个由 ResNetLayer 构成的层,其中每层都使图片尺寸减半。
380
- - 之后在经过同样数量的层把图片升采样。
381
- - 其中还有对特征在相同位置的上、下采样层残差连接模块。
382
 
383
- 模型一个关键特征既是,输出图片尺寸与输入图片相同,这正是我们这里需要的。
384
 
385
- Diffusers 为我们提供了一个易用的`UNet2DModel`类,用来在 PyTorch 创建所需要的结构。
386
 
387
  我们来使用 U-net 为我们生成目标大小的图片吧。
388
- 注意这里`down_block_types`对应下采样模块 (上图中绿色部分), 而`up_block_types`对应上采样模块 (上图中红色部分):
389
 
390
 
391
  ```python
@@ -414,9 +415,9 @@ model = UNet2DModel(
414
  model.to(device);
415
  ```
416
 
417
- 当在处理更高分辨率的输入时,你可能想用更多层的下、上采样模块,让注意力层只聚焦在最低分辨率(最底)层来减少内存消耗。我们在之后会讨论该如何实验来找到最适用与你手头场景的配置方法。
418
 
419
- 我们可以通过输入一批数据和随机的迭代周期数来看输出是否与输入尺寸相同:
420
 
421
 
422
  ```python
@@ -432,24 +433,24 @@ model_prediction.shape
432
 
433
 
434
 
435
- 在下一步中,我们来看如何训练这个模型。
436
 
437
  ## 步骤 5:创建训练循环
438
 
439
- 终于可以训练了!下面这是 PyTorch 中经典的优化迭代循环,在这里一批一批的送入数据然后通过优化器来一步步更新模型参数 - 在这个样例中我们使用学习率为 0.0004 的 AdamW 优化器。
440
 
441
- 对于每一批的数据,我们要
442
  - 随机取样几个迭代周期
443
- - 根据预设为数据加入噪声
444
- - 把带噪数据送入模型
445
- - 使用 MSE 作为损失函数来比较目标结果与模型预测结果(在这里是加入噪声的场景)
446
  - 通过`loss.backward ()`与`optimizer.step ()`来更新模型参数
447
 
448
- 在这个过程中我们记录 Loss 值用来后续的绘图。
449
 
450
- NB: 这段代码大概需 10 分钟来运行 - 你也可以跳过以下两块操作直接使用预训练好的模型。供你选择,你可以探索下通过缩小模型层中的通道数会对运行速度有多少提升。
451
 
452
- 官方扩散模型示例 [official diffusers training example](https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/training_example.ipynb) 训练了在更高分辨率数据集上的一个更大的模型,这也是一个极为精简训练循环的优秀示例:
453
 
454
 
455
  ```python
@@ -503,7 +504,7 @@ for epoch in range(30):
503
  Epoch:30, loss: 0.07474562455900013
504
 
505
 
506
- 绘制 loss 曲线,我们能看到模型在一开始快速的收敛,接下来以一个较慢的速度持续优化(我们用右边 log 坐标轴的视图可以看的更清楚):
507
 
508
 
509
  ```python
@@ -526,7 +527,7 @@ plt.show()
526
 
527
 
528
 
529
- 你可以选择运行上面的代码,也可以这样通过管道来调用模型:
530
 
531
 
532
  ```python
@@ -536,7 +537,7 @@ plt.show()
536
 
537
  ## 步骤 6:生成图像
538
 
539
- 我们怎么从这个模型中得到图像呢?
540
 
541
  ### 方法 1:建立一个管道:
542
 
@@ -566,7 +567,7 @@ pipeline_output.images[0]
566
 
567
 
568
 
569
- 我们可以在本地文件夹这样保存一个管道:
570
 
571
 
572
  ```python
@@ -593,18 +594,17 @@ image_pipe.save_pretrained("my_pipeline")
593
  config.json diffusion_pytorch_model.bin
594
 
595
 
596
- 以上,这些文件包含了重新建立一个管道的全部内容。你可以手动把它们上传到 hub 来与他人分享你制作的管道,或使用下一节的 API 方法来记载。
597
 
598
  ### 方法 2:写一个取样循环
599
- 如果你去查看了管道中的 forward 方法,你可以看到在运行`image_pipe ()`时发生了什么:
600
 
601
 
602
  ```python
603
  # ??image_pipe.forward
604
  ```
605
 
606
- 从随机噪声开始,遍历管理器的迭代周期来看从最嘈杂直到最微小的噪声变化,基于模型的预测一步步减少一些噪声:
607
-
608
 
609
  ```python
610
  # Random starting point (8 random images):
@@ -632,11 +632,11 @@ show_images(sample)
632
 
633
 
634
 
635
- `noise_scheduler.step ()` 函数相应做了 `sample`(取样)时的数学运算。其实有很多取样的方法 - 在下一个单元我们将看到在已有模型的基础上如何换一个不同的取样器来加速图片生成,也会讲到更多从扩散模型中取样的背后原理。
636
 
637
  ## 步骤 7:把你的模型 Push 到 Hub
638
 
639
- 在上面的例子中我们把管道保存在了本地。把模型 push hub 上,我们会需要建立模型和相应文件的仓库名。我们根据你的选择(模型 ID)来决定仓库的名字(大胆的去替换掉`model_name`吧;需要包含你的用户名,`get_full_repo_name ()`会帮你做到):
640
 
641
 
642
  ```python
@@ -654,7 +654,7 @@ hub_model_id
654
 
655
 
656
 
657
- 然后,在 🤗 Hub 上创建模型仓库并 push 它吧:
658
 
659
 
660
  ```python
@@ -680,7 +680,7 @@ api.upload_file(
680
 
681
 
682
 
683
- 最后一件事是创建一个超棒的模型卡,如此,我们的蝴蝶生成器可以轻松的在 Hub 上被找到(请在描述中随意发挥!):
684
 
685
 
686
  ```python
@@ -715,7 +715,7 @@ card = ModelCard(content)
715
  card.push_to_hub(hub_model_id)
716
  ```
717
 
718
- 现在模型已经在 Hub 上了,你可以这样从任何地方使用`DDPMPipeline`的`from_pretrained ()`方法来下来它:
719
 
720
 
721
  ```python
@@ -743,11 +743,11 @@ pipeline_output.images[0]
743
 
744
 
745
 
746
- 太棒了,成功了!
747
 
748
  # 使用 🤗 Accelerate 来扩大规模
749
 
750
- 这篇笔记是用来教学,为此我尽力保证代码的简洁与轻量化。但也因为这样,我们也略去了一些内容你也许在使用更多数据训练一个更大的模式时,可能所需要用到的内容,如多块 GPU 支持,进度记录和样例图片,用于支持更大 batchsize 的导数记录功能,自动上传模型等等。好在这些功能大多数在这个示例代码中包含 [here](https://github.com/huggingface/diffusers/raw/main/examples/unconditional_image_generation/train_unconditional.py).
751
 
752
  你可以这样下载该文件:
753
 
@@ -787,7 +787,7 @@ hub_model_id
787
  --mixed_precision="no"
788
  ```
789
 
790
- 如之前一样,把模型 push 到 hub,并且创建一个超酷的模型卡(按你的想法随意填写!):
791
 
792
 
793
  ```python
@@ -841,7 +841,7 @@ card.push_to_hub(hub_model_id)
841
 
842
 
843
 
844
- 大概 45 分钟之后,得到这样的结果:
845
 
846
 
847
  ```python
@@ -863,15 +863,15 @@ make_grid(images)
863
 
864
 
865
 
866
- **练习:** 看看你能不能找到训练出在短时内能得到满意结果的模型训练设置参数,并与社群分享你的发现。阅读这些脚本看看你能不能理解它们,如果遇到了一些看上去令人迷惑的地方,请向大家提问来寻求解释。
867
 
868
  # 更高阶的探索之路
869
 
870
- 希望这些能够让你初步了解可以使用 🤗 Diffusers library 来做什么!可能一些后续的步骤是这样:
871
 
872
- - 尝试在新数据集上训练一个无限制的扩散模型 - 如果你能直接自己完成那就太好了 [create one yourself](https://huggingface.co/docs/datasets/image_dataset). 你可以在 Hub 这里找到一些能完成这个任务的超棒图像数据集 [HugGan organization](https://huggingface.co/huggan). 如果你不想等待模型训练太久的话,一定记得对图片做下采样!
873
- - 试试用 DreamBooth 来创建你自己定制的扩散模型管道,看看这里 [this Space](https://huggingface.co/spaces/multimodalart/dreambooth-training) 或者 [this notebook](https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_dreambooth_training.ipynb)
874
- - 修改训练脚本来探索使用不同的 UNet 超参数(层数深度,通道数等等),不��的噪声管理器等等。
875
  - 来瞧瞧 [Diffusion Models from Scratch](https://github.com/huggingface/diffusion-models-class/blob/main/unit1/02_diffusion_models_from_scratch.ipynb) 在本单元的核心思想之上的一些不同看法。
876
 
877
  祝好,敬请关注第 2 单元!
 
8
 
9
  ## 你将学习到
10
 
11
+ 在这个 Notebook 中,你将能够:
12
 
13
+ - 学习如何使用一个功能强大的自定义扩散模型管线(Pipeline),并了解如何制作一个自己的版本
14
  - 通过以下方式创建你自己的迷你管线:
15
  - 复习扩散模型的核心概念
16
  - 从 Hub 中加载数据以进行训练
 
131
 
132
  这是一个使用了 [这个模型](https://huggingface.co/sd-dreambooth-library/mr-potato-head) 的例子。该模型的训练仅仅使用了 5 张著名的儿童玩具 "Mr Potato Head"的照片。
133
 
134
+ 首先让我们来加载这个管道。这些代码会自动从 Hub 下载模型权重等需要的文件。这个 demo 需要下载数 GB 的数据,所以如果你不想等待也可以跳过此单元格,只需欣赏样例输出即可!
135
 
136
 
137
  ```python
 
150
  Fetching 15 files: 0%| | 0/15 [00:00<?, ?it/s]
151
 
152
 
153
+ 管道加载完成后,我们可以使用以下代码生成图像:
154
 
155
 
156
  ```python
 
172
 
173
 
174
 
175
+ **练习:** 你可以使用不同的提示 (prompt) 自行进行尝试。在这个 demo 中,`sks`是一个新概念的唯一标识符 (UID) - 那么如果把它留空的话会发生什么事呢?你还可以尝试改变`num_inference_steps`和`guidance_scale`。这两个参数分别代表了采样步骤的数量(试试最多可以设为多低?)和模型的输出与提示的匹配程度。
176
 
177
+ 有许多复杂而又神奇的事情发生在这条管线之中!在我们的课程结束之后,你就会清晰的了解这一切是如何运作的。现在,让我们先看看如何从头开始训练扩散模型。
178
 
179
+ ## MVP (最简可实行管线)
180
  🤗 Diffusers 的核心 API 被分为三个主要部分:
181
+ 1. **管线**: 从高层出发设计的多种类函数,旨在以易部署的方式,能够做到快速通过主流预训练好的扩散模型来生成样本。
182
  2. **模型**: 训练新的扩散模型时用到的主流网络架构,*e.g.* [UNet](https://arxiv.org/abs/1505.04597).
183
  3. **管理器 (or 调度器)**: 在 *推理* 中使用多种不同的技巧来从噪声中生成图像,同时也可以生成在 *训练* 中所需的带噪图像。
184
 
185
+ 管线对于终端使用者来说已经非常棒,但你既然已经参加了这门课程,我们就假定你想了解更多其中的机制!在此篇笔记结束之后,我们会来构建属于你自己的、能够生成小蝴蝶图片的管线。下面这里会是最终的结果:
186
 
187
 
188
  ```python
 
217
 
218
 
219
 
220
+ 也许这里看起来还不如 DreamBooth 所展示的样例那样惊艳,但要知道我们在训练这些图画时只用了不到训练稳定扩散模型用到数据的 0.0001%。
221
+
222
+ 到目前为止,训练一个扩散模型的流程看起来像是这样:
223
 
224
  1. 从训练集中加载一些图像
225
+ 2. 加入各种不同级别的噪声
226
+ 3. 将已经被引入了不同级别噪声的数据输入模型中
227
  4. 评估模型在对这些数据做增强去噪时的表现
228
  5. 使用这个信息来更新模型权重,然后重��此步骤
229
 
230
+ 我们会在接下来几节中逐一实现这些步骤,直至训练循环可以完整的运行,在这之后我们会来探索如何使用训练好的模型来生成样本,还有如何封装模型到管道中,从而可以轻松的分享给别人。下面让我我们先从从数据开始入手吧。
231
 
232
  ## 步骤 2:下载一个训练数据集
233
 
234
+ 在这个例子中,我们会用到一个来自 Hugging Face Hub 的图像集。具体来说,[是个 1000 张蝴蝶图像收藏集](https://huggingface.co/datasets/huggan/smithsonian_butterflies_subset). 请注意,这是个非常小的数据集。我们在下面的单元格中中注释掉的几行指向了一些规模更大的数据集。你也可以使用这里被注释掉的示例代码,从一个指定的路径来装载图片,从而使用你自己收藏的图像数据。
235
 
236
 
237
  ```python
 
273
  )
274
  ```
275
 
276
+ 我们可以从中取出一批图像数据来做一下可视化:
277
 
278
 
279
  ```python
 
297
 
298
 
299
 
300
+ 在这篇笔记中,我们使用的是一个图像尺寸为 32 像素的小数据集,从而保证训练时长在可接受的范围内。
 
301
 
302
  ## 步骤 3:定义管理器
303
 
304
+ 我们计划取出这些输入图片然后对它们增添噪声,然后把带噪的图像送入模型。在推理阶段,我们将用模型的预测结果来不断迭代的去除这些噪声。在`diffusers`中,这两个步骤都是由 **调度器(scheduler)** 来处理的。
305
 
306
+ 噪声管理器决定在不同的迭代周期时分别加入多少噪声。下面是我们如何使用 'DDPM' 训练和采样的默认设置创建调度程序。 (基于此篇论文 ["Denoising Diffusion Probabalistic Models"](https://arxiv.org/abs/2006.11239):
307
 
308
 
309
  ```python
 
312
  noise_scheduler = DDPMScheduler(num_train_timesteps=1000)
313
  ```
314
 
315
+ DDPM论文描述了一个为每个”时间步“添加少量噪音的退化过程。假设在某个迭代周期,带噪的图像数据为 $x_{t-1}$, 我们可以通过以下方式获得 $x_t$ (比之前更多一点点噪声):<br><br>
316
 
317
  $q (\mathbf {x}_t \vert \mathbf {x}_{t-1}) = \mathcal {N}(\mathbf {x}_t; \sqrt {1 - \beta_t} \mathbf {x}_{t-1}, \beta_t\mathbf {I}) \quad
318
  q (\mathbf {x}_{1:T} \vert \mathbf {x}_0) = \prod^T_{t=1} q (\mathbf {x}_t \vert \mathbf {x}_{t-1})$<br><br>
 
324
  q (\mathbf {x}_t \vert \mathbf {x}_0) &= \mathcal {N}(\mathbf {x}_t; \sqrt {\bar {\alpha}_t} \mathbf {x}_0, {(1 - \bar {\alpha}_t)} \mathbf {I})
325
  \end {aligned}$ where $\bar {\alpha}_t = \prod_{i=1}^T \alpha_i$ and $\alpha_i = 1-\beta_i$<br><br>
326
 
327
+ 这些数学过程看起来真是可怕!好在有调度器来为我们完成这些运算。我们可以画出 $\sqrt {\bar {\alpha}_t}$ (标记为`sqrt_alpha_prod`) 和 $\sqrt {(1 - \bar {\alpha}_t)}$ (标记为`sqrt_one_minus_alpha_prod`) 来看一下���入 (x) 与噪声是如何在不同迭代周期中量化和叠加的:
328
 
329
 
330
  ```python
 
333
  plt.legend(fontsize="x-large");
334
  ```
335
 
336
+ **练习:** 你可以探索一下使用不同的 beta_start 时曲线是如何变化的,beta_end 与 beta_schedule 可以通过以下被注释掉的内容来修改:
337
 
338
 
339
  ```python
 
343
  # noise_scheduler = DDPMScheduler(num_train_timesteps=1000, beta_schedule='squaredcos_cap_v2')
344
  ```
345
 
346
+ 不论你选择了哪一个调度器,我们现在都可以使用 `noise_scheduler.add_noise` 功能来添加不同程度的噪声,就像这样:
347
 
348
 
349
  ```python
 
366
 
367
 
368
 
369
+ 你可以在这里反复探索使用不同噪声调度器和预设参数带来的效果。 [这个视频](https://www.youtube.com/watch?v=fbLgFrlTnGU) 很好的解释了一些上述数学运算的细节,同时也是对此类概念的一个很好引入介绍。
370
 
371
  ## 步骤 4:定义模型
372
 
373
+ 现在我们来到了本章节的核心部分:模型。
374
 
375
+ 大多数扩散模型使用的模型结构都是一些 [U-net] 的变种 (https://arxiv.org/abs/1505.04597) 也是我们在这里会用到的结构。
376
 
377
  ![](https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/unet-model.png)
378
 
379
+ 简单来说,一个U-net模型大致会有以下三个特征:
380
+ - 输入模型中的图片会经过几个由 ResNetLayer 构成的层,其中每层都使图片的尺寸减半。
381
+ - 在这之后,同样数量的上采样层会将图片的尺寸恢复到原始规模。
382
+ - 残差连接模块会将特征图分辨率相同的上采样层和下采样层连接起来。
383
 
384
+ U-net模型一个关键特征是输出图片的尺寸与输入图片相同,而这正是我们在扩散模型中所需要的。
385
 
386
+ Diffusers 为我们提供了一个易用的`UNet2DModel`类,用来在 PyTorch 中创建我们所需要的结构。
387
 
388
  我们来使用 U-net 为我们生成目标大小的图片吧。
389
+ 注意这里 `down_block_types` 对应下采样模块 (上图中绿色部分), 而 `up_block_types` 对应上采样模块 (上图中红色部分):
390
 
391
 
392
  ```python
 
415
  model.to(device);
416
  ```
417
 
418
+ 当我们在处理更高分辨率的图像时,你可能会想尝试使用更多的下、上采样模块,并只在分辨率最低的(最底)层处保留注意力模块,从而降低内存负担。我们会在这之后讨论如何通过实验来找到最适合数据场景的配置方法。
419
 
420
+ 我们可以通过输入一批数据和随机的迭代周期数来看看输出是否与输入尺寸相同:
421
 
422
 
423
  ```python
 
433
 
434
 
435
 
436
+ 接下来让我们来看看如何训练这个模型。
437
 
438
  ## 步骤 5:创建训练循环
439
 
440
+ 做完了准备工作以后,我们终于可以开始训练了!下面是PyTorch��的一个典型的迭代优化循环过程的步骤,我们在其中逐批(batch)的输入数据,并使用优化器一步步更新模型的参数 - 在这个样例中我们使用学习率为 0.0004 的 AdamW 优化器。
441
 
442
+ 对于每一批的数据,我们会:
443
  - 随机取样几个迭代周期
444
+ - 对数据进行相应的噪声处理
445
+ - 把带噪数据输入模型
446
+ - 使用 MSE 作为损失函数来比较目标结果与模型预测结果,在这个样例中,即是比较真实噪声和模型预测的噪声之间的差距。
447
  - 通过`loss.backward ()`与`optimizer.step ()`来更新模型参数
448
 
449
+ 在这个过程中我们需要记录下每一步中的损失函数的值,用来后续绘制损失的曲线图。
450
 
451
+ NB: 这段代码大概需要十分钟左右来运行 - 如果你想节省时间,你也可以跳过以下两块操作直接使用预训练好的模型。或者,您可以探索如何通过上面的模型定义来减少每一层中的通道数量,从而加快训练速度。
452
 
453
+ 官方的扩散器训练示例 [official diffusers training example](https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/training_example.ipynb) 以更高的分辨率在这个数据集上训练一个更大的模型,方便大家了解一个不那么小的训练过程是什么样子:
454
 
455
 
456
  ```python
 
504
  Epoch:30, loss: 0.07474562455900013
505
 
506
 
507
+ 上面就是绘制出来的损失函数的曲线,我们能看到模型在一开始快速的收敛,接下来以一个较慢的速度持续优化(我们用右边 log 坐标轴的视图可以看的更清楚):
508
 
509
 
510
  ```python
 
527
 
528
 
529
 
530
+ 作为运行上述训练代码的替代方案,你可以像这样使用管道中的模型:
531
 
532
 
533
  ```python
 
537
 
538
  ## 步骤 6:生成图像
539
 
540
+ 接下来的问题是,我们怎么通过这个模型生成图像呢?
541
 
542
  ### 方法 1:建立一个管道:
543
 
 
567
 
568
 
569
 
570
+ 我们可以像这样将管线保存到本地文件夹:
571
 
572
 
573
  ```python
 
594
  config.json diffusion_pytorch_model.bin
595
 
596
 
597
+ 这些文件包含了重新创建管线所需的所有内容。您可以手动将它们上传到 Hub 以与其他人共享管线,或者在下一节中通过 API 检查代码来完成此操作。
598
 
599
  ### 方法 2:写一个取样循环
600
+ 如果你观察了管道中的 forward 方法,你可以看到在运行`image_pipe ()`时发生了什么:
601
 
602
 
603
  ```python
604
  # ??image_pipe.forward
605
  ```
606
 
607
+ 我们从完全随机的噪声图像开始,从最大噪声往最小噪声方向运行调度器,根据模型的预测每一步去除少量噪声:
 
608
 
609
  ```python
610
  # Random starting point (8 random images):
 
632
 
633
 
634
 
635
+ `noise_scheduler.step ()` 执行更新”样本“所需的数学运算。事实上有很多种不同的采样方法 - 在下一单元中,我们将看到如何通过使用不同的采样器,来加速现有模型中的图像生成过程,并更多地讨论从扩散���型中采样背后的理论。
636
 
637
  ## 步骤 7:把你的模型 Push 到 Hub
638
 
639
+ 在上面的例子中,我们将管道保存到本地文件夹中。为了将模型推送到 Hub,我们需要将文件推送到模型存储库中。我们根据你的选择(模型 ID)来决定仓库的名字(您可以随意替换 model_name;它只需要包含您的用户名,而这就是函数get_full_repo_name()所做的):
640
 
641
 
642
  ```python
 
654
 
655
 
656
 
657
+ 接下来,在 🤗 Hub 上创建模型仓库并 push 它吧:
658
 
659
 
660
  ```python
 
680
 
681
 
682
 
683
+ 最后一件事是创建一个超棒的模型卡,如此,我们的蝴蝶生成器就可以轻松的在 Hub 上被找到(请在描述中随意发挥!):
684
 
685
 
686
  ```python
 
715
  card.push_to_hub(hub_model_id)
716
  ```
717
 
718
+ 现在模型已经在 Hub 上了,你可以这样从任何地方使用 `DDPMPipeline` 的 `from_pretrained ()` 方法来下载它:
719
 
720
 
721
  ```python
 
743
 
744
 
745
 
746
+ 太棒了,我们成功了!
747
 
748
  # 使用 🤗 Accelerate 来扩大规模
749
 
750
+ 这个笔记本是为了学习而制作的,因此我尽量保持代码的简洁。正因如此,我们省略了一些能让你在更多数据上训练更大模型的内容,比如多gpu支持、进度记录和示例图像、支持更大批量的梯度检查点、自动上传模型等等。好在这些特性在示例训练代码中都有。 [here](https://github.com/huggingface/diffusers/raw/main/examples/unconditional_image_generation/train_unconditional.py).
751
 
752
  你可以这样下载该文件:
753
 
 
787
  --mixed_precision="no"
788
  ```
789
 
790
+ 如之前一样,把模型 push 到 hub,并且创建一个超酷的模型卡(请按你的想法随意填写!):
791
 
792
 
793
  ```python
 
841
 
842
 
843
 
844
+ 大概 45 分钟之后,我们将得到这样的结果:
845
 
846
 
847
  ```python
 
863
 
864
 
865
 
866
+ **练习:** 看看你是否能在尽可能短的时间内找到优秀好用的训练/模型设置,并与社区分享你的发现。阅读这些脚本看看你能不能理解它们,如果遇到了一些看上去令人迷惑的地方,你可以向大家提问来寻求解答。
867
 
868
  # 更高阶的探索之路
869
 
870
+ 希望这些能够让你初步了解如何使用 🤗 Diffusers library !这里有一些你接下来可以尝试的东西:
871
 
872
+ - 尝试在新的数据集上训练一个无条件扩散模型 - 如果你能直接自己完成那就太好了 [create one yourself](https://huggingface.co/docs/datasets/image_dataset). 你可以在 Hub 这里找到一些能完成这个任务的超棒图像数据集 [HugGan organization](https://huggingface.co/huggan). 如果你不想等待模型训练太久的话,一定记得对图片做下采样!
873
+ - 试试用 DreamBooth 来创建你自己定制的扩散模型管线,看看 [这个 Space](https://huggingface.co/spaces/multimodalart/dreambooth-training) 或者 [这个 notebook](https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_dreambooth_training.ipynb)
874
+ - 修改训练脚本来探索不同的 UNet 超参数(例如层数、深度或者通道数),不同的噪声管理器等等。
875
  - 来瞧瞧 [Diffusion Models from Scratch](https://github.com/huggingface/diffusion-models-class/blob/main/unit1/02_diffusion_models_from_scratch.ipynb) 在本单元的核心思想之上的一些不同看法。
876
 
877
  祝好,敬请关注第 2 单元!