xinweili commited on
Commit
4421fac
1 Parent(s): 50ca3d0

Update DiffusionModel_CN_book_Chapter9/README_chapter9.md

Browse files
DiffusionModel_CN_book_Chapter9/README_chapter9.md CHANGED
@@ -1,6 +1,4 @@
1
- ### 第九章
2
-
3
- ## 9.1 Image Conditioning
4
 
5
  经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
6
  然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
@@ -8,7 +6,7 @@
8
  为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
9
  幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
10
 
11
- ## 9.2 ControlNet的结构与训练过程
12
 
13
  ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
14
 
@@ -59,14 +57,14 @@ $$\partial y/\partial x\neq 0$$
59
 
60
  请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
61
 
62
- ## 9.3 ControlNet示例
63
 
64
  我们在本章节将展示一些已经训练好的ControlNet的示例,这些图片都来自ControlNet的github repo:https://github.com/lllyasviel/ControlNet。
65
  你可以在HuggingFace上找到这些由ControlNet的原作者提供的模型:https://huggingface.co/lllyasviel/ControlNet。
66
 
67
  以下图片中左上角的图像为ControlNet的额外控制条件的输入图像,右侧的图像则为给定条件下稳定扩散模型的生成结果。
68
 
69
- ### ControlNet 与 Canny Edge
70
 
71
  Canny edge 检测器是由 John F. Canny 于1986年发明的一种多阶段的边缘检测算法。该算法可以从不同的视觉对象中提取有用的结构信息,从而显著降低图像处理过程中的数据处理量。
72
 
@@ -74,7 +72,7 @@ Prompt:"bird"
74
 
75
  ![图片](./files/canny.png)
76
 
77
- ### ControlNet 与 M-LSD Lines
78
 
79
  M-LSD Lines 是另外一种轻量化边缘检测算法,比较擅长提取图像中的直线线条。训练在M-LSD Lines上的ControlNet很适合生成室内环境的图片。
80
 
@@ -82,7 +80,7 @@ Prompt: "room"
82
 
83
  ![图片](./files/canny.png)
84
 
85
- ### ControlNet 与 HED Boundary
86
 
87
  Soft HED Boundary 能够保存输入图片更多的细节,训练在HED Boundary上的ControlNet很适合用来重新上色和风格重构。
88
 
@@ -90,13 +88,13 @@ Prompt: "oil painting of handsome old man, masterpiece"
90
 
91
  ![图片](./files/hed.png)
92
 
93
- ### ControlNet 与 涂鸦画
94
 
95
  ControlNet 的强大能力甚至不使用任何真实图片提取的信息也能生成高质量的结果。训练在涂鸦数据上的ControlNet能让稳定扩散模型学会如何将儿童涂鸦转绘成高质量的图片。
96
 
97
  Prompt: "turtle"
98
 
99
- ### ControlNet 与 人体关键点
100
 
101
  训练在人体关键点数据上的ControlNet,能让扩散模型学会生成指定姿态的人体。
102
 
@@ -104,7 +102,7 @@ Prompt: "Chief in the kitchen"
104
 
105
  ![图片](./files/humanpose.png)
106
 
107
- ### ControlNet 与 语义分割
108
 
109
  语义分割模型是一种提取图像中各个区域语义信息的一种模型,常用来对图像中人体、物体、背景的区域进行划分。训练在语义分割数据上的ControlNet适合让稳定扩散模型来生成特定结构的场景图。
110
 
@@ -114,7 +112,7 @@ Prompt: "House"
114
 
115
  此外还有诸如深度图、Normal Map、人脸关键点等等不同的ControlNet可以使用,我们在这里就不再一一列举了,读者可以自行在HuggingFace上寻找开源模型和示例。
116
 
117
- ## 9.4 ControlNet实战
118
 
119
  在本章节中,我们将以Canny Edge为例,展示如何在diffusers中使用 StableDiffusionControlNetPipeline 来生成图像。
120
 
@@ -219,7 +217,7 @@ image_grid(output.images, 2, 2)
219
  ![图片](./files/image_grid.png)
220
 
221
 
222
- 接下来让我们尝试以下ControlNet的另一个有趣的应用方式:从一张图像中提取一个身体姿态,然后用它来生成具有完全相同姿态的另一张图像。
223
  在接下来的下一个例子中,我们将教会超级英雄如何使用[Open Pose ControlNet](https://huggingface.co/lllyasviel/sd-controlnet-openpose)做瑜伽!
224
 
225
  首先,让我们来找一些人们做瑜伽的图��:
@@ -249,11 +247,11 @@ image_grid(poses, 2, 2)
249
 
250
  最后就是见证奇迹的时刻!我们将使用 Open Pose ControlNet来生成一些正在做瑜伽的超级英雄的图像。
251
 
 
252
  controlnet = ControlNetModel.from_pretrained(
253
  "fusing/stable-diffusion-v1-5-controlnet-openpose", torch_dtype=torch.float16
254
  )
255
 
256
- ```python
257
  model_id = "runwayml/stable-diffusion-v1-5"
258
  pipe = StableDiffusionControlNetPipeline.from_pretrained(
259
  model_id,
@@ -277,11 +275,10 @@ image_grid(output.images, 2, 2)
277
  ```
278
  ![图片](./files/superhero.png)
279
 
280
- #### 小结:
281
 
282
  在上面的例子中, 我们探索了两种[`StableDiffusionControlNetPipeline`](https://huggingface.co/docs/diffusers/main/en/api/pipelines/stable_diffusion/controlnet) 的使用方式,
283
  展示了ControlNet和扩散模型相结合的强大能力。
284
- 这里的两个例子只是ControlNet能够提供的额外图像控制条件中的一小部分。你可以在以下这些模型的文档页面寻找更多有趣的使用ControlNet的方式:
285
 
286
  * lllyasviel/sd-controlnet-depth:https://huggingface.co/lllyasviel/sd-controlnet-depth
287
  * lllyasviel/sd-controlnet-hed:https://huggingface.co/lllyasviel/sd-controlnet-hed
 
1
+ #### 7.5 ControlNet的结构与训练过程
 
 
2
 
3
  经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
4
  然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
 
6
  为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
7
  幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
8
 
9
+
10
 
11
  ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
12
 
 
57
 
58
  请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
59
 
60
+ #### 7.6 ControlNet示例
61
 
62
  我们在本章节将展示一些已经训练好的ControlNet的示例,这些图片都来自ControlNet的github repo:https://github.com/lllyasviel/ControlNet。
63
  你可以在HuggingFace上找到这些由ControlNet的原作者提供的模型:https://huggingface.co/lllyasviel/ControlNet。
64
 
65
  以下图片中左上角的图像为ControlNet的额外控制条件的输入图像,右侧的图像则为给定条件下稳定扩散模型的生成结果。
66
 
67
+ ##### ControlNet 与 Canny Edge
68
 
69
  Canny edge 检测器是由 John F. Canny 于1986年发明的一种多阶段的边缘检测算法。该算法可以从不同的视觉对象中提取有用的结构信息,从而显著降低图像处理过程中的数据处理量。
70
 
 
72
 
73
  ![图片](./files/canny.png)
74
 
75
+ ##### ControlNet 与 M-LSD Lines
76
 
77
  M-LSD Lines 是另外一种轻量化边缘检测算法,比较擅长提取图像中的直线线条。训练在M-LSD Lines上的ControlNet很适合生成室内环境的图片。
78
 
 
80
 
81
  ![图片](./files/canny.png)
82
 
83
+ ##### ControlNet 与 HED Boundary
84
 
85
  Soft HED Boundary 能够保存输入图片更多的细节,训练在HED Boundary上的ControlNet很适合用来重新上色和风格重构。
86
 
 
88
 
89
  ![图片](./files/hed.png)
90
 
91
+ ##### ControlNet 与 涂鸦画
92
 
93
  ControlNet 的强大能力甚至不使用任何真实图片提取的信息也能生成高质量的结果。训练在涂鸦数据上的ControlNet能让稳定扩散模型学会如何将儿童涂鸦转绘成高质量的图片。
94
 
95
  Prompt: "turtle"
96
 
97
+ ##### ControlNet 与 人体关键点
98
 
99
  训练在人体关键点数据上的ControlNet,能让扩散模型学会生成指定姿态的人体。
100
 
 
102
 
103
  ![图片](./files/humanpose.png)
104
 
105
+ ##### ControlNet 与 语义分割
106
 
107
  语义分割模型是一种提取图像中各个区域语义信息的一种模型,常用来对图像中人体、物体、背景的区域进行划分。训练在语义分割数据上的ControlNet适合让稳定扩散模型来生成特定结构的场景图。
108
 
 
112
 
113
  此外还有诸如深度图、Normal Map、人脸关键点等等不同的ControlNet可以使用,我们在这里就不再一一列举了,读者可以自行在HuggingFace上寻找开源模型和示例。
114
 
115
+ #### 7.7 ControlNet实战练习
116
 
117
  在本章节中,我们将以Canny Edge为例,展示如何在diffusers中使用 StableDiffusionControlNetPipeline 来生成图像。
118
 
 
217
  ![图片](./files/image_grid.png)
218
 
219
 
220
+ 接下来让我们尝试一下ControlNet的另一个有趣的应用方式:从一张图像中提取一个身体姿态,然后用它来生成具有完全相同姿态的另一张图像。
221
  在接下来的下一个例子中,我们将教会超级英雄如何使用[Open Pose ControlNet](https://huggingface.co/lllyasviel/sd-controlnet-openpose)做瑜伽!
222
 
223
  首先,让我们来找一些人们做瑜伽的图��:
 
247
 
248
  最后就是见证奇迹的时刻!我们将使用 Open Pose ControlNet来生成一些正在做瑜伽的超级英雄的图像。
249
 
250
+ ```python
251
  controlnet = ControlNetModel.from_pretrained(
252
  "fusing/stable-diffusion-v1-5-controlnet-openpose", torch_dtype=torch.float16
253
  )
254
 
 
255
  model_id = "runwayml/stable-diffusion-v1-5"
256
  pipe = StableDiffusionControlNetPipeline.from_pretrained(
257
  model_id,
 
275
  ```
276
  ![图片](./files/superhero.png)
277
 
 
278
 
279
  在上面的例子中, 我们探索了两种[`StableDiffusionControlNetPipeline`](https://huggingface.co/docs/diffusers/main/en/api/pipelines/stable_diffusion/controlnet) 的使用方式,
280
  展示了ControlNet和扩散模型相结合的强大能力。
281
+ 这里的两个例子只是ControlNet能够提供的额外图像控制条件中的一小部分,如果感兴趣的话,你可以在以下这些模型的文档页面寻找更多有趣的使用ControlNet的方式:
282
 
283
  * lllyasviel/sd-controlnet-depth:https://huggingface.co/lllyasviel/sd-controlnet-depth
284
  * lllyasviel/sd-controlnet-hed:https://huggingface.co/lllyasviel/sd-controlnet-hed