Update DiffusionModel_CN_book_Chapter9/README_chapter9.md
Browse files
DiffusionModel_CN_book_Chapter9/README_chapter9.md
CHANGED
|
@@ -1,6 +1,4 @@
|
|
| 1 |
-
|
| 2 |
-
|
| 3 |
-
## 9.1 Image Conditioning
|
| 4 |
|
| 5 |
经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
|
| 6 |
然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
|
|
@@ -8,7 +6,7 @@
|
|
| 8 |
为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
|
| 9 |
幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
|
| 10 |
|
| 11 |
-
|
| 12 |
|
| 13 |
ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
|
| 14 |
|
|
@@ -59,14 +57,14 @@ $$\partial y/\partial x\neq 0$$
|
|
| 59 |
|
| 60 |
请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
|
| 61 |
|
| 62 |
-
|
| 63 |
|
| 64 |
我们在本章节将展示一些已经训练好的ControlNet的示例,这些图片都来自ControlNet的github repo:https://github.com/lllyasviel/ControlNet。
|
| 65 |
你可以在HuggingFace上找到这些由ControlNet的原作者提供的模型:https://huggingface.co/lllyasviel/ControlNet。
|
| 66 |
|
| 67 |
以下图片中左上角的图像为ControlNet的额外控制条件的输入图像,右侧的图像则为给定条件下稳定扩散模型的生成结果。
|
| 68 |
|
| 69 |
-
|
| 70 |
|
| 71 |
Canny edge 检测器是由 John F. Canny 于1986年发明的一种多阶段的边缘检测算法。该算法可以从不同的视觉对象中提取有用的结构信息,从而显著降低图像处理过程中的数据处理量。
|
| 72 |
|
|
@@ -74,7 +72,7 @@ Prompt:"bird"
|
|
| 74 |
|
| 75 |

|
| 76 |
|
| 77 |
-
|
| 78 |
|
| 79 |
M-LSD Lines 是另外一种轻量化边缘检测算法,比较擅长提取图像中的直线线条。训练在M-LSD Lines上的ControlNet很适合生成室内环境的图片。
|
| 80 |
|
|
@@ -82,7 +80,7 @@ Prompt: "room"
|
|
| 82 |
|
| 83 |

|
| 84 |
|
| 85 |
-
|
| 86 |
|
| 87 |
Soft HED Boundary 能够保存输入图片更多的细节,训练在HED Boundary上的ControlNet很适合用来重新上色和风格重构。
|
| 88 |
|
|
@@ -90,13 +88,13 @@ Prompt: "oil painting of handsome old man, masterpiece"
|
|
| 90 |
|
| 91 |

|
| 92 |
|
| 93 |
-
|
| 94 |
|
| 95 |
ControlNet 的强大能力甚至不使用任何真实图片提取的信息也能生成高质量的结果。训练在涂鸦数据上的ControlNet能让稳定扩散模型学会如何将儿童涂鸦转绘成高质量的图片。
|
| 96 |
|
| 97 |
Prompt: "turtle"
|
| 98 |
|
| 99 |
-
|
| 100 |
|
| 101 |
训练在人体关键点数据上的ControlNet,能让扩散模型学会生成指定姿态的人体。
|
| 102 |
|
|
@@ -104,7 +102,7 @@ Prompt: "Chief in the kitchen"
|
|
| 104 |
|
| 105 |

|
| 106 |
|
| 107 |
-
|
| 108 |
|
| 109 |
语义分割模型是一种提取图像中各个区域语义信息的一种模型,常用来对图像中人体、物体、背景的区域进行划分。训练在语义分割数据上的ControlNet适合让稳定扩散模型来生成特定结构的场景图。
|
| 110 |
|
|
@@ -114,7 +112,7 @@ Prompt: "House"
|
|
| 114 |
|
| 115 |
此外还有诸如深度图、Normal Map、人脸关键点等等不同的ControlNet可以使用,我们在这里就不再一一列举了,读者可以自行在HuggingFace上寻找开源模型和示例。
|
| 116 |
|
| 117 |
-
|
| 118 |
|
| 119 |
在本章节中,我们将以Canny Edge为例,展示如何在diffusers中使用 StableDiffusionControlNetPipeline 来生成图像。
|
| 120 |
|
|
@@ -219,7 +217,7 @@ image_grid(output.images, 2, 2)
|
|
| 219 |

|
| 220 |
|
| 221 |
|
| 222 |
-
|
| 223 |
在接下来的下一个例子中,我们将教会超级英雄如何使用[Open Pose ControlNet](https://huggingface.co/lllyasviel/sd-controlnet-openpose)做瑜伽!
|
| 224 |
|
| 225 |
首先,让我们来找一些人们做瑜伽的图��:
|
|
@@ -249,11 +247,11 @@ image_grid(poses, 2, 2)
|
|
| 249 |
|
| 250 |
最后就是见证奇迹的时刻!我们将使用 Open Pose ControlNet来生成一些正在做瑜伽的超级英雄的图像。
|
| 251 |
|
|
|
|
| 252 |
controlnet = ControlNetModel.from_pretrained(
|
| 253 |
"fusing/stable-diffusion-v1-5-controlnet-openpose", torch_dtype=torch.float16
|
| 254 |
)
|
| 255 |
|
| 256 |
-
```python
|
| 257 |
model_id = "runwayml/stable-diffusion-v1-5"
|
| 258 |
pipe = StableDiffusionControlNetPipeline.from_pretrained(
|
| 259 |
model_id,
|
|
@@ -277,11 +275,10 @@ image_grid(output.images, 2, 2)
|
|
| 277 |
```
|
| 278 |

|
| 279 |
|
| 280 |
-
#### 小结:
|
| 281 |
|
| 282 |
在上面的例子中, 我们探索了两种[`StableDiffusionControlNetPipeline`](https://huggingface.co/docs/diffusers/main/en/api/pipelines/stable_diffusion/controlnet) 的使用方式,
|
| 283 |
展示了ControlNet和扩散模型相结合的强大能力。
|
| 284 |
-
这里的两个例子只是ControlNet
|
| 285 |
|
| 286 |
* lllyasviel/sd-controlnet-depth:https://huggingface.co/lllyasviel/sd-controlnet-depth
|
| 287 |
* lllyasviel/sd-controlnet-hed:https://huggingface.co/lllyasviel/sd-controlnet-hed
|
|
|
|
| 1 |
+
#### 7.5 ControlNet的结构与训练过程
|
|
|
|
|
|
|
| 2 |
|
| 3 |
经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
|
| 4 |
然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
|
|
|
|
| 6 |
为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
|
| 7 |
幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
|
| 8 |
|
| 9 |
+
|
| 10 |
|
| 11 |
ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
|
| 12 |
|
|
|
|
| 57 |
|
| 58 |
请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
|
| 59 |
|
| 60 |
+
#### 7.6 ControlNet示例
|
| 61 |
|
| 62 |
我们在本章节将展示一些已经训练好的ControlNet的示例,这些图片都来自ControlNet的github repo:https://github.com/lllyasviel/ControlNet。
|
| 63 |
你可以在HuggingFace上找到这些由ControlNet的原作者提供的模型:https://huggingface.co/lllyasviel/ControlNet。
|
| 64 |
|
| 65 |
以下图片中左上角的图像为ControlNet的额外控制条件的输入图像,右侧的图像则为给定条件下稳定扩散模型的生成结果。
|
| 66 |
|
| 67 |
+
##### ControlNet 与 Canny Edge
|
| 68 |
|
| 69 |
Canny edge 检测器是由 John F. Canny 于1986年发明的一种多阶段的边缘检测算法。该算法可以从不同的视觉对象中提取有用的结构信息,从而显著降低图像处理过程中的数据处理量。
|
| 70 |
|
|
|
|
| 72 |
|
| 73 |

|
| 74 |
|
| 75 |
+
##### ControlNet 与 M-LSD Lines
|
| 76 |
|
| 77 |
M-LSD Lines 是另外一种轻量化边缘检测算法,比较擅长提取图像中的直线线条。训练在M-LSD Lines上的ControlNet很适合生成室内环境的图片。
|
| 78 |
|
|
|
|
| 80 |
|
| 81 |

|
| 82 |
|
| 83 |
+
##### ControlNet 与 HED Boundary
|
| 84 |
|
| 85 |
Soft HED Boundary 能够保存输入图片更多的细节,训练在HED Boundary上的ControlNet很适合用来重新上色和风格重构。
|
| 86 |
|
|
|
|
| 88 |
|
| 89 |

|
| 90 |
|
| 91 |
+
##### ControlNet 与 涂鸦画
|
| 92 |
|
| 93 |
ControlNet 的强大能力甚至不使用任何真实图片提取的信息也能生成高质量的结果。训练在涂鸦数据上的ControlNet能让稳定扩散模型学会如何将儿童涂鸦转绘成高质量的图片。
|
| 94 |
|
| 95 |
Prompt: "turtle"
|
| 96 |
|
| 97 |
+
##### ControlNet 与 人体关键点
|
| 98 |
|
| 99 |
训练在人体关键点数据上的ControlNet,能让扩散模型学会生成指定姿态的人体。
|
| 100 |
|
|
|
|
| 102 |
|
| 103 |

|
| 104 |
|
| 105 |
+
##### ControlNet 与 语义分割
|
| 106 |
|
| 107 |
语义分割模型是一种提取图像中各个区域语义信息的一种模型,常用来对图像中人体、物体、背景的区域进行划分。训练在语义分割数据上的ControlNet适合让稳定扩散模型来生成特定结构的场景图。
|
| 108 |
|
|
|
|
| 112 |
|
| 113 |
此外还有诸如深度图、Normal Map、人脸关键点等等不同的ControlNet可以使用,我们在这里就不再一一列举了,读者可以自行在HuggingFace上寻找开源模型和示例。
|
| 114 |
|
| 115 |
+
#### 7.7 ControlNet实战练习
|
| 116 |
|
| 117 |
在本章节中,我们将以Canny Edge为例,展示如何在diffusers中使用 StableDiffusionControlNetPipeline 来生成图像。
|
| 118 |
|
|
|
|
| 217 |

|
| 218 |
|
| 219 |
|
| 220 |
+
接下来让我们尝试一下ControlNet的另一个有趣的应用方式:从一张图像中提取一个身体姿态,然后用它来生成具有完全相同姿态的另一张图像。
|
| 221 |
在接下来的下一个例子中,我们将教会超级英雄如何使用[Open Pose ControlNet](https://huggingface.co/lllyasviel/sd-controlnet-openpose)做瑜伽!
|
| 222 |
|
| 223 |
首先,让我们来找一些人们做瑜伽的图��:
|
|
|
|
| 247 |
|
| 248 |
最后就是见证奇迹的时刻!我们将使用 Open Pose ControlNet来生成一些正在做瑜伽的超级英雄的图像。
|
| 249 |
|
| 250 |
+
```python
|
| 251 |
controlnet = ControlNetModel.from_pretrained(
|
| 252 |
"fusing/stable-diffusion-v1-5-controlnet-openpose", torch_dtype=torch.float16
|
| 253 |
)
|
| 254 |
|
|
|
|
| 255 |
model_id = "runwayml/stable-diffusion-v1-5"
|
| 256 |
pipe = StableDiffusionControlNetPipeline.from_pretrained(
|
| 257 |
model_id,
|
|
|
|
| 275 |
```
|
| 276 |

|
| 277 |
|
|
|
|
| 278 |
|
| 279 |
在上面的例子中, 我们探索了两种[`StableDiffusionControlNetPipeline`](https://huggingface.co/docs/diffusers/main/en/api/pipelines/stable_diffusion/controlnet) 的使用方式,
|
| 280 |
展示了ControlNet和扩散模型相结合的强大能力。
|
| 281 |
+
这里的两个例子只是ControlNet能够提供的额外图像控制条件中的一小部分,如果感兴趣的话,你可以在以下这些模型的文档页面寻找更多有趣的使用ControlNet的方式:
|
| 282 |
|
| 283 |
* lllyasviel/sd-controlnet-depth:https://huggingface.co/lllyasviel/sd-controlnet-depth
|
| 284 |
* lllyasviel/sd-controlnet-hed:https://huggingface.co/lllyasviel/sd-controlnet-hed
|