查看原文
其他

AI绘画最强模型:基于ControlNet实现图像扩散控制!

穿行者2049 今说新语 2024-04-14

在前面的文章《AI绘画新技术:Pix2Pix动动嘴改视频来了!》《AI绘画最强功能:动嘴改图详解,InstructPix2Pix实际应用》《AI绘画:Midjourney最强图像混合功能,已成功移植到Stable Diffusion!》《AI绘画的新方向:一站式项目管理,试用KreaAI的新画布!》中,我们陆续体会到了Stable Diffusion作为开源程序的强大之处,各种最新的技术逐渐开发出来,不断的增强着Stable Diffusion的能力。同时也注意到新技术正向着精准控制,精确绘图的方向发展,更多的功能都是方便我们更准确的生成、修改、控制AI绘画的过程和结果。

最近一周火的应该是一个叫做ControlNet的项目,这几天推上全都是这个项目的体验作品。ControlNet是一个基于Stable Diffusion的一组扩散模型,ControlNet 是一种通过添加额外条件来控制扩散模型的神经网络结构。不对原始模型进行修改,可以直接在你喜欢的任何基础模型上使用。简单的说,ControlNet可以对AI生成图像进行更加精确的控制,使得AI绘画更具备实用的可能。由于包含了八个模型,体积巨大,断断续续用了好几天才把所有模型尝试完成。先放一组示例图。

所有模型都可以在原有的一张图基础上,保留原始图的各种信息,根据提示语生成新的图像。与传统的img2img相比,ControlNet包含的不同模型采用了多种方法分析原始图像,根据你的目的生成不同的新图像。在对原始图像的控制方面,具有更大的精确度,每一种模型都采用了不同方法,对应着不同的实际应用,不论是手绘设计、游戏设计、建筑设计、室内设计、服装设计、鞋类设计等等各种行业,都能发现它的巨大应用潜力。
由于完整的ControlNet模型共八个,单个模型5G,提取版的是800M,总共容量巨大,安装过程也很繁琐,所以我找了在线版的做了全部模型的测试体验。
在线版有两个:
1、基础模型使用Stable Diffusion 1.5。
地址:https://huggingface.co/spaces/hysts/ControlNet
2、基础模型使用Anything 4。
地址:https://huggingface.co/spaces/hysts/ControlNet-with-other-models

两个空间使用界面都一样,只是基础模型不同,还有一些高级参数可以先不用修改,直接切换不同模型,上传初始图,添加提示语,即可看到实际效果。每个模型都会先生成一张分析出的边缘检测图,然后再生成一张最终图。
ControlNet可以和任意已有的基础模型叠加使用,下面简单介绍这八种模型的区别和应用
一、Canny Edge Maps:根据边缘检测生成线稿图,再根据提示语绘制新的图像。

最容易想到的一个应用应该是根据线稿直接上色,如下图直接提供线稿,生成彩色填色稿

多个内容也可以很好的保持原始构图,例如下面的两只鸟。


使用 Canny 边缘检测方法查找原始图中的边缘细节,并按照新提示语完成绘制。
二、Hough:使用简单的M-LSD直线检测
这个功能可以进行详细的直线检测,非常适合建筑室内设计中的应用,既可以将原有的效果图例如建筑草图的渲染。
针对建筑设计的应用:

针对室内设计的应用

三、Hed Maps

使用软 HED 边界,软 HED 边界将保留输入图像中的许多细节,然后对原图像重新着色和风格化。它不仅对前景人像进行边缘检测,也对背景图像中的细节进行检查,所以能保留更多的细节,适合在保持画面整体构图和细节的基础上对画面风格进行改变。
四、手绘图上色。
4.1 scribble:可以对手绘线稿进行着色处理。

4.2 script Interactive:直接在画布上开启手绘模式,灵魂画手上线。
4.3 Fake scribble:假手绘模式。有时我们很懒,不想自己手动涂鸦,可以使用这个脚本,基于上面同样的手绘模型,但使用简单的算法从输入图像合成手绘图。

五、Openpose:人体姿势控制。

这个模型首先从原图中绘制出人体骨架结构,以此骨架图为参照,再根据提示语绘制出新图像。对于多人构图,这个模型同样表现强大,能够分析出每一个人的结构,完美的绘制多人群像。

这个模型目前是最受欢迎的一个,很多网友基于这个模型做出了非常精彩的动画。也就是在保持视频内容的同时,可以直接修改视频风格。
六、Segmentation:根据语义分割画面内容。

模型将根据你的提示语,检测标注出原图中的内容,然后完成新的绘制。
七、Depth:深度检测。


Stable Diffusion 2.1曾经带来来了强大的深度图功能,但现在使用ControlNet的Depth模型,所有的Stable Diffusion 1.5模型也都具备了深度图的功能!而且ControlNet 使用的是512×512 的深度图,而Stable Diffusion 2 深度模型使用的仅仅是 64*64 深度图。这意味着 ControlNet 将在深度图中保留更多细节!
八、Normal模型:使用法线贴图分析原始图。
此模型和深度图类似,使用不同的计算方法,能够保留更多的细节

以上就是全部八个模型的简单测试,所以没太多研究提示语,效果大打折扣。主要是为了体验各个模型的实际用途,实际可以做到的效果应该更精彩。


相关地址:


ControlNet项目地址:https://github.com/lllyasviel/ControlNet

完整模型下载(单个模型5G):

https://huggingface.co/lllyasviel/ControlNet/tree/main/models

提取版模型下载(单个模型723M

https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main

Web UI插件:

目前WebUI已经支持通过插件使用全部模型,不论是本机版,还是Colab在线版,都可以通过安装插件使用ControlNet。

插件地址:https://github.com/Mikubill/sd-webui-controlnet

Colab版地址,模型需要自己下载。

https://colab.research.google.com/github/camenduru/controlnet-colab/blob/main/transfer-control-to-other-models.ipynb

根据你的喜好,推荐阅读以下AI绘画内容:




喜欢请转发到朋友圈支持一下!

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存