查看原文
其他

AI绘画:如何在WebUI中安装ControlNet模型

穿行者2049 今说新语 2024-04-14


昨天的文章《AI绘画最强模型:基于ControlNet实现图像扩散控制!》使用的是在线版的ControlNet,两个在线版分别使用的是Stable Diffusion标准模型和Anything模型,无法使用自己喜欢的模型,因此又花了点时间安装到了Google Colab的Web UI中,下面是安装后的运行界面。

看一下使用ControlNet Canny同一张图绘制出的两张不同风格人像。


下面是使用Scribble模型,从建筑草图生成建筑效果图,效果还是非常好的。


虽然只是简单使用了一下,这个模型的生成速度也实在是惊人,现在从一张建筑草图到生成效果图,免费Colab仅需要7秒,用本地机的估计更快,这个速度我真不知道说什么了。这个庞大的模型有太多的内容可以探索了,我也在摸索过程中,感兴趣的一起学习吧!

如果你也想安装使用ControlNet,可以看一下本篇文章,不管用的是本地Web UI版还是在线Colab Web UI版,流程应该都差不多,我没有本地电脑,用的是Google Colab免费版,使用完全正常。整个安装过程比较漫长,但时间基本都花在下载和上传模型上,实际安装很简单。不过由于目前除了标准的ControlNet模型外,又多了两个网友修改的模型,所以在分辨各种模型的不同方面花了不少时间,应该选哪些模型在后面都详细说明了。

至于选哪个在线Colab,也是看你自己的喜好,只要是支持AUTOMATIC1111的应该都差不多,我使用的Colab是fast_stable_diffusion_AUTOMATIC1111。
地址:
https://colab.research.google.com/drive/1ZAwXY0yBWCFdTXqrorr5W#scrollTo=PjzwxTkPSPHf
因为本篇文章主要介绍ControlNet的安装,所以如果你对Colab使用不太熟悉,遇到问题可以上网查找一下资料。
按照惯例,还是先说一下看本篇文章的前提,如果没有合适的电脑只能使用在线Colab版,需要能科学上网。其次如果你对Web UI界面的使用很熟悉,看本篇文章应该很顺利,直接从第二部分看ControlNet的安装即可。如果从未使用过WebUI界面的Stable Diffusion,可能会稍微困难些,遇到不熟悉的可以多上网查查,网上有大量介绍文章了,这个庞大系统不是这篇文章介绍的重点。
如果使用的是本机版,应该和在线Colab的界面区别不大,本机版可以对照文章中的目录结构,应该都基本类似,这篇文章用的是在线Colab介绍,使用本机版的用户绝大多数动手能力更强,对照文章中的目录参考一下即可顺利安装。
第一部分、如何使用原来自己喜欢的模型
打开上面给的Colab地址,首先要复制到自己的谷歌云盘,进入程序界面后可以看到这个Colab默认安装的是Stable Diffusion 1.5,如果你想用自己喜欢的模型,可以在下图中的后两个位置设置你自己的模型路径,程序会自动加载或自动下载你指定的模型。
1、可以把自己下载的模型直接放入模型目录中,在上图Path_to_Model位置填写你的模型路径,模型路径如图所示。

2、可以把模型路径写在上图Model_Link位置,程序会自动下载模型。
其他不需要改动,选择运行全部,等待一段时间程序启动运行最后,会给你一个临时的运行地址,例如:Running on public URL: https://36f6125505-6c046-4e430d.gradio.live
点击这个链接即可打开下图这样的Web UI界面。

左上角是基础模型切换的地方,如果你已经下载了多个模型,可以在下拉框里切换加载不同模型,例如切换成Anything、DreamLike、Progen等模型。这样加载的基础模型,就可以和后面我们安装的ControlNet模型一起结合使用了。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存