Stable Diffusion秋叶整合包,超简单一键安装Stable Diffusion,无任何使用门槛,完全免费使用,支持Nvdia全系列显卡
来自B站up@秋葉aaaki,近期发布了Stable Diffusion整合包v4版本,一键在本地部署Stable Diffusion!! 适用于零基础想要使用AI绘画的小伙伴~
Stable Diffusion(SD)是什么?
Stable Diffusion是2022年发布的深度学习文本到图像生成模型,它是一种潜在扩散模型,它由创业公司Stability AI与多个学术研究者和非营利组织合作开发。目前的SD的源代码和模型都已经开源,在Github上由AUTOMATIC1111维护了一个完整的项目,正在由全世界的开发者共同维护。由于完整版对网络有一些众所周知的需求,国内有多位开发者维护着一些不同版本的封装包。开源社区为SD的普及做出了难以磨灭的贡献。
SD最大的特征,就是由于其开源的特性,可以在电脑本地上离线运行。可以在大多数配备至少8GB显存的适度GPU的消费级硬件上运行。笔者推荐显存线是12G。
由于AI训练和产出的本质是软硬件结合了的深度学习原理,因此常常会用到英伟达公司的显卡,以及相关的诸如CUDA、CUDNN,乃至python相关的深度学习组件如xformer、pytorch等,学习AI想要进阶的话非常容易碰到这些需要大量额外学习编程知识的内容,所以非常容易让小伙伴们感到困难。
本文以及秋叶包都不会涉及到这些内容,会比原版相对来说容易理解,也容易部署得多得多得多。
Stable Diffusion的基本概念:
大模型:用素材+SD低模(如SD1.5/SD1.4/SD2.1),深度学习之后炼制出的大模型,可以直接用来生图。大模型决定了最终出图的大方向,可以说是一切的底料。多为CKPT/SAFETENSORS扩展名。
VAE:类似滤镜,是对大模型的补充,稳定画面的色彩范围。多为CKPT/SAFETENSORS扩展名。
LoRA:模型插件,是在基于某个大模型的基础上,深度学习之后炼制出的小模型。需要搭配大模型使用,可以在中小范围内影响出图的风格,或是增加大模型所没有的东西。炼制的时候如果基于SD底模,在不同大模型之间更换使用时的通用性会较好。但如果基于特定的大模型,可能会在和该大模型配合时得到针对性的极佳效果。
ControlNet:神级插件,让SD有了眼睛,能够基于现有图片得到诸如线条或景深的信息,再反推用于处理图片。
Stable Diffusion Web-UI(SD-WEBUI):开源大神AUTOMATIC1111基于Stability AI算法制作的开源软件,能够展开浏览器,用图形界面操控SD。
秋叶包:中国大神秋叶开发的整合包。由于WEBUI本身基于GitHub的特性,绝大多数时候的部署都需要极高的网络需求,以及Python环境的需求。使用秋叶整合包,内置了和电脑本身系统隔离的Python环境,以及内置了Git,不需要了解这两个软件就可以运行。可以几乎忽视这样的门槛,让更多人能够享受AI出图。
如何安装Stable Diffusion秋叶整合包?
1)、确认配置:
- 系统:Windows 10及以上系统
- 显卡:建议在本机安装Nvidia独立显卡,并且显存要达到6G以上,6G只能出图,如果要做训练建议12G以上。
安装前看自己显卡型号的方法:
- 右键点击电脑左下角Windows窗口图标;
- 点击设备管理器;
- 找到显示适配器,就可以看自己的显卡了;
2)、下载文件
免费下载到本地,并解压到D盘,最好不要有中文目录
3)、启动程序
下载并解压上方文件就可以启动。
1、安装驱动。这个整合包是由 .NET6 (就是一个软件基础平台)驱动的, 大家需要先安装“启动器运行依赖启动器运行依赖-dotnet-6.0.11.exe这个文件。
安装过.NET6的同学可以跳过这一步,再安装一次也没问题。
2、双击A绘世启动器.exe,程序会自动下载一些最新的必须程序文件。
3、启动成功后,会打开下边这个界面:
4、然后会弹出一个控制台窗口,做一些初始化的操作,出现“Startup time ...”的提示就代表启动成功了。
5、浏览器会自动打开http://127.0.0.1:7860,即可开始使用。