在数字内容创作的领域,扩散模型已经崭露头角,成为图像合成技术中的一股不可忽视的力量。然而,当这些模型被应用到视频合成时,它们往往面临着一系列挑战,比如内容闪烁等问题。针对这一问题,最新研发的 DiffSynth 方法便应运而生,它将图像合成技术巧妙地延伸至视频领域,取得了令人瞩目的成果。
一、DiffSynth Studio是什么?
DiffSynth Studio 不仅仅是一个工具,它融合了多项功能,其中包括备受瞩目的 Diffutoon。Diffutoon 是一种独特的渲染方案,能够以动漫风格渲染视频,具有主线和支线两种架构模式。在这里,主线负责渲染工作,而支线则负责编辑。此外,DiffSynth Studio 结合了 ControlNet 和 AnimateDiff 模型,实现了线稿生成、着色以及流畅的转绘效果。
二、DiffSynth Studio的开源地址:
https://github.com/Artiprocher/DiffSynth-Studio
二、DiffSynth Studio的案例展示:
示例 1:Stable Diffusion
我们可以生成分辨率非常高的图像。请参阅examples/sd_text_to_image.py
模型等参数。
示例 2:Stable Diffusion XL
使用 Stable Diffusion XL 生成图像。请参阅examples/sdxl_text_to_image.py
模型等参数。
示例 3:Stable Diffusion XL Turbo
使用 Stable Diffusion XL Turbo 生成图像。您可以查看examples/sdxl_turbo.py
模型等参数,但我们强烈建议您在 WebUI 中使用它。
示例 4:卡通着色 (Diffutoon)
本示例基于Diffutoon实现。这种方法适合渲染快速运动的高分辨率视频。您可以轻松修改配置字典中的参数:examples/diffutoon_toon_shading.py
示例 5:带有编辑信号的卡通着色 (Diffutoon)
本示例基于Diffutoon实现,支持视频编辑信号。您可以轻松修改配置字典中的参数:examples\diffutoon_toon_shading_with_editing_signals.py
示例 6:卡通着色(使用本机 Python 代码)
本示例是为开发者提供的。如果你不想使用config来管理参数,你可以查看examples/sd_toon_shading.py
学习如何在原生Python代码中使用它。
示例 7:文本转视频
根据提示,DiffSynth Studio 可以使用稳定扩散模型和 AnimateDiff 模型生成视频。您可以轻松修改配置字典中的参数:examples/sd_text_to_video.py
。
示例 8:视频风格化
我们提供了视频风格化的示例。在这个管道中,渲染的视频与原始视频完全不同,因此我们需要强大的去闪烁算法。我们使用 FastBlend 来实现去闪烁模块。请参阅examples/sd_video_rerender.py
了解更多详情。
示例 9:提示词生成
如果您的母语不是英语,我们为您提供翻译服务。我们的提示器可以将其他语言翻译成英语,并使用“BeautifulPrompt”模型对其进行改进。请参阅examples/sd_prompt_refining.py
了解更多详情。
Prompt: "一个漂亮的女孩". The translation model will translate it to English.
四、如何使用DiffSynth Studio?
为了让更多用户能够轻松体验这一技术,我们将DiffSynth Studio打包成了一键启动包。现在,您无需繁琐地配置Python环境,只需简单点击即可启动程序,从而避免了潜在的环境配置问题。
- 下载压缩包,解压到电脑D盘,最好不要有中文路径;
- 解压后点击 启动.bat 文件即可运行;
- 浏览器访问:http://192.168.0.25:8501/,即可免费使用DiffSynth Studio。