一、MuseTalk是什么?
MuseTalk 是由腾讯团队开发的先进技术,它是一个实时的音频驱动唇部同步模型。该模型能够根据输入的音频信号,自动调整数字人物的面部图像,使其唇形与音频内容高度同步。这样,观众就能看到数字人物口型与声音完美匹配的效果。MuseTalk 特别适用于256 x 256像素的面部区域,且支持中文、英文和日文等多种语言输入。在NVIDIA Tesla V100显卡上,MuseTalk 能够实现超过每秒30帧的实时推理速度。此外,用户还可以通过调整面部区域的中心点,进一步优化生成效果。
二、MuseTalk的网站地址:
1、Github开源地址:
https://github.com/TMElyralab/MuseTalk
2、HuggingFace地址:
https://huggingface.co/spaces/TMElyralab/MuseTalk
三、MuseTalk的应用场景:
- 视频配音与唇同步:制作配音视频时,MuseTalk 能够根据音频调整人物的口型,从而提升视频的真实感和观看体验。
- 虚拟人视频生成:作为一整套虚拟人解决方案的一部分,MuseTalk 可以和 MuseV(视频生成模型)配合使用,创造出高度逼真的虚拟人演讲或表演视频。
- 视频制作与编辑:在视频制作和编辑中,当需要更改角色台词或语言而不愿重新拍摄时,MuseTalk 提供了一个高效的解决方案。
- 教育和培训:在教育领域,MuseTalk 可以用于制作语言教学视频,帮助学习者更准确地学习语言发音和口型。
- 娱乐与社交媒体:内容创作者可以利用 MuseTalk 为照片或绘画作品添加口型动画,创造有趣的视频内容分享至社交媒体,为粉丝提供新颖的互动体验。
四、MuseTalk的模型概述:
MuseTalk
是一个实时高质量音频驱动的口型同步模型,在 的潜在空间中进行训练ft-mse-vae
,其中
- 根据输入音频修改未见过的脸部,脸部区域的大小为
256 x 256
。 - 支持中文、英文、日文等多种语言的音频。
- 支持 NVIDIA Tesla V100 上 30fps+ 的实时推理。
- 支持修改面部区域中心点建议,这显着影响生成结果。
- 检查点可用在 HDTF 数据集上进行训练。
- 培训代码(即将推出)。
MuseTalk 在潜在空间中进行训练,其中图像由冻结的 VAE 进行编码。音频由冻结whisper-tiny
模型编码。生成网络的架构借鉴了UNet stable-diffusion-v1-4
,其中音频嵌入通过交叉注意力融合到图像嵌入。
请注意,虽然我们使用与稳定扩散非常相似的架构,但 MuseTalk 的不同之处在于它是Not
一个扩散模型。相反,MuseTalk 通过在潜在空间中修复来进行操作a single step
。
五、MuseV和MuseTalk的对比视频案例:
图片
MuseV
MuseTalk
图片
MuseV + MuseTalk
六、如何使用MuseTalk?
为了让更多用户能够轻松体验这一技术,我们将MuseTalk打包成了一键启动包。现在,您无需繁琐地配置Python环境,只需简单点击即可启动程序,从而避免了潜在的环境配置问题。
- 下载压缩包,解压到电脑D盘,最好不要有中文路径;
- 解压后点击 启动.bat 文件即可运行;
- 浏览器访问:http://127.0.0.1:7860/,即可免费使用MuseTalk。